Komentarze
Komentarzy na stronę
1 2
ext (2014.07.08, 12:33)
Ocena: 7
#1

0%
Może i nVidia dojdzie do wniosku, że dalsze trzymanie z TSMC będzie coraz większą kulą u nogi. Z generacji na generację ciągle te same problemy - brak gotowości do masowego wytwarzania świeżutkich chipów - trzeba przeprojektowywać do starszego procesu.
gregory003 (2014.07.08, 12:37)
Ocena: -1
#2

0%
Mogliby z NV się dogadac. Z AMD raczej nie da rady, bo to bezpośrednia konkurencja, ale chipy graficzne i procesory Intela to niemal dobra komplementarne.
NV nie kręci nic na rynku desktopowych CPU, Intel nie ma w ofercie wydajnych GPU, które mogłyby zadowolić wymagających użytkowników. W segmencie desktop mogliby się dogadać, a w mobilnym (Atom i Tegra) dalej sobie konkurować. Np. Intel mógłby się zgodzić na produkcję tylko dużych chipów o TDP ponad 30 W

Przecież jeśli na rynku pojawia się nowoczesne GPU w 14 nm, to tym chętniej ludzie będą rozważać przesiadkę ze ''starych'' Sandy na SkyLake i następców. Nie ma co się oszukiwać - sprzedaż wydajnych, konsumenckich CPU na LGA 15xx napędzają głównie gry komputerowe i gracze. Pojawienie się na rynku nowej, znacznie wydajniejszej generacji GPU, mogłoby być (i w wielu przypadkach byłoby) też impulsem do wymiany starego CPU.

EDIT: widzę, że jakieś czerwone klakiery już minusikują. prawda jest taka, że nikt nie płakał nad biednym NV, jak to sobie da radę na rynku, kiedy AMD przejmowało ATI. Czemu ktoś miałby się teraz przejmować AMD, jeśli Intel wejdzie w partnerstwo z NV? Bo to wasz bożek, którego wyznajecie na ołtarzykach i się popłaczecie, jak i w GPU dostanie po dupie?
szalony kefir (2014.07.08, 13:09)
Ocena: -4
#3

0%
Co z bzdury. Ostatnimi integrami GPU, Intel wyraźnie pokazał, że wyciągnął wnioski z porażki Larrabee i jeśli tylko by chciał, to wszedłby z wielkim hukiem na rynek dedykowanych kart graficznych. Do tego żaden przydupas nie jest im potrzebny. Tym bardziej, że ów przydupas działa w segmencie ARM, który jest solą w oku Intela. Jakikolwiek dil z przydupasem byłby działaniem przeciwko sobie.
gregory003 (2014.07.08, 13:15)
Ocena: -3
#4

0%
szalony kefir @ 2014.07.08 13:09  Post: 764772
Co z bzdury. Ostatnimi integrami GPU, Intel wyraźnie pokazał, że wyciągnął wnioski z porażki Larrabee i jeśli tylko by chciał, to wszedłby z wielkim hukiem na rynek dedykowanych kart graficznych. Do tego żaden przydupas nie jest im potrzebny. Tym bardziej, że ów przydupas działa w segmencie ARM, który jest solą w oku Intela.

Zabawne że ten tekścik popełnił znany fanatyk AMD...
A Intel z Larrabee pokazał właśnie, że na rynku dedykowanych kart graficznych będzie mu bardzo ciężko. No bo ilu producentów wydało swoje konstrukcje na Larrabee zamiast tych na Radeonach czy GeForce'ach? 0! Jaki procent rynku GPU zdobył Larrabee? 0! intelowi nie udało się nawet wejść na ten rynek, bo o ile obliczeniowo Xeon Phi są całkiem wydajne (tak jak Fermi), o tyle przy prostym przetwarzaniu grafiki nie mają szans z SIMD.

No i zgadzam się co do ostatniego zdania. Jakikolwiek dil z przydupasami z AMD byłby nie na ręke.
gregory003 (2014.07.08, 13:31)
Ocena: -4
#8

0%
szalony kefir @ 2014.07.08 13:28  Post: 764784
gregory003 @ 2014.07.08 13:24  Post: 764782
(...)

Czytałem twoje posty w tematach o kartach graficznych. Wizytę u specjalisty proponuje więc tobie.

Lektura twoich postów to szczyt obiektywizmu :lol2:

Masz już tutaj wyrobioną markę pieniacza:
Rozumiem twój hejt wobec androida.
Jak byłeś mały to Terminator z wgranym androidem 4.4 próbował cię zabić, i od tego czasu mścisz się na użytkownikach androida :)


Bez odbioru, bo kopanie się z koniem, to nie moja bajka.

[...]

BTW. W pierwszym poście popełniłem dwa akapity merytorycznego tekstu na temat, dlaczego Intel mógłby się dogadać z NV w sprawie produkcji dużych chipów GPU do laptopów i desktopów, pomimo konkurencji na rynku mobilnym.

W drugim poście przez 5 wierszy obalam argumentację szalonego kefira.
Czy którykolwiek z minusujących mnie czerwonych oszołomów odniósł się do przynajmniej jednego argumentu? Czy sam zgniły kefir napisał cokolwiek poza:
''Fanatyków AMD, to już własnej lodówce dostrzegasz. Proponuję wizytę u specjalisty, bo dopadła cię mania prześladowcza.''?

[...]
Amitoza (2014.07.08, 14:28)
Ocena: -2
#9

0%
gregory003 @ 2014.07.08 13:15  Post: 764777
szalony kefir @ 2014.07.08 13:09  Post: 764772
Co z bzdury. Ostatnimi integrami GPU, Intel wyraźnie pokazał, że wyciągnął wnioski z porażki Larrabee i jeśli tylko by chciał, to wszedłby z wielkim hukiem na rynek dedykowanych kart graficznych. Do tego żaden przydupas nie jest im potrzebny. Tym bardziej, że ów przydupas działa w segmencie ARM, który jest solą w oku Intela.

Zabawne że ten tekścik popełnił znany fanatyk AMD...
A Intel z Larrabee pokazał właśnie, że na rynku dedykowanych kart graficznych będzie mu bardzo ciężko. No bo ilu producentów wydało swoje konstrukcje na Larrabee zamiast tych na Radeonach czy GeForce'ach? 0! Jaki procent rynku GPU zdobył Larrabee? 0! intelowi nie udało się nawet wejść na ten rynek, bo o ile obliczeniowo Xeon Phi są całkiem wydajne (tak jak Fermi), o tyle przy prostym przetwarzaniu grafiki nie mają szans z SIMD.

No i zgadzam się co do ostatniego zdania. Jakikolwiek dil z przydupasami z AMD byłby nie na ręke.

Edit. Tak, czerwone trolle, dawać, dawać więcej minusików. Wasz bożek będzie dumny! Zadowólcie swojego boga, zadowólcie!

tyle, że on jak najbardziej ma rację. aktualnie intel mógł by zrobić wydajne karty oparte o architekturę ze swoich integr. 40EU to około 0,8 miliarda tranzystorów. Wydajność jest przeciętnie na poziomie gt640 DDR3, a ten ma 1,3 miliarda tranzystorów i DDR3 go troche spowalnia. nie mniej przeciętnie na taką samą ilośc tranzystorów przypada podobna wydajność. W efekcie mogli by zrobić GPU w miare konkurencyjne - może nie w walce o top, ale w najpopularniejszym segmencie jak najbardziej. Przecież 80EU, to 1,6Tflops, więc poziom wydajności oferowany przez konsole mogli by utrzymać, a to wciąż mniej niż 2miliardy tranzystorów.

PS, kefir po części ma rację. Każdy kto w jakikolwiek sceptyczny sposób odniesie się do tematu nvidia z miejsca jest nazywany przez Ciebie fanbojem AMD. Gdybym był Tobą z miejsca musiałbym nazwać Cię fanbojem Nvidia.
A minusy dostajesz nie za treść merytoryczną, tylko tą nie merytoryczną dostrzegania w każdym fanboja. Zdajesz sobie sprawę, że plusiki i minusiki to takie lajki? Jak ktoś się zgadza z tym co napisałeś, to masz plusika, a jak nie zgadza to minusik - wg Ciebie jeżeli ktoś się nie zgadza to z miejsca jest fanbojem AMD :P
motiff (2014.07.08, 14:34)
Ocena: 0
#10

0%
integra intelikowa się poprawia i to tyle w temacie, bo to szajsowate gpu, a te mają coraz więcej problemów jako i cpu.
Ten ruch pokazuje, że intelik otwiera fabryki na inne procki, sam nie chce paskudzić rączek w inne architektury, ale to dobitny przykład tego, że już ich wspaniałe, arcydrogie architektury nie przekroczą rubikonu.
gregory003 (2014.07.08, 15:03)
Ocena: 5
#11

0%
Amitoza @ 2014.07.08 14:28  Post: 764805
gregory003 @ 2014.07.08 13:15  Post: 764777
(...)

Zabawne że ten tekścik popełnił znany fanatyk AMD...
A Intel z Larrabee pokazał właśnie, że na rynku dedykowanych kart graficznych będzie mu bardzo ciężko. No bo ilu producentów wydało swoje konstrukcje na Larrabee zamiast tych na Radeonach czy GeForce'ach? 0! Jaki procent rynku GPU zdobył Larrabee? 0! intelowi nie udało się nawet wejść na ten rynek, bo o ile obliczeniowo Xeon Phi są całkiem wydajne (tak jak Fermi), o tyle przy prostym przetwarzaniu grafiki nie mają szans z SIMD.

No i zgadzam się co do ostatniego zdania. Jakikolwiek dil z przydupasami z AMD byłby nie na ręke.

Edit. Tak, czerwone trolle, dawać, dawać więcej minusików. Wasz bożek będzie dumny! Zadowólcie swojego boga, zadowólcie!

tyle, że on jak najbardziej ma rację. aktualnie intel mógł by zrobić wydajne karty oparte o architekturę ze swoich integr. 40EU to około 0,8 miliarda tranzystorów. Wydajność jest przeciętnie na poziomie gt640 DDR3, a ten ma 1,3 miliarda tranzystorów i DDR3 go troche spowalnia. nie mniej przeciętnie na taką samą ilośc tranzystorów przypada podobna wydajność. W efekcie mogli by zrobić GPU w miare konkurencyjne - może nie w walce o top, ale w najpopularniejszym segmencie jak najbardziej. Przecież 80EU, to 1,6Tflops, więc poziom wydajności oferowany przez konsole mogli by utrzymać, a to wciąż mniej niż 2miliardy tranzystorów.

PS, kefir po części ma rację. Każdy kto w jakikolwiek sceptyczny sposób odniesie się do tematu nvidia z miejsca jest nazywany przez Ciebie fanbojem AMD. Gdybym był Tobą z miejsca musiałbym nazwać Cię fanbojem Nvidia.
A minusy dostajesz nie za treść merytoryczną, tylko tą nie merytoryczną dostrzegania w każdym fanboja. Zdajesz sobie sprawę, że plusiki i minusiki to takie lajki? Jak ktoś się zgadza z tym co napisałeś, to masz plusika, a jak nie zgadza to minusik - wg Ciebie jeżeli ktoś się nie zgadza to z miejsca jest fanbojem AMD :P

No tak - napisałem czemu Intel mógłby dogadać się z NV, ale raczej nie z AMD - napisałem rzeczowo i na temat, bez wycieczek pod kierunkiem którejkolwiek firmy. Z miejsca kilka minusów i post zakopany. Oczywiście zakopali go ''sceptycy'' a nie religijni fanatycy AMD, którzy od czasu urządzają rushe na Laba i zakopują każdy heretycki, nieortodoksyjny post, który stałby w sprzeciwie z dogmatami czerwonej religii?

szalony kefir na forum wszędzie i każdemu wciska karty AMD, w komentarzach ekipę NV nazywa ''przydupasami'', ale on również jest ''sceptykiem'', a nie chorym fanatykiem?

W komentarzach na temat jakiegoś odświeżonego modelu GPU NV w co drugim komentarzu ludzie wypisują ''Kotlet! kotlet!''
Gdy takiego samego kotleta wypuści, same ochy i achy, a gdy ktoś zauważy że też w sumie ''kotlet'' to wielka krucjata przeciw heretykom. To też ''sceptycy'' a nie oszołomy i klakierzy?


Poza tym, gdzie niby ta maślanka ma rację? On pisał o Larrabee i że dzięki niemu Intel mógłby konkurować na rynku GPU. Więc wytłumacz mi proszę, co ma do tego intelowskie EU z HD Graphics i w którym miejscu zsiadłe mleko ma rację pisząc o zmieceniu przez Intela konkurencji z Larrabee, skoro twierdzisz że ma rację.
DisconnecT (2014.07.08, 15:04)
Ocena: 0
#12

0%
ext @ 2014.07.08 12:33  Post: 764759
Może i nVidia dojdzie do wniosku, że dalsze trzymanie z TSMC będzie coraz większą kulą u nogi. Z generacji na generację ciągle te same problemy - brak gotowości do masowego wytwarzania świeżutkich chipów - trzeba przeprojektowywać do starszego procesu.


Problem polega na tym że wyżej do własnej dupy nie podskoczysz, problemy TSMC wynikają z tego że dochodzimy do granicy krzemu i jego możliwości są już ograniczone, dlatego uważam że nawet jeżeli NV by miała swoje własne faby również mogła by mieć takie problemy wynikające z końca krzemowych czasów
Amitoza (2014.07.08, 15:25)
Ocena: 2
#13

0%
gregory003 @ 2014.07.08 15:03  Post: 764835
Amitoza @ 2014.07.08 14:28  Post: 764805
(...)

tyle, że on jak najbardziej ma rację. aktualnie intel mógł by zrobić wydajne karty oparte o architekturę ze swoich integr. 40EU to około 0,8 miliarda tranzystorów. Wydajność jest przeciętnie na poziomie gt640 DDR3, a ten ma 1,3 miliarda tranzystorów i DDR3 go troche spowalnia. nie mniej przeciętnie na taką samą ilośc tranzystorów przypada podobna wydajność. W efekcie mogli by zrobić GPU w miare konkurencyjne - może nie w walce o top, ale w najpopularniejszym segmencie jak najbardziej. Przecież 80EU, to 1,6Tflops, więc poziom wydajności oferowany przez konsole mogli by utrzymać, a to wciąż mniej niż 2miliardy tranzystorów.

PS, kefir po części ma rację. Każdy kto w jakikolwiek sceptyczny sposób odniesie się do tematu nvidia z miejsca jest nazywany przez Ciebie fanbojem AMD. Gdybym był Tobą z miejsca musiałbym nazwać Cię fanbojem Nvidia.
A minusy dostajesz nie za treść merytoryczną, tylko tą nie merytoryczną dostrzegania w każdym fanboja. Zdajesz sobie sprawę, że plusiki i minusiki to takie lajki? Jak ktoś się zgadza z tym co napisałeś, to masz plusika, a jak nie zgadza to minusik - wg Ciebie jeżeli ktoś się nie zgadza to z miejsca jest fanbojem AMD :P

No tak - napisałem czemu Intel mógłby dogadać się z NV, ale raczej nie z AMD - napisałem rzeczowo i na temat, bez wycieczek pod kierunkiem którejkolwiek firmy. Z miejsca kilka minusów i post zakopany. Oczywiście zakopali go ''sceptycy'' a nie religijni fanatycy AMD, którzy od czasu urządzają rushe na Laba i zakopują każdy heretycki, nieortodoksyjny post, który stałby w sprzeciwie z dogmatami czerwonej religii?

szalony kefir na forum wszędzie i każdemu wciska karty AMD, w komentarzach ekipę NV nazywa ''przydupasami'', ale on również jest ''sceptykiem'', a nie chorym fanatykiem?

W komentarzach na temat jakiegoś odświeżonego modelu GPU NV w co drugim komentarzu ludzie wypisują ''Kotlet! kotlet!''
Gdy takiego samego kotleta wypuści, same ochy i achy, a gdy ktoś zauważy że też w sumie ''kotlet'' to wielka krucjata przeciw heretykom. To też ''sceptycy'' a nie oszołomy i klakierzy?


Poza tym, gdzie niby ta maślanka ma rację? On pisał o Larrabee i że dzięki niemu Intel mógłby konkurować na rynku GPU. Więc wytłumacz mi proszę, co ma do tego intelowskie EU z HD Graphics i w którym miejscu zsiadłe mleko ma rację pisząc o zmieceniu przez Intela konkurencji z Larrabee, skoro twierdzisz że ma rację.

intel w równym stopniu może dogadać się z Nvidia jak i z AMD. To jest biznes, a nie wojenka dla fanów. Tyle, że proces technologiczny intela niekoniecznie musi sprawdzić się w przypadku GPU. 28nm maxwell ma 1,8miliarda tranzystorów ma 150mm2. U intela w 22nm? 1,2 miliarda tranzystorów na 160mm2. W TSMC 28nm 12,5 miliarda tranzystorów na mm2, u intela 22nm 7,5 miliarda na mm2. (i żeby nie było że przez CPU niby to mało upakowanie. Haswell 2C+GT3 ma mniej tranzystorów od 4C+GT2, a jego powierzchnia jest nawet ciut większa).

Innymi słowy u intela dostaną GK104 wielkości GK110. Może i będzie oszczędniejszy, może i będzie pracować z wyższymi zegarami, ale interes mniej opłacalny. W 14nm dostaną to co mają teraz w TSMC? Interes życia.

a odnośnie larrabe, to temat dawno zamknięty. Chociaż może kiedyś intel wróci do tematu i integry zastąpi małymi rdzeniami x86 z mocnymi SIMD - a może ciągle do tego dąży i po cichu dalej rozwija pomysł?

ja w fanbojskie wycieczki bawić się nie mam zamiaru, więc napisze tylko tyle, że nazywanie grupy ludzi która się nie zgadza z Twoim zdaniem z miejsca fanbojami jest mało trafne. Pojedyncze osobniki, które pokazują to na każdym kroku? Ok.
borizm (2014.07.08, 17:07)
Ocena: -4
#14

0%
A w telewizorach Sharp są ARM (z tego co pamiętam MediaTech) i Linux, i też dają radę, a nowsza generacja ARM jeszcze bardziej odskoczy Intel'owi pod względem wydajność/cena.
Ale jest dobrze, że Intel prze i ARM nie spocznie na laurach.
Hashi (2014.07.08, 18:57)
Ocena: 1
#15

0%
borizm @ 2014.07.08 17:07  Post: 764879
A w telewizorach Sharp są ARM (z tego co pamiętam MediaTech) i Linux, i też dają radę, a nowsza generacja ARM jeszcze bardziej odskoczy Intel'owi pod względem wydajność/cena.
Ale jest dobrze, że Intel prze i ARM nie spocznie na laurach.

Toshiba miała fajny SoC w topowym tv 4K. To był chyba połączenie ARM (3 jaja) + GPU Neon + 4 rdzenie SPU z procka CELL + najważniejsze wpakowali tam 64MB eDRAM i na rok 2010/2011 był to rekord jeśli chodzi o upakowanie takiej ilości pamięci wbudowanej do SoC wielordzeniowego. Nawet Intel nie miał takiego proca wtedy. Wydajności nie znam ale obslugiwał 4K bez okularów (czyli 4 obrazy 720p równocześnie) i potrafił wyświetlić chyba 48 kanałów naraz (PIP).
Sefto (2014.07.08, 20:52)
Ocena: -2
#17

0%
Rozumiem, że chcecie monopolu Intela i NV ? Powodzenia.
Amitoza (2014.07.08, 23:52)
Ocena: 0
#19

0%
gregory003 @ 2014.07.08 23:27  Post: 765030
Apropos zdrowia psychicznego czerwonej hołoty:
https://www.dropbox.com/s/0gvgroia1qx0qwr/Oszo%C5%82omy.jpg
Komentarz zostawiony pod profilem najdobitniej świadczy o tym, że wcale nie przesadzam pisząc o atakach aemdemowskich oszołomów na Labie.

Mam nadzieję że tym razem focus coś z tym zrobi, a nie jak zwykle będzie czekał aż mi nerwy puszczą żeby to mi wlepić bana.

ja tu widzę 1 - słownie'Jednego'. Nie widzę żadnych oszołomów, ani czegokolwiek w liczbie mnogiej.

A jednostki znajdą się zawsze - po każdej stronie. A że dostajesz bany itp? Nic dziwnego przy każdym ostrzeżeniu masz napisany powód.

Nie? A niby jak ta złodziejska firemka AMD zdobyła architekturę x86? Zwyczajnie ją ukradła!
Intel podpisał z nimi umowę na produkcję jednego modelu procesora w ich fabrykach, bo popyt na 8086 był bardzo duży i faby Intela nie dawały rady. Ale kiedy czasy świetności 8086 się skończył AMD, dzięki zdobytym w czasie współpracy z Intelem tajemnicom technologicznym zaczęło chamsko produkować kopie układów Intela. To nie jest złodziejstwo?!
I pewnie Intel zniszczyłby tą żałosną firemkę w sądach, gdyby nie wtrącił się urząd antymonopolowy i nie nakazał Intelowi odsprzedać im za grosze licencji na technologię wartą grube miliardy.
Więc jak wygląda honor u tych złodzieji z AMD?


ciekawe kogo to wypowiedź? Zauważyłes poza tym, że w każdym komentarzu wylatujesz z jakimiś pieskami AMD itp?

A teraz czekam na minusiki i raportowanie od wyznawców i opłaconych klakierów AMD.


Dziwisz się, że za takie fanbojskie wypowiedzi dostajesz minusy? Bo ja nie za bardzo.

w czyimś oku dostrzegasz drzazgę, a w swoim nie widzisz bekli. Twoje wypowiedzi potrafią zalatywać często większym fanbojstwem niż wypowiedzi tych 'opłacanych klakierów z AMD'.

Konstruktywna krytyka? Owszem. Ale W Twoim wypadku poziom niektórych wypowiedzi ubrany w masę 'epitetów' sięga dna. Pytanie, czy zniżasz się poziomem do fanbojów którym odpisujesz, czy to oni zniżają się do Twojego, a barwne epitety którymi urozmaicasz wypowiedź działają na nich jak płachta na byka.

Ja na przykład mam lekki sentyment do AMD, bo częściej miałem ich układy od athlona pierwszego aż 64 X2. Ale teraz mam we wszystkim intela, a do tego przymierzam się do zakupu GTX750Ti bo AMD nie ma nic sensownego w ofercie z niskim TDP, a składam sobie 'steamboxa' i HD6850 trochę za ciepły, a jak podniosę obroty to za głośny.
Zaloguj się, by móc komentować
Aktualności
Facebook
Ostatnio komentowane