aktualności

Nvidia: prawo Moore'a jest martwe

44
2 października 2017, 18:45 Adrian Kotowski

GPU niedługo zastąpi CPU. Podczas ubiegłotygodniowej konferencji GTC 2017 w Pekinie, Jensen Huang mówił o przyszłości obliczeń, w tym rozwoju sztucznej inteligencji. Uwagę zwróciła szczególnie wypowiedź dotycząca słynnego prawa Moore’a, które ma być według szefa Nvidii całkowicie martwe. Wszystko przez ogromną stagnację na rynku procesorów.

Huang stwierdził, że w przypadku CPU obserwujemy obecnie przyrost do 50 procent tranzystorów rocznie, przy wzroście wydajności wynoszącym w najlepszym razie 10 procent. Rynek procesorów ma praktycznie stać w miejscu, czemu jednak cały czas zaprzecza Intel, powołujący się nadal na wspomniane wyżej prawo. Tak było choćby podczas prezentacji dotyczącej procesu technologicznego 10 nm.

Nvidia

Szef Nvidii dodał, że we wszelkiego rodzaju porównaniach trzeba też brać pod uwagę układy graficzne. Te rozwijają się nadal całkiem dobrze, choć oczywiście także widać pewne spowolnienie. To właśnie GPU ma być lepiej przystosowane do wymagań, jakie stawiają przed układami scalonymi nowe systemy obliczeniowe. Chodzi tutaj przede wszystkim o sieci neuronowe, uczenie maszynowe i sztuczną inteligencję. Właśnie ze względu na lepszą adaptację i ciągły rozwój, układy graficzne mają według Huanga zastąpić zwykłe procesory.

Zieloni cały czas rozszerzają swoje portfolio produktów do obliczeń, a najnowszym rozwiązaniem jest TensorRT3, zapewniający optymalizację obsługi sieci neuronowych. Według zielonych zwiększy to zauważalnie wszelkie obliczenia dotyczące przetwarzania w chmurze, gdzie dokładność nie musi być najwyższa (np. INT8 lub FP16). W tym kontekście nie dziwią więc wypowiedzi szefa Nvidii, bo dziwne, gdyby Huang nie promował technik swojej firmy. Inna sprawa, że jego obserwacja dotycząca spowolnienia na rynku CPU jest po prostu zgodna z prawdą i trudno z nią w jakikolwiek sposób polemizować.

Źródło: Segment Next
RyzenZobacz profil
Poziom ostrzeżenia: 0%
Ryzen2017.10.02, 18:49
64#1
Szczególnie u Intela, gdzie w PC mało brakowało a 4-core byłoby do końca świata w wersji 14nm+++++.
*Konto usunięte*2017.10.02, 19:00
-11#2
Ciekawe co na to Intel:D? Coś tak mi się wydaję, że Intel niedługo będzie zwijał interes.
crushZobacz profil
Poziom ostrzeżenia: 0%
crush2017.10.02, 19:04
30#3
hexon06 @ 2017.10.02 19:00  Post: 1098757
Ciekawe co na to Intel:D? Coś tak mi się wydaję, że Intel niedługo będzie zwijał interes.

Jeżeli świat ma iść w GPU to AMD zawinie chyba razem z nim... :E
RyzenZobacz profil
Poziom ostrzeżenia: 0%
Ryzen2017.10.02, 19:13
32#4
Facet wie, że NVIDIA jest w świetnej formie a na zapleczu Volta czeka, ale trochę go poniosło, bo pewnie nie pamięta już jak miał spocone czoło trzymając w ręce atrapę Fermi.
Po tej wypowiedzi u Intela będą zapewne rozdawane kolejne baty dla inżynierów, co tylko nam wyjdzie na dobre. Niech tylko AMD nie zawiedzie z Ryzenem 2 na początku 2018 a będzie naprawdę ciekawie.
KituZobacz profil
Poziom ostrzeżenia: 0%
Kitu2017.10.02, 19:14
40#5
Nvidia przynajmniej w jednym jest lepsza od Intela - co generację gwarantuje wyraźny wzrost wydajności - kilkanaście do kilkudziesięciu procent, zamiast 2-3%, czyli w sumie błąd pomiarowy albo zwiększenie zegarów.

A zastąpienie CPU przez GPU - wydajność w sieciach neuronowych, uczeniu maszynowym, AI, we wszelkich renderowaniach może i jest wyższa, ale w PC raczej się tego nie zastąpi. Chociaż z drugiej strony - kto wie, co jeszcze wymyślą, do czego to doprowadzi i ile nas to będzie kosztować.
*Konto usunięte*2017.10.02, 19:18
-14#6
crush @ 2017.10.02 19:04  Post: 1098758
hexon06 @ 2017.10.02 19:00  Post: 1098757
Ciekawe co na to Intel:D? Coś tak mi się wydaję, że Intel niedługo będzie zwijał interes.

Jeżeli świat ma iść w GPU to AMD chyba razem z nim... :E


Gdyby naprawdę wszystko poszło w karty graficzne to Intel musiałby dokonać jakieś fuzji z inną firmą. Amd jest za biedne żeby przejąć Intela, więc pewnie wypadłoby na Nvidie. Nie chce w ogóle myśleć jakim gigantem Nvidia by była po tym przejęciu, chodź do samsunga pewnie jeszcze by im brakowało. AMD miałoby ciężko na rynku kart graficznych, więc musieliby też połączyć siły z jakąś dużą korporacją, dobrze by było gdyby Samsung przejął AMD, bo wtedy dostalibyśmy jeszcze lepsze produkty.
kaczy99Zobacz profil
Poziom ostrzeżenia: 0%
kaczy992017.10.02, 19:20
10#7
crush @ 2017.10.02 19:04  Post: 1098758
hexon06 @ 2017.10.02 19:00  Post: 1098757
Ciekawe co na to Intel:D? Coś tak mi się wydaję, że Intel niedługo będzie zwijał interes.

Jeżeli świat ma iść w GPU to AMD chyba razem z nim... :E


Chciałbym wreszcie zobaczyć połączenie FPGA z GPU lub CPU. Ciekawe czy twórcy gier byli by w stanie wykorzystać jego możliwości w jakimś znacznym stopniu wpływając na rozgrywkę w porównaniu do standardowego zestawu GPU+CPU.
PutoutZobacz profil
Poziom ostrzeżenia: 0%
Putout2017.10.02, 19:22
no supi. tylko tutaj mamy do cyz nienienia z dwiema różnymi koncepcjami więc nie przenoście tego na desktopy. niektórzy mocno się już zaczęli napalać.
nie widać opcji aby domowi użytkownicy mogli w miare płynnie przejść z kilku (-nastu) mocnych rdzeni na setki czy tysiące słabych bo te obliczenia zwyzajnie do dupy się zrównoleglają. już AMD zrobiło i wysrało modułowe archi. 8 słabych rdzeni z czego zazwyczaj wykorzystywane były 2 lub 4. dopiero od niedawna zaczęto częściej wykorzystywać więcej niż 4 rdzenie/wątki. za małą rewolucje uznaje się niskopoziomowe API bo te dają możliuwość efektywnego zagospodarowania większje liczyb rdzeni. a obecnie co? w takim Ryzenie 5 1600 masa mocy leży odłogiem a tu niektórzy snują opowiastki o GPU zastępującym CPU XD
AmbasadorZobacz profil
Poziom ostrzeżenia: 0%
Ambasador2017.10.02, 19:26
11#9
Jestem ciekaw co Raja ma do powiedzenia na ten temat.
wwadZobacz profil
Poziom ostrzeżenia: 0%
wwad2017.10.02, 19:44
Z CPU to w ogóle jest bajzel bo trzeba go dobierac pod zastosowanie a nie po samej cenie i ilosci rdzeni. Co mi np. po 8 rdzeniach przy taktowaniu 3GHz w grach = nic, to sie dobrze sprawdzi do zastosowan obliczeniowych, natomiast 4 rdzenie po 4.5GHz znacznie lepiej wyjda w grach niz w obliczeniach. W CPU jest blokada tachnologiczna i by isc dalej trzeba by cos nowego wymyslec co sie sprawdzi do wiekszej wydajnosci obliczen liniowych ( mowa o komputerach domowych ).
Z GPU maja tu laita na razie bo obliczenia rownolegle nie wymagaja az tak duzego taktowania a wiekszej liczby jednostek obliczeniowych i tu jest potencjal by cos liczyc dodatkowo w przyszlosci na GPU pytanie tylko kto to wykorzysta bo jak patrze na branże np. gier to mozna zapomniec bo to wymaga czasu na implementacje a wydawca go developerom nie da.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.
1