Aktualność
Adrian Kotowski, Poniedziałek, 2 października 2017, 18:45

GPU niedługo zastąpi CPU. Podczas ubiegłotygodniowej konferencji GTC 2017 w Pekinie, Jensen Huang mówił o przyszłości obliczeń, w tym rozwoju sztucznej inteligencji. Uwagę zwróciła szczególnie wypowiedź dotycząca słynnego prawa Moore’a, które ma być według szefa Nvidii całkowicie martwe. Wszystko przez ogromną stagnację na rynku procesorów.

Huang stwierdził, że w przypadku CPU obserwujemy obecnie przyrost do 50 procent tranzystorów rocznie, przy wzroście wydajności wynoszącym w najlepszym razie 10 procent. Rynek procesorów ma praktycznie stać w miejscu, czemu jednak cały czas zaprzecza Intel, powołujący się nadal na wspomniane wyżej prawo. Tak było choćby podczas prezentacji dotyczącej procesu technologicznego 10 nm.

Nvidia

Szef Nvidii dodał, że we wszelkiego rodzaju porównaniach trzeba też brać pod uwagę układy graficzne. Te rozwijają się nadal całkiem dobrze, choć oczywiście także widać pewne spowolnienie. To właśnie GPU ma być lepiej przystosowane do wymagań, jakie stawiają przed układami scalonymi nowe systemy obliczeniowe. Chodzi tutaj przede wszystkim o sieci neuronowe, uczenie maszynowe i sztuczną inteligencję. Właśnie ze względu na lepszą adaptację i ciągły rozwój, układy graficzne mają według Huanga zastąpić zwykłe procesory.

Zieloni cały czas rozszerzają swoje portfolio produktów do obliczeń, a najnowszym rozwiązaniem jest TensorRT3, zapewniający optymalizację obsługi sieci neuronowych. Według zielonych zwiększy to zauważalnie wszelkie obliczenia dotyczące przetwarzania w chmurze, gdzie dokładność nie musi być najwyższa (np. INT8 lub FP16). W tym kontekście nie dziwią więc wypowiedzi szefa Nvidii, bo dziwne, gdyby Huang nie promował technik swojej firmy. Inna sprawa, że jego obserwacja dotycząca spowolnienia na rynku CPU jest po prostu zgodna z prawdą i trudno z nią w jakikolwiek sposób polemizować.

Źródło: Segment Next
Ocena aktualności:
Ocen: 7
Zaloguj się, by móc oceniać
Ryzen (2017.10.02, 18:49)
Ocena: 64

0%
Szczególnie u Intela, gdzie w PC mało brakowało a 4-core byłoby do końca świata w wersji 14nm+++++.
crush (2017.10.02, 19:04)
Ocena: 30

0%
hexon06 @ 2017.10.02 19:00  Post: 1098757
Ciekawe co na to Intel:D? Coś tak mi się wydaję, że Intel niedługo będzie zwijał interes.

Jeżeli świat ma iść w GPU to AMD zawinie chyba razem z nim... :E
Ryzen (2017.10.02, 19:13)
Ocena: 32

0%
Facet wie, że NVIDIA jest w świetnej formie a na zapleczu Volta czeka, ale trochę go poniosło, bo pewnie nie pamięta już jak miał spocone czoło trzymając w ręce atrapę Fermi.
Po tej wypowiedzi u Intela będą zapewne rozdawane kolejne baty dla inżynierów, co tylko nam wyjdzie na dobre. Niech tylko AMD nie zawiedzie z Ryzenem 2 na początku 2018 a będzie naprawdę ciekawie.
Kitu (2017.10.02, 19:14)
Ocena: 40

0%
Nvidia przynajmniej w jednym jest lepsza od Intela - co generację gwarantuje wyraźny wzrost wydajności - kilkanaście do kilkudziesięciu procent, zamiast 2-3%, czyli w sumie błąd pomiarowy albo zwiększenie zegarów.

A zastąpienie CPU przez GPU - wydajność w sieciach neuronowych, uczeniu maszynowym, AI, we wszelkich renderowaniach może i jest wyższa, ale w PC raczej się tego nie zastąpi. Chociaż z drugiej strony - kto wie, co jeszcze wymyślą, do czego to doprowadzi i ile nas to będzie kosztować.
kaczy99 (2017.10.02, 19:20)
Ocena: 10

0%
crush @ 2017.10.02 19:04  Post: 1098758
hexon06 @ 2017.10.02 19:00  Post: 1098757
Ciekawe co na to Intel:D? Coś tak mi się wydaję, że Intel niedługo będzie zwijał interes.

Jeżeli świat ma iść w GPU to AMD chyba razem z nim... :E


Chciałbym wreszcie zobaczyć połączenie FPGA z GPU lub CPU. Ciekawe czy twórcy gier byli by w stanie wykorzystać jego możliwości w jakimś znacznym stopniu wpływając na rozgrywkę w porównaniu do standardowego zestawu GPU+CPU.
Putout (2017.10.02, 19:22)
Ocena: 9

0%
no supi. tylko tutaj mamy do cyz nienienia z dwiema różnymi koncepcjami więc nie przenoście tego na desktopy. niektórzy mocno się już zaczęli napalać.
nie widać opcji aby domowi użytkownicy mogli w miare płynnie przejść z kilku (-nastu) mocnych rdzeni na setki czy tysiące słabych bo te obliczenia zwyzajnie do dupy się zrównoleglają. już AMD zrobiło i wysrało modułowe archi. 8 słabych rdzeni z czego zazwyczaj wykorzystywane były 2 lub 4. dopiero od niedawna zaczęto częściej wykorzystywać więcej niż 4 rdzenie/wątki. za małą rewolucje uznaje się niskopoziomowe API bo te dają możliuwość efektywnego zagospodarowania większje liczyb rdzeni. a obecnie co? w takim Ryzenie 5 1600 masa mocy leży odłogiem a tu niektórzy snują opowiastki o GPU zastępującym CPU XD
Ambasador (2017.10.02, 19:26)
Ocena: 11

0%
Jestem ciekaw co Raja ma do powiedzenia na ten temat.
wwad (2017.10.02, 19:44)
Ocena: 1

0%
Z CPU to w ogóle jest bajzel bo trzeba go dobierac pod zastosowanie a nie po samej cenie i ilosci rdzeni. Co mi np. po 8 rdzeniach przy taktowaniu 3GHz w grach = nic, to sie dobrze sprawdzi do zastosowan obliczeniowych, natomiast 4 rdzenie po 4.5GHz znacznie lepiej wyjda w grach niz w obliczeniach. W CPU jest blokada tachnologiczna i by isc dalej trzeba by cos nowego wymyslec co sie sprawdzi do wiekszej wydajnosci obliczen liniowych ( mowa o komputerach domowych ).
Z GPU maja tu laita na razie bo obliczenia rownolegle nie wymagaja az tak duzego taktowania a wiekszej liczby jednostek obliczeniowych i tu jest potencjal by cos liczyc dodatkowo w przyszlosci na GPU pytanie tylko kto to wykorzysta bo jak patrze na branże np. gier to mozna zapomniec bo to wymaga czasu na implementacje a wydawca go developerom nie da.
Zaloguj się, by móc komentować
Aktualności
Kiedyś może będzie poprawa. 58
Nawet dwudziestokrotnie wydajniejszy niż poprzednik. 24
Kasa musi się zgadzać. Ostatnie miesiące dla serwisu społecznościowego Facebook nie były najlepsze. 34
Wszystkie starsze dodatki dostępne za darmo. 35
Przeciek z oficjalnej strony produkcji. 12
Banhammer uderzył z pełną mocą. 25
Ogromny ekran i solidny akumulator. 39
Kiedy będą mogły przytulić nowe Ryzeny? 15
Kasa musi się zgadzać. Ostatnie miesiące dla serwisu społecznościowego Facebook nie były najlepsze. 34
Trzy modele dla wymagających. NZXT zaprezentował dzisiaj swoje nowe zasilacze z serii E. 6
Artykuły spokrewnione
Facebook