GPU niedługo zastąpi CPU. Podczas ubiegłotygodniowej konferencji GTC 2017 w Pekinie, Jensen Huang mówił o przyszłości obliczeń, w tym rozwoju sztucznej inteligencji. Uwagę zwróciła szczególnie wypowiedź dotycząca słynnego prawa Moore’a, które ma być według szefa Nvidii całkowicie martwe. Wszystko przez ogromną stagnację na rynku procesorów.
Huang stwierdził, że w przypadku CPU obserwujemy obecnie przyrost do 50 procent tranzystorów rocznie, przy wzroście wydajności wynoszącym w najlepszym razie 10 procent. Rynek procesorów ma praktycznie stać w miejscu, czemu jednak cały czas zaprzecza Intel, powołujący się nadal na wspomniane wyżej prawo. Tak było choćby podczas prezentacji dotyczącej procesu technologicznego 10 nm.

Szef Nvidii dodał, że we wszelkiego rodzaju porównaniach trzeba też brać pod uwagę układy graficzne. Te rozwijają się nadal całkiem dobrze, choć oczywiście także widać pewne spowolnienie. To właśnie GPU ma być lepiej przystosowane do wymagań, jakie stawiają przed układami scalonymi nowe systemy obliczeniowe. Chodzi tutaj przede wszystkim o sieci neuronowe, uczenie maszynowe i sztuczną inteligencję. Właśnie ze względu na lepszą adaptację i ciągły rozwój, układy graficzne mają według Huanga zastąpić zwykłe procesory.
Zieloni cały czas rozszerzają swoje portfolio produktów do obliczeń, a najnowszym rozwiązaniem jest TensorRT3, zapewniający optymalizację obsługi sieci neuronowych. Według zielonych zwiększy to zauważalnie wszelkie obliczenia dotyczące przetwarzania w chmurze, gdzie dokładność nie musi być najwyższa (np. INT8 lub FP16). W tym kontekście nie dziwią więc wypowiedzi szefa Nvidii, bo dziwne, gdyby Huang nie promował technik swojej firmy. Inna sprawa, że jego obserwacja dotycząca spowolnienia na rynku CPU jest po prostu zgodna z prawdą i trudno z nią w jakikolwiek sposób polemizować.

Jeżeli świat ma iść w GPU to AMD zawinie chyba razem z nim...
Po tej wypowiedzi u Intela będą zapewne rozdawane kolejne baty dla inżynierów, co tylko nam wyjdzie na dobre. Niech tylko AMD nie zawiedzie z Ryzenem 2 na początku 2018 a będzie naprawdę ciekawie.
A zastąpienie CPU przez GPU - wydajność w sieciach neuronowych, uczeniu maszynowym, AI, we wszelkich renderowaniach może i jest wyższa, ale w PC raczej się tego nie zastąpi. Chociaż z drugiej strony - kto wie, co jeszcze wymyślą, do czego to doprowadzi i ile nas to będzie kosztować.
Jeżeli świat ma iść w GPU to AMD chyba razem z nim...
Gdyby naprawdę wszystko poszło w karty graficzne to Intel musiałby dokonać jakieś fuzji z inną firmą. Amd jest za biedne żeby przejąć Intela, więc pewnie wypadłoby na Nvidie. Nie chce w ogóle myśleć jakim gigantem Nvidia by była po tym przejęciu, chodź do samsunga pewnie jeszcze by im brakowało. AMD miałoby ciężko na rynku kart graficznych, więc musieliby też połączyć siły z jakąś dużą korporacją, dobrze by było gdyby Samsung przejął AMD, bo wtedy dostalibyśmy jeszcze lepsze produkty.
Jeżeli świat ma iść w GPU to AMD chyba razem z nim...
Chciałbym wreszcie zobaczyć połączenie FPGA z GPU lub CPU. Ciekawe czy twórcy gier byli by w stanie wykorzystać jego możliwości w jakimś znacznym stopniu wpływając na rozgrywkę w porównaniu do standardowego zestawu GPU+CPU.
nie widać opcji aby domowi użytkownicy mogli w miare płynnie przejść z kilku (-nastu) mocnych rdzeni na setki czy tysiące słabych bo te obliczenia zwyzajnie do dupy się zrównoleglają. już AMD zrobiło i wysrało modułowe archi. 8 słabych rdzeni z czego zazwyczaj wykorzystywane były 2 lub 4. dopiero od niedawna zaczęto częściej wykorzystywać więcej niż 4 rdzenie/wątki. za małą rewolucje uznaje się niskopoziomowe API bo te dają możliuwość efektywnego zagospodarowania większje liczyb rdzeni. a obecnie co? w takim Ryzenie 5 1600 masa mocy leży odłogiem a tu niektórzy snują opowiastki o GPU zastępującym CPU XD
Z GPU maja tu laita na razie bo obliczenia rownolegle nie wymagaja az tak duzego taktowania a wiekszej liczby jednostek obliczeniowych i tu jest potencjal by cos liczyc dodatkowo w przyszlosci na GPU pytanie tylko kto to wykorzysta bo jak patrze na branże np. gier to mozna zapomniec bo to wymaga czasu na implementacje a wydawca go developerom nie da.