aktualności

Intel Kaby Lake-G z GPU AMD - pierwsze testy i szczegóły dotyczące specyfikacji

41
7 listopada 2017, 08:45 Piotr Gontarczyk

Na rynku może się zrobić naprawdę gorąco. Intel dopiero co zapowiedział procesory Core z dedykowanymi GPU od AMD, montowanymi w jednej obudowie, a w sieci już zaczęły sypać się pierwsze testy, a także szczegóły dotyczące ich specyfikacji. Połączenie CPU i GPU od AMD to dla Intela krok w kierunku lepszej architektury heterogenicznej, a ponadto daje możliwość tworzenia jednostek bardziej wydajnych pod względem akceleracji grafiki 3D oraz znacząco zmniejsza przestrzeń zajmowaną do tej pory przez CPU, dedykowany GPU oraz pamięć VRAM.

Firma Intel zapowiadając połączenie swoich CPU i GPU AMD w jednej obudowie co prawda nie ujawniła żadnych szczegółów nt specyfikacji planowanych konstrukcji, ale te zaczęły już wypływać na powierzchnię. Mowa konkretnie o procesorach Kaby Lake-G, o których plotki krążą od dłuższego czasu. Teraz wszystko wskazuje na to, że plotki te potwierdziły się mimo, że sceptyków było wielu.

Z nieoficjalnych informacji wynika, że dedykowany GPU w procesorach Kaby Lake-G to jednostka "Vega 24", a więc z 24 jednostkami NCU (Next-Generation Compute Unit), co daje łącznie 1536 procesorów strumieniowych. Warto zauważyć, że to trzykrotnie więcej niż w APU AMD Ryzen 5 2500U. GPU ma według źródeł działać z częstotliwością od 1000 do 1100 MHz, osiągając maksymalną moc na poziomie 3,3 TFLOPS. Linia GPU przeznaczonych dla procesorów Intela ma identyfikatory sprzętowe 694C:C0 oraz 694E:C0. W pierwszym przypadku GPU ma obok siebie 4-gigabajtowy stos pamięci HBM2 działający z zegarem 800 MHz, a w drugim 700 MHz. Cała linia produktów Kaby Lake-G ma składać się z jednostek czterordzeniowych, ośmiowątkowych. Obecnie znamy trzy modele, a więc Core i7-8705G, Core i7-8706G oraz Core i7-8809G. Minimalny zegar bazowy to 3,1 GHz, a maksymalne Turbo wynosi 4,1 GHz.

Zobacz ranking najpopularniejszych procesorów

W bazie GFXBencha odnaleziono wpis dotyczący próbki inżynieryjnej procesora Core i7-8809G. GFXBench niestety znany jest z tego, że nie jest zbyt dobry do porównywania czegokolwiek z czymkolwiek, ale przynajmniej to właśnie on ujawnia nam jeden z procesorów.

Ten sam procesor, także w wersji inżynieryjnej, pojawił się w bazie programu Geekbench. Tutaj poznajemy zegar GPU (1 GHz), przy którym ogólny wynik testu OpenCL to 76607 punktów. Przypominamy, że mówimy cały czas o procesorze w postaci próbki inżynieryjnej. Jest więc zbyt wcześnie aby dokonywać porównać, bo wersje finalne CPU Intela mogą mieć lepsze osiągi.

W Ashes of the Singularity natomiast przetestowano próbkę inżynieryjną prcoesora Core i7-8705G. Tutaj mamy potwierdzenie zegara bazowego, a także wyniki testu w rozdzielczości 1080p przy wysokich ustawieniach jakości.

Na koniec mamy 3DMarka, w którym przetestowano także procesor Intela z GPU AMD, ale być może w jakiejś jeszcze wcześniejszej wersji, na co wskazywałyby zegary bazowe (2,8 GHz). Ewentualnie może to być nieprawidłowy odczyt. Niezależnie od tego uzyskane wyniki Kaby Lake-G to najwyższe, jakie do tej pory mogliśmy zobaczyć w przypadku graficznych integr stosowanych w procesorach.

Wygląda na to, że Intel potwierdzając plotki wielu pewnie zaskoczył. Firma dzięki nowym procesorom chce oferować lepsze rozwiązania dla coraz cieńszych laptopów, także do grania. Według Intela połączenie Core i GPU firmy AMD w jednej obudowie ma sprawić, że laptopy do gier, których grubość obecnie to 26 milimetrów, będą mogły zostać odchudzone do 16 milimetrów, a w niektórych przypadkach może i nawet do 11 milimetrów. Warto zauważyć, że nawet pierwszy, 13-calowy Apple MacBook Air był grubszy, choć z drugiej strony ma on już swoje lata. Bardzo wiele zależeć będzie od cen. Za dość pewne można uznać jednak to, że na współpracy Intela z AMD najwięcej stracić może Nvidia, bo to może ją całkowicie wypchnąć z intelowskich laptopów, przynajmniej w segmencie niskobudżetowych GPU, ale być może też średniobudżetowych. Nvidii jednak jeszcze skreślać nie należy, bo nie wiemy, jakie dokładnie Intel ma plany.

 

Gregorian-ElblągZobacz profil
Poziom ostrzeżenia: 0%
Gregorian-Elbląg2017.11.08, 06:37
wydajność coś jak GTX770/680 wiec całkiem ładna
h63619Zobacz profil
Poziom ostrzeżenia: 0%
h636192017.11.08, 01:28
-3#40
Według plotkarskiego Wccftech Raja Koduri przechodzi do Intela. Jeśli to prawda to Intel ma na pewno poważniejsze plany wobec Radeonów.
Ale źle to wróży AMD bo jak Intel odkupi od nich RTG to zostanie im sam Ryzen i mimo, że to dobra architektura to raczej nie wystartują z ofertą APU do kolejnej generacji konsol.
komisarzZobacz profil
Poziom ostrzeżenia: 0%
komisarz2017.11.08, 01:09
-6#39
Vega @ 2017.11.07 10:00  Post: 1106563
o drugie, gdzie niby w ostatnim akapicie jest napisane, że opisane procesory będą tanie?


'Za dość pewne można uznać jednak to, że na współpracy Intela z AMD najwięcej stracić może Nvidia, bo to może ją całkowicie wypchnąć z intelowskich laptopów, przynajmniej w segmencie niskobudżetowych GPU,'

No chyba ze drogi intel ma wypchnac najtanza nvidie. Sroga logika.
kbm87Zobacz profil
Poziom ostrzeżenia: 0%
kbm872017.11.08, 00:01
Trepcia @ 2017.11.07 20:34  Post: 1106727
CryZen @ 2017.11.07 20:22  Post: 1106721
A ja tu widzę pewne niebezpieczeństwo, mianowicie że świat pójdzie w stronę takich układów: GPU nie wymienisz bez zmiany CPU i vice versa... Czysty zysk dla korporacji


Dodatkowo wszystko przylutowane do plyty glownej, lacznie z ramem, ssd i wiatraczkami.


Kto wie, może ram też zintegrują. Już są takie projekty jak Stratix 10 z pamięciami HBM
ext73Zobacz profil
Poziom ostrzeżenia: 0%
ext732017.11.07, 23:46
Walther @ 2017.11.07 08:56  Post: 1106548
No i fajnie :)

Współczuje natomiast fanbojom jak i różnego rodzaju trolom .....
Oj ciężki to będzie orzech do zgryzienia.
:E

Vega natomiast staje się naprawdę wieloplatformowym GPU.
ciekawe jak będzie wyglądała kwestia sterowników ?


Pod Linuksem już są świetne = otwarte AMDGPU/RadeonSI [Mesa 17.3 RC3] + najnowsze kernele.
HΛЯPΛGŌNZobacz profil
Poziom ostrzeżenia: 0%
HΛЯPΛGŌN2017.11.07, 20:52
Stefan999 @ 2017.11.07 10:03  Post: 1106565
To chyba nawet nie jest APU. To procesor z 'dosztukowanym' GPU i VRAM. Na pewno będzie mieć pamięć systemową, chyba że 4GB było tylko do testów i sklepowe wersje będą mieć więcej.

Nie wazne, że dosztukowane, ale wydajnością w grafice odjedzie daleko APU AMD. To brzmi jak paradoks, ale tak właśnie się stanie.
*Konto usunięte*2017.11.07, 20:37
CryZen @ 2017.11.07 20:22  Post: 1106721
A ja tu widzę pewne niebezpieczeństwo, mianowicie że świat pójdzie w stronę takich układów: GPU nie wymienisz bez zmiany CPU i vice versa... Czysty zysk dla korporacji

Jakby nie patrzeć Intel zmienia sockety jak rękawiczki. To co odwalił z coffelake to żart.
I tak i tak w przypadku Intela trzeba zmieniać mobasy.
Więc ograniczy to tylko możliwości naprawy i upgreadu w przypadku gdy ktoś w ramach ograniczonego tymczasowo budżetu kupił pentiuma.
TrepciaZobacz profil
Poziom ostrzeżenia: 0%
Trepcia2017.11.07, 20:34
CryZen @ 2017.11.07 20:22  Post: 1106721
A ja tu widzę pewne niebezpieczeństwo, mianowicie że świat pójdzie w stronę takich układów: GPU nie wymienisz bez zmiany CPU i vice versa... Czysty zysk dla korporacji


Dodatkowo wszystko przylutowane do plyty glownej, lacznie z ramem, ssd i wiatraczkami.
CryZenZobacz profil
Poziom ostrzeżenia: 0%
CryZen2017.11.07, 20:22
-3#33
A ja tu widzę pewne niebezpieczeństwo, mianowicie że świat pójdzie w stronę takich układów: GPU nie wymienisz bez zmiany CPU i vice versa... Czysty zysk dla korporacji
*Konto usunięte*2017.11.07, 19:01
-3#32
MariuszHL @ 2017.11.07 18:53  Post: 1106705
SunTzu @ 2017.11.07 16:30  Post: 1106654
Czemu AMD przez lata nie mogło zrobić takiego APU ?
Nawet przed HBM mogli dać GDDR5. Zdaję się, że były plotki, że kaverii miał kontroler GDDR5.

To co AMD traciłoby przez gorze archi mogłoby zysikwać dzięki GPU.


AMD nie dało takiego rozwiązania bo doskonale wiedziało jakie ma CPU a w tej chwili pomija pierwszą generację RYZEN składając coś na pograniczu REFRESH bez użycia HBM bo czekają na 7nm od GF.

Miałbyś wybór między rozwiązaniem Intela@ULV+NV vs APU AMD. Podstawowy problem rozwiązania pierwszego jest ilość zajmowanego miejsca. Bo do GPU NV trzeba było dać choćby osobne pamięci....
To wszystko zajmuje sporo miejsca, podnosi koszty, bo dubluje komponenty.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.
1