aktualności

Nvidia opowiada o swoich planach na GTC 2013

41
20 marca 2013, 13:21 Eryk Napierała

Odbywające się właśnie w San José spotkanie firm związanych z rynkiem układów graficznych – GPU Technology Conference – było dla Nvidii okazją do ujawnienia planów na najbliższe trzy lata. Firma uchyliła rąbka tajemnicy na temat układów graficznych oraz SoC przyszłej i jeszcze następnej generacji. Okazuje się, że już w przyszłym roku firma ma zamiar w pewnym sensie połączyć dwie rozdzielone do tej pory gałęzie produktów, dzięki czemu następca Tegry 4 wykona ogromny skok naprzód w dziedzinie GPU. Plany rozwoju samych procesorów graficznych prezentują się równie imponująco – w ciągu trzech kolejnych lat Nvidia ma zamiar zwiększyć przepustowość pamięci RAM prawie czterokrotnie, i to nie tylko za pomocą nowego typu kości.

Od ponad dwóch lat slajdy przedstawiające rozwój układów graficznych Nvidii zawierały te same nazwy robocze: Tesla, Fermi, Kepler i Maxwell. Obecnie tylko ostatnia odnosi się do architektury jeszcze nieobecnej na rynku. Maxwell ma korzystać z procesu technologicznego 20 nm i towarzyszyć rdzeniom ARM w wydajnych SoC dla mikroserwerów. Na tegorocznym GTC ujawniono, że rdzenie GPU i CPU tych układów będą mogły korzystać ze wspólnej pamięci RAM, tak jak na przykład w SoC AMD przygotowanym dla PlayStation 4. Nie zdradzono szczegółów, ale prawdopodobnie to rozwiązanie będzie działać tylko dla rdzeni ARM obecnych na karcie graficznej (?). Nie ma co liczyć na współdzielenie pamięci GPU i procesora w PC-tach, przynajmniej dopóki Nvidia nie nawiąże w tej kwestii współpracy z Intelem. To może wcale nie nastąpić.

Po Maxwellu, w 2016 roku, przyjdzie czas na Voltę, architekturę nazwaną na cześć wynalazcy kondensatora i ogniwa galwanicznego. Największą nowością wprowadzaną w tej architekturze ma być pamięć RAM osadzona wewnątrz obudowy GPU (a może raczej APU). Kości RAM-u zostaną ułożone nad mikroprocesorem, dzięki czemu zminimalizowana zostanie długość połączeń, a jednocześnie będzie mogła zostać zwiększona ich liczba. Taki zabieg pozwoli według Nvidii zwiększyć przepustowość pamięci do 1 TB/s, co jest imponującą wartością, jeśli weźmie się pod uwagę, że mocarny GeForce Titan może pochwalić się co najwyżej 0,26 TB/s (270 GB/s). Nie zdradzono jedynie, jakiego typu kości zostaną wykorzystane w nowych procesorach, a trudno, by były to obecnie stosowane GDDR5. Trzeba pamiętać, że Volta będzie zupełnie nową mikroarchitekturą, w dodatku korzystającą z lepszego procesu technologicznego niż Maxwell (prawdopodobnie 16 nm FinFET), więc powinna zapewnić wzrost wydajności nie tylko dzięki ulepszonemu systemowi pamięci.

Ciekawie wygląda również przyszłość układów dla urządzeń przenośnych. Zgodnie z wcześniejszymi nieoficjalnymi zapowiedziami następna (przyszłoroczna) generacja SoC Tegra zostanie wyposażona w GPU oparte na architekturze Kepler – tej samej, z której dziś korzystają karty przeznaczone dla PC-tów, stacji roboczych i serwerów. Można mieć wątpliwości, czy adaptacja projektu przygotowanego na potrzeby zupełnie innego rynku jest dobrym pomysłem, ale na pewno to krok w dobrą stronę. Dzięki nowoczesnej architekturze ze zunifikowanymi shaderami, smartfony i tablety oparte na chipie Logan będą mogły wykorzystać wszystkie dobrodziejstwa takich bibliotek jak DirectX 11, OpenGL 4.3, CUDA czy PhysX. Na temat rdzeni CPU przyszłej Tegry nie zdradzono jak na razie nic, wiadomo tylko, że nie będą one oparte na architekturze Denver projektowanej przez Nvidię. Prawdopodobnie po raz drugi zostaną wykorzystane rdzenie Cortex-A15 lub ich ulepszone wersje.

Dopiero następca Logana – Parker – będzie w całości zbudowany na autorskich rozwiązania Nvidii. W tym SoC znajdzie się nie tylko GPU Maxwell, ale także 64-bitowe rdzenie Denver. Parker wydaje się bardzo podobny do serwerowego układu przygotowywanego w ramach Projektu Boulder, więc całkiem możliwe, że obydwa produkty zadebiutują już w 2015 roku – taka data widnieje na slajdzie przy następcy Logana. Oprócz nowej architektury Nvidia ma zamiar wykorzystać w Parkerze proces technologiczny – 16 nm FinFET. Wykonawca chipów dla tej firmy – TSMC – uruchomi linie produkcyjne dostosowane do tej technologii już w przyszłym roku.

Zastosowanie tej samej architektury GPU, a później także CPU w układach dla urządzeń przenośnych i dla pozostałych segmentów rynku na pewno opłaci się Nvidii. Firma nie będzie musiała "utrzymywać" jednocześnie kilku architektur, tak jak robi to obecnie. Jednocześnie konsumenci dostaną dostęp do nowości we wszystkich segmentach rynku w (mniej więcej) tym samym czasie. Ciekawe, jaki wpływ będzie mieć ta decyzja na rozwój SoC opartych na architekturze Denver? Czy Nvidia będzie w stanie doprowadzić do tego, że za kilka lat mocniejsze odmiany Tegry będziemy znajdować w laptopach i montować w PC-tach? Nieco światła na ten temat rzuca nasz redakcyjny kolega Mieszko Krzykowski: GPU w Tegrach na poważnie

Źródła: materiały prasowe, Nvidia, AnandTech

*Konto usunięte*2013.03.20, 13:38
''Czy Nvidia będzie w stanie doprowadzić do tego, że za kilka lat mocniejsze odmiany Tegry będziemy znajdować w laptopach i montować w PC-tach?''

Taki jest plan od samego początku.

P.S. Tyle tylko, że to już nie będzie się nazywało Tegra.
szalony kefirZobacz profil
Poziom ostrzeżenia: 0%
szalony kefir2013.03.20, 13:39
-11#2
Komu potrzebna Tegra w laptopach i PC-tach? Przecież to ma śmieszną wydajność w porównaniu z x86. Do tej pory, ARM-y broniły się energooszczędnością, ale nowe Atomy powoli zacierają różnicę w poborze prądu. Strach pomyśleć co się będzie działo, gdy Intel zejdzie do 22nm(Atom).
Virtualny27Zobacz profil
Poziom ostrzeżenia: 0%
Virtualny272013.03.20, 13:39
-6#3
A amd jeszcze w titana nie wierzy a tu już volta nadciąga:D
WibowitZobacz profil
Poziom ostrzeżenia: 0%
Wibowit2013.03.20, 13:49
11#4
szalony kefir @ 2013.03.20 13:39  Post: 644661
Komu potrzebna Tegra w laptopach i PC-tach? Przecież to ma śmieszną wydajność w porównaniu z x86. Do tej pory, ARM-y broniły się energooszczędnością, ale nowe Atomy powoli zacierają różnicę w poborze prądu. Strach pomyśleć co się będzie działo, gdy Intel zejdzie do 22nm(Atom).

Wydajność nowych ARMów rośnie szybciej niż wydajność nowych x86, więc różnica w wydajności powinna się zmniejszać.
SupermanZobacz profil
Poziom ostrzeżenia: 0%
Superman2013.03.20, 13:59
-15#5
Ambitne plany. Taki Volta nawet w trybie idle zmiażdży PS4 i XBOX 720 ...
szalony kefirZobacz profil
Poziom ostrzeżenia: 0%
szalony kefir2013.03.20, 14:08
Wibowit @ 2013.03.20 13:49  Post: 644663
szalony kefir @ 2013.03.20 13:39  Post: 644661
Komu potrzebna Tegra w laptopach i PC-tach? Przecież to ma śmieszną wydajność w porównaniu z x86. Do tej pory, ARM-y broniły się energooszczędnością, ale nowe Atomy powoli zacierają różnicę w poborze prądu. Strach pomyśleć co się będzie działo, gdy Intel zejdzie do 22nm(Atom).

Wydajność nowych ARMów rośnie szybciej niż wydajność nowych x86, więc różnica w wydajności powinna się zmniejszać.

Tylko, że w przypadku ARM wzrost wydajności idzie w parze ze wzrostem poboru prądu, a w Atomach odwrotnie. Poza tym, co zainstalujesz na tej platformie? Laptopowy klon Androida(Google Chrome OS) czy totalnie okrojonego Windowsa RT? Test Samsunga Ativ Smart PC 500T1C pokazał, że jedyną słuszną drogą jest Atom i Windows 8.
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2013.03.20, 14:13
Wibowit @ 2013.03.20 13:49  Post: 644663
szalony kefir @ 2013.03.20 13:39  Post: 644661
Komu potrzebna Tegra w laptopach i PC-tach? Przecież to ma śmieszną wydajność w porównaniu z x86. Do tej pory, ARM-y broniły się energooszczędnością, ale nowe Atomy powoli zacierają różnicę w poborze prądu. Strach pomyśleć co się będzie działo, gdy Intel zejdzie do 22nm(Atom).

Wydajność nowych ARMów rośnie szybciej niż wydajność nowych x86, więc różnica w wydajności powinna się zmniejszać.

Zobacz jak wydajność rosła w czasach P4, bo taką wydajność dziś archi ARM prezentuje. C2D daleko. Oczywiście pobór energii dużo mniejszy, ale chodzi o to, że wydajność ARMów daleko, daleko....
DziubekR1Zobacz profil
Poziom ostrzeżenia: 0%
DziubekR12013.03.20, 14:21
Virtus* @ 2013.03.20 13:38  Post: 644660
''Czy Nvidia będzie w stanie doprowadzić do tego, że za kilka lat mocniejsze odmiany Tegry będziemy znajdować w laptopach i montować w PC-tach?''

Taki jest plan od samego początku.

P.S. Tyle tylko, że to już nie będzie się nazywało Tegra.


Napewno beda w stanie. Juz sam Kepler i karty w stylu GF 650M, czy 660GTX to dla mnie ogromny postęp. Wydajnosc w laptopie, jakiej jeszcze niedawno nie mialem w PCcie, do tego nie grzeją sie, no dla mnie rewelacja.
PFC2013.03.20, 14:31
GPU w 16 nm planowane na rok 2015? Cieszę się, że dane mi będzie zobaczyć za mojego życia tyle problemów technologicznych jak choćby śrubowanie minimalizacji tranzystorów, rozmiary pojedynczych czipów przekraczających już w tej chwili 7 mld tranzystorów, problemy z odprowadzaniem ciepła a'la Ivy Bridge i wiele, wiele innych.:)
MegabyteZobacz profil
Poziom ostrzeżenia: 0%
Megabyte2013.03.20, 14:55

Na tegorocznym GTC ujawniono, że rdzenie GPU i CPU tych układów będą mogły korzystać ze wspólnej pamięci RAM, tak jak na przykład w SoC AMD przygotowanym dla PlayStation 4. Nie zdradzono szczegółów, ale prawdopodobnie to rozwiązanie będzie działać tylko dla rdzeni ARM obecnych na karcie graficznej (?). Nie ma co liczyć na współdzielenie pamięci GPU i procesora w PC-tach, przynajmniej dopóki Nvidia nie nawiąże w tej kwestii współpracy z Intelem. To może wcale nie nastąpić.

Panie redaktorze radzę szybko poprawić ten fragment.

Maxwell będzie obsługiwał Unified Virtual Memory. Słowem klucz jest tutaj 'Virtual', co oznacza że CPU nadal może mieć swoją własną fizyczną pamięć, podobnie jak GPU. Unified Virtual Memory to zmapowanie pamięci CPU i GPU do jednej wirtualnej przestrzeni adresowej dla procesu systemowego. Nvidia nie musi czekać na Intela, odpowiednie standardy zostały już zdefiniowane (Address Translation Services (ATS) Page Request Interface (PRI). Jeśli dobrze pamiętam AST jest już zaimplementowane w Sandy Bridge E/EP. Dla pewności sprawdzę to jeszcze.
Zaloguj się, by móc komentować
1