artykuły

CES 2013 – podsumowanie informacji na temat nowych procesorów do smartfonów i tabletów

Moc będzie z nami

44
13 stycznia 2013, 14:58 Mieszko Krzykowski

Nvidia – Tegra 4

 ByłoBędzie
Nazwa układu Tegra 3 Tegra 4
Architektura rdzenia Cortex-A9 Cortex-A15
Liczba rdzeni 4+1 4+1
Taktowanie procesora 1,2/1,3/1,6 GHz
(w zależności od wersji)

1,9 GHz
(w wersji startowej)

Nazwa układu graficznego GeForce (12-„rdzeniowy”) GeForce(72-„rdzeniowy”)
Spodziewany wzrost wydajności CPU – ponad 100%
GPU – ponad 400%

Najwięcej zamieszania wokół siebie zrobiła Nvidia, ponieważ nie dość, że zapowiedziała czwartą generację swoich Tegr, to na dodatek od razu zaprezentowała pierwsze urządzenie korzystające z jej możliwości, które okazało się... specyficzną przenośną konsolą z Androidem.

Tak jak Tegra 3, Tegra 4 ma cztery główne rdzenie procesora, a towarzyszy im piąty, wykorzystywany tylko wtedy, gdy system nie jest obciążony jakimiś skomplikowanymi zadaniami – albo po prostu w czasie spoczynku czy odtwarzania filmu. Nvidia nazywa taką konfigurację 4-plus-1, ponieważ ten dodatkowy piąty rdzeń nie może być wykorzystywany w tym samym momencie co pozostałe cztery, a jedynie pomaga zaoszczędzić cenną energię akumulatora. Główną nowością Tegry 4 jest to, że wszystkie rdzenie tego układu są rdzeniami Cortex-A15. Szybkość zegarów taktujących, w zależności od wersji układu i tego, w czym będzie on zamontowany, może dochodzić do 1,9 GHz. Czyli Tegra 4 powinna mieć około dwóch razy wyższą wydajność procesora od swojego poprzednika. Dzięki temu powinna powoli doganiać procesory x86 montowane w tańszych notebookach i nie chodzi tu nam o Atomy, a o trochę starsze Celerony i Pentium (choć na razie zapewne tylko w przypadku programów, które dobrze się skalują z większą liczbą rdzeni).

Tegra 4 i modem Icera i500 w pełnej okazałości. Warto zwrócić uwagę na to, jak małą powierzchnię całego czipu zajmują rdzenie procesora (pięć jasnych prostokątów blisko centrum)

Oprócz wydajności procesora Nvidia mocno zwiększyła wydajność układu graficznego Tegry 4. Ma on teraz 72 „rdzenie” zamiast 12, jak w Tegrze 3. Nadal nie są to jednostki zunifikowane (czyli zdolne zajmować się obliczeniami związanymi zarówno z wierzchołkami wielokątów, jak i z „kolorowaniem” pikseli) – 48 z nich to jednostki cieniowania pikseli (w Tegrze 3 było ich 8), a 24 to jednostki cieniowania wierzchołków (w Tegrze 3 były tylko 4), czyli wszystkiego jest sześć razy więcej i prawdopodobnie około pięciu–sześciu razy większa będzie też wydajność nowego układu graficznego Nvidii. To dobra wiadomość, bo GPU Tegry 3 w dzisiejszych czasach nie zachwyca osiągami (mówiąc oględnie) i przyda mu się mocna aktualizacja. Zła wiadomość jest taka, że ich sześciokrotny wzrost może nie wystarczyć, aby Tegra 4 otrzymała koronę wydajności graficznej w momencie pojawienia się na rynku. Wystarczy spojrzeć na poniższy wykres pochodzący z testu iPhone'a 5:

GPU montowane w najnowszym „jabłkofonie” jest około trzech razy wydajniejsze od GPU Tegry 3. Czip Apple A6X stosowany w najnowszej rewizji iPada jest niecałe dwa razy szybszy w generowaniu obrazu od swojego smartfonowego krewniaka. Czyli ma... pięcio-, sześciokrotnie większą wydajność niż Tegra 3, czyli mniej więcej taką, jakiej możemy się spodziewać po Tegrze 4. I faktycznie, pierwsze testy przedprodukcyjnej wersji czipu Nvidii wskazują, że może ona sobie nie radzić z tabletowym „potworkiem” Apple. Jednak nie powinno to tak naprawdę nikogo dziwić. Tegra 4 ma być montowana zarówno w tabletach, jak i smartfonach, przez co nie może być zbyt duża. Natomiast A6X to układ typowo tabletowy i bezkompromisowy. Ma on ponad 120 mm2, co oznacza o jakieś 50% więcej w porównaniu z Tegrą 4, choć część tej różnicy wynika z tego, że układ Nvidii jest tworzony w procesie 28-nanometrowym, a nie 32-nanometrowym, jak produkt Apple, co pozwala na gęstsze upakowanie elementów. Gdyby Nvidia miała do dyspozycji dodatkowe 50% powierzchni, które mogłaby wykorzystać na rozbudowę układu graficznego, to można by było porównywać ze sobą te dwa czipy i ich osiągi. A tak fizyki i pewnych ograniczeń się nie przeskoczy i Tegra 4 może co najwyżej zawalczyć o pozycję lidera wydajności w smartfonach, bo w tabletach już na starcie nie ma szans.

Ciekawą informacją ze strony Nvidii jest to, że w tak zwanych typowych przypadkach użycia Tegra 4 ponoć pobiera o 45% mniej energii niż jej poprzednik. To stwierdzenie daje duże pole do interpretacji, ale spróbujemy jakoś je wytłumaczyć. Nie mamy żadnych wątpliwości, że w pełni obciążona Tegra 4 ma większy apetyt na prąd od Trójki. Co prawda nie mamy żadnych liczb na poparcie tej tezy, ale wydaje się to logiczne, bo rdzenie Cortex-A15 są dość łakome (świadczą o tym pierwsze testy urządzeń z Exynosem 5250, który ma „zaledwie” dwa takie rdzenie), także dużo mocniejszy układ graficzny powinien mieć spore potrzeby – i pewnie trudno będzie to zrekompensować jedynie za pomocą bardziej efektywnego procesu technologicznego. Jednak pełne obciążenie raczej nie należy do typowych przypadków użytkowania, bo nawet wymagające gry mogą mieć problem z zaprzęgnięciem całej mocy do pracy z powodu synchronizacji pionowej. Czyli Nvidia musi ufać swojemu rdzeniowi towarzyszącemu, który ma wolniejsze zegary i mniejsze napięcie, oraz funkcjom odcinania pozostałych rdzeni od zasilania i sygnału zegarowego. Tegra 3 pokazała, że pomysł ten daje wymierne korzyści, bo choć ma dużo większy od Tegry 2 szczytowy pobór energii w czasie oglądania filmów lub surfowania po internecie i w spoczynku, każdy tablet z Trójką wytrzymywał bez ładowania dłużej od tabletów z Dwójką. Tegra 4 jest wykonana w bardziej energooszczędnym procesie technologicznym, a na dodatek Nvidia zdecydowała się na wykorzystanie jego odmiany zorientowanej na jeszcze większe oszczędności (Trójka była zbudowana głównie z tranzystorów wykonanych w procesie mającym zapewnić szybkie zegary taktujące, a te bardziej energooszczędne wykorzystano tylko do budowy dodatkowego rdzenia), więc nie powinno być problemu z osiągnięciem wyraźnie niższego poboru energii w spoczynku i w trakcie odtwarzania wideo. Czyli znaleźliśmy jeden element układanki.

Poza tym wyższa wydajność procesora pomaga spowolnić zużycie energii akumulatora (wbrew powszechnie pokutującemu mitowi, że więcej rdzeni i szybsze procesory tylko marnują prąd w smartfonach i tabletach). Na przykład w czasie surfowania po internecie dużo bardziej opłacalne jest jak najszybsze ładowanie kolejnych witryn z wykorzystaniem maksymalnej dostępnej mocy i możliwie szybkie przejście w stan spoczynku. Sumarycznie, dużo szybszy procesor, ale o trochę wyższym chwilowym zużyciu energii będzie bardziej energooszczędny w tak zwanych typowych zastosowaniach. Mamy drugi element układanki.

Tak wyglądał „rozkład jazdy” układów Tegra zaprezentowany w 2011 roku. Tegra 4 ma nazwę roboczą Wayne. Znajdź dwa błędy widoczne na tym obrazku ;)

Niewykluczone, że Nvidia, mówiąc o poborze energii Tegry 4, dorzuca oszczędności możliwe za sprawą... czipu komunikacyjnego Icera i500, który będzie jej towarzyszył w smartfonach i tabletach ze slotem na kartę SIM. Jest to pierwszy modem Nvidii stworzony po wykupieniu Icery. Obsługuje HSPA+ i LTE. Ma też ponoć dość umiarkowane zapotrzebowanie na prąd, więc może być trzecim elementem układanki objaśniającej, co oznacza to magiczne 45% mniej energii zużywanej w czasie wykonywania „typowych zadań”.

Początkowo, gdy usłyszeliśmy o tym, że Tegra 4 ma mieć cztery rdzenie Cortex-A15, myśleliśmy, że będzie to czip typowo tabletowy i że nie ma szans trafić do smartfonów. Jednak Nvidia twierdzi, że będzie też stosowany w nowych telefonach z lepszej półki. Skąd nasze wątpliwości? Jak już wspominaliśmy, nowa Tegra powinna mieć większe szczytowe zapotrzebowanie na energię, a przez to prawdopodobnie będzie się też mocniej grzała. Już Tegra 3 potrafiła w niektórych urządzeniach nieźle podgrzać ucho i dłonie, a tu będzie wydzielane jeszcze więcej ciepła (na przykład w czasie grania). Jesteśmy ciekawi, jak to zostanie rozwiązane, ale mamy nadzieję, że producent wie, co robi...

Pierwszym urządzeniem z nowym układem będzie tak zwany Project Shield, czyli androidowa konsola przenośna Nvidii, która wygląda jak pad z doczepionym 5-calowym ekranem o rozdzielczości HD. Nie od dziś wiadomo, że sukces konsoli zależy od liczby i jakości powiązanych z nią gier. Nvidia już od dawna rozwija swoją TegraZone i zachęca twórców gier do tworzenia specjalnych wersji swoich produktów, lepiej przystosowanych do Tegr. Ale teraz to przedsięwzięcie będzie ważniejsze niż kiedykolwiek i sami jesteśmy ciekawi, czy produkt tego typu będzie w stanie walczyć z bardziej tradycyjnymi handheldami, pokroju PlayStation Vita czy Nintendo 3DS.

Tak wygląda pierwsza konsola przenośna Nvidii. Czy odniesie sukces?

3