O pierwszej Tegrze mało kto słyszał, ponieważ nie była zbyt popularna. W praktyce trafiła tylko do jednego „poważnego” urządzenia: odtwarzacza Microsoft Zune HD. Jednak Tegra to nie pierwsze spotkanie Nvidii ze sprzętem przenośnym. Wcześniej firma miała w swojej ofercie linię produktów GoForce, które czasem były wykorzystywane w smartfonach jako zewnętrzny układ graficzny i też nie biły rekordów popularności ;) Teraz sytuacja wygląda trochę inaczej i Tegra 2 to bardzo ważny gracz na rynku, a jego logo widać prawie wszędzie. Nvidia zawdzięcza to głównie odpowiedniemu wyczuciu czasu i po prostu dobremu projektowi układu.
Tegra 2 jak każdy układ SoC (ang. System-on-a-Chip) jest zbiorem kilku „procesorów” upakowanych w jeden kawałek krzemu. Najważniejszymi jego elementami są, oczywiście, dwa rdzenie procesora ARM oraz rdzeń GPU. Jednak poza nimi w środku znajduje się m.in. wyspecjalizowany procesor audio, układy kodujące i dekodujące obraz oraz czip obsługujący aparaty fotograficzne.
W przypadku procesora audio nie ma za bardzo o czym mówić, bo już od paru lat odtwarzanie plików .mp3 nie jest specjalnym problemem dla sprzętu. Nvidia jedynie zachwala, że udało się jej stworzyć wyjątkowo oszczędny układ, który umożliwia odtwarzanie muzyki przy użyciu jedynie 100 mW, ale trudno to zweryfikować. Procesor dekodujący strumień wideo H.264 daje sobie radę z filmami o rozdzielczości 1080p i przepływności do 20 Mb/s. Niestety, dość ograniczony jest wybór profili H.264 dekodowanych filmów, ponieważ Tegra 2 w pełni akceptuje tylko filmy z profilem Baseline, możemy więc zapomnieć o bardziej zaawansowanych „poprawiaczach” obrazu, takich jak CABAC i b-klatki. Są one obsługiwane przez zwykłe rdzenie ARM procesora, co mocno skraca czas działania na baterii podczas odtwarzania filmów oraz ogranicza rozdzielczość i przepływność, które pozwalają płynnie je odtwarzać. Z naszych testów wynika, że w przypadku filmów ze strumieniem H.264 i profilu High można sobie pozwolić na 720p o przepływności ok. 5 Mb/s.
Wróćmy jednak do głównych elementów. Przede wszystkim Tegra 2 jest pierwszym procesorem z dwoma rdzeniami Cortex A9 i ogólnie pierwszym smartfonowo-tabletowym czipem dwurdzeniowym. Co prawda już Corteksy A8, które znajdują się teraz w większości smartfonów, teoretycznie mogły działać w parach, jednak żaden producent sprzętu nie zdecydował się na taki krok. Główną różnicą między modelami Cortex A8 i Cortex A9 jest przejście od wykonywania instrukcji w kolejności do wykonywania ich poza kolejnością, czyli czegoś, co procesory pecetowe robiły w czasach Pentium Pro, a z czego Intel zrezygnował w Atomach, aby ograniczyć pobór energii i powierzchnię rdzenia. Wprowadzenie OoOE (ang. Out of Order Execution) pozwala zwiększyć wydajność procesora oraz ma na celu skrócenie czasu, w którym bezproduktywnie czeka on na dane z pamięci, co oznacza oszczędność prądu, tak cennego w przypadku tego typu konstrukcji.
Druga ważna zmiana dotyczy liczby etapów potoku wykonawczego. Niesławnym intelowskim CPU w architekturze Netburst udało się wbić nam do głowy, że większa liczba etapów pozwala uzyskać szybsze taktowanie, ale nie ma wiele wspólnego z energooszczędnością, ponieważ jakakolwiek pomyłka w przepowiadaniu skoku oznacza bardzo dużo zmarnowanych cykli zegara. Liczba etapów w Corteksie A9 została zmniejszona do 8 (z 13 w Corteksie A8), prawdopodobnie właśnie ze względu na chęć zwiększenia energooszczędności. W Tegrze 2 dwa takie rdzenie znajdują się za megabajtem współdzielonej pamięci podręcznej drugiego poziomu. Nvidia zrezygnowała w swoim projekcie procesora z wektorowych jednostek SIMD (znanych jako NEON), które miałyby się zajmować obliczeniami na liczbach zmiennoprzecinkowych. Zamiast tego zdecydowano się na zwykłe, niewektorowe jednostki zmiennoprzecinkowe. Poza tym, że z „naturalnych” przyczyn nie mogą one wykonywać instrukcji operujących na wektorach danych, są mniej efektywne od bardziej zaawansowanego silnika NEON. Inżynierowie Tegry uzasadniają swój wybór tym, że na razie zaimplementowanie NEON-a nie przyniosłoby dużej poprawy wydajności w obecnie dostępnym oprogramowaniu, a „kosztowałoby” sporo dodatkowych tranzystorów i wymusiło znaczne zwiększenie powierzchni rdzenia procesora. W przyszłości zapewne nikt nie będzie się zastanawiał, czy warto to wprowadzać czy nie (tak jak teraz nikt się nie zastanawia, czy jednostki SSE są potrzebne w „biurkowych” CPU), ale na razie mamy tu pewną różnorodność.
Wiele osób zastanawia się, po co właściwie w smartfonie czy tablecie dwa rdzenie i czy to przypadkiem nie spowoduje jeszcze krótszego czasu działania na baterii. Kwestia przydatności dwóch rdzeni w sprzęcie tego typu w dużej mierze jest związana z tym, w jaki sposób się go wykorzystuje. Jeśli ktoś tylko sprawdza pocztę i dzwoni, to dwa rdzenie faktycznie nie są mu szczególnie potrzebne (chociaż przy okazji zwiększy się szybkość reakcji systemu). Ale już podczas przeglądania stron internetowych dwa rdzenie okazują się bardzo przydatne. Androidowa przeglądarka jest w pełni wielowątkowa i „cięższe” witryny, szczególnie takie z dużą ilością Flasha czy innych technik podobnego kalibru, naprawdę sporo zyskują: ładują się szybciej i działają płynniej.
Poza tym teraz wielordzeniowym procesorom ARM o wiele łatwiej będzie się przebić niż wielordzeniowym x86 kilka lat temu, ponieważ szlaki są już przetarte. Jądro Androida i większa część systemu już od dawna są w pełni przystosowane do wielowątkowości, podobnie jak popularne silniki gier przeznaczonych do urządzeń przenośnych (jak Unreal Engine i nowy idTech), a programiści już są świadomi tego, że wielowątkowość to dobra rzecz. Wygląda więc na to, że coś, na co użytkownicy blaszaków czekali kilka lat, tutaj ma szansę nastąpić znacznie szybciej.
Nie można też zapomnieć o jednej z najważniejszych zalet procesorów wielordzeniowych, czyli zwiększeniu wygody pracy wielozadaniowej. Ktoś, kto przez kilka lat korzystał z układu jednordzeniowego, zapewne pamięta, o ile lepiej pracowało mu się z kilkoma programami naraz, gdy przesiadł się na coś o dwóch rdzeniach (szczególnie gdy jakiś program postanowił się zawiesić i zamiast blokować cały system, obciążając go w stu procentach, dawał się spokojnie „ubić”). Twórcy smartfonów i tabletów bardzo chcieliby umożliwić większą produktywność oraz przyjemną w użyciu wielozadaniowość. Co prawda urządzeniom wciąż trochę do tego brakuje (zarówno z powodu jeszcze nieco zbyt niskiej wydajności, jak i nie do końca przystosowanych systemów operacyjnych), ale dwurdzeniowe procesory ARM to spory krok we właściwym kierunku.
Kwestia energooszczędności dwóch rdzeni nie jest do końca oczywista. Jeśli w pełni obciąży się na dłużej cały SoC, to bez wątpienia będzie on bardziej łakomy na prąd niż jego jednordzeniowy wariant. W praktyce taka sytuacja występuje chyba tylko wtedy, gdy gramy w jakąś wymagającą grę, typu Dungeon Defender, ale wówczas dzięki drugiemu rdzeniowi zyskujemy sporo płynności, więc da się to jakoś przeżyć. W innych przypadkach dodatkowe „jajo” może się w praktyce przyczynić do poprawienia energooszczędności całego układu. Podczas odtwarzania filmów drugi rdzeń praktycznie niczego tu nie zmienia, gdyż cały procesor znajduje się w bardzo „niskim” stanie energetycznym, bo większość pracy wykonuje wyspecjalizowany dekoder wideo. Również w trakcie przeglądania stron internetowych nie ma szczególnej różnicy lub jest ona na korzyść większej liczby rdzeni. Ponieważ w Androidzie szybkość ładowania bardziej zaawansowanych stron i wykonywania różnych skryptów skaluje się prawie że liniowo z liczbą rdzeni, a przynajmniej wyraźnie się zwiększa, procesor znacznie szybciej może przejść w „niższy” stan energetyczny – obniżyć napięcie oraz spowolnić zegary. W przypadku takich operacji, jak przewijanie i przybliżanie tekstu, rozbicie zadań na dwa rdzenie pozwala utrzymać wolniejsze zegary i niższe napięcie, co oznacza dalsze oszczędności. Widzimy więc, że w praktyce dodatkowe tranzystory nie powinny wpłynąć negatywnie na czas działania na baterii, a przy tym dają całkiem sporo wymiernych korzyści.
Kochanie, zmniejszyłem naszego geforce'a!
A co z GPU, czyli największym (pod względem zajmowanej powierzchni) elementem Tegry 2, znanym także jako GeForce ULP (ang. Ultra Low Power)? W przeciwieństwie do rdzeni procesora rdzeń graficzny został w pełni zaprojektowany przez Nvidię (w sumie tylko rdzenie procesora nie zostały stworzone przez inżynierów tej firmy) i przywodzi na myśl... pierwszą połowę ubiegłego 10-lecia. Po pierwsze – ze względu na dane techniczne. Nvidia mówi o ośmiu rdzeniach w GPU Tegry 2. Po przyjrzeniu się tej kwestii zauważamy, że tych osiem rdzeni to w praktyce cztery pary jednostek cieniowania wierzchołków i pikseli, podobne do tego, co można było spotkać w kartach graficznych przed erą jednostek zunifikowanych, zapoczątkowaną przez GeForce'y serii 8000.
Zaraz, zaraz... Cztery jednostki przetwarzające piksele i cztery jednostki przetwarzające wierzchołki to trochę więcej niż... w GeForsie 6200, który miał ich, odpowiednio, cztery i trzy. Teoretyczna wydajność obu tych rozwiązań także jest w miarę zbliżona. W przypadku tegrowego układu graficznego mówi się o maksymalnej szybkości wypełniania pikselami rzędu 1,2 gigapiksela, gdy zegar działa z prędkością 300 MHz, podczas gdy GeForce 6200 to 700 megapikseli, a układ graficzny pierwszego Xboksa (zresztą także wyprodukowany przez Nvidię i mający cztery jednostki cieniowania pikseli) to niecały gigapiksel maksymalnej teoretycznej wydajności. Działa na wyobraźnię? Oczywiście, to tylko teoria i puste liczby, bo gigapiksel gigapikselowi nierówny (szczególnie gdy porównuje się dane podawane dla GPU rasteryzujących i te dla GPU, które wolą „kafelki”, jak PowerVR). Ale mimo wszystko pozwala nam to mniej więcej określić, gdzie jesteśmy, jeśli chodzi o wydajność sprzętu przenośnego w odniesieniu do stacjonarnego.
Druga ciekawa analogia, o której powiemy, zanim przejdziemy do konkretów, dotyczy konkurencji Nvidii na tym rynku. Pewnie mało kto to wciąż pamięta, ale na przełomie wieków pojawiły się karty graficzne Kyro, które korzystały z trzeciej generacji układów graficznych PowerVR. W swoim czasie miały one całkiem przyzwoitą wydajność, ale nie wytrzymały, niestety, rywalizacji z... Nvidią i ATI. Od tamtej pory PowerVR to były głównie projekty skierowane na rynek wymagający jak najmniejszego poboru energii. Teraz rodzina układów SGX jest jedną z najczęściej wykorzystywanych w procesorach mobilnych i PowerVR udało się uwić na tym polu całkiem wygodne gniazdko. W pewnym sensie wracamy więc do konfliktu sprzed 10 lat ;) Kto tym razem wygra?
W tym momencie wraca jeszcze jeden stary konflikt, czyli pytanie o to, czy lepiej renderować obraz za pomocą kafelków (tak jak w PowerVR), czy lepiej postawić na rasteryzację. Ta kwestia jest teraz jeszcze ważniejsza, niż była kiedyś, ponieważ wygląda na to, że pewne mocne strony „kafelków” sprzyjają małemu poborowi mocy, więc Nvidia, świadoma tego, jest zmuszona do kombinowania. Główne zalety TBDR (ang. Tile Based Deffered Rendering) układów PowerVR w porównaniu ze standardową rasteryzacją GeForce'ów to mniejsze zapotrzebowanie na przepustowość pamięci oraz prawie „darmowe” wygładzanie krawędzi i multiteksturowanie.
Pierwsza kwestia jest szczególnie ważna. Przepustowości pamięci w mobilnych układach zintegrowanych nigdy za dużo: jest ona bardzo ograniczona i układ graficzny musi się nią dzielić z procesorem. Na dodatek częste odwoływanie się do pamięci i przesyłanie z niej dużych ilości danych bardzo szybko zużywałoby akumulatory naszych smartfonów i tabletów, więc trzeba je ograniczyć do niezbędnego minimum. W jaki sposób? Niektóre sztuczki są dobrze znane od lat ze sprzętu większego kalibru. Jedną z nich jest wczesny test Z, który towarzyszy nam już od GeForce'ów 3.
W czym tkwi magia? Przypuśćmy, że mamy do wyrenderowania postać stojącą przed ścianą. W przypadku standardowej rasteryzacji idącej zgodnie z potokiem OpenGL GPU musi policzyć kolor piksela ściany, jak i postaci, która przed nią stoi, nawet jeśli ściana jest całkowicie zasłonięta. Dopiero prawie na samym końcu piksel ściany jest odrzucany i zastępowany widzianym przez nas kolorem lateksu na bohaterce gry. Ach, ta wyobraźnia... ;) Słyszycie ten dźwięk? To syk uciekających cennych miliamperogodzin Waszych baterii. Wczesny test Z pozwala na odrzucenie niewidocznych pikseli, zanim przejdą przez prawie wszystkie etapy kolorowania i pobierania dla nich informacji o teksturze itd. To rozwiązanie nie jest stuprocentowo skuteczne, ale jest bardzo efektywne w tym, co robi, i pozwala zaoszczędzić sporo energii oraz wydajności.
Druga sztuczka to także nic nowego, ale z pewnego powodu warto o niej wspomnieć. Chodzi o wykorzystanie pamięci podręcznej tekstur i pikseli. Brzmi znajomo? Oczywiście, bo gracze komputerowi są do tego rozwiązania przyzwyczajeni od lat. Dzięki takiej pamięci podręcznej i wcześniejszemu umieszczaniu w niej danych zyskujemy sporo wydajności oraz ograniczamy odwołania do zewnętrznej pamięci systemowej. Na czym polega ciekawostka? Otóż Nvidia zrozumiała, że w przypadku tego typu technik lepiej korzystać z wyspecjalizowanych bloków pamięci podręcznej zamiast pamięci ogólnego przeznaczenia. Warto na to zwrócić uwagę, ponieważ dobrze obrazuje, jak różne zastosowania wymuszają odmienne podejście do projektowania niektórych elementów układów graficznych. Gdy na rynek wchodził Fermi, Nvidia chwaliła się, że ma on „prawdziwą” pamięć podręczną drugiego poziomu. Teraz ta sama Nvidia tłumaczy, że ta „prawdziwa” byłaby be w GeForsie ULP, bo jest mniej efektywna energetycznie od wyspecjalizowanej pamięci tekstur i pikseli.
Ostatnią sztuczką jest optymalizacja wygładzania krawędzi przez wykorzystanie... CSAA. Pisaliśmy już kiedyś o tej technice, więc po więcej szczegółów odsyłamy do starszych materiałów, a teraz pokrótce przypomnimy, o co chodziło. Wygładzanie krawędzi w układach graficznych posługujących się rasteryzacją jest bardzo „drogim” obliczeniowo procesem. CSAA pozwala zmniejszyć związane z nim obciążenie i obniżyć wymagania dotyczące przepustowości, a to dzięki temu, że GPU zamiast próbek MSAA wykorzystuje próbki pokrycia, które w praktyce są prostymi znacznikami niewymagającymi pobierania i zapisywania dużych ilości danych z pamięci. Słyszycie ten dźwięk? To znowu Wasze baterie, ale tym razem oddychają z ulgą ;) GeForce ULP potrafi skorzystać z trybu określanego jako 5× CSAA, w którym jest wykorzystywana tylko jedna prawdziwa próbka piksela oraz cztery próbki pokrycia, dzięki czemu koszt energetyczny i obliczeniowy takiego wygładzania jest bardzo mały.
Ciekawe, że Nvidia podkreśla swoje architektoniczne dokonania na polach, na których układy korzystające z renderowania kafelkowego są mocne „z definicji”, prawda? W tym momencie możemy powiedzieć, że całość wyszła całkiem nieźle i że GeForce w Tegrze 2 jest faktycznie „Ultra Low Power”.
Jeśli chodzi o układ graficzny Tegry 2, warto jeszcze wspomnieć o tym, że został on tak zaprojektowany, aby w jak największym stopniu odciążać rdzenie ARM w czasie odtwarzania animacji Flash. Efekt jest taki, że na stronach WWW procesor ma z nimi niewiele roboty, dzięki czemu może zająć się innymi zadaniami związanymi z generowaniem witryny albo po prostu zostaje zapas mocy obliczeniowej, który można wykorzystać na wielozadaniowość. W praktyce działa to naprawdę sprawnie. O ile w starszych urządzeniach Flash był jedną z pierwszych rzeczy, które wyłączaliśmy, aby dało się w miarę sensownie przeglądać informacje w internecie, o tyle w modelach z Tegrą 2 prawie nie ma takiej potrzeby, bo płynność działania przeglądarki jest już znośna. Oczywiście, jeszcze trochę więcej wydajności nikomu by nie zaszkodziło, ale jest to krok we właściwym kierunku.
Pierwsze tablety z Tegrą 2
W ostatnich tygodniach mieliśmy mniejszą lub większą styczność z trzema tabletami różnego typu z tegrą 2 na pokładzie. W przyszłości (w przypadku niektórych z nich – dość niedalekiej) możecie się spodziewać pełnych recenzji, a na razie krótka prezentacja.
Pierwszym z nich jest model Toshiby o nazwie ANT-100. Egzemplarz, który otrzymaliśmy, był bardzo wczesną wersją przedprodukcyjną, o czym świadczy chociażby to, że zamiast docelowego Androida 3.0, z którym ma się pojawić na rynku, zainstalowano w nim czystego Androida 2.2 (takiego prosto z SDK, bez Google Apps i bez żadnych optymalizacji tabletowych). W tym urządzeniu jest kilka nietypowych rozwiązań, jak czytnik kart SD (takich zwykłych, nie mikro) i port mini-USB (prawdopodobnie z funkcją koncentratora, czego na razie nie dało się zweryfikować). Jego ekran ma przekątną o długości 10 cali i rozdzielczość 1280×800. W porównaniu z innymi tabletami jest dość gruby i ciężki, przez co nie trzyma się go zbyt wygodnie, nawet pomimo specyficznego antypoślizgowego materiału pokrywającego jego tył. Szkło wykorzystane w ekranie niezwykle szybko łapie wszelkie odciski, które później wyjątkowo trudno się usuwa, co na dłuższą metę potrafi być męczące. Trudno powiedzieć coś więcej na podstawie sprzętu przedprodukcyjnego, ale na razie nie jesteśmy zachwyceni tym projektem.
Drugim był HannSpree HannsPad HSG1164. Pod trochę mało chwytliwą nazwą kryje się tablet celujący w nieco mniej wymagających odbiorców, o mniej zasobnych portfelach. Dziesięciocalowy wyświetlacz ma mniejszą niż zwykle rozdzielczość: 1024×600 pikseli. To od razu powoduje, że można zapomnieć o Androidzie 3.0, ponieważ jest on zarezerwowany dla urządzeń z ekranami o wyższej rozdzielczości. Zamiast tego dostajemy Androida 2.2, który został skrzętnie ukryty pod bardzo rozbudowaną nakładką Tap'n'Tap, zapewniającą łatwy dostęp do podstawowych funkcji. Działa to całkiem sprawnie i w miarę przyjemnie, ale ma jedną dużą wadę: brak dostępu do pełnego marketu Androida. W bardzo podobnym tablecie ViewSonic G udało się obejść to ograniczenie i mamy nadzieję, że da się to zrobić także w tym. Ogólnie sprzęt nie zachwyca, ale też nie rozczarowuje – dostajemy to, za co płacimy.
Na koniec nasz ulubieniec, czyli Asus Eee Pad Transformer, który będzie sprzedawany w zestawie z bardzo przydatną stacją dokującą, zamieniającą tablet w netbooka. Bardzo przypadło nam do gustu wzornictwo oraz ogólna jakość wykonania. Matryca IPS o rozdzielczości 1280×800 i przekątnej 10 cali także spisuje się świetnie. Tablet sam w sobie jest bardzo przyjemnym urządzeniem, ale wspomniany przed chwilą dok-klawiatura jest po prostu strzałem w dziesiątkę. Nie tylko zyskujemy wygodną klawiaturę i... panel dotykowy do sterowania wskaźnikiem: oprócz tego stacja pełni funkcję dodatkowej baterii (producent gwarantuje 12–13 godzin przeglądania internetu) oraz zapewnia dodatkowe złącza, takie jak czytnik kart SD (obok czytnika micro-SD w głównej części tabletu) oraz port USB, do którego możemy na przykład podłączyć pamięć USB. Całość bardzo nam się spodobała i na dodatek jest w miarę dobrze wyceniona, więc nic dziwnego, że Asus nie nadąża z zaspokajaniem popytu na ten sprzęt.
Testy wydajności
Dość łatwo porównać wydajność różnych procesorów, ale w przypadku układów graficznych jest trudniej, bo wszystkie aplikacje 3D zawsze są uruchamiane w standardowej rozdzielczości ekranu. Ponieważ jeszcze nie mieliśmy do dyspozycji żadnego smartfona z tegrą 2 o rozdzielczości ekranu 800×480, która pozwalałaby na bezpośrednie porównanie różnych układów, wyniki testów 3D należy traktować z przymrużeniem oka, pamiętając, że tablety mają sporo większą rozdzielczość od smartfonów.
Szczególnie ciekawe są wyniki, które Quadrant uzyskał w testach procesora oraz pamięci. W teście CPU Asus Transformer z tegrą 2 wyraźnie zostawia konkurencję w tyle: uzyskuje wynik o 30% lepszy od drugiego w zestawieniu smartfona ze snapdragonem ostatniej generacji. Test wydajności RAM-u przypomina nam o tym, że w Tegrze 2 stosuje się LPDDR 2 667 MHz, która jest sporo szybsza od tego, co do tej pory montowano w większości urządzeń przenośnych. Ponownie to powiemy: przepustowości pamięci nigdy za dużo.
W pierwszym teście GPU tablet HannSpree z tegrą 2 uzyskuje wynik o około 25% gorszy od smartfonów z procesorem Samsung Hummingbird, mając o 60% więcej pikseli do wyrenderowania. Imponujące. Ciekawe są też wyniki testów procesora. O ile szybkość obliczeń na liczbach całkowitych nie zachwyca, to zmiennopozycyjne przynoszą całkowity nokaut w wykonaniu nowego układu Nvidii.
Niedawno zaczęliśmy testować urządzenia w nowszej wersji GLBenchmarka, wykorzystującej OpenGL ES 2.0. Na razie nie mamy zbyt wielu wyników, więc nie bardzo jest co opisywać i porównywać. Ale w przyszłości na pewno będzie tego więcej!
Testy przeglądarkowe pokazały nam przypadkiem różnicę w wydajności między jednym rdzeniem a dwoma, bo wygląda na to, że przeglądarka HannsPada w fabrycznej konfiguracji nie wykorzystuje więcej niż jednego. Widzimy więc, że przy większej liczbie bardziej zaawansowanych skryptów JavaScript szybkość ich wykonywania wzrasta praktycznie liniowo ze wzrostem liczby rdzeni. To naprawdę łatwo odczuć.
Linpack pokazuje wydajność pojedynczego rdzenia. W tym teście usprawnienia architektoniczne i szybsza pamięć zapewniają około 10% przewagi nad Snapdragonem taktowanym tym samym zegarem.
TegraZone, czyli prawie jak TWIMTBP
The Way It's Meant to Be Played to znany program Nvidii mający na celu wspieranie twórców gier oraz „przy okazji” promowanie marki GeForce wśród graczy. Trzeba przyznać, że od lat (pomimo różnych kontrowersji) okazuje się on całkiem udany i zapewne przyniósł firmie wiele korzyści, o czym świadczy to, że wraz z Tegrą chce ona powołać do życia coś podobnego, a nawet pójść o krok dalej. Tegra Zone to inicjatywa mająca pomagać twórcom gier na urządzenia przenośne, tak aby działały jak najlepiej na sprzęcie z tegrą 2. W zamian za pomoc w tworzeniu i promowaniu gry jej producent umieszcza w grze logo Nvidii oraz jest zobowiązany do dodania czegoś „ekstra”, co będzie działało tylko w modelach z tegrą.
Na pierwszy rzut oka przypomina to trochę promowanie PhysX-a, ale jest tu jeszcze jeden niuans, który może mieć daleko idący wpływ na rozwój androidowych gier. Otóż Tegra Zone to także aplikacja, która zbiera do jednego worka wszystkie gry działające na tegrowych „sterydach”, dzięki czemu dużo łatwiej jest je znaleźć w dżungli zwanej Android Market. Coś takiego jak reklama gier przenośnych prawie nie istnieje, więc nowym tytułom trudno się przebić do świadomości potencjalnych klientów. Tegra Zone ma to ułatwić, bo wszystkie promowane pozycje znajdują się w jednym miejscu. Na dodatek Nvidia ma w ten sposób dbać o informowanie o nadchodzących nowościach na tym rynku.
Widzimy więc, że zielony gigant chce stworzyć całą otoczkę, dzięki której twórcom będzie łatwiej dotrzeć do klientów, a graczom – znaleźć w gąszczu nijakości interesujące ich gry. A przy okazji Nvidia dba o swoje interesy, w tym o to, aby kojarzono ją z najlepszą jakością. Wystarczy się nad tym chwilę zastanowić, aby dostrzec, na co ma chętkę producent Tegry.
Otóż Android w tym momencie mocno przegrywa z urządzeniami Apple'a pod względem liczby i jakości gier. Na razie posiadacze tabletów i smartfonów z systemem Google'a mogą jedynie ślinić się na myśl o grach pokroju Rage, Infinity Blade czy Dead Space. Powodów takiego stanu rzeczy jest wiele, ale zapewne po części „winna” jest mnogość rodzajów sprzętu (np. procesorów i kart graficznych) w androidowym ekosystemie. Producent gry nie wie, na czym będą ją uruchamiać ci, którzy ją kupią, i jeśli chce trafić do jak największej liczby odbiorców, musi tak dostosować wymagania systemowe, aby dało się w miarę komfortowo grać na przeciętnym sprzęcie.
Tegra Zone rozwiązuje ten problem. Twórca dokładnie wie, czego może się spodziewać i na co może sobie pozwolić, pisząc kod, tak jak w przypadku urządzeń Apple'a. Na dodatek dobrzy wujkowie programiści podpowiedzą, jak to wszystko zoptymalizować, i pomogą przetestować produkt na wszystkich dostępnych urządzeniach z tegrą na pokładzie. Dzięki temu wersje gier dostosowane do nowego układu mogą mieć dodatkowe opcje lub mogą ładniej wyglądać, bo producent ma pewność, że wszystko będzie działać i że ktoś, kto kupi jego program, nie wystawi jednej gwiazdki, bo coś mu nie działa albo ma pokaz slajdów zamiast płynnej gry na swoim dwuletnim sprzęcie.
To wszystko brzmi bardzo zachęcająco i może przyciągnąć do Androida więcej poważnych twórców gier przenośnych. Może się też pojawić pewien skutek uboczny, który jest dobrze znany posiadaczom stacjonarnych konsol, czyli tak zwane ekskluziwy. Na razie wszystkie gry w Tegra Zone to podrasowane wersje tytułów dostępnych w wariancie przeznaczonym na wszystkie urządzenia, ale kto wie, czy kiedyś Nvidia nie dogada się z kimś co do wydania gry, która będzie działała tylko na urządzeniach z tegrą. Jeśli będą one stanowiły wystarczająco duży procent wszystkich tabletów i smartfonów, to ta wizja wcale nie jest taka nieprawdopodobna...
Jest jeszcze jeden element strategii Nvidii, który może być jej asem w rękawie. Zapewne sporo osób słyszało już o Xperia Play, czyli skrzyżowaniu przenośnej konsoli ze smartfonem, dla której Sony ma wydawać na zasadach wyłączności gry rodem z PlayStation i PlayStation 2. Okazuje się, że Nvidia i Sony dogadały się, aby wszystkie te gry były w przyszłości dostępne także dla posiadaczy urządzeń z tegrą. Na dodatek przyszłe tablety Sony-Ericsson mają mieć na pokładzie coś od „zielonych”. Jeśli pomysł z Tegra Zone wypali i gry przenośne spod znaku Sony będą naprawdę dobre, to może się okazać, że Nvidia będzie dla wielu synonimem wysokiej jakości platformy do grania w tramwaju. A wtedy Texas Instruments i Qualcomm mogą mieć twardy orzech do zgryzienia, próbując przekonać ludzi, że ich sprzęt nie jest gorszy.
Mogliśmy przyjrzeć się bliżej trzem grom spośród kilku obecnie dostępnych w Tegra Zone. Pierwsza to podrasowana wersja znanego i lubianego Fruit Ninja, czyli radosne ciachanie palcem wystrzeliwanych w powietrze owoców. Wersja THD (od Tegra HD, bo przecież HD musi znaleźć się wszędzie ;)) wygląda sporo lepiej od oryginału. Widać to chociażby po owocach, które teraz są o wiele bardziej okrągłe oraz ładniej oteksturowane i ocieniowane. Na dodatek wszystkie efekty graficzne wyglądają dużo nowocześniej. Rezultat jest taki, że o ile to nadal ta sama stara, dobra gra, to na tablecie z tegrą arbuzy rozcina się jakoś przyjemniej.
Druga to korzystająca z silnika Unreal Engine Dungeon Deffenders. Jest znana z ładnej grafiki i z tego, że jest pierwszą grą na Androida, która wymaga 512 MB RAM-u. Na sprzęcie z tegrą działa wyraźnie płynniej niż na przykład na galaxy S Samsunga. Na dodatek wersja Deluxe (czyli „Tegra Special” ;)) ma całkiem sporo dodatkowej zawartości: dwa razy więcej map (12 zamiast 6) i ekwipunku. Oprócz tego postaci i sceny składają się ze znacznie większej liczby wielokątów i widać mniej agresywne mechanizmy LoD (ang. Level of Detail), dzięki czemu otoczenie zachowuje więcej szczegółów, gdy patrzymy na nie z oddali.
Ostatnia z trójki to Samurai 2: Vengeance. Trzeba przyznać, że działa niesamowicie płynnie – nie ma mowy o żadnych spowolnieniach animacji. A przy tym wersja przeznaczona dla Tegry 2 charakteryzuje się czterokrotnie wyższą rozdzielczością tekstur, dodatkowymi efektami graficznymi oraz większą złożonością modeli postaci. W praktyce robi to naprawdę niezłe wrażenie.
Gdzie nas zaprowadzi przyszłość?
Przyszłość przyniesie na pewno więcej Tegry. Konkurencja na tym rynku jest niezwykle zażarta, a sytuacja zmienia się w błyskawicznym tempie. Ale już teraz można powiedzieć, że Tegra 2 nie jest najwydajniejszym układem instalowanym w tabletach, bo wszystko wskazuje na to, że montowany w nowych iPadach chip Apple A5 jest sporo wydajniejszy (głównie graficznie). Za rogiem czai się odpowiedź Qualcomma o kilku dość imponujących możliwościach i zegarze 1,2 GHz, a w BlackBerry PlayBook znalazł się najnowszy dwurdzeniowy procesor Texas Instruments, który depcze Tegrze po piętach. Inżynierowie Nvidii muszą się nieźle napocić, aby pozostać w czołówce, do której wdarli się dzięki obecnej generacji swoich SoC-ów. I faktycznie tempo wygląda (przynajmniej na papierze) na zawrotne.
Jeszcze w tym roku Nvidia wprowadzi procesor o nazwie Kal-el, który ma mieć 4 rdzenie Cortex A9 (tym razem już z NEON-em), a także „12-rdzeniowe” GPU. Nie wiemy, co dokładnie będzie oznaczało tych 12 rdzeni. 6 jednostek do przetwarzania pikseli i 6 do przetwarzania wierzchołków? 8 plus 4? A może 12 jednostek zunifikowanych? Zapowiadany jest pięciokrotny wzrost wydajności względem obecnej generacji, co zapewne wynika z podwojenia liczby rdzeni, podwojenia szybkości taktowania i jakichś dodatkowych usprawnień. Zapowiedzi zweryfikuje rzeczywistość, ale wygląda to imponująco.
A co dalej? „Rozkład jazdy” pokazuje, że w najbliższym czasie planowany jest pięciokrotny wzrost wydajności w nieparzyste lata, a dwukrotny w parzyste (względem wcześniejszej generacji). Dwu- i pięciokrotne wzrosty zapewne będą wynikały z dostępnej technologii wytwarzania układów tego typu (pięciokrotny przy przejściu o tzw. fullnode i dwukrotny przy przejściu na „halfnode”). W 2014 roku ma nam dać to układ... 100 razy wydajniejszy od Tegry 2. Trzeba przyznać, że są to bardzo ambitne plany. Mamy wątpliwości, czy faktycznie będzie 100 razy szybciej, ale bez wątpienia w najbliższych latach będziemy obserwować bardzo dynamiczny wzrost wydajności układów tego typu i można być niemalże pewnym, że Nvidia będzie jednym z ważniejszych graczy w tej batalii. To trochę jak historia rozwoju stacjonarnych rozwiązań w pomniejszeniu i w przyspieszonym tempie ;) Za sobą mamy już przejście na wykonywanie instrukcji poza kolejnością, pierwsze rozwiązanie dwurdzeniowe itd., a przed nami pierwszy czterordzeniowiec, zunifikowane jednostki w układach graficznych (chociaż inżynierowie PowerVR w gruncie rzeczy zrobili to już jakiś czas temu...) i kto tam wie co jeszcze.
Odchodząc trochę od Tegry (choć nie za daleko)... Przed sobą mamy jeszcze jedno bardzo ważne wydarzenie: starcie między układami z procesorami ARM a od dawna niezagrożoną architekturą x86. Wstępne oznaki tej rywalizacji obserwowaliśmy, gdy pojawił się pierwszy Atom, a Intel w swoich prezentacjach lubił go porównywać z procesorami ARM. Oczywiście, wtedy jeszcze było za wcześnie na takie porównania, bo wszyscy wiemy, jak skończyły się próby wejścia Intela na rynek urządzeń mniejszych niż netbooki, ale teraz to starcie jest chyba nieuniknione. Smartfony i tablety skutecznie „przycięły” rynek netbooków, które zdążyły niemal odejść w niebyt (przynajmniej w porównaniu z tym, co działo się w 2009 roku). Takie konstrukcje i projekty, jak Motorola Atrix z dokiem naśladującym notebooka i Asus Eee Pad Transformer, pokazują, w którą stronę rozwija się sytuacja. Smartfony i tablety nie chcą być już tylko gadżetami, lecz próbują z całych sił stać się centrum przenośnej pracy. Na razie ich wydajność jest jeszcze trochę za niska, ale wystarczy jedna lub dwie generacje, i układy z procesorami ARM powinny mieć wydajność wystarczającą do tego typu zastosowań.
Ponadto Microsoft zapowiedział oficjalnie, że Windows 8 też będzie dostępny w wersji przystosowanej do architektury ARM. Już widzimy te porównania wydajności procesorów, które wtedy powstaną. Poza tym Corteksy A15 mają mieć sprzętową wirtualizację i przypuścić szturm na... rynek serwerów. Na dodatek Intel nadal rozwija swoje Atomy i nadchodząca platforma Cedar Trail, korzystająca z zalet 32-nanometrowego procesu technologicznego, może stać się pierwszym prawdziwym rywalem dla układów ARM w dziedzinie zużycia energii. Przecięcie się dróg rozwoju architektur x86 i ARM jest bardzo bliskie – i będzie się iskrzyło. Praktyka pokaże, kto wyjdzie z tej batalii zwycięsko, ale mamy wrażenie, że rynek komputerów za kilka lat będzie wyglądał zupełnie inaczej niż teraz, a firmy Intel i AMD będą miały nową, silną konkurencję.