artykuły

Nvidia Tegra 2 – znajomy gracz w nowym środowisku

Zielona rewolucja?

29
10 maja 2011, 13:36 Mieszko Krzykowski
Z czym się nam kojarzy Nvidia? Oczywiście – z GeForce'ami. Ale ten czołowy producent pecetowych kart graficznych od jakiegoś czasu szuka rynków, na których mógłby powalczyć o nowych klientów. Jednym z nich jest segment procesorów opartych na architekturze ARM, który ostatnio rozwija się bardzo dynamicznie, i kilka firm zastanawia się, w jaki sposób zapewnić sobie jak największy kawałek tortu. Nvidia o swój walczy serią procesorów Tegra, których druga generacja okazała się niemałym sukcesem. W najbliższym czasie będziemy o niej słyszeć całkiem sporo, a to ze względu na mnogość korzystających z niej urządzeń. Czym więc jest Tegra 2 i dlaczego jest taka „fajna”?

Spis treści

O pierwszej Tegrze mało kto słyszał, ponieważ nie była zbyt popularna. W praktyce trafiła tylko do jednego „poważnego” urządzenia: odtwarzacza Microsoft Zune HD. Jednak Tegra to nie pierwsze spotkanie Nvidii ze sprzętem przenośnym. Wcześniej firma miała w swojej ofercie linię produktów GoForce, które czasem były wykorzystywane w smartfonach jako zewnętrzny układ graficzny i też nie biły rekordów popularności ;) Teraz sytuacja wygląda trochę inaczej i Tegra 2 to bardzo ważny gracz na rynku, a jego logo widać prawie wszędzie. Nvidia zawdzięcza to głównie odpowiedniemu wyczuciu czasu i po prostu dobremu projektowi układu.

Tegra 2 jak każdy układ SoC (ang. System-on-a-Chip) jest zbiorem kilku „procesorów” upakowanych w jeden kawałek krzemu. Najważniejszymi jego elementami są, oczywiście, dwa rdzenie procesora ARM oraz rdzeń GPU. Jednak poza nimi w środku znajduje się m.in. wyspecjalizowany procesor audio, układy kodujące i dekodujące obraz oraz czip obsługujący aparaty fotograficzne.

W przypadku procesora audio nie ma za bardzo o czym mówić, bo już od paru lat odtwarzanie plików .mp3 nie jest specjalnym problemem dla sprzętu. Nvidia jedynie zachwala, że udało się jej stworzyć wyjątkowo oszczędny układ, który umożliwia odtwarzanie muzyki przy użyciu jedynie 100 mW, ale trudno to zweryfikować. Procesor dekodujący strumień wideo H.264 daje sobie radę z filmami o rozdzielczości 1080p i przepływności do 20 Mb/s. Niestety, dość ograniczony jest wybór profili H.264 dekodowanych filmów, ponieważ Tegra 2 w pełni akceptuje tylko filmy z profilem Baseline, możemy więc zapomnieć o bardziej zaawansowanych „poprawiaczach” obrazu, takich jak CABAC i b-klatki. Są one obsługiwane przez zwykłe rdzenie ARM procesora, co mocno skraca czas działania na baterii podczas odtwarzania filmów oraz ogranicza rozdzielczość i przepływność, które pozwalają płynnie je odtwarzać. Z naszych testów wynika, że w przypadku filmów ze strumieniem H.264 i profilu High można sobie pozwolić na 720p o przepływności ok. 5 Mb/s.

Wróćmy jednak do głównych elementów. Przede wszystkim Tegra 2 jest pierwszym procesorem z dwoma rdzeniami Cortex A9 i ogólnie pierwszym smartfonowo-tabletowym czipem dwurdzeniowym. Co prawda już Corteksy A8, które znajdują się teraz w większości smartfonów, teoretycznie mogły działać w parach, jednak żaden producent sprzętu nie zdecydował się na taki krok. Główną różnicą między modelami Cortex A8 i Cortex A9 jest przejście od wykonywania instrukcji w kolejności do wykonywania ich poza kolejnością, czyli czegoś, co procesory pecetowe robiły w czasach Pentium Pro, a z czego Intel zrezygnował w Atomach, aby ograniczyć pobór energii i powierzchnię rdzenia. Wprowadzenie OoOE (ang. Out of Order Execution) pozwala zwiększyć wydajność procesora oraz ma na celu skrócenie czasu, w którym bezproduktywnie czeka on na dane z pamięci, co oznacza oszczędność prądu, tak cennego w przypadku tego typu konstrukcji.

Druga ważna zmiana dotyczy liczby etapów potoku wykonawczego. Niesławnym intelowskim CPU w architekturze Netburst udało się wbić nam do głowy, że większa liczba etapów pozwala uzyskać szybsze taktowanie, ale nie ma wiele wspólnego z energooszczędnością, ponieważ jakakolwiek pomyłka w przepowiadaniu skoku oznacza bardzo dużo zmarnowanych cykli zegara. Liczba etapów w Corteksie A9 została zmniejszona do 8 (z 13 w Corteksie A8), prawdopodobnie właśnie ze względu na chęć zwiększenia energooszczędności. W Tegrze 2 dwa takie rdzenie znajdują się za megabajtem współdzielonej pamięci podręcznej drugiego poziomu. Nvidia zrezygnowała w swoim projekcie procesora z wektorowych jednostek SIMD (znanych jako NEON), które miałyby się zajmować obliczeniami na liczbach zmiennoprzecinkowych. Zamiast tego zdecydowano się na zwykłe, niewektorowe jednostki zmiennoprzecinkowe. Poza tym, że z „naturalnych” przyczyn nie mogą one wykonywać instrukcji operujących na wektorach danych, są mniej efektywne od bardziej zaawansowanego silnika NEON. Inżynierowie Tegry uzasadniają swój wybór tym, że na razie zaimplementowanie NEON-a nie przyniosłoby dużej poprawy wydajności w obecnie dostępnym oprogramowaniu, a „kosztowałoby” sporo dodatkowych tranzystorów i wymusiło znaczne zwiększenie powierzchni rdzenia procesora. W przyszłości zapewne nikt nie będzie się zastanawiał, czy warto to wprowadzać czy nie (tak jak teraz nikt się nie zastanawia, czy jednostki SSE są potrzebne w „biurkowych” CPU), ale na razie mamy tu pewną różnorodność.

Wiele osób zastanawia się, po co właściwie w smartfonie czy tablecie dwa rdzenie i czy to przypadkiem nie spowoduje jeszcze krótszego czasu działania na baterii. Kwestia przydatności dwóch rdzeni w sprzęcie tego typu w dużej mierze jest związana z tym, w jaki sposób się go wykorzystuje. Jeśli ktoś tylko sprawdza pocztę i dzwoni, to dwa rdzenie faktycznie nie są mu szczególnie potrzebne (chociaż przy okazji zwiększy się szybkość reakcji systemu). Ale już podczas przeglądania stron internetowych dwa rdzenie okazują się bardzo przydatne. Androidowa przeglądarka jest w pełni wielowątkowa i „cięższe” witryny, szczególnie takie z dużą ilością Flasha czy innych technik podobnego kalibru, naprawdę sporo zyskują: ładują się szybciej i działają płynniej.

Poza tym teraz wielordzeniowym procesorom ARM o wiele łatwiej będzie się przebić niż wielordzeniowym x86 kilka lat temu, ponieważ szlaki są już przetarte. Jądro Androida i większa część systemu już od dawna są w pełni przystosowane do wielowątkowości, podobnie jak popularne silniki gier przeznaczonych do urządzeń przenośnych (jak Unreal Engine i nowy idTech), a programiści już są świadomi tego, że wielowątkowość to dobra rzecz. Wygląda więc na to, że coś, na co użytkownicy blaszaków czekali kilka lat, tutaj ma szansę nastąpić znacznie szybciej.

Nie można też zapomnieć o jednej z najważniejszych zalet procesorów wielordzeniowych, czyli zwiększeniu wygody pracy wielozadaniowej. Ktoś, kto przez kilka lat korzystał z układu jednordzeniowego, zapewne pamięta, o ile lepiej pracowało mu się z kilkoma programami naraz, gdy przesiadł się na coś o dwóch rdzeniach (szczególnie gdy jakiś program postanowił się zawiesić i zamiast blokować cały system, obciążając go w stu procentach, dawał się spokojnie „ubić”). Twórcy smartfonów i tabletów bardzo chcieliby umożliwić większą produktywność oraz przyjemną w użyciu wielozadaniowość. Co prawda urządzeniom wciąż trochę do tego brakuje (zarówno z powodu jeszcze nieco zbyt niskiej wydajności, jak i nie do końca przystosowanych systemów operacyjnych), ale dwurdzeniowe procesory ARM to spory krok we właściwym kierunku.

Kwestia energooszczędności dwóch rdzeni nie jest do końca oczywista. Jeśli w pełni obciąży się na dłużej cały SoC, to bez wątpienia będzie on bardziej łakomy na prąd niż jego jednordzeniowy wariant. W praktyce taka sytuacja występuje chyba tylko wtedy, gdy gramy w jakąś wymagającą grę, typu Dungeon Defender, ale wówczas dzięki drugiemu rdzeniowi zyskujemy sporo płynności, więc da się to jakoś przeżyć. W innych przypadkach dodatkowe „jajo” może się w praktyce przyczynić do poprawienia energooszczędności całego układu. Podczas odtwarzania filmów drugi rdzeń praktycznie niczego tu nie zmienia, gdyż cały procesor znajduje się w bardzo „niskim” stanie energetycznym, bo większość pracy wykonuje wyspecjalizowany dekoder wideo. Również w trakcie przeglądania stron internetowych nie ma szczególnej różnicy lub jest ona na korzyść większej liczby rdzeni. Ponieważ w Androidzie szybkość ładowania bardziej zaawansowanych stron i wykonywania różnych skryptów skaluje się prawie że liniowo z liczbą rdzeni, a przynajmniej wyraźnie się zwiększa, procesor znacznie szybciej może przejść w „niższy” stan energetyczny – obniżyć napięcie oraz spowolnić zegary. W przypadku takich operacji, jak przewijanie i przybliżanie tekstu, rozbicie zadań na dwa rdzenie pozwala utrzymać wolniejsze zegary i niższe napięcie, co oznacza dalsze oszczędności. Widzimy więc, że w praktyce dodatkowe tranzystory nie powinny wpłynąć negatywnie na czas działania na baterii, a przy tym dają całkiem sporo wymiernych korzyści.

Strona:
letrevZobacz profil
Poziom ostrzeżenia: 0%
letrev2011.05.10, 14:16
Synowie KAL-EL'a jest się czym pochwalić :)
SupermanZobacz profil
Poziom ostrzeżenia: 0%
Superman2011.05.10, 14:31
Już niedługo będą komputery na każdą okazję. Kupujesz tablet i obsługujesz go rysikiem i wirtualną klawiaturą. Ewentualnie ten tablet trzeba włożyć do stacji z małą klawiaturą, i powstaje netbook, który dalej można nosić ze sobą. Jak to za mało, to tablet wkładamy do stacji dokującej, do której są podpięte zwyczajna klawiatura, mysz, duży HDD i monitor - powstaje desktop. To będzie prawdziwy PC.
PhobosD2Zobacz profil
Poziom ostrzeżenia: 0%
PhobosD22011.05.10, 14:33
Jestem za jak najszybszym rozwojem tego segmentu bo czekam na coś naprawdę mocnego i jak najbardziej energooszczędnego :-)
Kiedyś trzeba było mieć parę kilo złomu na 220V o dużym poborze prądu a teraz to samo jest zamknięte w małym pudełeczku :)
iwanmeZobacz profil
Poziom ostrzeżenia: 0%
iwanme2011.05.10, 14:35
Trochę prawdę mówiąc średniawa ta Tegra 2, w porównaniu z starszym Snapdragonem nie ma specjalnie szału...
*Konto usunięte*2011.05.10, 14:44
Przy Wayne, to już niektórzy zaczną się zastanawiać, czy zbudować PC-ta na i3, czy na Tegrze :+)
glom5Zobacz profil
Poziom ostrzeżenia: 0%
glom52011.05.10, 15:14
Superman @ 2011.05.10 14:31  Post: 477554
Już niedługo będą komputery na każdą okazję. Kupujesz tablet i obsługujesz go rysikiem i wirtualną klawiaturą. Ewentualnie ten tablet trzeba włożyć do stacji z małą klawiaturą, i powstaje netbook, który dalej można nosić ze sobą. Jak to za mało, to tablet wkładamy do stacji dokującej, do której są podpięte zwyczajna klawiatura, mysz, duży HDD i monitor - powstaje desktop. To będzie prawdziwy PC.


Masz rację ale nie zapominaj, że rozwój desktopów będzie trwał równolegle - w efekcie będziesz miał do wyboru - PC w pełni personalny lub stacjonarkę o mocy obliczeniowej dzisiejszych superkomputerów (może by się wtedy pokusić o holograficzny interfejs dla desktopów lub o zegarko-komórko-mp3kę o mocy dzisiejszych desktopów i wreszcie rozpoznawanie mowy nie będzie takie trudne dla komputerów?)
Kto wie - ja jestem za jednym - za coraz większą mocą obliczeniową - chcemy jej wszyscy jak najwięcej za jak najniższą cenę.

Tylko niech programiści optymalizują te p********e kody źródłowe bo inaczej za 10 lat nadal będzie psioczenie - 'Ehh Crysis 9 ledwo mi działa a mam 16sto rdzeniowca na 5,0GHz i GeForce'a 66666' :D
Dominiko_Zobacz profil
Poziom ostrzeżenia: 0%
Dominiko_2011.05.10, 15:29
-4#7
Dalibyście test tego EEE Transformera, a nie jakieś nerdzenie o układach :)
*Konto usunięte*2011.05.10, 16:16
Przydaloby się dodac do wykresów jakis telefon z procesorem TI 36X0, np. Motorola Defy czy Droid X, Milestone2.
*Konto usunięte*2011.05.10, 16:18
Czy można używać kombinacji alt+A-> ą.... innymi słowy, można pisać litery polskie?

Co oferuje DunDef w wersji Deluxe? (w zwykłej wersji jest 12 map-11+1multi)

Trochę krótka recenzja, sporo lania wody i brak konkretów. Można by powiedzieć-> szczęście, że jest test wydajności... Bo testu baterii nie ma, a to kluczowy parametr urządzania mobilnego.


Producent gry nie wie, na czym będą ją uruchamiać ci, którzy ją kupią,

WIE, Android market daje możliwość wyboru na jakich urządzeniach soft może być instalowany. Czyli np. może zablokować możliwość uruchomienia gier na urządzeniach, które nie spełniają odpowiednich parametrów.... SOLFT.

Przyczyny sa inne moim zdaniem. Lenistwo, a raczej konieczność inwestycji by portować. Klienci Apple wydają więcej w iTunes, Androidów klasy iPhone 3gs/4 jest mniej.

Jednak nie ulega wątpliwości
Nvidia będzie dla wielu synonimem wysokiej jakości platformy
Ponieważ płąci developerom by ci nie wydawali swoich gier na inne platformy, podobinie zrobiło SE z Xperią Play.
rogasZobacz profil
Poziom ostrzeżenia: 0%
rogas2011.05.10, 16:23
No wypasiona ta tegra2 - 37 klatek w quake'u 3 no no no :)
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.
1