Rynek desktopowych procesorów i układów graficznych od pewnego czasu jest w swego rodzaju stagnacji. Niby pojawiają się nowe modele, nowe architektury, ale od dawna w dziedzinie procesorów liczą się tylko Intel i AMD, a wybór między Nvidią a AMD ogranicza się ostatnio coraz częściej do upodobań, bo ich poczynania powodują, że można się zastanawiać, czy nie są w jakiejś cichej zmowie ;) W desktopach zapanowała cisza, spokój i stabilność, które prawdopodobnie nie zostaną zachwiane w ciągu najbliższych miesięcy, a może nawet lat.
Na rynku smartfonów i tabletów sytuacja jest o wiele ciekawsza. Układ sił zmienia się jak w kalejdoskopie, a wydajność rośnie w zastraszającym tempie. Ten rok będzie też mijał pod znakiem rywalizacji architektur ARM i x86. W tym momencie główni gracze „procesorowi” to Qualcomm, Samsung, Apple, Intel, Nvidia, Texas Instruments, ST-Ericsson (choć dwie ostatnie firmy pozostają trochę w cieniu), kawałek tabletowego tortu chce też ugryźć AMD. W przypadku mobilnych układów graficznych najczęściej widzi się konstrukcje PowerVR (seria SGX), ARM (seria Mali), Qualcomm (seria Adreno) i Nvidii (seria GeForce). Z połączenia CPU, GPU i kilku innych elementów powstają układy montowane w urządzeniach, które nosimy w kieszeniach i teczkach, a każdy producent ma trochę inne podejście do tego, co i w jaki sposób powinno być ze sobą łączone. Dziś pokrótce omówimy to, czego się dowiedzieliśmy na temat tegorocznych „układanek”, czego możemy się spodziewać i komu warto kibicować. Uwaga! Tekst zawiera bardzo dużą liczbę dziwnych nazw roboczych, więc przed przeczytaniem skonsultuj się... albo po prostu skup się ;)
ARM
Co prawda firma ARM sama nie zaprezentowała niczego nowego na targach CES, ale na początek przyda się garść wyjaśnień dotyczących tego, w jaki sposób w ogóle powstają układy korzystające z architektury ARM, ponieważ to pomaga zrozumieć różnice między procesorami opisywanymi na kolejnych stronach.
ARM nie produkuje własnych procesorów. Zamiast tego tworzy ich projekty i sprzedaje je innym firmom (stąd biorą się popularne Corteksy), które mogą zaimplementować gotowe pomysły w swoich czipach. Poza tym ARM sprzedaje innym licencję na tworzenie układów podobnych do swoich i kompatybilnych z wybranym zestawem instrukcji. Z tej pierwszej możliwości korzystają takie marki, jak Samsung (seria układów Exynos), Nvidia (seria układów Tegra), Broadcom (seria układów BCM, które są montowane w Nokiach z Symbianem), ST-Ericsson (seria NovaThor, często spotykana w smartfonach ze średniego segmentu) i Texas Instruments (seria OMAP). Z tej drugiej, znacznie trudniejszej, w tym momencie korzysta jedynie Qualcomm (w tym momencie sprzedający układy z rdzeniami Snapdragon i Krait) i Apple (architektura Swift, która zadebiutowała wraz z iPhone'em 5), choć wiadomo też, że Nvidia od jakiegoś czasu konstruuje coś własnego, co może trafić do kolejnych generacji Tegr.
Oba podejścia do tworzenia układów z procesorami ARM mają swoje wady i zalety. Jak już wspomnieliśmy, pierwsze z nich (czyli kupowanie projektów Corteksów od ARM) jest dużo łatwiejsze z punktu widzenia producentów czipów mobilnych, bo sporą część pracy ktoś wykonuje za nich. Nie oznacza to, że zaprojektowanie SoC (ang. System-on-Chip, czyli układ scalony integrujący ze sobą wiele „podczipów”, składających się na kompletny system komputerowy) to coś prostego, bo oprócz rdzeni procesora w jego skład wchodzą: układ graficzny, kodery i dekodery audio i wideo, kontroler pamięci, kontrolery wejścia-wyjścia, różnego rodzaju moduły komunikacyjne (GPS, Bluetooth, HSPA, LTE) itp. Poskładanie tego w sensowną całość nadal nie jest proste, ale montowanie z gotowych „klocków” i tak jest mniej czasochłonne niż produkowanie wszystkich od zera. Z drugiej strony ARM projektuje procesory, które mają pasować do jak największej grupy urządzeń, więc czas ich zaprojektowania albo specyfikacja nie muszą idealnie pasować do konkretnych założeń projektowych i szczególnych wymagań, bo jak mówi pewne znane powiedzenie: „Jeśli coś jest do wszystkiego, to jest do niczego”. Dlatego Apple i Qualcomm wolą stworzyć coś „uszytego na miarę”, co idealnie utrafi w ich potrzeby i pojawi się na rynku dokładnie wtedy, gdy trzeba. Podejście to wymaga jednak dużych nakładów finansowych, bo trzeba zatrudnić sztab uzdolnionych i... drogich inżynierów, których nie ma zbyt wielu na tym świecie. Na dodatek wiąże się to ze zwiększonym ryzykiem, bo coś może po drodze nie wyjść tak, jak by się chciało, i łatwo zostać mocno w tyle za konkurencją. Krótko mówiąc, tę sytuację można przyrównać do tego, co czasem obserwujemy na rynku motoryzacyjnym: niektórzy producenci aut tworzą silniki samodzielnie, a inni wolą zamontować w swoim modelu silnik stworzony przez kogoś innego i skupić się na pozostałych aspektach projektu samochodu.
Zestaw instrukcji i architektury ARM doczekały się już ośmiu generacji. W tym momencie na rynku dominują procesory kompatybilne z architekturą ARMv7 lub jej rozszerzeniem, nazywanym czasem ARMv7s. Procesory starszej generacji są teraz spotykane praktycznie tylko w Nokiach z Symbianem, a na ARMv8 poczekamy prawdopodobnie do przyszłego roku. ARM, tworząc nową rodzinę procesorów i związany z nią zestaw instrukcji, określa tylko, co będą umiały, ale nie wskazuje dokładnie, w jaki sposób ma to zostać osiągnięte. Dlatego w ramach jednej rodziny ARM projektuje kilka różnych rdzeni, różniących się wydajnością, możliwościami i zastosowaniem. Pierwszym przedstawicielem układów ARMv7 był rdzeń Cortex-A8, kojarzony głównie z pierwszą generacją Samsungów Galaxy S (miały one czip o nazwie Hummingbird, który składał się z jednego rdzenia Cortex-A8 taktowanego z częstotliwością 1 GHz i układu graficznego PowerVR SGX540) i z tym, że przyniósł spory wzrost wydajności w porównaniu z poprzednikiem. Po nim powstał Cortex-A9, spotykany teraz w większości smartfonów w konfiguracjach dwu- lub czterordzeniowych. Główną różnicą w stosunku do Cortex-A8 było to, że Dziewiątka umożliwiała tworzenie układów wielordzeniowych oraz nauczyła się wykonywać niektóre instrukcje poza kolejnością (ang. Out-of-Order Execution), co dało kilkunastoprocentowy wzrost wydajności. ARM zaprojektowało też rdzenie Cortex-A5 (spotykane na przykład w HTC Desire X) i Cortex-A7, które są kompatybilne z instrukcjami ARMv7s, ale mniej wydajne (na przykład nie umieją wykonywać instrukcji poza kolejnością) i przystosowane do tańszych i mniejszych czipów.
Najwydajniejszym i najnowszym rdzeniem należącym do rodziny ARMv7 (z rozszerzeniami ARMv7s) jest Cortex-A15 i to wokół niego kręciła się większość tegorocznych ogłoszeń CES-owych. Choć nadal należy on do siódmej generacji procesorów ARM, to poczyniono w nim bardzo dużo zmian w porównaniu z Cortex-A9 i jest to projekt dużo wydajniejszy (ARM twierdzi, że rdzeń Cortex-A15 jest szybszy od Cortex-A9 o mniej więcej 40% przy takim samym zegarze, a na dodatek może on być szybciej taktowany), bardziej skomplikowany i... bardziej energochłonny. Cortex-A15 to rdzeń trójpotokowy, w którym całkowicie zmieniono i poszerzono front-end (czyli część zajmującą się dekodowaniem i kolejkowaniem instrukcji), zwiększono liczbę jednostek wykonawczych, rozbudowano część procesora odpowiedzialną za „karmienie” tych jednostek itp., itd. Krótko mówiąc, Cortex-A15 ma wszystkiego dużo więcej niż Cortex-A9. Dzięki temu może robić więcej rzeczy w tym samym czasie, a wiadomo, że trzy osoby wykopią dół szybciej niż jedna, nawet jeśli najpierw trzeba poświęcić trochę więcej czasu na dogadanie się i łatwo na siebie nadepnąć ;) Na rynku są już dostępne pierwsze urządzenia oparte na układzie z rdzeniami Cortex-A15: tablet Nexus 10 i nowy Chromebook Samsunga. Oba z nich mają w środku dwurdzeniowy SoC Samsung Exynos Dual 5250.
A gdzie w tym wszystkim znajdują się procesory Apple i Qualcomma? Architektury Apple Swift i Qualcomm Krait to coś pomiędzy Cortex-A9 a Cortex-A15. Również są one trójpotokowe, tak jak Cortex-A15 (i w przeciwieństwie do dwupotokowego Corteksa-A9), ale nie mają aż tak rozbudowanych jednostek wykonawczych i front-endu, przez co mają mniejszą wydajność, ale też mniejsze zapotrzebowanie na energię, i są zbudowane z mniejszej liczby tranzystorów.
Po tym mocno przydługim wstępie przechodzimy do meritum, czyli tego, czego dowiedzieliśmy się na targach CES.
Nvidia – Tegra 4
Było | Będzie | |
---|---|---|
Nazwa układu | Tegra 3 | Tegra 4 |
Architektura rdzenia | Cortex-A9 | Cortex-A15 |
Liczba rdzeni | 4+1 | 4+1 |
Taktowanie procesora | 1,2/1,3/1,6 GHz (w zależności od wersji) | 1,9 GHz (w wersji startowej) |
Nazwa układu graficznego | GeForce (12-„rdzeniowy”) | GeForce(72-„rdzeniowy”) |
Spodziewany wzrost wydajności | CPU – ponad 100% GPU – ponad 400% |
Najwięcej zamieszania wokół siebie zrobiła Nvidia, ponieważ nie dość, że zapowiedziała czwartą generację swoich Tegr, to na dodatek od razu zaprezentowała pierwsze urządzenie korzystające z jej możliwości, które okazało się... specyficzną przenośną konsolą z Androidem.
Tak jak Tegra 3, Tegra 4 ma cztery główne rdzenie procesora, a towarzyszy im piąty, wykorzystywany tylko wtedy, gdy system nie jest obciążony jakimiś skomplikowanymi zadaniami – albo po prostu w czasie spoczynku czy odtwarzania filmu. Nvidia nazywa taką konfigurację 4-plus-1, ponieważ ten dodatkowy piąty rdzeń nie może być wykorzystywany w tym samym momencie co pozostałe cztery, a jedynie pomaga zaoszczędzić cenną energię akumulatora. Główną nowością Tegry 4 jest to, że wszystkie rdzenie tego układu są rdzeniami Cortex-A15. Szybkość zegarów taktujących, w zależności od wersji układu i tego, w czym będzie on zamontowany, może dochodzić do 1,9 GHz. Czyli Tegra 4 powinna mieć około dwóch razy wyższą wydajność procesora od swojego poprzednika. Dzięki temu powinna powoli doganiać procesory x86 montowane w tańszych notebookach i nie chodzi tu nam o Atomy, a o trochę starsze Celerony i Pentium (choć na razie zapewne tylko w przypadku programów, które dobrze się skalują z większą liczbą rdzeni).
Oprócz wydajności procesora Nvidia mocno zwiększyła wydajność układu graficznego Tegry 4. Ma on teraz 72 „rdzenie” zamiast 12, jak w Tegrze 3. Nadal nie są to jednostki zunifikowane (czyli zdolne zajmować się obliczeniami związanymi zarówno z wierzchołkami wielokątów, jak i z „kolorowaniem” pikseli) – 48 z nich to jednostki cieniowania pikseli (w Tegrze 3 było ich 8), a 24 to jednostki cieniowania wierzchołków (w Tegrze 3 były tylko 4), czyli wszystkiego jest sześć razy więcej i prawdopodobnie około pięciu–sześciu razy większa będzie też wydajność nowego układu graficznego Nvidii. To dobra wiadomość, bo GPU Tegry 3 w dzisiejszych czasach nie zachwyca osiągami (mówiąc oględnie) i przyda mu się mocna aktualizacja. Zła wiadomość jest taka, że ich sześciokrotny wzrost może nie wystarczyć, aby Tegra 4 otrzymała koronę wydajności graficznej w momencie pojawienia się na rynku. Wystarczy spojrzeć na poniższy wykres pochodzący z testu iPhone'a 5:
GPU montowane w najnowszym „jabłkofonie” jest około trzech razy wydajniejsze od GPU Tegry 3. Czip Apple A6X stosowany w najnowszej rewizji iPada jest niecałe dwa razy szybszy w generowaniu obrazu od swojego smartfonowego krewniaka. Czyli ma... pięcio-, sześciokrotnie większą wydajność niż Tegra 3, czyli mniej więcej taką, jakiej możemy się spodziewać po Tegrze 4. I faktycznie, pierwsze testy przedprodukcyjnej wersji czipu Nvidii wskazują, że może ona sobie nie radzić z tabletowym „potworkiem” Apple. Jednak nie powinno to tak naprawdę nikogo dziwić. Tegra 4 ma być montowana zarówno w tabletach, jak i smartfonach, przez co nie może być zbyt duża. Natomiast A6X to układ typowo tabletowy i bezkompromisowy. Ma on ponad 120 mm2, co oznacza o jakieś 50% więcej w porównaniu z Tegrą 4, choć część tej różnicy wynika z tego, że układ Nvidii jest tworzony w procesie 28-nanometrowym, a nie 32-nanometrowym, jak produkt Apple, co pozwala na gęstsze upakowanie elementów. Gdyby Nvidia miała do dyspozycji dodatkowe 50% powierzchni, które mogłaby wykorzystać na rozbudowę układu graficznego, to można by było porównywać ze sobą te dwa czipy i ich osiągi. A tak fizyki i pewnych ograniczeń się nie przeskoczy i Tegra 4 może co najwyżej zawalczyć o pozycję lidera wydajności w smartfonach, bo w tabletach już na starcie nie ma szans.
Ciekawą informacją ze strony Nvidii jest to, że w tak zwanych typowych przypadkach użycia Tegra 4 ponoć pobiera o 45% mniej energii niż jej poprzednik. To stwierdzenie daje duże pole do interpretacji, ale spróbujemy jakoś je wytłumaczyć. Nie mamy żadnych wątpliwości, że w pełni obciążona Tegra 4 ma większy apetyt na prąd od Trójki. Co prawda nie mamy żadnych liczb na poparcie tej tezy, ale wydaje się to logiczne, bo rdzenie Cortex-A15 są dość łakome (świadczą o tym pierwsze testy urządzeń z Exynosem 5250, który ma „zaledwie” dwa takie rdzenie), także dużo mocniejszy układ graficzny powinien mieć spore potrzeby – i pewnie trudno będzie to zrekompensować jedynie za pomocą bardziej efektywnego procesu technologicznego. Jednak pełne obciążenie raczej nie należy do typowych przypadków użytkowania, bo nawet wymagające gry mogą mieć problem z zaprzęgnięciem całej mocy do pracy z powodu synchronizacji pionowej. Czyli Nvidia musi ufać swojemu rdzeniowi towarzyszącemu, który ma wolniejsze zegary i mniejsze napięcie, oraz funkcjom odcinania pozostałych rdzeni od zasilania i sygnału zegarowego. Tegra 3 pokazała, że pomysł ten daje wymierne korzyści, bo choć ma dużo większy od Tegry 2 szczytowy pobór energii w czasie oglądania filmów lub surfowania po internecie i w spoczynku, każdy tablet z Trójką wytrzymywał bez ładowania dłużej od tabletów z Dwójką. Tegra 4 jest wykonana w bardziej energooszczędnym procesie technologicznym, a na dodatek Nvidia zdecydowała się na wykorzystanie jego odmiany zorientowanej na jeszcze większe oszczędności (Trójka była zbudowana głównie z tranzystorów wykonanych w procesie mającym zapewnić szybkie zegary taktujące, a te bardziej energooszczędne wykorzystano tylko do budowy dodatkowego rdzenia), więc nie powinno być problemu z osiągnięciem wyraźnie niższego poboru energii w spoczynku i w trakcie odtwarzania wideo. Czyli znaleźliśmy jeden element układanki.
Poza tym wyższa wydajność procesora pomaga spowolnić zużycie energii akumulatora (wbrew powszechnie pokutującemu mitowi, że więcej rdzeni i szybsze procesory tylko marnują prąd w smartfonach i tabletach). Na przykład w czasie surfowania po internecie dużo bardziej opłacalne jest jak najszybsze ładowanie kolejnych witryn z wykorzystaniem maksymalnej dostępnej mocy i możliwie szybkie przejście w stan spoczynku. Sumarycznie, dużo szybszy procesor, ale o trochę wyższym chwilowym zużyciu energii będzie bardziej energooszczędny w tak zwanych typowych zastosowaniach. Mamy drugi element układanki.
Niewykluczone, że Nvidia, mówiąc o poborze energii Tegry 4, dorzuca oszczędności możliwe za sprawą... czipu komunikacyjnego Icera i500, który będzie jej towarzyszył w smartfonach i tabletach ze slotem na kartę SIM. Jest to pierwszy modem Nvidii stworzony po wykupieniu Icery. Obsługuje HSPA+ i LTE. Ma też ponoć dość umiarkowane zapotrzebowanie na prąd, więc może być trzecim elementem układanki objaśniającej, co oznacza to magiczne 45% mniej energii zużywanej w czasie wykonywania „typowych zadań”.
Początkowo, gdy usłyszeliśmy o tym, że Tegra 4 ma mieć cztery rdzenie Cortex-A15, myśleliśmy, że będzie to czip typowo tabletowy i że nie ma szans trafić do smartfonów. Jednak Nvidia twierdzi, że będzie też stosowany w nowych telefonach z lepszej półki. Skąd nasze wątpliwości? Jak już wspominaliśmy, nowa Tegra powinna mieć większe szczytowe zapotrzebowanie na energię, a przez to prawdopodobnie będzie się też mocniej grzała. Już Tegra 3 potrafiła w niektórych urządzeniach nieźle podgrzać ucho i dłonie, a tu będzie wydzielane jeszcze więcej ciepła (na przykład w czasie grania). Jesteśmy ciekawi, jak to zostanie rozwiązane, ale mamy nadzieję, że producent wie, co robi...
Pierwszym urządzeniem z nowym układem będzie tak zwany Project Shield, czyli androidowa konsola przenośna Nvidii, która wygląda jak pad z doczepionym 5-calowym ekranem o rozdzielczości HD. Nie od dziś wiadomo, że sukces konsoli zależy od liczby i jakości powiązanych z nią gier. Nvidia już od dawna rozwija swoją TegraZone i zachęca twórców gier do tworzenia specjalnych wersji swoich produktów, lepiej przystosowanych do Tegr. Ale teraz to przedsięwzięcie będzie ważniejsze niż kiedykolwiek i sami jesteśmy ciekawi, czy produkt tego typu będzie w stanie walczyć z bardziej tradycyjnymi handheldami, pokroju PlayStation Vita czy Nintendo 3DS.
Samsung i jego Exynos 5 Octa
Było | Będzie | |
---|---|---|
Nazwa układu | Exynos 4 Quad 4412 | Exynos 5 Octa |
Architektura rdzenia | Cortex-A9 | Cortex-A15/Cortex-A7 |
Liczba rdzeni | 4 | 4 × Cortex-A15 4 × Cortex-A7 |
Taktowanie procesora | 1,4/1,6 GHz (w zależności od wersji) | 1,8 GHz (rdzenie Cortex-A15) 1,2 GHz(rdzenie Cortex-A7) |
Nazwa układu graficznego | ARM Mali-400MP4 | b.d. |
Spodziewany wzrost wydajności | Około 100% CPU |
Samsung już ma swój pierwszy układ z dwoma rdzeniami Cortex-A15, ale okazało się, że nie zamierza spoczywać na laurach. Dlatego Koreańczycy ogłosili na targach CES układ Exynos 5 Octa, który ma... osiem rdzeni (łatwo się domyślić po nazwie ;)). Jednak nie jest to typowa konfiguracja ośmiordzeniowa, w której wszystkich osiem rdzeni pracuje jednocześnie, bo tylko cztery z nich to Corteksy-A15 taktowane zegarem 1,8 GHz, a pozostałe cztery to dużo mniejsze i słabsze Corteksy-A7, taktowane zegarem 1,2 GHz. Jest to pierwsze zastosowanie techniki zaproponowanej przez ARM, która nazywa się big.LITTLE i przypomina trochę to, co Nvidia zrobiła w swoich Tegrach. Gdy zapotrzebowanie na moc obliczeniową jest niewielkie, to zaprzęgane do pracy są mniejsze rdzenie, a gdy potrzebna jest wyższa wydajność, to zadania są przerzucane na „dużych chłopców”.
Tak jak pisaliśmy na pierwszej stronie, rdzenie Cortex-A7 i Cortex-A15 mają dokładnie ten sam zestaw instrukcji (ARMv7s) i potrafią wykonać te same zadania, tylko Piętnastki robią to dużo szybciej, nie ma więc żadnego problemu z przenoszeniem zadań między nimi. Wszystko to dzieje się całkowicie automatycznie i system ani użytkownik nie muszą być w ogóle świadomi, że w czipie ciągle coś się przełącza. Ale czy wykorzystanie aż czterech małych rdzeni nie jest marnotrawstwem miejsca? Jak już wspominaliśmy, „asiódemki” są dużo prostszym projektem, zbudowanym z o wiele mniejszej liczby tranzystorów. Nie znamy dokładnych wartości, ale na powierzchni zajmowanej przez jeden rdzeń A15 można zmieścić... trzy–cztery rdzenie A7. Czyli ośmiordzeniowa konfiguracja big.LITTLE zajmuje właściwie tyle samo miejsca co konfiguracja 4-plus-1 Tegry 4. Jesteśmy bardzo ciekawi, które z tych rozwiązań okaże się bardziej efektywne i energooszczędne. Niestety, na razie nie mamy dalszych szczegółów na temat najnowszych Exynosów (nawet na stronie Samsunga nie dodano ich do katalogu produktów i oficjalnie jeszcze nie istnieją), nawet nie wiemy, jaki układ graficzny będzie w nich stosowany (różne źródła podają sprzeczne informacje, a nie od dziś wiadomo, że Samsung ma zakupione licencje zarówno na GPU ARM Mali, jak i kolejne generacje PowerVR). Na razie nie zostało też zapowiedziane żadne urządzenie oparte na nowym Exynosie, lecz zapewne wszyscy się spodziewają, że trafi on do czwartej generacji Galaxy S i przyniesie znaczny wzrost wydajności, ale także wydłużenie czasu działania.
Odświeżone Snapdragony
Było | Będzie | |||
---|---|---|---|---|
Nazwa układu | Snapdragon S4 | Snapdragon S4 Pro | Snapdragon 600 | Snapdragon 800 |
Architektura rdzenia | Krait | Krait | Krait 300 | Krait 400 |
Liczba rdzeni | 2 | 4 | 4 | 4 |
Taktowanie procesora | przeważnie 1,5 GHz | przeważnie 1,5 GHz | do 1,9 GHz | do 2,3 GHz |
Nazwa układu graficznego | Adreno 225 | Adreno 320 | Adreno 320 | Adreno 330 |
Spodziewany wzrost wydajności | n.d. | 40% CPU 0% GPU | 75% CPU 50% GPU |
Qualcomm w ubiegłym roku wprowadził nową architekturę swoich procesorów Snapdragon. Stały się one dość popularne i występowały głównie w dwóch wersjach (teraz pojawiają się następne, mniej wydajne odmiany, ale na razie zostawmy je w spokoju): zbudowanej z dwóch rdzeni Krait taktowanych przeważnie zegarem 1,5-gigahercowym i GPU Adreno 225 (układ S4) oraz zbudowanej z czterech rdzeni Krait taktowanych z taką samą częstotliwością i GPU Adreno 320 (układ S4 Pro). Jak wspominaliśmy na początku artykułu, rdzenie Krait mają architekturę trójpotokową, ale są mniej wydajne od Cortex-A15. W minionych 12 miesiącach to wystarczało, aby zapewnić sobie odpowiednią pozycję na rynku, ale w tym była potrzebna jakaś aktualizacja.
Qualcomm w ubiegłym roku zdecydował się na nowy schemat nazewnictwa swoich czipów, a w tym... zmienił go zupełnie. Wcześniej procesory tego producenta były wkładane do „szufladek” o nazwach: S1, S2, S3 i S4. Teraz będziemy mieli do czynienia ze Snapdragonami 200, 400, 600 i 800. Najbardziej interesują nas serie 600 i 800, bo to w nich zastosowano odświeżone rdzenie Krait, a ponadto ta druga dostała nowy układ graficzny Adreno 330, który jest ponoć o 50% wydajniejszy od Adreno 320, montowanego w obecnych Snapdragonach S4 Pro i Snapdragonach 600.
Qualcomm nie mówi na temat architektury swoich procesorów równie chętnie jak Nvidia, ARM czy Intel, dlatego nie wiemy zbyt dużo o tym, co dokładnie zostało zmienione, i trzeba wyszukiwać w różnych miejscach strzępy informacji i łączyć je w trochę mglistą całość. Snapdragony 600 będą się składały z czterech odświeżonych rdzeni Krait 300 (w starszych Snapdragonach były to po prostu rdzenie Krait) taktowanych z częstotliwością (do) 1,9 GHz i układu graficznego Adreno 320. Qualcomm zapowiada 40-procentowy wzrost wydajności procesora w porównaniu z S4 Pro. Z tego około 25% bierze się z szybszych zegarów taktujących, więc pozostałe 15% musi wynikać z poprawek architektury. Jakich? Ponoć poprawiono skuteczność przewidywania skoków, dodano mechanizmy wstępnego pobierania danych do pamięci podręcznej procesora i zmieniono kilka innych bliżej nieokreślonych rzeczy.
Snapdragony 800 będą najmocniejszymi układami Qualcomma wyposażonymi we wszystkie najnowocześniejsze techniki tej firmy. Są zbudowane z czterech rdzeni Krait 400. Przynoszą one kilka dalszych poprawek zwiększających wydajność i efektywność, których nie wprowadzono w Kraitach 300. Mają one być taktowane zegarem o częstotliwości 2,3 GHz, czyli o 400 MHz szybszym niż w Snapdragonach 600. Qualcomm zapowiada, że Snapdragony 800 będą o 75% wydajniejsze od procesorów S4 Pro. Znowu większość tego wzrostu wynika z dużo szybszych zegarów, ale wygląda na to, że udało się wprowadzić w architekturze Krait szereg zmian, które pozwalają wykonywać różne operacje o mniej więcej 20% szybciej (choć Qualcomm nie ujawnia, czy w swoich wyliczeniach uwzględnia też przyspieszenie wynikające z szybszej pamięci operacyjnej). Snapdragon 800 to również nowy układ graficzny Adreno 330, nowy zintegrowany modem LTE i dodana obsługa standardu Wi-Fi 802.11ac, a także nowy dekoder wideo, pozwalający na odtwarzanie filmów o rozdzielczości 4k, czyli faktycznie „zapakowano” tutaj wszystko, co najlepsze.
Snapdragony 800 dzięki poprawkom i mocno przyspieszonym zegarom powinny mieć wydajność wystarczającą do tego, aby bez trudu rywalizować z układami opartymi na rdzeniach Cortex-A15. Niewiadomą pozostaje tylko energooszczędność nowości Qualcomma, bo nie postawiono w nich na dodatkowe rdzenie pomocnicze, jak w czipach Nvidii czy Samsunga. Jednak dotychczasowe Snapdragony radziły sobie pod tym względem bardzo dobrze, w czym pomaga im trochę zintegrowanie modemu, czym nie może się pochwalić większość konkurencji.
Intel na poważnie
Było | Będzie | |||
---|---|---|---|---|
Nazwa układu | Atom Z2460/Z2480 (smartfony) | Atom Z2760 (tablety) | Atom Z2580 (smartfony) | Atom „Bay Trail” (tablety) |
Nazwa robocza platformy | Medfield | Clover Trail | Clover Trail+ | Bay Trail |
Architektura rdzenia | Saltwell | Saltwell | Saltwell | coś nowego |
Liczba rdzeni | 1 + HT | 2 + HT | 2 + HT | 4 |
Taktowanie procesora | do 2 GHz | do 1,8 GHz | do 1,8 GHz | 2,1 + GHz |
Nazwa układu graficznego | PowerVR SGX540 | PowerVR SGX545 | PowerVR SGX544MP2 | bd. |
Spodziewany wzrost wydajności | nd. | CPU – do 100% GPU – ok. 200% (w porównaniu z Z2480) | CPU – ponad 100% (w porównaniu z Z2760) |
Intel od jakiegoś czasu stara się spenetrować rynek smartfonów i tabletów za pomocą procesorów x86. Do tej pory sukces najbardziej mobilnych Atomów był... umiarkowany, choć takie smartfony, jak ZTE Grand X In czy Motorola RAZR i, pokazywały, że konstrukcja ta ma potencjał, i jeśli tylko firma potraktuje sprawę poważnie, powinny wyniknąć z tego ciekawe rzeczy.
W tym momencie oferta Intela jest dość wąska i składa się z jednordzeniowych modeli Z2460 i Z2480, montowanych w smartfonach i taktowanych zegarem o częstotliwości do 2 GHz, oraz dwurdzeniowego modelu Z2760, który występuje głównie w tabletach z Windows 8. Rodzinę procesorów smartfonowych właśnie wzbogacił Z2580, będący częścią platformy Clover Trail+. Ma on dwa rdzenie swojego poprzednika taktowane z częstotliwością do 2 GHz i układ graficzny PowerVR SGX 544 MP2, który jest znacznie nowocześniejszy i prawdopodobnie kilka razy szybszy od PowerVR SGX 540, montowanego w poprzedniku. Wcześniejszy jednordzeniowy Atom nie miał zbyt dużych szans na walkę z najbardziej zaawansowanymi układami ARM i musiał się zadowolić miejscem wśród czipów ze średniego segmentu, ale dwa razy większa wydajność procesora i kilka razy większa wydajność układu graficznego powinny pomóc Intelowi mierzyć trochę wyżej, choć mamy wątpliwości, czy to wystarczy do walki o tytuł króla osiągów na rynku smartfonów. Na CES-ie można już było zobaczyć pierwszy phablet oparty na nowym produkcie tej firmy, czyli Lenovo K900, więc niedługo powinniśmy zobaczyć w sklepach efekty pracy mikroprocesorowego giganta. Może też tym razem uda mu się zainteresować swoją ofertą więcej producentów sprzętu, bo na razie podchodzą oni do niej bardzo nieufnie.
Platforma Clover Trail+, jak łatwo się domyślić po nazwie, nie przynosi zbyt wiele nowości. Nadal opiera się na starej architekturze (tak naprawdę ma ona już ponad cztery lata i w tym czasie nie zmieniła się istotnie...) i 32-nanometrowym procesie technologicznym, podczas gdy większość konkurencji korzysta już z zalet procesu 28-nanometrowego, a nowe biurkowe procesory Intela są wytwarzane w procesie 22-nanometrowym. Kiedy można się spodziewać większych zmian? Pod koniec tego roku, bo właśnie wtedy światło dzienne ujrzy platforma Bay Trail, oparta na zupełnie nowej architekturze. Pierwsze układy z tej serii będą miały cztery rdzenie i będą wytwarzane w 22-nanometrowym procesie technologicznym. ARM-owa konkurencja prawdopodobnie będzie wtedy jeszcze korzystać z rdzeni Cortex-A15, więc jeśli Intel nie zaliczy żadnych poślizgów, to na początku 2014 roku bez problemu powinien przejąć berło króla wydajności w smartfonach i tabletach, choć to tylko nasze spekulacje. Trochę szkoda, że wchodzi do gry tak późno i na razie traktuje Atomy trochę po macoszemu (5 lat w prawie niezmienionej architekturze...), ale ponoć ma się to drastycznie zmienić i mają się one pojawiać według takiego samego cyklu produkcyjnego jak obecne modele desktopowe tej firmy, co oznacza nowość co kilkanaście miesięcy.
Pozostali producenci
CES-owy świat nie kręcił się tylko wokół najwydajniejszych układów i swoje nowe projekty zaprezentowały dwie firmy znane głównie z trochę tańszych rozwiązań.
Pierwszą z nich jest ST-Ericsson, czyli producent dwurdzeniowych procesorów popularnych w smartfonach dostępnych obecnie za mniej więcej 1000 zł. Najnowszy model tej firmy, oznaczony jako L8580, ma mieć cztery rdzenie Cortex-A9 taktowane z częstotliwością do 2,5 GHz i układ graficzny PowerVR SGX 544. Nie robi to takiego wrażenia jak nowości Samsunga, Nvidii czy Qualcomma, ale zapowiada sporą poprawę osiągów w sprzęcie ze średniego segmentu (nawet czterokrotny wzrost wydajności procesora i prawdopodobnie kilkukrotny układu graficznego). Jednak chyba najważniejsza w nowym czipie jest obsługa LTE. Wygląda na to, że w tym roku czeka nas wysyp urządzeń zdolnych współpracować z tym bardzo szybkim standardem komunikacji, i nie możemy się doczekać, aż polscy operatorzy sieci komórkowych zajmą się nim na poważnie.
Druga ciekawa nowość, pozostająca w cieniu „tych wielkich”, to układ firmy Allwiner. Dla wielu osób może to być tak naprawdę najważniejsza nowość CES-a, bo konstrukcje Allwiner (albo ich klony Boxchip) trafiają prawie do wszystkich tanich tabletów obecnych na naszym rynku. Wielbiciele produktów tego typu mogą już wyczekiwać modelu z układem Allwiner A31. Będzie on miał cztery rdzenie Cortex-A7 taktowane z częstotliwością do 1,2 GHz. Będzie im towarzyszył bardzo mocny układ graficzny PowerVR SGX 544 MP2, czyli dokładnie ten sam co w nowym dwurdzeniowym Atomie i dwa razy szybszy niż w opisywanym w poprzednim akapicie czipie ST-Ericsson. Do tego wszystkiego dorzucono dekoder wideo obsługujący wideo o rozdzielczości 4K. Wygląda więc na to, że zapowiada się kolejny świetnie nadający się do gier układ tej firmy, który będzie mały, tani i stosunkowo energooszczędny. W praktyce to produkt niewiele gorszy pod względem wydajności od Exynosa montowanego w Galaxy S III. To naprawdę zdumiewające, w jakim tempie rozwijają się tanie tablety...
Podsumowanie
Jeśli komuś udało się przebrnąć przez wszystkie poprzednie strony i przetrawić te wszystkie nazwy robocze, to szczerze gratulujemy ;) Tegoroczny CES naprawdę obfitował w ogłoszenia związane z nowymi procesorami i chyba jeszcze nigdy w tej dziedzinie elektroniki nie działo się aż tak dużo.
Pojawia się jednak pytanie, po co się tym interesować i na co komu w telefonie te wszystkie rdzenie. No cóż, w telefonie na pewno są nieprzydatne, ale w smartfonie – już tak. W zapowiedzianych czipach widać wyraźnie pewną tendencję, która powinna zainteresować większość osób: prawie wszystkim będzie towarzyszył modem LTE i w tym roku obsługa tego standardu w smartfonach stanie się... standardem ;) Poza tym widać, że wszyscy zaczynają się przygotowywać do przesiadki na filmy o rozdzielczości 4K, choć jeszcze musimy trochę poczekać, aż nasze kieszonkowe kamery zaczną nagrywać materiał z tak dużą liczbą pikseli, i na... jakąś rewolucję w zwiększaniu pojemności kart mikro-SD, bo będą się one zapełniać szybciej niż kiedykolwiek wcześniej.
Ale czy nie byłoby lepiej, gdyby producenci sprzętu dali sobie spokój z tym wyścigiem zbrojeń i skupili się na czasie działania? Pytanie nie do końca właściwe, bo zwiększanie liczby rdzeni i ich wydajności w pewnym sensie przyczynia się do wydłużenia tego czasu. Jasne, że nowoczesne procesory w trakcie długiego maksymalnego obciążenia obliczeniami są bardzo łakome na prąd, ale w bardziej typowych zastosowaniach pozwalają go zaoszczędzić. Dzisiejsze układy są coraz lepsze w odłączaniu różnych swoich części, gdy nie są one używane, i w spoczynku zapotrzebowanie na prąd procesora czterordzeniowego prawie nie różni się od potrzeb jednordzeniowego. A podczas ładowania stron internetowych, uruchamiania programów i wykonywania innych typowo smartfonowych czynności szybsze procesory pozwalają wcześniej zakończyć pracę i dzięki temu dłużej przebywają w trybie spoczynku, co również wydłuża czas działania, a przy tym zwiększa wygodę obsługi. Więc nawet „zwykły” użytkownik smartfonów korzysta z tego gigantycznego postępu, który obserwujemy ostatnio na rynku procesorów mobilnych.
Ale i tak pozostaje pytanie: po co mi taka wydajność? Owszem, coraz trudniej zauważyć w praktyce różnicę między coraz szybszymi układami, bo brakuje oprogramowania, które potrafiłoby ją uwidocznić. Jednak sytuacja powoli się zmienia. Na wprowadzeniu nowej generacji procesorów najbardziej powinny zyskać tablety, szczególnie te z Windows 8 i Windows RT. Office i wielozadaniowość spożytkują każdy dodatkowy rdzeń i megaherc. Skorzystają także gry, których jakość będzie systematycznie rosła, a projekty takie jak konsola Nvidii powinny ten proces przyspieszyć. Poza tym układy ARM osiągają już taką wydajność, że spokojnie można by je montować w tanich... notebookach. Czy wrócą netbooki, pojawi się grupa tanich laptopów z Linuksem albo czy Google w końcu weźmie się poważnie za Chrome OS i będzie powstawać więcej ciekawych chromebooków? Zobaczymy, w każdym razie odpowiednia technologia jest już dostępna i jest możliwe tworzenie tanich, lekkich i cienkich konstrukcji opartych na procesorach ARM, które pracowałyby na zasilaniu akumulatorowym całe wieki.
Trochę bardziej problematyczne wydają się smartfony, bo one najwyraźniej najmniej korzystają na tym wzroście wydajności, choć ciągle zwiększająca się rozdzielczość ekranów pozwala sensownie go spożytkować. Jednak bardzo byśmy chcieli zobaczyć postęp w dziedzinie specjalnych stacji dokujących. W teorii można by teraz zastąpić smartfonem... komputer. Wystarczyłoby wrócić do domu, wetknąć sprzęt do odpowiedniej stacji, do której byłby podłączony na stałe monitor, jakiś dysk twardy oraz myszka i klawiatura łączące się przez Bluetooth. Wydajność opisywanych przez nas czipów powinna być wystarczająca do komfortowego surfowania po internecie, sprawdzania poczty oraz edycji dokumentów na dużym ekranie i jesteśmy ciekawi, czy producenci sprzętu zaczną eksperymentować z rozwiązaniami tego typu.