artykuły

Rzecz o procesorach ARM, ich pojedynku z procesorami x86 oraz ich przyszłości

Anatomia ARM

82 6 sierpnia 2016, 09:00 Mieszko Krzykowski, Mateusz Brzostek

Co dalej?

Ostatnich kilka lat rozwoju procesorów ARM to historia sukcesu. Owszem, w pewnej mierze jest on zasługą... Steve'a Jobsa i pierwszego iPhone'a, bo to właśnie ten gadżet i jego główny pomysłodawca stworzyli bardzo żyzne poletko dla wszelkich ARM-ów, na którym rozwijają się one jak na najlepszych nawozach. Jednak przede wszystkim jest to efekt pracy inżynierów ARM i bardzo elastycznego modelu biznesowego, dzięki któremu nad kolejnymi generacjami czipów opartych na architekturze ARM pracowali nie tylko ludzie z ARM, ale również tęgie głowy licencjobiorców.

Zapewne niektórzy z Was jeszcze pamiętają czasy urządzeń z procesorami ARM11 i ogromny wzrost wygody użytkowania wynikający z przesiadki na sprzęt z pierwszymi Corteksami i Snapdragonami. A przecież najnowsze architektury ARM są „zegar w zegar” ponad dwa razy wydajniejsze od Corteksów-A9 i A8 sprzed kilku lat. Do tego procesory ARM mają więcej rdzeni i są coraz szybciej taktowane, co w sumie przekłada się na kilkunastokrotny wzrost wydajności czipów ARM w ciągu ostatniej dekady. Jeszcze szybciej wzrasta wydajność mobilnych układów graficznych, które mają dziś większe możliwości od GPU z konsol poprzedniej generacji. Z naszej analizy wynika, że obecnie najwydajniejsze czipy ARM montowane w smartfonach i tabletach mają moc obliczeniową 10-letniego peceta wysokiej klasy, a to daje pewne wyobrażenie o możliwościach naszych kieszonkowych komputerów.

Legendarny, wprowadzony w listopadzie 2009 roku, HTC HD2 z pierwszym 1-gigahercowym smartfonowym procesorem, Snapdragonem QSD8250

Jednak utrzymanie takiego tempa rozwoju będzie bardzo trudne, lub wręcz niemożliwe. Procesory ARM w pewnym stopniu idą ścieżką, którą na przełomie wieków przeszły procesory x86. Mają już za sobą najbardziej oczywiste i najbardziej istotne zmiany, które wcześniej mogli docenić użytkownicy biurkowych jednostek centralnych: poszerzenie architektury, przejście na wykonywanie instrukcji poza kolejnością oraz wprowadzenie wielordzeniowości. Teraz będzie znacznie trudniej znaleźć nowe, rewolucyjne rozwiązania, które zapewnią zwielokrotnienie wydajności. Już obecne „duże” rdzenie ARM są na tyle duże, że bez połączenia ich z mniejszymi, prostszymi nowoczesne procesory ARM straciłyby jeden ze swoich najważniejszych atutów: energooszczędność. Po ich zachowaniu widać też, że często nie biorą one do końca pod uwagę ograniczeń termicznych urządzeń, w których są montowane. Mocne spowolnienie nastąpiło również w rozwoju technik produkcji półprzewodników, więc wygląda na to, że na drodze do poszerzania architektury ARM i przyspieszania zegarów taktujących zbudowane w niej rdzenie stanęła bezlitosna fizyka.

Krótko mówiąc, można sądzić, że złoty okres lawinowego wzrostu wydajności mamy już za sobą. Przed nami raczej otwiera się okres stopniowej optymalizacji, z którym od kilku lat muszą się godzić pecetowi zapaleńcy ;) Na znaczeniu będą też zyskiwały nie te największe i najwydajniejsze układy, a te najmniejsze i najbardziej energooszczędne, które mają stanowić o przyszłości Internetu Rzeczy.

Wnętrze serwera Gigabyte H270-T70 z ośmioma procesorami Cavium ThunderX

Chyba że procesory oparte na architekturze ARM faktycznie mają na poważnie zaatakować rynek serwerów, na którym panują inne zasady i rządzą inne limity TDP. Wiele osób właśnie w chęci ekspansji na nowe, trudne rynki doszukuje się powodów niedawnej sprzedaży ARM w ręce japońskiego Softbanku. Czy to się uda? Z jednej strony ARM-om udało się odeprzeć atak x86 na rynek procesorów smartfonowych. Z drugiej zaś to ARM będzie tym razem nowym graczem, który ma przekonać wszystkich, że oferuje coś, czego nie oferuje konkurencja. Przekonać integratorów, inżynierów, administratorów i – przede wszystkim – programistów, że przesiadka na architekturę ARM da im coś, czego teraz nie dają im Xeony, Itanium, PowerPC, Sparcki i inne. A to nie jest łatwe i bardzo nas ciekawi, jak układom ARM będzie szło wypływanie na te nowe, niezbadane wody i skalowanie się w górę. Bo to, że potrafią zdziałać cuda, gdy się im założy 5-watowy kaganiec, wiemy już od dawna. A co się stanie, gdy się go zdejmie?

Strona:
Stefan999Zobacz profil
Poziom ostrzeżenia: 0%
Stefan9992016.08.06, 09:12
Trochę brakuje rdzenii Denver. Szkoda, że nie zrobiliście chociaż poglądowych testów SoC od Apple. Generalnie, inżynierowie od Apple chwalili się, że ich CPU jest niemal tak wydajne jak Haswell.
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2016.08.06, 09:23
28#2
Świetny art poglądowy- za to uwielbiałem laba, anandtech i kiedyś bnchmrk-a (tylko tam ostatnie arty na tym poziomie były naście lat temu latach 199x/200x).
Można było jeszcze przetestować zadania NAS i gry opensource...

Art świetnie podejmuje dyskusję z pewnymi mitami, które wynikają z tego, że cytując: ARMY szły z dołu, a x86 z góry. Głównie chodziło o to, że x86 do ostatnich lat miało zbyt wysoki minimalny pobór energii. Co wykluczało x86 i dawało duopol ARM/MIPS. (nie chcę odnosić się do tego co lepsze tutaj, ale art pięknie zwraca uwagę na różne problemy).

Wnioski świetnie. Wręcz pogrubionymi pisać.
Ile to blogowych portali mających odsłon więcej niż lab zachwyca się punktami. Tu ładnie i dosadnie powiedziane, nie punkty. Apple, qualcomm (choć Ci są wg mnie trochę ostatnio dyskusyjni) liczy na wydajność rdzenia- co nie daje tylu punktów. Marketing robi ludziom wodę, a blogersi ehmm...
... utwierdzają. Cały internet fascynuje się punktami - tylko czekać na 10 rdzeniówki, (ups już są)

Co do testu x360 vs Shield. Mam poczucie (cap obvious), że na x360 jest ustawiony limiter w Doom, Borderlands, Half Life- co uniemożliwia porównanie platform gdy x360 osiąga limiter. Tu wnioski uważam trochę naciągnięte. Jedyne porównanie jakie jest tu możliwe w teście to w MGR.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2016.08.06, 09:32
Fajne porównianie Sheld i X360 ale ludziska weźcie w końcu pod uwagę, ze Xbox360 ma układ eDRAM który jest tak naprawdę dodatkową kartą GPU (posiada 192 pixel procesory) i przepustowość 256gbit/s (2560-bit). Tak samo PS3, Nvidia nigdy na slajdach porównujących Tegrę nie brała pod uwagę SPU w PS3 bo tutaj Tegra nie ma najmniejszych szans (bo łączna prędkość SPU pomiędzy LS, a rejestrami to 400GB/s). Ponadto SPU mają łącznie 1024 rejestry co jest wartością wręcz nie porównywalną z np X86.
Tak w grach sprzed 100 lat jak Doom 3 gdzie grafika to karton taki Shield zdepta X360 bo lepiej adresuje 1080p, natomiast Metal Gear Solid pokazuje jedno.. wiecej efektów -> konsola wygyrwa.
Kuba.wroZobacz profil
Poziom ostrzeżenia: 0%
Kuba.wro2016.08.06, 09:49
17#4
Takie artykuły lubię najbardziej! :D
*Konto usunięte*2016.08.06, 10:16
-17#5
Wydajność AMD jest porażająca :E

Red Power
barwniakZobacz profil
Poziom ostrzeżenia: 0%
barwniak2016.08.06, 10:20
Po pierwsze Tegra X1 ma 64 bit interfejs do LPDDR4, czyli lipa.
Nvidia Tegra Parker na końcówkę tego roku, będzie miała Pascal-a z GDDR5, skończy się zabawa.

Co do superkomputerów, to może ARM na razie zapomnieć. Teraz liczą się akceleratory, TESLA PASCAL GP100 5 TFLOP DP, Xeoni Phi Knight Landing 3 TFLOP DP.
A ile TFLOP DP ma ARM :)
Ciekaw jestem starcia wielogodzinnego przetwarzania h264 do H265 software Latitude T9600 vs Apple Iphone 6s, lub Galaxy S7. Na stoliku w ogródku w pełnym słoneczku. Oba dostają zasilanie z gniazdka :)
Odpowiedź jest prosta, różnica była by nieskończona, bo telefony by się wyłączyły.
revcoreyZobacz profil
Poziom ostrzeżenia: 0%
revcorey2016.08.06, 10:34
Cóż obecnie na rynku serwerowym ARM nie okazał się spektakularnym sukcesem, czytałem testy nie jest najlepiej względem konkurencji.
Aczkolwiek domowy NAS z ARM czemu nie?
Ciekaw jestem jak wypadło by ARM vs MIPS.
komisarzZobacz profil
Poziom ostrzeżenia: 0%
komisarz2016.08.06, 10:39
-11#8
Autorze! Wlacz myslenie!

Shield vs X360 - 'dwa wyrazne zwyciestwa arm' - jakei zwyciestwa? przeciez nawet slabo rozgarnieta babcia zauwazy, ze X360 ma ustawiony limit 30fps w tych dwoch grach. Jak mozna opoblikowac takie farmazony? Czy autor nie boi sie osmieszyc?

I teraz nie wiem jak traktowac cala reszta, na ktorej sie nie znam. Bo jak takie kwiatki wychodza w banalnym porownaniu, to pytanie, co jest spartolone w pozostalej czesci.
miekrzyZobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjimiekrzy2016.08.06, 10:44
komisarz @ 2016.08.06 10:39  Post: 995789
(...)Wlacz myslenie!(...)

Zachęcam do tego samego. A także do czytania, a nie tylko oglądania obrazków.
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2016.08.06, 11:15
revcorey @ 2016.08.06 10:34  Post: 995787
Cóż obecnie na rynku serwerowym ARM nie okazał się spektakularnym sukcesem, czytałem testy nie jest najlepiej względem konkurencji.
Aczkolwiek domowy NAS z ARM czemu nie?
Ciekaw jestem jak wypadło by ARM vs MIPS.

Tak jak piszesz domowy NAS mile widziany ARM i MIPS... i nie tylko- też routery też znajdują zastosowanie.
Choć ceny NAS są dość wysokie czasem taniej złożyć blaszaka - niestety kosztem rozmiarów- dostaje się za to więcej możliwośći.

ARM ma sens w superkomputerach -> HP moon coś tam, co sprowadza do masakrycznej ilości problemów. Po prostu nie jest to wyraźnie lepsza platforma od x86. x86 przy podobnej gęstości osiąga się lepszą wydajność.
Te superkomputery, które chcą być hiperopłacalne, efektywne lecą na GPGPU.

!Najlepsza jest konkurencja. Mile by było gdyby ARM zdobył popularność w laptopach, desktopach. Intel w telefonach. Wiele rzeczy niestety tu się rozbija o soft i 'leniwość' developerów (dosłownie leniwość- weźmy Androida i wsparcie aplikacji na MIPS/x86 gdzie naprawdę jest mało roboty z kompilowaniem apki na wszystkie platformy).
Ze względu na obowiązującą ciszę wyborczą funkcja komentowania została wyłączona do dn. 2019-05-26 godz. 21:00.
10