Komentarze
Komentarzy na stronę
1 2 3 4 5
Stefan999 (2016.08.06, 09:12)
Ocena: 8
#1

0%
Trochę brakuje rdzenii Denver. Szkoda, że nie zrobiliście chociaż poglądowych testów SoC od Apple. Generalnie, inżynierowie od Apple chwalili się, że ich CPU jest niemal tak wydajne jak Haswell.
SunTzu (2016.08.06, 09:23)
Ocena: 27
#2

67%
Świetny art poglądowy- za to uwielbiałem laba, anandtech i kiedyś bnchmrk-a (tylko tam ostatnie arty na tym poziomie były naście lat temu latach 199x/200x).
Można było jeszcze przetestować zadania NAS i gry opensource...

Art świetnie podejmuje dyskusję z pewnymi mitami, które wynikają z tego, że cytując: ARMY szły z dołu, a x86 z góry. Głównie chodziło o to, że x86 do ostatnich lat miało zbyt wysoki minimalny pobór energii. Co wykluczało x86 i dawało duopol ARM/MIPS. (nie chcę odnosić się do tego co lepsze tutaj, ale art pięknie zwraca uwagę na różne problemy).

Wnioski świetnie. Wręcz pogrubionymi pisać.
Ile to blogowych portali mających odsłon więcej niż lab zachwyca się punktami. Tu ładnie i dosadnie powiedziane, nie punkty. Apple, qualcomm (choć Ci są wg mnie trochę ostatnio dyskusyjni) liczy na wydajność rdzenia- co nie daje tylu punktów. Marketing robi ludziom wodę, a blogersi ehmm...
... utwierdzają. Cały internet fascynuje się punktami - tylko czekać na 10 rdzeniówki, (ups już są)

Co do testu x360 vs Shield. Mam poczucie (cap obvious), że na x360 jest ustawiony limiter w Doom, Borderlands, Half Life- co uniemożliwia porównanie platform gdy x360 osiąga limiter. Tu wnioski uważam trochę naciągnięte. Jedyne porównanie jakie jest tu możliwe w teście to w MGR.
Edytowane przez autora (2016.08.06, 09:48)
Hashi (2016.08.06, 09:32)
Ocena: 6
#3

100%
Fajne porównianie Sheld i X360 ale ludziska weźcie w końcu pod uwagę, ze Xbox360 ma układ eDRAM który jest tak naprawdę dodatkową kartą GPU (posiada 192 pixel procesory) i przepustowość 256gbit/s (2560-bit). Tak samo PS3, Nvidia nigdy na slajdach porównujących Tegrę nie brała pod uwagę SPU w PS3 bo tutaj Tegra nie ma najmniejszych szans (bo łączna prędkość SPU pomiędzy LS, a rejestrami to 400GB/s). Ponadto SPU mają łącznie 1024 rejestry co jest wartością wręcz nie porównywalną z np X86.
Tak w grach sprzed 100 lat jak Doom 3 gdzie grafika to karton taki Shield zdepta X360 bo lepiej adresuje 1080p, natomiast Metal Gear Solid pokazuje jedno.. wiecej efektów -> konsola wygyrwa.
Kuba.wro (2016.08.06, 09:49)
Ocena: 16
#4

0%
Takie artykuły lubię najbardziej! :D
barwniak (2016.08.06, 10:20)
Ocena: 8
#6

0%
Po pierwsze Tegra X1 ma 64 bit interfejs do LPDDR4, czyli lipa.
Nvidia Tegra Parker na końcówkę tego roku, będzie miała Pascal-a z GDDR5, skończy się zabawa.

Co do superkomputerów, to może ARM na razie zapomnieć. Teraz liczą się akceleratory, TESLA PASCAL GP100 5 TFLOP DP, Xeoni Phi Knight Landing 3 TFLOP DP.
A ile TFLOP DP ma ARM :)
Ciekaw jestem starcia wielogodzinnego przetwarzania h264 do H265 software Latitude T9600 vs Apple Iphone 6s, lub Galaxy S7. Na stoliku w ogródku w pełnym słoneczku. Oba dostają zasilanie z gniazdka :)
Odpowiedź jest prosta, różnica była by nieskończona, bo telefony by się wyłączyły.
revcorey (2016.08.06, 10:34)
Ocena: 6
#7

0%
Cóż obecnie na rynku serwerowym ARM nie okazał się spektakularnym sukcesem, czytałem testy nie jest najlepiej względem konkurencji.
Aczkolwiek domowy NAS z ARM czemu nie?
Ciekaw jestem jak wypadło by ARM vs MIPS.
Edytowane przez autora (2016.08.06, 10:35)
miekrzy (2016.08.06, 10:44)
#9

0%
komisarz @ 2016.08.06 10:39  Post: 995789
(...)Wlacz myslenie!(...)

Zachęcam do tego samego. A także do czytania, a nie tylko oglądania obrazków.
Edytowane przez autora (2016.08.06, 10:45)
SunTzu (2016.08.06, 11:15)
Ocena: 4
#10

67%
revcorey @ 2016.08.06 10:34  Post: 995787
Cóż obecnie na rynku serwerowym ARM nie okazał się spektakularnym sukcesem, czytałem testy nie jest najlepiej względem konkurencji.
Aczkolwiek domowy NAS z ARM czemu nie?
Ciekaw jestem jak wypadło by ARM vs MIPS.

Tak jak piszesz domowy NAS mile widziany ARM i MIPS... i nie tylko- też routery też znajdują zastosowanie.
Choć ceny NAS są dość wysokie czasem taniej złożyć blaszaka - niestety kosztem rozmiarów- dostaje się za to więcej możliwośći.

ARM ma sens w superkomputerach -> HP moon coś tam, co sprowadza do masakrycznej ilości problemów. Po prostu nie jest to wyraźnie lepsza platforma od x86. x86 przy podobnej gęstości osiąga się lepszą wydajność.
Te superkomputery, które chcą być hiperopłacalne, efektywne lecą na GPGPU.

!Najlepsza jest konkurencja. Mile by było gdyby ARM zdobył popularność w laptopach, desktopach. Intel w telefonach. Wiele rzeczy niestety tu się rozbija o soft i 'leniwość' developerów (dosłownie leniwość- weźmy Androida i wsparcie aplikacji na MIPS/x86 gdzie naprawdę jest mało roboty z kompilowaniem apki na wszystkie platformy).
Edytowane przez autora (2016.08.06, 12:41)
Promilus1984 (2016.08.06, 11:18)
Ocena: 11
#11

33%
Coś z tym CISC 8 rozkazowym pojechaliście ;) mnemoników może i 8 ale opcode znacznie, znacznie więcej. CISC nie powstało w opozycji do RISC, powstało głównie po to by uzyskać bardziej kompaktowy kod (problemem była ilość pamięci, a nie jej szybkość). Dodatkowo nie widzę jakiegokolwiek problemu by programista wiedział, że jego zmienna pracuje na rejestrach procesora CISC. W SDCC dla 8051 mamy typ __register o ile dobrze pamiętam ;) Baaa, w 8051 i SDCC (jak i AVR-GCC RISCowe) można nawet sterować czy zmienna ma być w pamięci wewnętrznej, czy zewnętrznej ;) RISC były szybsze arytmetycznie, ale miały obszerny kod, CISC miały zwarty kod, ale były wolniejsze. Przy wprowadzeniu potoku i architektury superskalarnej CISC wydajnościowo zrównały się z RISC (choć nie energetycznie), zaś lista rozkazów (i trybów adresowania) RISC rosła i coraz bardziej złożone rozkazy się pojawiały. Ostatecznie jest tak jak napisaliście - różnice nie są tak widoczne jak kiedyś i nie ma jasnego zwycięzcy.
motiff (2016.08.06, 11:24)
Ocena: 0
#12

100%
Sukces arm niewatpliwy, reszta sterczy najwyzej w miejscu, a co do nowych rynkow. Arm nie zbudowalo jeszcze architektur na serwery czy komputery stacjonarne i wydaje sie nie sa tym szczegolnie zainteresowani
Szczota (2016.08.06, 11:51)
Ocena: 5
#13

0%
Domowe NAS sa od lat na ARM. Na szczescie nowe coraz czesciej sa na x86. Sam uzywam Qnapa na atomie quad core i to dopiero dodalo mocy i mozliwosci. Glownie o wirtualizacje chodzi.
MIPS w routerach od dawna sa, ARM dopiero raczkuje (sam uzywam routerow na MIPS, SMIPS, ARM, Tile i x86).
Dla wysokowydajnych routerow to Tile jest bardzo ciekawe szczegolnie ze nie ma tutaj znaczenia out-of-order. Niestety bardzo pomalu idzie zrownoleglanie na tym poziomie co szczegolnie jest wazne przy firewallach
Skullek (2016.08.06, 12:22)
Ocena: 7
#14

0%
W końcu jakiś fajny, dobrze napisany i skrojony artykuł, dawno tu takiego nie było ;)
Jacek1991 (2016.08.06, 12:37)
Ocena: 0
#15

0%
revcorey @ 2016.08.06 10:34  Post: 995787
Cóż obecnie na rynku serwerowym ARM nie okazał się spektakularnym sukcesem, czytałem testy nie jest najlepiej względem konkurencji.
Aczkolwiek domowy NAS z ARM czemu nie?
Ciekaw jestem jak wypadło by ARM vs MIPS.

ja mam NASa z arm, do obslugi samego magazynu oraz strimowania filmow po sieci domowej... starcza :) a nie jest to nic szybkiego
MINDSPEED Comcerto C2000 dokładniej.
obsluguje raid, 2x1Gbit, pare innych bajerow
Edytowane przez autora (2016.08.06, 12:40)
Laston (2016.08.06, 13:04)
Ocena: 0
#16

0%
Mam pytanie co do benchmarków GPU. Czy każdy z nich jest odpalany w tej samej rozdzielczości? Każdy z tych smartphonów ma inną więc jeśli nie to trochę o kant dupy potłuc takie porównanie.
miekrzy (2016.08.06, 13:06)
#17

0%
Laston @ 2016.08.06 13:04  Post: 995817
Mam pytanie co do benchmarków GPU. Czy każdy z nich jest odpalany w tej samej rozdzielczości? Każdy z tych smartphonów ma inną więc jeśli nie to trochę o kant dupy potłuc takie porównanie.

Wszystkie wklejone tutaj benchmarki GPU są niezależne od rozdzielczości ekranu urządzenia. No może poza testem po wygrzaniu.
Edytowane przez autora (2016.08.06, 13:07)
Plum (2016.08.06, 14:19)
Ocena: 5
#18

0%
Bardzo fajny i potrzebny artykuł.
Pięknie dziękuję.
Jeden z najciekawszych i najpożyteczniejszych w tym roku.
Syntetyczny a przekrojowy oraz poglądowy.
Z odniesieniami do histori.
Dobra robota.
Alart (2016.08.06, 15:07)
Ocena: 3
#19

0%
Artykuł pierwsza klasa.

Co do rozwoju ARM to jakoś tego nie widzę. Jak Intel poczuje oddech na plecach to nam zafunduje taką architekturę że zmiecie wszystko, a jak to będzie za mało to po prostu kupi sobie ARM.

Głównym problemem były, są i będą sterowniki. Na telefonach jesteśmy przyzwyczajeni do kiepskich aktualizacji, to wszystko może działać na słowo honoru, ale dobierając sprzęt zawsze patrzę na wsparcie sterowników. Dlatego siedzę na nvidii i nie kupię Radeona, bo po prostu nie ma dobrych sterowników na Linuxa.
Dla NASów czy czegokolwiek to dobrze działa na sofcie producenta (ewentualnie routery mają te swoje openWRT), ale jeśli chciałoby się odpalić jakiegoś Debiana chociażby to już nie wiadomo jakie problemy. Dlatego dla mnie wybór to atom (ew. Raspberry Pi bo to też ma dobre wsparcie, ale już wydajność taką-sobie).

Pożyjemy, zobaczymy. Ważne żeby jakaś konkurencja była, już tegoroczny i7-6950X pokazał, że Intel się nie bawi. Za wydajność poprzedników płaci się dwa razy więcej. To nie jest dobry kierunek.
Edytowane przez autora (2016.08.06, 18:16)
mbrzostek (2016.08.06, 15:18)
#20

0%
Promilus1984 @ 2016.08.06 11:18  Post: 995796
Coś z tym CISC 8 rozkazowym pojechaliście ;) mnemoników może i 8 ale opcode znacznie, znacznie więcej.

Przykład zaczerpnąłem stąd: http://homepage.cs.uiowa.edu/~jones/arch/cisc/
Zaloguj się, by móc komentować
Aktualności
Facebook
Ostatnio komentowane