aktualności

Nvidia: Intel manipulował przy wynikach Xeon Phi

25
17 sierpnia 2016, 12:55 Adrian Kotowski

Xeony Phi mają nie wypadać tak dobrze na tle kart Nvidii, jak przedstawił to Intel. Zieloni zarzucają swojemu konkurentowi manipulowanie wynikami testów, w których użyto starego oprogramowania, by w ten sposób zaciemnić prawdziwy obraz różnic pomiędzy produktami obu przedsiębiorstw. Producent kart graficznych postanowił więc udostępnić własne materiały, które według niego pokazują prawdziwą wydajność jego układów.

Nvidia i Intel rywalizują m.in. na rynku układów dla maszynowego uczenia i tworzenia sieci neuronowych. Rynek ten rozwija się bardzo szybko i niezwykle często obserwujemy wprowadzenie nowych rozwiązań, które pozwalają przyspieszyć obliczenia. Rola oprogramowania jest więc istotna i sporo zależy od tego, co konkretnie zostanie wybrane podczas przygotowywania testów. Dlatego też Nvidii nie spodobały się opublikowane przez Intela wyniki Xeonów Phi w odniesieniu do jej produktów.

Niebiescy udostępnili materiały, w których twierdzą że:

  • Xeon Phi jest 2,3x szybszy w przypadku uczenia maszynowego niż układ GPU,
  • Xeon Phi oferuje o 38 procent lepsze skalowanie dla węzłów niż GPU,
  • Xeon Phi zapewnia odpowiednie skalowanie nawet do 128 węzłów, podczas gdy GPU nie.

Nvidia twierdzi, że podane dane są błędne. Pierwszym problem ma być tutaj wspomniane wyżej oprogramowanie. W swoich testach Intel wykorzystał pakiet Caffe AlexNet, który miał już 18 miesięcy. Dzięki temu serwer złożony z czterech Xeonów Phi był wydajniejszy niż komputer z czterema Titanami X (Maxwell). Okazuje się jednak, że w przypadku najnowszej wersji tego pakietu z sierpnia tego roku wyniki są już zupełnie inne. Cztery Titany X wyprzedzają już cztery Xeony Phi.

Xeon Phi vs Titan X

Nvidia zauważa też, że w swojej ofercie ma lub będzie mieć zdecydowanie wydajniejsze produkty jak Titan X z rodziny Pascal lub pojedynczy system Nvidia DGX-1. Zieloni zauważają też, informacje o skalowaniu również dotyczą starszych rozwiązań. W przypadku nowszych, karty graficzne mają bić na głowę procesory. Nvidia przywołuje tutaj dane opublikowane przez firmę Baidu, która wskazuje na praktycznie liniowe skalowanie GPU do 128 węzłów. Co więcej, jeden serwer DGX-1 ma być w tej kwestii lepszy niż 21 serwerów Xeon Phi. 

Źródło: Neowin
iwanmeZobacz profil
Poziom ostrzeżenia: 0%
iwanme2016.08.17, 13:16
19#1
Nic nowego, że każdy kombinuje w materiałach reklamowych.
Swoją drogą czyżby w podanej tabelce tym razem nVidia porównała swoje nowe wyniki ze starymi Intela? :P
wuzetkowiecZobacz profil
Poziom ostrzeżenia: 0%
wuzetkowiec2016.08.17, 13:16
22#2
Cwaniaki zarzucają cwaniakom cwaniakowanie. Dobre :D
barwniakZobacz profil
Poziom ostrzeżenia: 0%
barwniak2016.08.17, 13:19
-6#3
Przecież jest jasne, że jak tylko wzrośnie popyt na machine learning, to pojawią się karty ASIC, które zmiotą CPU/GPU.
lamentZobacz profil
Poziom ostrzeżenia: 0%
lament2016.08.17, 13:35
11#4
I tak nikt nie traktuje papki marketingowej Nvidii i Intela poważnie. Centra obliczeniowe mają próbki różnych elementów i je sprawdzają do swoich potrzeb, wybierając najlepsze.
operatorkomputeraZobacz profil
Poziom ostrzeżenia: 0%
operatorkomputera2016.08.17, 13:35
-7#5
A teraz bum Intel kupuje amd i nv sra po nogach.
TelvasZobacz profil
Poziom ostrzeżenia: 0%
Telvas2016.08.17, 13:37
barwniak @ 2016.08.17 13:19  Post: 998468
Przecież jest jasne, że jak tylko wzrośnie popyt na machine learning, to pojawią się karty ASIC, które zmiotą CPU/GPU.

1. Popyt już jest OLBRZYMI.
2. Google od dawna ma swoje ASIC do tego.
mICh@eLZobacz profil
Poziom ostrzeżenia: 0%
mICh@eL2016.08.17, 13:40
12#7
barwniak @ 2016.08.17 13:19  Post: 998468
Przecież jest jasne, że jak tylko wzrośnie popyt na machine learning, to pojawią się karty ASIC, które zmiotą CPU/GPU.

Uczenie maszynowe jest tak szeroką działką i algorytmy są tak różnorodne, że to tak samo jakbyś napisał że zaraz powstaną ASIC do DX12 i nV zostanie zmieciona :P
Obecne GPU są uniwersalne i to jest ich największą zaletą - pojawi się nowy algorytm i wystarczy zaktualizować oprogramowanie, a nie kupować nowe karty ;)
barwniakZobacz profil
Poziom ostrzeżenia: 0%
barwniak2016.08.17, 13:40
-9#8
Telvas @ 2016.08.17 13:37  Post: 998481
barwniak @ 2016.08.17 13:19  Post: 998468
Przecież jest jasne, że jak tylko wzrośnie popyt na machine learning, to pojawią się karty ASIC, które zmiotą CPU/GPU.

1. Popyt już jest OLBRZYMI.
2. Google od dawna ma swoje ASIC do tego.


Czyli niedługo skończy się udział rynkowy CPU/GPU w tej materii.
TelvasZobacz profil
Poziom ostrzeżenia: 0%
Telvas2016.08.17, 13:42
barwniak @ 2016.08.17 13:40  Post: 998484
Telvas @ 2016.08.17 13:37  Post: 998481
(...)

1. Popyt już jest OLBRZYMI.
2. Google od dawna ma swoje ASIC do tego.


Czyli niedługo skończy się udział rynkowy CPU/GPU w tej materii.

Tylko że póki co Google nie udostępnia nikomu swojego sprzętu ;)
Poza tym dedykowany krzem to i dedykowane zastosowania. Do bardziej uniwersalnych są potrzebne bardziej uniwersalne (a przez to wolniejsze) rozwiązania, jak GPU i CPU.
iwanmeZobacz profil
Poziom ostrzeżenia: 0%
iwanme2016.08.17, 13:47
-3#10
W sumie może w przyszłych wersjach Intel by wrzucił FPGA też to Phi, mają być podobno w niektórych zwykłych Xeonach. To mógłby być niezły dodatek do tego typu zastosowań...
Zaloguj się, by móc komentować
1