komentarze
Stefan999Zobacz profil
Poziom ostrzeżenia: 0%
Stefan9992014.11.17, 15:53
W okolicach 2016 Intel już nie ma obowiązku stosowania PCI-E na swoich płytach głównych.
SupermanZobacz profil
Poziom ostrzeżenia: 0%
Superman2014.11.17, 16:01
14#2
Stefan999 @ 2014.11.17 15:53  Post: 803937
W okolicach 2016 Intel już nie ma obowiązku stosowania PCI-E na swoich płytach głównych.


Nie zrobią aż tak wielkiego prezentu AMD.
menel00Zobacz profil
Poziom ostrzeżenia: 0%
menel002014.11.17, 16:03
13#3
Stefan999 @ 2014.11.17 15:53  Post: 803937
W okolicach 2016 Intel już nie ma obowiązku stosowania PCI-E na swoich płytach głównych.

już widzę te kolejki po płyty z Intel'ową integrą zamiast PCI-E :D
ReCuNiO^Zobacz profil
Poziom ostrzeżenia: 0%
ReCuNiO^2014.11.17, 16:07
-2#4
'Bezpośrednio połączone CPU i GPU będą mogły operować razem na jednej przestrzeni adresowej. AMD i Intel mogą zapewnić taką funkcję w układach, które w jednym kawałku krzemu integrują GPU i procesor x86.'
'Ogromna liczba połączeń wymaga zastosowania nowego złącza między GPU a płytą główną. Karty obliczeniowe z NVLink nie będą miały formy kart PCI Express.'

Wiadomo już czy NVLink będzie zastosowany w 14 nm architekturze Skylake a co za tym idzie w płytach głównych z socketem LGA 1151 i DDR4?
*Konto usunięte*2014.11.17, 16:18
Wygląda jak wyścig obliczeniowych zbrojeń ;-)
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2014.11.17, 16:52
Choć Pascal nie jest jeszcze gotowy, w Stanach Zjednoczonych już podjęto decyzje o budowie dwóch rządowych superkomputerów z tymi GPU


Sierra i Summit będą zawierały GPU z architekturą VOLTA. Potwierdzone na oficjalnej stronie Nvidii.

The systems will also feature NVIDIA's future generation GPU architecture, Volta™, which will deliver considerably higher performance than the company's current Maxwell™ architecture and subsequent Pascal™ design.

http://nvidianews.nvidia.com/News/U-S-to-B...l-Labs-c0d.aspx
Swoją drogą pogratulować Nvidii, że ma już kontrakt za kilkaset mln $ na dostawę GPU dwie generacje do przodu na 3 lata przed wprowadzeniem na rynek.
Luk4sZobacz profil
Poziom ostrzeżenia: 0%
Luk4s2014.11.17, 17:11
@up: Bulldozery AMD też sprzedawało do superkomputerów zanim te trafiły na rynek (np. do Cray XK7) i zanim wiadomo było jaką miały wydajność ;). Takie kontrakty zawsze są podpisywane ze sporym wyprzedzeniem chociaż oczywiście trzeba pogratulować Nvidii :)
CortexM3Zobacz profil
Poziom ostrzeżenia: 0%
CortexM32014.11.17, 18:11
ReCuNiO^ @ 2014.11.17 16:07  Post: 803944
'Bezpośrednio połączone CPU i GPU będą mogły operować razem na jednej przestrzeni adresowej. AMD i Intel mogą zapewnić taką funkcję w układach, które w jednym kawałku krzemu integrują GPU i procesor x86.'
'Ogromna liczba połączeń wymaga zastosowania nowego złącza między GPU a płytą główną. Karty obliczeniowe z NVLink nie będą miały formy kart PCI Express.'

Wiadomo już czy NVLink będzie zastosowany w 14 nm architekturze Skylake a co za tym idzie w płytach głównych z socketem LGA 1151 i DDR4?

I tak oto historia zatacza nam koło wracamy do rozwiązań znanych z C64 i Amigi gdzie pamięć RAM byla współdzielona między CPU i 'GPU'.
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2014.11.17, 18:26
-6#9
Mnie zastanawia tylko jak mogła wygrać przetarg firma, która nie ma jeszcze finalnego produktu...

Brzmi to trochę jak Polska...
Przecież nie jest powiedziane, że nowa seria AMD nie będzie jeszcze lepsza... 2900xt było porażką, 3870 słabą kartą... ale już 4870 czy 5870 to były swego rodzaju rodzynki.
Ja miałbym poważne obawy czy brać Fermi czy Keplera do GPGPU zanim mnie zaminusujecie, że niby FLOPS większy keplera GK104 to jednak wydajność nie zawsze w GPGPU. Pewnie z tych dwóch brałbym 7970... gdyby nie brak CUDA.
anemusZobacz profil
Poziom ostrzeżenia: 0%
anemus2014.11.17, 18:45
-2#10
SunTzu @ 2014.11.17 18:26  Post: 803994
Mnie zastanawia tylko jak mogła wygrać przetarg firma, która nie ma jeszcze finalnego produktu...

Brzmi to trochę jak Polska...
Przecież nie jest powiedziane, że nowa seria AMD nie będzie jeszcze lepsza... 2900xt było porażką, 3870 słabą kartą... ale już 4870 czy 5870 to były swego rodzaju rodzynki.
Ja miałbym poważne obawy czy brać Fermi czy Keplera do GPGPU zanim mnie zaminusujecie, że niby FLOPS większy keplera GK104 to jednak wydajność nie zawsze w GPGPU. Pewnie z tych dwóch brałbym 7970... gdyby nie brak CUDA.

Ja bym brał xeona phi. Cuda jest fajne ale dla małego projektu akademickiego cierpiącego na permanentny brak kasy ale i tak w ostatniej promocji phi miażdży nvidię ceną.
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2014.11.17, 19:10
-2#11
Albo dla kogoś kto korzysta ze softu dostępnego publicznie, a ten wciąż jest najczęściej pisany w CUDA...

Pytanie czy wydajnością. Dobrych testów GPGPU brak... co najwyżej luxmark, który jest 'benchmarkiem', a wg skotkiego w dodatku specjalnie pisanym pod AMD.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482014.11.17, 20:10
SunTzu @ 2014.11.17 19:10  Post: 804003
Pytanie czy wydajnością. Dobrych testów GPGPU brak... co najwyżej luxmark, który jest 'benchmarkiem', a wg skotkiego w dodatku specjalnie pisanym pod AMD.

Nie tyle specjalnie pod... a przez pracowników AMD i za pieniądze AMD. Innych dobrych testów brak, bo jak porównać przykładowo VRay RT gdy jak wykryje kartę Nvidii do działa zupełnie inny kernel o dużo wyższej jakości, a gdy AMD to działą kernel bardzo słaby (ale nie są w stanie tego lepszego uruchomić na AMD, bo sterowniki się wywalają - z podobnej przyczyny też renderer Cycles zawiesił rozwój OpenCL, bo na Nvidii mają szybsze CUDA, a na AMD OpenCL i tak nie działą).
Nadzieją dla OpenCL i testów GPGPU na nim, jest OpenCL 2.0 i SPIR. OpenCL 2.0 bo ma porównywalne z CUDA możliwości, a SPIR bo można kompilować i optymalizować offline, więc nie będą się na kompilacji wywalać sterowniki AMD.

Niestety, ani Nvidia, ani Intel, ani AMD nie wspierają OpenCL 2.0 jeszcze w standardzie, a dopiero co AMD i Intel wydali pierwsze bety dla programistów.
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2014.11.17, 20:35
-3#13
Nie chodziło o zarzut, byś się musiał tłumaczyć... tylko pisałem, że tak twierdzisz, bo gdybym tego nie napisał to zaraz by 'MI' tu kazano to udowodnić, a mi najzwyczajniej w świecie po prostu nie chce się.

Niestety o ile przez długi czas nie miałem problemu z OpenCL na AMD, głównie na Apple, to teraz faktycznie mam... myślałem, że to może wina softu... ale od roku olałem AMD i jestem generalnie nie mam
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482014.11.17, 20:39
SunTzu @ 2014.11.17 20:35  Post: 804021
Nie chodziło o zarzut, byś się musiał tłumaczyć... tylko pisałem, że tak twierdzisz, bo gdybym tego nie napisał to zaraz by 'MI' tu kazano to udowodnić, a mi najzwyczajniej w świecie po prostu nie chce się.

Ja się nie tłumaczyłem tylko sprostowałem (pisane jest nie tyle pod ich GPU, co przez programistów AMD tak, aby ich sterowniki sobie jakoś poradziły z kompilacją, co znowu pociąga za sobą braki w optymalnym wykorzystaniu konkurencyjnych steronwników, które sobie z OpenCL radzą). Dalej po prostu rozszerzyłem o Vray/Cycles (inne też, ale za długo by wymieniać), które też nie są dobrymi testami, bo po postu albo olewają AMD, aż Ci zaczną OpenCL traktować poważnie, albo robią wersję ubogą dla AMD i wersję pełną dla Nvidii, więc nie da się porównać kart, bo ten sam program to tak naprawdę dwa zupełnie różne programy w zależności od producenta. Do czasu gdy sterowniki AMD nie będą potrafiły skompilować skomplikowanego kernela, lub do czasu gdy nie będzie można uruchomić na ich sterownikach kernela skompilowanego poza sterownikami dobrych testów nie będzie (bo będą działały i tak tylko na Nvidii, a w takim razie już lepiej je napisać w CUDA).
motiffZobacz profil
Poziom ostrzeżenia: 0%
motiff2014.11.17, 20:57
-5#15
A więc do kosza obietnice Nvidii, bo dawniej pokazywali maksłela i volte na tabelce podwójnej precyzji, czyli niewątpliwie coś się zmieniło. Duży maksłel do kosza, szkoda mógł być w 20 nano, a odrazu pojawi się pascal w 16 nano.
Plany AMD zawiłe, najpierw mówiono o hajendzie zaraz w 1 połowie nowego roku, a niektórzy mówią o 2 połowie, niedobrze mdli mnie ten zastój w gpu.
Stefan999 @ 2014.11.17 15:53  Post: 803937
W okolicach 2016 Intel już nie ma obowiązku stosowania PCI-E na swoich płytach głównych.

To dotyczy soc bga i Atomy pierwsze w kolejce do krojenia z ficzerów i kontrolerów.
KynarethZobacz profil
Poziom ostrzeżenia: 0%
Kynareth2014.11.17, 22:14
Trochę tego nie rozumiem. Maxwelle słyną z niskiego zapotrzebowania na prąd, co jest bardzo ważne w działających prawie non-stop superkomputerom. Widać do 2016 nie zamierzają oferować niczego nadzwyczajnego. Szansa dla Intela i Xeonów Phi.
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2014.11.17, 22:36
-3#17
@up
Czy coś słynie czy nie nie ma znaczenia. Procesory AMD słynęły jako tanie podróby Intel-a... były lepsze w pewnym okresie...
Nie ważne jest tylko niskie zapotrzebowanie, a wydajność/wat i pobór energii w IDLE, pobór energii w stresie.

Układ może mieć bardzo niskie zapotrzebowanie na prąd, ale mieć gorszą wydajność/wat...
Albo duży pobór energii w stresie uniemożliwi wsadzenie x GPU do serwer-a 1u...
VymmiataczZobacz profil
Poziom ostrzeżenia: 0%
Vymmiatacz2014.11.18, 09:44
-3#18
Zobaczcie, nie mają jeszcze sprzętu, a strumień kasiorki już płynie. To jest właśnie siła tej firmy.
Tego AMD już chyba nigdy mieć nie będzie.
taithZobacz profil
Poziom ostrzeżenia: 0%
taith2014.11.18, 11:00
Pytaniem jest czy pociągnie to AC unity w stałych 60FPS przy 1080p
mbe2014.11.18, 11:17
Vymmiatacz @ 2014.11.18 09:44  Post: 804095
Zobaczcie, nie mają jeszcze sprzętu, a strumień kasiorki już płynie. To jest właśnie siła tej firmy.
Tego AMD już chyba nigdy mieć nie będzie.

To żadna nowość że ktoś kupuje sprzęt w ciemno do superkomputerów.
Zaloguj się, by móc komentować