komentarze
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.03.27, 11:37
Qantex @ 2014.03.27 11:17  Post: 735488
To żadna nowość, kiedyś to się nazywało turbo cache i efekt był żałosny.

Powiedz mi gdzie ty widzisz podobieństwo TurboCache do całkiem nowej magistrali Nv CPU - GPU? To jest rozwiązanie sprzętowe, a nie softwareowe.
shakal84Zobacz profil
Poziom ostrzeżenia: 0%
shakal842014.03.27, 11:41
No ładnie Nvidia brawo :D CIekawe co pokaże AMD ze swoimi radkami, bo w procesorach to juz raczej nic nie pokażą.
ZodiacZobacz profil
Poziom ostrzeżenia: 0%
Zodiac2014.03.27, 11:42
-3#23
Cuda na kiju a głupiemu radość. To w skrócie działalność PR zielonych...
shakal84Zobacz profil
Poziom ostrzeżenia: 0%
shakal842014.03.27, 11:45
-4#24
Adi-C @ 2014.03.27 10:17  Post: 735481
Kompletnie nie rozumiem jak to łącze ma wyglądać. Czy ono w ogóle trafi do desktopów? Tzn. dziś wsadzamy kartę do portu pcie i wio. A tu jak to będzie niby wyglądać, chcą zrobić jakiś nowy port...? Czy jak? Przecież to by wymagało nowych płyt głównych?
Czy chcą jakoś magicznie przesyłać te dane po pci-e, tylko szybciej :E ?
O ile dobrze rozumiem to trafi tylko do superkomputerów itp?


Oj straszne to wymagałoby NOWYCH ! PŁYT ! i to GŁÓWNYCH !!! a jak zmieniesz procka intela to co pierwsze robisz ? HAHA wymieniasz PŁYTE GŁÓWNĄ :D to Ci nie przeszkadza ?

Yoshi75Zobacz profil
Poziom ostrzeżenia: 0%
Yoshi752014.03.27, 11:45
-6#25
Hashi @ 2014.03.27 06:39  Post: 735450
Jak pisałem, ze magistrala CPU <-> GPU to ograniczenie to mnie tu chciano zjeść, ze gierki im chodzą tak samo na x1 i x16. Trzeba być naprawdę oszołomem to potęgi entej by twierdzić, ze magistrala nie jest ograniczeniem. Oficjalna strona Nv:
'NVLink technology unlocks the GPU's full potential by dramatically improving data movement between the CPU and GPU, minimizing the time that the GPU has to wait for data to be processed,' said Brian Kelleher, senior vice president of GPU Engineering at NVIDIA. 'NVLink enables fast data exchange between CPU and GPU, thereby improving data throughput through the computing system and overcoming a key bottleneck for accelerated computing today,' said Bradley McCredie, vice president and IBM Fellow at IBM. 'NVLink makes it easier for developers to modify high-performance and data analytics applications to take advantage of accelerated CPU-GPU systems.
accelerated computing applications typically move data from the network or disk storage to CPU memory, and then copy the data to GPU memory before it can be crunched by the GPU. With NVLink, the data moves between the CPU memory and GPU memory at much faster speeds, making GPU-accelerated applications run much faster.
http://nvidianews.nvidia.com/Releases/NVID...mputin-ad6.aspx
Co najciekawsze, mówi się o przyroście 5-12 razy względem PCIExpress 3.0. Czyli 5-12x 16GB/s - 32GB/s. Nie sprecyzowano, czy prędkość ta dotyczy jednego modułu, czy kilku SLI, czy obu kierunków czy łącznej prędkości ale i tak dałoby to:
5x 31.5GB/s = 157GB/s do 12x 378GB/s (przy maksymalnym założeniu, ze dotyczy to prędkości w obu kierunkach i jednego układu).
I teraz proszę nie wieszać psów na mnie ale.. teraz ponownie zacytuje lead programmera NaughtyDog:
Remember that the latest PCI Express 4.0 is just 31.51 GB/sec, way less than 176 GB/sec. A game runs on CPU + GPU.
https://twitter.com/mrengstad
Czyli jest w tym sens. Nv ma wejść w 2016 roku i jest pokrywało by się to z tym co mówił Cerny. Pełny potencjał HSA i hUMA odblokowany będzie w 2016-2017 (przynajmniej w przypadku PS4). Czekam na atak maniaków PC.
Co do pamięci 3D to wiele firm produkujących SoC pracuje nad tym bajerem i pokazano wiele prototypów takich stacków. Z tego co pamiętam to IBM, Micron i Toshiba grają tu pierwsze skrzypce. Juz w 2007 pokazali 3D nand stack:
http://www.dailytech.com/Toshiba+Reveals+3...article7659.htm
Co do superkomputerów to nie wiem czy nie dochodzimy do punktu 'zero'. Odkryliśmy Bozon Higsa, czarną materię, potrafimy rozwiązać większość problemów naukowych, medycznych, pogodę tez w pewnym stopniu więc nie wiem czy to całe podnoszenie mocy nie idzie w gwizdek, Choć napewno sprawność energetyczna jest najważniejsza w tym kontekście. Lepiej by pomyśleli nad problemem zwiększania wydajności pracy, która przyczyni się w długim okresie do spadku zatrudnienia na świecie (taki paradoks). Nawet Bill Gates ostatnio poruszył ten temat w kontekście robotyki. Wszystko było by fajnie jakby roboty zajmowały sie np rolnictwem tylko wtedy musieli byśmy wrócić do komuny i socjalizmu.


No to w końcu coś się ruszy w świecie pc bedzie nowoczesna architektura i technologia jak ma to miejsce w konsolach itd..... Moc nie będzie szła w kosmos jak ma to miejsce teraz przez realne ograniczenia w pc.

Hashi olej gimby niech sobie minusują i raportują jak te pieski :)
lukas108Zobacz profil
Poziom ostrzeżenia: 0%
lukas1082014.03.27, 11:49
Warto mieć na uwadze to, że obecnie dostępne GPU z procesorami opartymi na architekturze x86 łączą się za pośrednictwem interfejsu PCI Express, który ogranicza możliwości GPU w dostępie do kontrolowanej przez CPU pamięci operacyjnej, która przy okazji jest przeciętnie 4- lub 5-krotnie szybsza


Ktoś mi to wytłumaczy? (fragment z artykułu)
lukas108Zobacz profil
Poziom ostrzeżenia: 0%
lukas1082014.03.27, 11:57
Yoshi75 @ 2014.03.27 11:45  Post: 735502

No to w końcu coś się ruszy w świecie pc bedzie nowoczesna architektura i technologia jak ma to miejsce w konsolach itd..... Moc nie będzie szła w kosmos jak ma to miejsce teraz przez realne ograniczenia w pc.


Masz racje - dobrze się dzieje.
Tylko trzeba zadać sobie jedno pytanie. Czy obecna technologia czegoś nam kowalskim uniemożliwia? Na te możliwości które mamy, nie potrafimy jako projektanci gier wykorzystać. Ja obecnie mam sprzęt który pozwala na grę bez żadnych ograniczeń.
Kiedyś pamiętam, jak miałem ATARI, C64,AMIGA 1200 / PPC, pierwsze PC. Wtedy sprzęt był realnym ograniczeniem. Ale teraz? Do pracy i zabawy starcza mi sprzęt kupiony na wiele lat. Aczkolwiek mile widziany byłby postęp w dziedzinie grafiki i fizyki gier. Większy niż dotychczas.
Yoshi75Zobacz profil
Poziom ostrzeżenia: 0%
Yoshi752014.03.27, 12:02
-4#28
lukas108 @ 2014.03.27 11:57  Post: 735508
Yoshi75 @ 2014.03.27 11:45  Post: 735502

No to w końcu coś się ruszy w świecie pc bedzie nowoczesna architektura i technologia jak ma to miejsce w konsolach itd..... Moc nie będzie szła w kosmos jak ma to miejsce teraz przez realne ograniczenia w pc.


Masz racje - dobrze się dzieje.
Tylko trzeba zadać sobie jedno pytanie. Czy obecna technologia czegoś nam kowalskim uniemożliwia? Na te możliwości które mamy, nie potrafimy jako projektanci gier wykorzystać. Ja obecnie mam sprzęt który pozwala na grę bez żadnych ograniczeń.
Kiedyś pamiętam, jak miałem ATARI, C64,AMIGA 1200 / PPC, pierwsze PC. Wtedy sprzęt był realnym ograniczeniem. Ale teraz? Do pracy i zabawy starcza mi sprzęt kupiony na wiele lat. Aczkolwiek mile widziany byłby postęp w dziedzinie grafiki i fizyki gier. Większy niż dotychczas.


No to masz na przykładzie PS4 ładne małe pudełeczko mało prądożerne z układem APU gdzie CPU ma tylko 1.6Ghz i zobacz sobie co można na tym sprzęcie pokazać piękne gry z otwartym światem jak Infamous z PS4. A to dopiero poczatek pierwsza generacja gier. I to za jedyne 1799zł ;)





https://scontent-a-ams.xx.fbcdn.net/hphoto...450085943_o.jpg
https://fbcdn-sphotos-g-a.akamaihd.net/hph...897783953_o.jpg
https://scontent-b-ams.xx.fbcdn.net/hphoto...164777496_o.jpg
https://farm3.staticflickr.com/2834/134216...0fa93e5f6_o.png
http://www.thesangreal.net/gafpics/inf16.png
http://i6.minus.com/iwj0oPYH2rIXU.jpg
http://i2.minus.com/isYPP8Xs5zNve.jpg
https://farm4.staticflickr.com/3675/134008...46908213e_o.png
https://pbs.twimg.com/media/BjfuZGDIMAAH2gp.jpg
http://i7.minus.com/ioism9vXq0D4Q.jpg
https://farm3.staticflickr.com/2837/133778...71cf2f2dc_o.png
http://i5.minus.com/iT1yWn6OFzQZ1.jpg
lukas108Zobacz profil
Poziom ostrzeżenia: 0%
lukas1082014.03.27, 12:23
-4#29
No własnie, czyli bajdorzenie o nowych interfejsach jest grubo na wyrost. Obecna genracja sprzętu, starcza w zupełności. Sam mam sprzęt PCIE 2.0 i kartę wydajności która pozwala grać w absolutnie wszystkie gry na ultra detalach. Hmmm. Teraz jakby tak projektanci to jeszcze wykorzystali. No ale, trzeba zawsze myśleć do przodu, nie do tyłu.
likoZobacz profil
Poziom ostrzeżenia: 0%
liko2014.03.27, 12:48
Fajnie. Szkoda tylko ze nie dla przeciętnego zjadacza (lub producenta) chleba :/
taithZobacz profil
Poziom ostrzeżenia: 0%
taith2014.03.27, 14:13
-6#31
heh, jak na to patrze to NV patrzy przychylnie na inne architektury poza x86
mnie zastanawia co MS zrobi
x86 się powoli kończy, programowanie pod wiele rdzeni nadal jest trudne, a bardziej się liczy wydajność pojedynczego rdzenia
jedynie wsteczna kompatybilność i baza programowa daje windowsowi popularność, w linuxie wystarczy skompilować program pod procesor, a w win jest x86 albo śmierć
chyba, że MS w 2020 wyda kolejnego windowsa RT hue hue
motiffZobacz profil
Poziom ostrzeżenia: 0%
motiff2014.03.27, 14:38
-3#32
Nic ciekawego, zmiana nazwy architektury z volta na paskal, nic rewelacyjnego w kwestii pamięci, a swoiste złącze to tylko ich wersja na to co od lat jest w serwerach łączących klastry cpu z cpu.
Z pcie nie zrezygnują, bo to aż za dość w gpu dla graczy i ma elastyczne wykorzystanie, włącznie z externalem, możliwością łączenia do sata i tb.
huma i hsa u AMD też to wielkie halo, nowoczesny marketing, czyli nawciskaj nowego kitu, żeby ludzie mieli się czym jarać.
CortexM3Zobacz profil
Poziom ostrzeżenia: 0%
CortexM32014.03.27, 14:50
Poczekamy zobaczymy. historia Pc ma wiele zapowiadanych cudownych rozwiązań na koncie, tylko ile z nich sie sprawdziło, czy weszło do użytku? Fotorealistyczna grafikę zapowiada sie nam od ponad 10 lat, i jak jej nie ma tak nie ma, poza kilkoma demami.
StjepanZobacz profil
Poziom ostrzeżenia: 0%
Stjepan2014.03.27, 15:45
Zobaczymy co to da, 1Tb/s napewno przyda się do kart obsługujących wyświetlacze 8K, AMD w swojej ofercie już ma taką kartę, profesjonalny FirePro jest na to gotowy.
gregory003Zobacz profil
Poziom ostrzeżenia: 0%
gregory0032014.03.27, 15:56
Zodiac @ 2014.03.27 11:42  Post: 735499
Cuda na kiju a głupiemu radość. To w skrócie działalność PR zielonych...

A g... prawda. Cuda na kiju, to te całe żałosne HSA od AMD i spółki. Da się to wykorzystać tylko, jeśli CPU i GPU są na jednym kawałku krzemu (SoC). Nie można z dobrodziejstw HSA skorzystać, gdy ma się do czynienia z CPU i dedykowanym GPU, a wtedy ma to najwięcej sensu. Bo po co łączyć słabowite CPU z jako takim GPU jak AMD w swoich APU?
NV Pascal pozwala wykorzystać sensownie moc najwydajniejszych kart graficznych, jako pełnoprawnych koprocesorów dla CPU. I nie trzeba integrować ich w jedno SoC.
Gdyby tylko Intel zechciał NVLink zintegorować w swoim Skylake.
Obecne PCI-Express jest biedne jeśli chodzi o wykorzystanie zewnętrznych (wobec CPU) układów obliczeniowych, jako specjalistycznych koprocesorów. PCI-E pozwala na zwykłą transmisję danych pomiędzy CPU a zewnętrznym układem. Nie ma ani bezpośredniego dostępu do pamięci operacyjnej (szyna danych), ani jakiegoś specjalizowanego kanału transmisji adresów (szyna adresowa) z CPU do koprocesora.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842014.03.27, 16:10
Obecne PCI-Express jest biedne jeśli chodzi o wykorzystanie zewnętrznych (wobec CPU) układów obliczeniowych, jako specjalistycznych koprocesorów

Nie aż tak biedne. Problem pojawia się gdy łączysz kilkadziesiąt różnych układów. Pokaż mi jak dławi PCI-E wydajność w luxrenderze, vrayu itp. Dławi? No nie dławi. Ale gdybyś chciał maksymalnie dużo wyciągnąć z np. 64 rdzeni i 8GPU... to bez dedykowanej szybkiej szyny między nimi nie ma sensu. W przypadku CPU masz dla wielosocketowców HTT i QPI - ale nie obejmuje to kart graficznych, które nadal siedzą na PCI-E. Inna sprawa, że HTT i QPI wcale tutaj przepustowością też nie błyszczą, a serwery i klastry obliczeniowe wyciągają ładne wyniki i elegancko się skalują. Więc trzeba sprawdzić JAKIE są właśnie potrzeby i gdzie to może się okazać bardzo przydatne, a gdzie niezupełnie. Ja obstawiam, że dla zwykłego szarego użytkownika to byłby drogi bajer nie dający w sumie nic w zamian.
Adi-CZobacz profil
Poziom ostrzeżenia: 0%
Adi-C2014.03.27, 16:14
shakal84 @ 2014.03.27 11:45  Post: 735501
Adi-C @ 2014.03.27 10:17  Post: 735481
chcą zrobić jakiś nowy port...? Czy jak? Przecież to by wymagało nowych płyt głównych?

Oj straszne to wymagałoby NOWYCH ! PŁYT ! i to GŁÓWNYCH !!! a jak zmieniesz procka intela to co pierwsze robisz ? HAHA wymieniasz PŁYTE GŁÓWNĄ :D to Ci nie przeszkadza ?

Tak tylko mi nie chodziło o fakt że ja miałbym ją kupić i że to taki problem, a o to że ktoś by najpierw musiał taką płytę zrobić. (zakładając że to złącze wymagałoby nowego layoutu płyty, a z pewnością by wymagało) Kto będzie przestawiał linie produkcyjne specjanie dlatego że nv chce nowy port, do którego nie włożysz nic innego, amd ani nawet starszych kart nv.
Jakieś 95% pecetów to kompy do biura (gdzie nawet pci-e nie potrzeba bo wystarczy integra), i lapki. Z tego top 5% używanych do gier część ma karty amd, część nv.
Pytanie czy nv ma wystarczającą siłę przebicia żeby wymóc na kimkolwiek robienie płyt głównych pod tylko ich karty, a i to tylko te najmocniejsze, które wyjdą też nie wiadomo kiedy...
Stąd pytam czy to trafi do pecetów czy tylko do superkomputerów bo umieszczenie tego w pc będzie się wiązało ze stworzeniem nowego TYPU płyt, specjalnie pod takie karty.
(być może dałoby radę zrobić pci-e+nvlink, ale na razie nic nie zostało powiedziane, stąd pytam, myślałem że może ktoś gdzieś doczytał)
slawinhoZobacz profil
Poziom ostrzeżenia: 0%
slawinho2014.03.27, 16:19
Wszystko fajnie tylko niech coś ruszy w grach. Bo obecnie nie ma w co grać i te super karty graficzne się marnują.
Crysis z 2007 roku bije graficznie 90% gier wychodzących obecnie.
Nie wiem dla kogo te nowe technologie skoro znowu next genowe konsole będą hamować postęp techniczny w grach przez kolejne 10 lat.
Producenci zaniżają detale żeby gry chodziły na nowych konsolach (Watch Dog choćby) i o takiej grafice jak w demach technologicznych możemy pomarzyć.
Ja już tego mam dość (nie dość ze brzydkie te obecne gry to krótkie,bezpłciowe niegrywalne gnioty) i przestałem grać i nie ruszę żadnej gry dopóki nie będzie jakiegoś technicznego killera na miarę Crysisa z 2007 roku.
Nie dam sie już nabrać i nie kupie GPU za 2 tysiące skoro nie ma w co fajnego na miare 2014 roku grać.
gregory003Zobacz profil
Poziom ostrzeżenia: 0%
gregory0032014.03.27, 16:32
Promilus1984 @ 2014.03.27 16:10  Post: 735581
Obecne PCI-Express jest biedne jeśli chodzi o wykorzystanie zewnętrznych (wobec CPU) układów obliczeniowych, jako specjalistycznych koprocesorów

Nie aż tak biedne. Problem pojawia się gdy łączysz kilkadziesiąt różnych układów. Pokaż mi jak dławi PCI-E wydajność w luxrenderze, vrayu itp. Dławi? No nie dławi. Ale gdybyś chciał maksymalnie dużo wyciągnąć z np. 64 rdzeni i 8GPU... to bez dedykowanej szybkiej szyny między nimi nie ma sensu. W przypadku CPU masz dla wielosocketowców HTT i QPI - ale nie obejmuje to kart graficznych, które nadal siedzą na PCI-E. Inna sprawa, że HTT i QPI wcale tutaj przepustowością też nie błyszczą, a serwery i klastry obliczeniowe wyciągają ładne wyniki i elegancko się skalują. Więc trzeba sprawdzić JAKIE są właśnie potrzeby i gdzie to może się okazać bardzo przydatne, a gdzie niezupełnie. Ja obstawiam, że dla zwykłego szarego użytkownika to byłby drogi bajer nie dający w sumie nic w zamian.

Z tym że renderery to typowe aplikacje ''graficzne'', gdzie po skopiowaniu uprzednio przygotowanych danych do pamięci GPU, procesor centralny nie ma nic do roboty.
Pokaż mi to ''niedławienie się PCI-e'' w przypadku rozwiązywania wieloetapowych problemów obliczeniowych, gdy cześć etapów mogłaby być efektywniej obliczana na CPU, a część na GPU. I to właśnie problem fizyki w grach oraz wszelkich symulacji.

Obecnie efektywne metody wykorzystania GPU w roli koprocesora są bardzo biedne, bo przewidują na ogół brak ponownej obróbki przez CPU danych skopiowanych do pamięci GPU. Głupie DXVA copy-back potrafi mocno obciążyć PCI-e.
A po co obciążać PCI-e? Już dawno powinno się stworzyć interfejs, który udostępnia koprocesorom szynę danych z pominięciem CPU, zaś samo CPU zarządzać miałoby jedynie szyną adresową.
mantleZobacz profil
Poziom ostrzeżenia: 0%
mantle2014.03.27, 16:54
jak widać rozwój idzie w kierunku coś ala CROSSBAR (martyca przełączająca), która będzie spinała wszystkie elementy CPU, GPU, RAM i inne I/O, nie koniecznie z taka sama przepustowość per element.

Mogę sobie wyobrazić z damy przełącznik Ethernet do kompa i CPU1 ma 100Gbps, CPU2 ma 100Gbps, RAM n*100Gbps, GPU1 100Gbps, GPU2 100Gbps, I/O SSD 100Gbs, I/O HUB 10Gbps itp

Czyli taka technologia juz jest jak nie Ethernet to SerDes n*łącze szeregowe, ktore w stacked DRAM HMC osiaga na poziomie 480GB/s, wiec co za problem wstawic taki przełącznik do komputera
:)
Zaloguj się, by móc komentować