komentarze
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2012.05.19, 15:24
Kraft135 @ 2012.05.19 15:10  Post: 572560
Amitoza @ 2012.05.19 15:02  Post: 572559
gdzie się takich bajek naczytałeś?


Cytuję za PCLab: 'Nvidia nie uchyliła nawet rąbka tajemnicy specyfikacji nowego układu, stwierdziła jedynie, że 'Kepler' w najlepszej Tesli zapewni trzy razy większą wydajność w operacjach na liczbach zmiennoprzecinkowych podwójnej precyzji od 'Fermi'.

Suche papierowe dane i ilość jednostek mnie nie interesują, liczy się realna wydajność w realnych testach i aplikacjach.


Kiedy był pisany news na pclab tego jeszcze nie było ale już jest - pdf z prezentacją architektury GK110 zawierający sporo informacji - poczytaj to dowiesz się więcej :) Zapowiada się najlepsze, najszybsze GPU do GPGPU jakie da się stworzyć w procesie 28nm.

http://www.nvidia.com/content/PDF/kepler/N...-Whitepaper.pdf
mlodybe @ 2012.05.19 15:22  Post: 572563
bez kłótni panowie

AMD celuje w inny rynek niż NV

AMD zainteresowało się chmurami gdzie wyprzedza NV i INTELA razem wziętych
(nie oficjalnie mówi się o tym w kontekście przejścia APPLE i M$ właśnie na serwery chmurowe na podzespołach AMD)


To żeś wymyślił.... :>
*Konto usunięte*2012.05.19, 15:22
bez kłótni panowie

AMD celuje w inny rynek niż NV

AMD zainteresowało się chmurami gdzie wyprzedza NV i INTELA razem wziętych
(nie oficjalnie mówi się o tym w kontekście przejścia APPLE i M$ właśnie na serwery chmurowe na podzespołach AMD)
bobik karate masterZobacz profil
Poziom ostrzeżenia: 0%
bobik karate master2012.05.19, 15:20
15 klatek w StarCraft II na Low? Najmocniejszy z lapków ledwo ponad 20? Coś tu jest nie tak...
Kraft135Zobacz profil
Poziom ostrzeżenia: 0%
Kraft1352012.05.19, 15:10
Amitoza @ 2012.05.19 15:02  Post: 572559
gdzie się takich bajek naczytałeś?


Cytuję za PCLab: 'Nvidia nie uchyliła nawet rąbka tajemnicy specyfikacji nowego układu, stwierdziła jedynie, że 'Kepler' w najlepszej Tesli zapewni trzy razy większą wydajność w operacjach na liczbach zmiennoprzecinkowych podwójnej precyzji od 'Fermi'.

Suche papierowe dane i ilość jednostek mnie nie interesują, liczy się realna wydajność w realnych testach i aplikacjach.
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2012.05.19, 15:02
Kraft135 @ 2012.05.19 14:48  Post: 572556
Grave @ 2012.05.19 14:42  Post: 572555
Tyle, że w zastosowaniach pro i tak i tak karty AMD nie są wykorzystywane.


No więc przyglądaj się temu rynkowi uważnie, bo żaden szanujący się developer nie zlekceważy tak wielkiej przewagi konkurencji. Nawet trzykrotny wzrost wydajności w zapowiadanej sklejce NV nie odrobi straty do GCN w obliczeniach podwójnej precyzji, nie mówiąc o tym że AMD będzie mieć wtedy drugą generację w tej architekturze.

gdzie siętakich bajek naczytałeś? HD7970 ma 950Gflops w DP. GK110 ma mieć ponad 1Tflops. Zauważ, że GK110 ma 64 jednostki DP na SMX, więc w sumie jest ich 960. W przyadku AMD jeden GCN wykonuje o ile się nie mylę max 16 operacji DP, więc w sumie 512.
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2012.05.19, 14:54
Amitoza @ 2012.05.19 14:49  Post: 572557
Grave @ 2012.05.19 14:32  Post: 572550
(...)

CUDA (8 listopada 2006)
http://www.nvidia.com/object/IO_37226.html
CTM (14 listopada 2006)
http://www.amd.com/us/press-releases/Pages...ase_114147.aspx
Przy czym shadery 8800GTX były znacznie lepiej przystosowane do GPGPU niż te z Radeonów X19xx.




ale Ty jesteś głupo uparty. Co wynika z tego co dałeś link? A no nic, bo cuda 1.0 wyszło dopiero w 2007 roku w lutym bodaj. Więc jak chciał byś mieć cuda w listopadzie... bez cuda? :lol2:




Przyczytałeś chociaż te notki prasowe, bo widzę, że nie, więc Ci zacytuje:

The CUDA Software Developers Kit (SDK) is currently available to developers and researchers through the NVIDIA registered developer program.



Kraft135 @ 2012.05.19 14:48  Post: 572556
Grave @ 2012.05.19 14:42  Post: 572555
Tyle, że w zastosowaniach pro i tak i tak karty AMD nie są wykorzystywane.


No więc przyglądaj się temu rynkowi uważnie, bo żaden szanujący się developer nie zlekceważy tak wielkiej przewagi konkurencji. Nawet trzykrotny wzrost wydajności w zapowiadanej sklejce NV nie odrobi straty do GCN w obliczeniach podwójnej precyzji, nie mówiąc o tym że AMD będzie mieć wtedy drugą generację w tej architekturze.


AMD ma przewagę, bo Nvidia przy GK104 olała wydajność w podwójnej precyzji i umieściła mniej jednostek do tego typu obliczeń. Ale GK110 w tym względzie będzie oferował ponad 1TFLOPS, a więc więcej niż HD7970....

http://twojepc.pl/news26848.html
Więc bez obaw - Nvidia bez problemu odrobi stratę, nawet Sea Island z tym 7 mld Keplerem będzie mieć problem, bo AMD już parę lat temu postanowiło, że nie będzie robić tak dużych chipów jak Nvidia.

AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2012.05.19, 14:49
Grave @ 2012.05.19 14:32  Post: 572550
Amitoza @ 2012.05.19 14:26  Post: 572548
(...)

no wcześniej było brook.
(...)

ale co z tego, że GTX miał wtedy premierę, kiedy cuda1.0 wyszło dopiero w 2007?

CUDA (8 listopada 2006)
http://www.nvidia.com/object/IO_37226.html
CTM (14 listopada 2006)
http://www.amd.com/us/press-releases/Pages...ase_114147.aspx
Przy czym shadery 8800GTX były znacznie lepiej przystosowane do GPGPU niż te z Radeonów X19xx.




ale Ty jesteś głupo uparty. Co wynika z tego co dałeś link? A no nic, bo cuda 1.0 wyszło dopiero w 2007 roku w lutym bodaj. Więc jak chciał byś mieć cuda w listopadzie... bez cuda? :lol2:


Kraft135Zobacz profil
Poziom ostrzeżenia: 0%
Kraft1352012.05.19, 14:48
Grave @ 2012.05.19 14:42  Post: 572555
Tyle, że w zastosowaniach pro i tak i tak karty AMD nie są wykorzystywane.


No więc przyglądaj się temu rynkowi uważnie, bo żaden szanujący się developer nie zlekceważy tak wielkiej przewagi konkurencji. Nawet trzykrotny wzrost wydajności w zapowiadanej sklejce NV nie odrobi straty do GCN w obliczeniach podwójnej precyzji, nie mówiąc o tym że AMD będzie mieć wtedy drugą generację w tej architekturze.
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2012.05.19, 14:42
mlodybe @ 2012.05.19 14:38  Post: 572554
@grave nie zmienia to faktu że... http://twojepc.pl/news26841.html
Nvidia jeszcze nie wypuściła następcy GF110, takowy pojawi się w 4 kwartale 2012 - Kepler z 7.1 mld tranzystorów. Więc na chwilę obecną AMD ma najszybszą kartę w GPGPU to fakt (choć akurat w tym konkretnym teście w Sandrze najszybszy najpewniej jest GTX690).

Tyle, że w zastosowaniach pro i tak i tak karty AMD nie są wykorzystywane. A z kolei w domu mało komu robi różnicę ile FLOPS-ów w obliczeniach pojedynczej czy podwójnej precyzji jest w stanie wyrobić ich GPU.

*Konto usunięte*2012.05.19, 14:38
@grave nie zmienia to faktu że... http://twojepc.pl/news26841.html
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2012.05.19, 14:36
sevae @ 2012.05.19 14:35  Post: 572551
Ja wiem i pamiętam że prezentacja CTM była wcześniej a CUDA w 2007 roku w styczniu albo w lutym, bo pamiętam że w prasie jak opisywano CUDA po prezentacjach to wspominano że parę miesięcy temu była prezentacja CTM (o której nie wiedziałem i dlatego mi się to utrwaliło).


Ja podałem oficjalne notki prasowe NV i AMD, które jednoznacznie rozstrzygają co było pierwsze. Przy czym CUDA miała lepsze wsparcie zarówno hardware-owe (nowe shadery w 8800GTX) jak i software-owe ze strony producentów oprogramowania.
Kraft135Zobacz profil
Poziom ostrzeżenia: 0%
Kraft1352012.05.19, 14:35
Grave @ 2012.05.19 13:53  Post: 572538
To jak sobie Intel radzi w GPGPU jest mało istotne, bo dedykowana karta poradzi sobie z tym bez problemów. GeForce'y obsługują zarówno CUDA jak i OpenCL - do wyboru do koloru.


Tylko tu chodzi o rozwój wydajnościowy GPGPU, opierający się na wykorzystaniu zunifikowanej przestrzeni adresowej, likwidacji magistrali łączących cpu z gpu, uproszczenie wymiany danych itd. Twoje pojmowanie tej technologii jest archaiczne :)
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2012.05.19, 14:35
Ja wiem i pamiętam że prezentacja CTM była wcześniej a CUDA w 2007 roku w styczniu albo w lutym, bo pamiętam że w prasie jak opisywano CUDA po prezentacjach to wspominano że parę miesięcy temu była prezentacja CTM (o której nie wiedziałem i dlatego mi się to utrwaliło).
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2012.05.19, 14:32
Amitoza @ 2012.05.19 14:26  Post: 572548
sevae @ 2012.05.19 14:15  Post: 572543
(...)

CTM chodził na kartach x1900 i starszych.

@Amitoza, no tak a rozwiązania różnych zapaleńców są jeszcze starsze niż CUDA czy CTM.

no wcześniej było brook.
Grave @ 2012.05.19 14:12  Post: 572541
(...)


Nvidia wprowadziła CUDA wraz z GeForce'ami 8xxx. Obecne w tym czasie na rynku karty ATI (Radeony X19xx) nie oferowały nic o podobnej funkcjonalności.

8800GTX miał premierę 8 listopada 2006.

ale co z tego, że GTX miał wtedy premierę, kiedy cuda1.0 wyszło dopiero w 2007?

CUDA (8 listopada 2006)
http://www.nvidia.com/object/IO_37226.html
CTM (14 listopada 2006)
http://www.amd.com/us/press-releases/Pages...ase_114147.aspx
Przy czym shadery 8800GTX były znacznie lepiej przystosowane do GPGPU niż te z Radeonów X19xx.



AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2012.05.19, 14:26
sevae @ 2012.05.19 14:15  Post: 572543
Grave @ 2012.05.19 14:12  Post: 572541
(...)


Nvidia wprowadziła CUDA wraz z GeForce'ami 8xxx. Obecne w tym czasie na rynku karty ATI (Radeony X19xx) nie oferowały nic o podobnej funkcjonalności.

8800GTX miał premierę 8 listopada 2006.

CTM chodził na kartach x1900 i starszych.

@Amitoza, no tak a rozwiązania różnych zapaleńców są jeszcze starsze niż CUDA czy CTM.

no wcześniej było brook.
Grave @ 2012.05.19 14:12  Post: 572541
sevae @ 2012.05.19 14:04  Post: 572539
(...)

Jak dobrze pamiętam pierwsza prezentacja ATI, gdzie pokazano system który zwał się Close To Metal (potem Stream) gdzie użyto shaderów do obliczeń nie związanych z grafiką miała miejsce pod koniec roku 2006.


Nvidia wprowadziła CUDA wraz z GeForce'ami 8xxx. Obecne w tym czasie na rynku karty ATI (Radeony X19xx) nie oferowały nic o podobnej funkcjonalności.

8800GTX miał premierę 8 listopada 2006.

ale co z tego, że GTX miał wtedy premierę, kiedy cuda1.0 wyszło dopiero w 2007?
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2012.05.19, 14:24
mlodybe @ 2012.05.19 14:18  Post: 572544
Grave @ 2012.05.19 13:53  Post: 572538
(...)


Przecież od dawna są karty graficzne przystosowane do GPGPU. Nvidia tę idee wprowadziła już parę lat temu (wraz CUDA) jeszcze przed AMD.

To jak sobie Intel radzi w GPGPU jest mało istotne, bo dedykowana karta poradzi sobie z tym bez problemów. GeForce'y obsługują zarówno CUDA jak i OpenCL - do wyboru do koloru.

Jak komuś wystarczy tylko OpenCL to może wybrać jakiegoś Radeona od AMD. I CPU Intela w niczym tu nie przeszkadza - zapewnia bardzo wysoką wydajność X86, a akceleracja swoją drogą - tym najlepiej zajmuje się dedykowane GPU.


AMD było rok wcześniej

pamiętaj że mocny wątek AMD chce wymienić na GPGPU z poziomu CPU

można by to nazwac wstępną obróbką dla dedykowanego GPU (prawdopodobnie nastąpi to wraz z steamroller-em bo o trinity o tym nie słyszałem) chodz na jakiejś uczelni udało się to modyfikując stery co pomogło hd6670 na osiągnięcie nieznacznie słabszego wyniku niż i7-2600 i 560ti a to już robi wrażenie


AMD nie było rok wcześniej. Nawet ten 'Close to metal' został zaanonsowany w notce prasowej z 14 listopada 2006, podczas gdy 8800GTX miał premierę tydzień wcześniej

Poza tym jeszcze jest kwestia realnego wsparcia. OpenCL ma coraz większe wsparcie ale zarówno STM jak i Stream przegrywały równo jeżeli chodzi o ilość wspieranych aplikacji z CUDA.

Do tego z programowalnymi shaderami jako takimi pierwsza była Nvidia. Amitoza wspomniał o rozbudowanych shaderach w FX, ale Nvidia też jako pierwsza wprowadziła w ogóle coś takiego jak programowalne jednostki GPU wraz GeForce 3 (ten miał 1 taką jednostkę).

I jeżeli idzie o GPGPU obecnie to Nvidia jest liderem - tam gdzie GPGPU jest najbardziej potrzebne tam siedzą Tesle czy Quadro od Nvidii, a nie karty od AMD. Nvidia ten rynek traktuje bardzo serio i zapewnia mu bardzo dobre wsparcie tak sprzętowe jak i software'owe.
*Konto usunięte*2012.05.19, 14:18
Grave @ 2012.05.19 13:53  Post: 572538
mlodybe @ 2012.05.19 13:31  Post: 572535
(...)


jak na razie gpgpu hd4000 kuleje na wszystkie 4 łapy a poprawianie idzie im bardzo ciężko

(...)


właśnie gdyby nie intel rozwijanie opencl i idei gpgpu szło by jeszcze szybciej


Przecież od dawna są karty graficzne przystosowane do GPGPU. Nvidia tę idee wprowadziła już parę lat temu (wraz CUDA) jeszcze przed AMD.

To jak sobie Intel radzi w GPGPU jest mało istotne, bo dedykowana karta poradzi sobie z tym bez problemów. GeForce'y obsługują zarówno CUDA jak i OpenCL - do wyboru do koloru.

Jak komuś wystarczy tylko OpenCL to może wybrać jakiegoś Radeona od AMD. I CPU Intela w niczym tu nie przeszkadza - zapewnia bardzo wysoką wydajność X86, a akceleracja swoją drogą - tym najlepiej zajmuje się dedykowane GPU.


AMD było rok wcześniej

pamiętaj że mocny wątek AMD chce wymienić na GPGPU z poziomu CPU

można by to nazwac wstępną obróbką dla dedykowanego GPU (prawdopodobnie nastąpi to wraz z steamroller-em bo o trinity o tym nie słyszałem) chodz na jakiejś uczelni udało się to modyfikując stery co pomogło hd6670 na osiągnięcie nieznacznie słabszego wyniku niż i7-2600 i 560ti a to już robi wrażenie
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2012.05.19, 14:15
Grave @ 2012.05.19 14:12  Post: 572541
sevae @ 2012.05.19 14:04  Post: 572539
(...)

Jak dobrze pamiętam pierwsza prezentacja ATI, gdzie pokazano system który zwał się Close To Metal (potem Stream) gdzie użyto shaderów do obliczeń nie związanych z grafiką miała miejsce pod koniec roku 2006.


Nvidia wprowadziła CUDA wraz z GeForce'ami 8xxx. Obecne w tym czasie na rynku karty ATI (Radeony X19xx) nie oferowały nic o podobnej funkcjonalności.

8800GTX miał premierę 8 listopada 2006.

CTM chodził na kartach x1900 i starszych.

@Amitoza, no tak a rozwiązania różnych zapaleńców są jeszcze starsze niż CUDA czy CTM.
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2012.05.19, 14:12
sevae @ 2012.05.19 14:04  Post: 572539
Grave @ 2012.05.19 13:53  Post: 572538

Przecież od dawna są karty graficzne przystosowane do GPGPU. Nvidia tę idee wprowadziła już parę lat temu (wraz CUDA) jeszcze przed AMD.

Jak dobrze pamiętam pierwsza prezentacja ATI, gdzie pokazano system który zwał się Close To Metal (potem Stream) gdzie użyto shaderów do obliczeń nie związanych z grafiką miała miejsce pod koniec roku 2006.

nie mniej pierwsze układy z programowalnymi shaderami wspierającymi FP16 i FP32 o ile dobrze pamiętam, to były karty z serii FX.


Grave @ 2012.05.19 14:12  Post: 572541
sevae @ 2012.05.19 14:04  Post: 572539
(...)

Jak dobrze pamiętam pierwsza prezentacja ATI, gdzie pokazano system który zwał się Close To Metal (potem Stream) gdzie użyto shaderów do obliczeń nie związanych z grafiką miała miejsce pod koniec roku 2006.


Nvidia wprowadziła CUDA wraz z GeForce'ami 8xxx. Obecne w tym czasie na rynku karty ATI (Radeony X19xx) nie oferowały nic o podobnej funkcjonalności.

Później pojawił się Stream, ale wsparcie dla niego było znacznie mniejsze niż dla CUDA.

fakt jest jeden - pierwsze pod tym względem akurat było AMD z CTM. To że nvidia miała lepsze pierwszeństwa nie zmienia.
GraveZobacz profil
Poziom ostrzeżenia: 0%
Grave2012.05.19, 14:12
sevae @ 2012.05.19 14:04  Post: 572539
Grave @ 2012.05.19 13:53  Post: 572538

Przecież od dawna są karty graficzne przystosowane do GPGPU. Nvidia tę idee wprowadziła już parę lat temu (wraz CUDA) jeszcze przed AMD.

Jak dobrze pamiętam pierwsza prezentacja ATI, gdzie pokazano system który zwał się Close To Metal (potem Stream) gdzie użyto shaderów do obliczeń nie związanych z grafiką miała miejsce pod koniec roku 2006.


Nvidia wprowadziła CUDA wraz z GeForce'ami 8xxx. Obecne w tym czasie na rynku karty ATI (Radeony X19xx) nie oferowały nic o podobnej funkcjonalności.

8800GTX miał premierę 8 listopada 2006.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.