Cytuję za PCLab: 'Nvidia nie uchyliła nawet rąbka tajemnicy specyfikacji nowego układu, stwierdziła jedynie, że 'Kepler' w najlepszej Tesli zapewni trzy razy większą wydajność w operacjach na liczbach zmiennoprzecinkowych podwójnej precyzji od 'Fermi'.
Suche papierowe dane i ilość jednostek mnie nie interesują, liczy się realna wydajność w realnych testach i aplikacjach.
Kiedy był pisany news na pclab tego jeszcze nie było ale już jest - pdf z prezentacją architektury GK110 zawierający sporo informacji - poczytaj to dowiesz się więcej Zapowiada się najlepsze, najszybsze GPU do GPGPU jakie da się stworzyć w procesie 28nm.
AMD zainteresowało się chmurami gdzie wyprzedza NV i INTELA razem wziętych
(nie oficjalnie mówi się o tym w kontekście przejścia APPLE i M$ właśnie na serwery chmurowe na podzespołach AMD)
AMD zainteresowało się chmurami gdzie wyprzedza NV i INTELA razem wziętych
(nie oficjalnie mówi się o tym w kontekście przejścia APPLE i M$ właśnie na serwery chmurowe na podzespołach AMD)
Cytuję za PCLab: 'Nvidia nie uchyliła nawet rąbka tajemnicy specyfikacji nowego układu, stwierdziła jedynie, że 'Kepler' w najlepszej Tesli zapewni trzy razy większą wydajność w operacjach na liczbach zmiennoprzecinkowych podwójnej precyzji od 'Fermi'.
Suche papierowe dane i ilość jednostek mnie nie interesują, liczy się realna wydajność w realnych testach i aplikacjach.
Tyle, że w zastosowaniach pro i tak i tak karty AMD nie są wykorzystywane.
No więc przyglądaj się temu rynkowi uważnie, bo żaden szanujący się developer nie zlekceważy tak wielkiej przewagi konkurencji. Nawet trzykrotny wzrost wydajności w zapowiadanej sklejce NV nie odrobi straty do GCN w obliczeniach podwójnej precyzji, nie mówiąc o tym że AMD będzie mieć wtedy drugą generację w tej architekturze.
gdzie siętakich bajek naczytałeś? HD7970 ma 950Gflops w DP. GK110 ma mieć ponad 1Tflops. Zauważ, że GK110 ma 64 jednostki DP na SMX, więc w sumie jest ich 960. W przyadku AMD jeden GCN wykonuje o ile się nie mylę max 16 operacji DP, więc w sumie 512.
ale Ty jesteś głupo uparty. Co wynika z tego co dałeś link? A no nic, bo cuda 1.0 wyszło dopiero w 2007 roku w lutym bodaj. Więc jak chciał byś mieć cuda w listopadzie... bez cuda?
Przyczytałeś chociaż te notki prasowe, bo widzę, że nie, więc Ci zacytuje:
The CUDA Software Developers Kit (SDK) is currently available to developers and researchers through the NVIDIA registered developer program.
Kraft135 @ 2012.05.19 14:48
Grave @ 2012.05.19 14:42
Tyle, że w zastosowaniach pro i tak i tak karty AMD nie są wykorzystywane.
No więc przyglądaj się temu rynkowi uważnie, bo żaden szanujący się developer nie zlekceważy tak wielkiej przewagi konkurencji. Nawet trzykrotny wzrost wydajności w zapowiadanej sklejce NV nie odrobi straty do GCN w obliczeniach podwójnej precyzji, nie mówiąc o tym że AMD będzie mieć wtedy drugą generację w tej architekturze.
AMD ma przewagę, bo Nvidia przy GK104 olała wydajność w podwójnej precyzji i umieściła mniej jednostek do tego typu obliczeń. Ale GK110 w tym względzie będzie oferował ponad 1TFLOPS, a więc więcej niż HD7970....
http://twojepc.pl/news26848.html
Więc bez obaw - Nvidia bez problemu odrobi stratę, nawet Sea Island z tym 7 mld Keplerem będzie mieć problem, bo AMD już parę lat temu postanowiło, że nie będzie robić tak dużych chipów jak Nvidia.
ale Ty jesteś głupo uparty. Co wynika z tego co dałeś link? A no nic, bo cuda 1.0 wyszło dopiero w 2007 roku w lutym bodaj. Więc jak chciał byś mieć cuda w listopadzie... bez cuda?
Tyle, że w zastosowaniach pro i tak i tak karty AMD nie są wykorzystywane.
No więc przyglądaj się temu rynkowi uważnie, bo żaden szanujący się developer nie zlekceważy tak wielkiej przewagi konkurencji. Nawet trzykrotny wzrost wydajności w zapowiadanej sklejce NV nie odrobi straty do GCN w obliczeniach podwójnej precyzji, nie mówiąc o tym że AMD będzie mieć wtedy drugą generację w tej architekturze.
Nvidia jeszcze nie wypuściła następcy GF110, takowy pojawi się w 4 kwartale 2012 - Kepler z 7.1 mld tranzystorów. Więc na chwilę obecną AMD ma najszybszą kartę w GPGPU to fakt (choć akurat w tym konkretnym teście w Sandrze najszybszy najpewniej jest GTX690).
Tyle, że w zastosowaniach pro i tak i tak karty AMD nie są wykorzystywane. A z kolei w domu mało komu robi różnicę ile FLOPS-ów w obliczeniach pojedynczej czy podwójnej precyzji jest w stanie wyrobić ich GPU.
Ja wiem i pamiętam że prezentacja CTM była wcześniej a CUDA w 2007 roku w styczniu albo w lutym, bo pamiętam że w prasie jak opisywano CUDA po prezentacjach to wspominano że parę miesięcy temu była prezentacja CTM (o której nie wiedziałem i dlatego mi się to utrwaliło).
Ja podałem oficjalne notki prasowe NV i AMD, które jednoznacznie rozstrzygają co było pierwsze. Przy czym CUDA miała lepsze wsparcie zarówno hardware-owe (nowe shadery w 8800GTX) jak i software-owe ze strony producentów oprogramowania.
To jak sobie Intel radzi w GPGPU jest mało istotne, bo dedykowana karta poradzi sobie z tym bez problemów. GeForce'y obsługują zarówno CUDA jak i OpenCL - do wyboru do koloru.
Tylko tu chodzi o rozwój wydajnościowy GPGPU, opierający się na wykorzystaniu zunifikowanej przestrzeni adresowej, likwidacji magistrali łączących cpu z gpu, uproszczenie wymiany danych itd. Twoje pojmowanie tej technologii jest archaiczne
Ja wiem i pamiętam że prezentacja CTM była wcześniej a CUDA w 2007 roku w styczniu albo w lutym, bo pamiętam że w prasie jak opisywano CUDA po prezentacjach to wspominano że parę miesięcy temu była prezentacja CTM (o której nie wiedziałem i dlatego mi się to utrwaliło).
Nvidia wprowadziła CUDA wraz z GeForce'ami 8xxx. Obecne w tym czasie na rynku karty ATI (Radeony X19xx) nie oferowały nic o podobnej funkcjonalności.
8800GTX miał premierę 8 listopada 2006.
CTM chodził na kartach x1900 i starszych.
@Amitoza, no tak a rozwiązania różnych zapaleńców są jeszcze starsze niż CUDA czy CTM.
no wcześniej było brook.
Grave @ 2012.05.19 14:12
sevae @ 2012.05.19 14:04
(...)
Jak dobrze pamiętam pierwsza prezentacja ATI, gdzie pokazano system który zwał się Close To Metal (potem Stream) gdzie użyto shaderów do obliczeń nie związanych z grafiką miała miejsce pod koniec roku 2006.
Nvidia wprowadziła CUDA wraz z GeForce'ami 8xxx. Obecne w tym czasie na rynku karty ATI (Radeony X19xx) nie oferowały nic o podobnej funkcjonalności.
8800GTX miał premierę 8 listopada 2006.
ale co z tego, że GTX miał wtedy premierę, kiedy cuda1.0 wyszło dopiero w 2007?
Przecież od dawna są karty graficzne przystosowane do GPGPU. Nvidia tę idee wprowadziła już parę lat temu (wraz CUDA) jeszcze przed AMD.
To jak sobie Intel radzi w GPGPU jest mało istotne, bo dedykowana karta poradzi sobie z tym bez problemów. GeForce'y obsługują zarówno CUDA jak i OpenCL - do wyboru do koloru.
Jak komuś wystarczy tylko OpenCL to może wybrać jakiegoś Radeona od AMD. I CPU Intela w niczym tu nie przeszkadza - zapewnia bardzo wysoką wydajność X86, a akceleracja swoją drogą - tym najlepiej zajmuje się dedykowane GPU.
AMD było rok wcześniej
pamiętaj że mocny wątek AMD chce wymienić na GPGPU z poziomu CPU
można by to nazwac wstępną obróbką dla dedykowanego GPU (prawdopodobnie nastąpi to wraz z steamroller-em bo o trinity o tym nie słyszałem) chodz na jakiejś uczelni udało się to modyfikując stery co pomogło hd6670 na osiągnięcie nieznacznie słabszego wyniku niż i7-2600 i 560ti a to już robi wrażenie
AMD nie było rok wcześniej. Nawet ten 'Close to metal' został zaanonsowany w notce prasowej z 14 listopada 2006, podczas gdy 8800GTX miał premierę tydzień wcześniej
Poza tym jeszcze jest kwestia realnego wsparcia. OpenCL ma coraz większe wsparcie ale zarówno STM jak i Stream przegrywały równo jeżeli chodzi o ilość wspieranych aplikacji z CUDA.
Do tego z programowalnymi shaderami jako takimi pierwsza była Nvidia. Amitoza wspomniał o rozbudowanych shaderach w FX, ale Nvidia też jako pierwsza wprowadziła w ogóle coś takiego jak programowalne jednostki GPU wraz GeForce 3 (ten miał 1 taką jednostkę).
I jeżeli idzie o GPGPU obecnie to Nvidia jest liderem - tam gdzie GPGPU jest najbardziej potrzebne tam siedzą Tesle czy Quadro od Nvidii, a nie karty od AMD. Nvidia ten rynek traktuje bardzo serio i zapewnia mu bardzo dobre wsparcie tak sprzętowe jak i software'owe.
jak na razie gpgpu hd4000 kuleje na wszystkie 4 łapy a poprawianie idzie im bardzo ciężko
(...)
właśnie gdyby nie intel rozwijanie opencl i idei gpgpu szło by jeszcze szybciej
Przecież od dawna są karty graficzne przystosowane do GPGPU. Nvidia tę idee wprowadziła już parę lat temu (wraz CUDA) jeszcze przed AMD.
To jak sobie Intel radzi w GPGPU jest mało istotne, bo dedykowana karta poradzi sobie z tym bez problemów. GeForce'y obsługują zarówno CUDA jak i OpenCL - do wyboru do koloru.
Jak komuś wystarczy tylko OpenCL to może wybrać jakiegoś Radeona od AMD. I CPU Intela w niczym tu nie przeszkadza - zapewnia bardzo wysoką wydajność X86, a akceleracja swoją drogą - tym najlepiej zajmuje się dedykowane GPU.
AMD było rok wcześniej
pamiętaj że mocny wątek AMD chce wymienić na GPGPU z poziomu CPU
można by to nazwac wstępną obróbką dla dedykowanego GPU (prawdopodobnie nastąpi to wraz z steamroller-em bo o trinity o tym nie słyszałem) chodz na jakiejś uczelni udało się to modyfikując stery co pomogło hd6670 na osiągnięcie nieznacznie słabszego wyniku niż i7-2600 i 560ti a to już robi wrażenie
Jak dobrze pamiętam pierwsza prezentacja ATI, gdzie pokazano system który zwał się Close To Metal (potem Stream) gdzie użyto shaderów do obliczeń nie związanych z grafiką miała miejsce pod koniec roku 2006.
Nvidia wprowadziła CUDA wraz z GeForce'ami 8xxx. Obecne w tym czasie na rynku karty ATI (Radeony X19xx) nie oferowały nic o podobnej funkcjonalności.
8800GTX miał premierę 8 listopada 2006.
CTM chodził na kartach x1900 i starszych.
@Amitoza, no tak a rozwiązania różnych zapaleńców są jeszcze starsze niż CUDA czy CTM.
Przecież od dawna są karty graficzne przystosowane do GPGPU. Nvidia tę idee wprowadziła już parę lat temu (wraz CUDA) jeszcze przed AMD.
Jak dobrze pamiętam pierwsza prezentacja ATI, gdzie pokazano system który zwał się Close To Metal (potem Stream) gdzie użyto shaderów do obliczeń nie związanych z grafiką miała miejsce pod koniec roku 2006.
nie mniej pierwsze układy z programowalnymi shaderami wspierającymi FP16 i FP32 o ile dobrze pamiętam, to były karty z serii FX.
Grave @ 2012.05.19 14:12
sevae @ 2012.05.19 14:04
(...)
Jak dobrze pamiętam pierwsza prezentacja ATI, gdzie pokazano system który zwał się Close To Metal (potem Stream) gdzie użyto shaderów do obliczeń nie związanych z grafiką miała miejsce pod koniec roku 2006.
Nvidia wprowadziła CUDA wraz z GeForce'ami 8xxx. Obecne w tym czasie na rynku karty ATI (Radeony X19xx) nie oferowały nic o podobnej funkcjonalności.
Później pojawił się Stream, ale wsparcie dla niego było znacznie mniejsze niż dla CUDA.
fakt jest jeden - pierwsze pod tym względem akurat było AMD z CTM. To że nvidia miała lepsze pierwszeństwa nie zmienia.
Przecież od dawna są karty graficzne przystosowane do GPGPU. Nvidia tę idee wprowadziła już parę lat temu (wraz CUDA) jeszcze przed AMD.
Jak dobrze pamiętam pierwsza prezentacja ATI, gdzie pokazano system który zwał się Close To Metal (potem Stream) gdzie użyto shaderów do obliczeń nie związanych z grafiką miała miejsce pod koniec roku 2006.
Nvidia wprowadziła CUDA wraz z GeForce'ami 8xxx. Obecne w tym czasie na rynku karty ATI (Radeony X19xx) nie oferowały nic o podobnej funkcjonalności.
Cytuję za PCLab: 'Nvidia nie uchyliła nawet rąbka tajemnicy specyfikacji nowego układu, stwierdziła jedynie, że 'Kepler' w najlepszej Tesli zapewni trzy razy większą wydajność w operacjach na liczbach zmiennoprzecinkowych podwójnej precyzji od 'Fermi'.
Suche papierowe dane i ilość jednostek mnie nie interesują, liczy się realna wydajność w realnych testach i aplikacjach.
Kiedy był pisany news na pclab tego jeszcze nie było ale już jest - pdf z prezentacją architektury GK110 zawierający sporo informacji - poczytaj to dowiesz się więcej
http://www.nvidia.com/content/PDF/kepler/N...-Whitepaper.pdf
AMD celuje w inny rynek niż NV
AMD zainteresowało się chmurami gdzie wyprzedza NV i INTELA razem wziętych
(nie oficjalnie mówi się o tym w kontekście przejścia APPLE i M$ właśnie na serwery chmurowe na podzespołach AMD)
To żeś wymyślił....
AMD celuje w inny rynek niż NV
AMD zainteresowało się chmurami gdzie wyprzedza NV i INTELA razem wziętych
(nie oficjalnie mówi się o tym w kontekście przejścia APPLE i M$ właśnie na serwery chmurowe na podzespołach AMD)
Cytuję za PCLab: 'Nvidia nie uchyliła nawet rąbka tajemnicy specyfikacji nowego układu, stwierdziła jedynie, że 'Kepler' w najlepszej Tesli zapewni trzy razy większą wydajność w operacjach na liczbach zmiennoprzecinkowych podwójnej precyzji od 'Fermi'.
Suche papierowe dane i ilość jednostek mnie nie interesują, liczy się realna wydajność w realnych testach i aplikacjach.
No więc przyglądaj się temu rynkowi uważnie, bo żaden szanujący się developer nie zlekceważy tak wielkiej przewagi konkurencji. Nawet trzykrotny wzrost wydajności w zapowiadanej sklejce NV nie odrobi straty do GCN w obliczeniach podwójnej precyzji, nie mówiąc o tym że AMD będzie mieć wtedy drugą generację w tej architekturze.
gdzie siętakich bajek naczytałeś? HD7970 ma 950Gflops w DP. GK110 ma mieć ponad 1Tflops. Zauważ, że GK110 ma 64 jednostki DP na SMX, więc w sumie jest ich 960. W przyadku AMD jeden GCN wykonuje o ile się nie mylę max 16 operacji DP, więc w sumie 512.
CUDA (8 listopada 2006)
http://www.nvidia.com/object/IO_37226.html
CTM (14 listopada 2006)
http://www.amd.com/us/press-releases/Pages...ase_114147.aspx
Przy czym shadery 8800GTX były znacznie lepiej przystosowane do GPGPU niż te z Radeonów X19xx.
ale Ty jesteś głupo uparty. Co wynika z tego co dałeś link? A no nic, bo cuda 1.0 wyszło dopiero w 2007 roku w lutym bodaj. Więc jak chciał byś mieć cuda w listopadzie... bez cuda?
Przyczytałeś chociaż te notki prasowe, bo widzę, że nie, więc Ci zacytuje:
No więc przyglądaj się temu rynkowi uważnie, bo żaden szanujący się developer nie zlekceważy tak wielkiej przewagi konkurencji. Nawet trzykrotny wzrost wydajności w zapowiadanej sklejce NV nie odrobi straty do GCN w obliczeniach podwójnej precyzji, nie mówiąc o tym że AMD będzie mieć wtedy drugą generację w tej architekturze.
AMD ma przewagę, bo Nvidia przy GK104 olała wydajność w podwójnej precyzji i umieściła mniej jednostek do tego typu obliczeń. Ale GK110 w tym względzie będzie oferował ponad 1TFLOPS, a więc więcej niż HD7970....
http://twojepc.pl/news26848.html
Więc bez obaw - Nvidia bez problemu odrobi stratę, nawet Sea Island z tym 7 mld Keplerem będzie mieć problem, bo AMD już parę lat temu postanowiło, że nie będzie robić tak dużych chipów jak Nvidia.
no wcześniej było brook.
ale co z tego, że GTX miał wtedy premierę, kiedy cuda1.0 wyszło dopiero w 2007?
CUDA (8 listopada 2006)
http://www.nvidia.com/object/IO_37226.html
CTM (14 listopada 2006)
http://www.amd.com/us/press-releases/Pages...ase_114147.aspx
Przy czym shadery 8800GTX były znacznie lepiej przystosowane do GPGPU niż te z Radeonów X19xx.
ale Ty jesteś głupo uparty. Co wynika z tego co dałeś link? A no nic, bo cuda 1.0 wyszło dopiero w 2007 roku w lutym bodaj. Więc jak chciał byś mieć cuda w listopadzie... bez cuda?
No więc przyglądaj się temu rynkowi uważnie, bo żaden szanujący się developer nie zlekceważy tak wielkiej przewagi konkurencji. Nawet trzykrotny wzrost wydajności w zapowiadanej sklejce NV nie odrobi straty do GCN w obliczeniach podwójnej precyzji, nie mówiąc o tym że AMD będzie mieć wtedy drugą generację w tej architekturze.
Tyle, że w zastosowaniach pro i tak i tak karty AMD nie są wykorzystywane. A z kolei w domu mało komu robi różnicę ile FLOPS-ów w obliczeniach pojedynczej czy podwójnej precyzji jest w stanie wyrobić ich GPU.
Ja podałem oficjalne notki prasowe NV i AMD, które jednoznacznie rozstrzygają co było pierwsze. Przy czym CUDA miała lepsze wsparcie zarówno hardware-owe (nowe shadery w 8800GTX) jak i software-owe ze strony producentów oprogramowania.
Tylko tu chodzi o rozwój wydajnościowy GPGPU, opierający się na wykorzystaniu zunifikowanej przestrzeni adresowej, likwidacji magistrali łączących cpu z gpu, uproszczenie wymiany danych itd. Twoje pojmowanie tej technologii jest archaiczne
CTM chodził na kartach x1900 i starszych.
@Amitoza, no tak a rozwiązania różnych zapaleńców są jeszcze starsze niż CUDA czy CTM.
no wcześniej było brook.
Nvidia wprowadziła CUDA wraz z GeForce'ami 8xxx. Obecne w tym czasie na rynku karty ATI (Radeony X19xx) nie oferowały nic o podobnej funkcjonalności.
8800GTX miał premierę 8 listopada 2006.
ale co z tego, że GTX miał wtedy premierę, kiedy cuda1.0 wyszło dopiero w 2007?
CUDA (8 listopada 2006)
http://www.nvidia.com/object/IO_37226.html
CTM (14 listopada 2006)
http://www.amd.com/us/press-releases/Pages...ase_114147.aspx
Przy czym shadery 8800GTX były znacznie lepiej przystosowane do GPGPU niż te z Radeonów X19xx.
Nvidia wprowadziła CUDA wraz z GeForce'ami 8xxx. Obecne w tym czasie na rynku karty ATI (Radeony X19xx) nie oferowały nic o podobnej funkcjonalności.
8800GTX miał premierę 8 listopada 2006.
CTM chodził na kartach x1900 i starszych.
@Amitoza, no tak a rozwiązania różnych zapaleńców są jeszcze starsze niż CUDA czy CTM.
no wcześniej było brook.
Jak dobrze pamiętam pierwsza prezentacja ATI, gdzie pokazano system który zwał się Close To Metal (potem Stream) gdzie użyto shaderów do obliczeń nie związanych z grafiką miała miejsce pod koniec roku 2006.
Nvidia wprowadziła CUDA wraz z GeForce'ami 8xxx. Obecne w tym czasie na rynku karty ATI (Radeony X19xx) nie oferowały nic o podobnej funkcjonalności.
8800GTX miał premierę 8 listopada 2006.
ale co z tego, że GTX miał wtedy premierę, kiedy cuda1.0 wyszło dopiero w 2007?
Przecież od dawna są karty graficzne przystosowane do GPGPU. Nvidia tę idee wprowadziła już parę lat temu (wraz CUDA) jeszcze przed AMD.
To jak sobie Intel radzi w GPGPU jest mało istotne, bo dedykowana karta poradzi sobie z tym bez problemów. GeForce'y obsługują zarówno CUDA jak i OpenCL - do wyboru do koloru.
Jak komuś wystarczy tylko OpenCL to może wybrać jakiegoś Radeona od AMD. I CPU Intela w niczym tu nie przeszkadza - zapewnia bardzo wysoką wydajność X86, a akceleracja swoją drogą - tym najlepiej zajmuje się dedykowane GPU.
AMD było rok wcześniej
pamiętaj że mocny wątek AMD chce wymienić na GPGPU z poziomu CPU
można by to nazwac wstępną obróbką dla dedykowanego GPU (prawdopodobnie nastąpi to wraz z steamroller-em bo o trinity o tym nie słyszałem) chodz na jakiejś uczelni udało się to modyfikując stery co pomogło hd6670 na osiągnięcie nieznacznie słabszego wyniku niż i7-2600 i 560ti a to już robi wrażenie
AMD nie było rok wcześniej. Nawet ten 'Close to metal' został zaanonsowany w notce prasowej z 14 listopada 2006, podczas gdy 8800GTX miał premierę tydzień wcześniej
Poza tym jeszcze jest kwestia realnego wsparcia. OpenCL ma coraz większe wsparcie ale zarówno STM jak i Stream przegrywały równo jeżeli chodzi o ilość wspieranych aplikacji z CUDA.
Do tego z programowalnymi shaderami jako takimi pierwsza była Nvidia. Amitoza wspomniał o rozbudowanych shaderach w FX, ale Nvidia też jako pierwsza wprowadziła w ogóle coś takiego jak programowalne jednostki GPU wraz GeForce 3 (ten miał 1 taką jednostkę).
I jeżeli idzie o GPGPU obecnie to Nvidia jest liderem - tam gdzie GPGPU jest najbardziej potrzebne tam siedzą Tesle czy Quadro od Nvidii, a nie karty od AMD. Nvidia ten rynek traktuje bardzo serio i zapewnia mu bardzo dobre wsparcie tak sprzętowe jak i software'owe.
jak na razie gpgpu hd4000 kuleje na wszystkie 4 łapy a poprawianie idzie im bardzo ciężko
właśnie gdyby nie intel rozwijanie opencl i idei gpgpu szło by jeszcze szybciej
Przecież od dawna są karty graficzne przystosowane do GPGPU. Nvidia tę idee wprowadziła już parę lat temu (wraz CUDA) jeszcze przed AMD.
To jak sobie Intel radzi w GPGPU jest mało istotne, bo dedykowana karta poradzi sobie z tym bez problemów. GeForce'y obsługują zarówno CUDA jak i OpenCL - do wyboru do koloru.
Jak komuś wystarczy tylko OpenCL to może wybrać jakiegoś Radeona od AMD. I CPU Intela w niczym tu nie przeszkadza - zapewnia bardzo wysoką wydajność X86, a akceleracja swoją drogą - tym najlepiej zajmuje się dedykowane GPU.
AMD było rok wcześniej
pamiętaj że mocny wątek AMD chce wymienić na GPGPU z poziomu CPU
można by to nazwac wstępną obróbką dla dedykowanego GPU (prawdopodobnie nastąpi to wraz z steamroller-em bo o trinity o tym nie słyszałem) chodz na jakiejś uczelni udało się to modyfikując stery co pomogło hd6670 na osiągnięcie nieznacznie słabszego wyniku niż i7-2600 i 560ti a to już robi wrażenie
Jak dobrze pamiętam pierwsza prezentacja ATI, gdzie pokazano system który zwał się Close To Metal (potem Stream) gdzie użyto shaderów do obliczeń nie związanych z grafiką miała miejsce pod koniec roku 2006.
Nvidia wprowadziła CUDA wraz z GeForce'ami 8xxx. Obecne w tym czasie na rynku karty ATI (Radeony X19xx) nie oferowały nic o podobnej funkcjonalności.
8800GTX miał premierę 8 listopada 2006.
CTM chodził na kartach x1900 i starszych.
@Amitoza, no tak a rozwiązania różnych zapaleńców są jeszcze starsze niż CUDA czy CTM.
Przecież od dawna są karty graficzne przystosowane do GPGPU. Nvidia tę idee wprowadziła już parę lat temu (wraz CUDA) jeszcze przed AMD.
Jak dobrze pamiętam pierwsza prezentacja ATI, gdzie pokazano system który zwał się Close To Metal (potem Stream) gdzie użyto shaderów do obliczeń nie związanych z grafiką miała miejsce pod koniec roku 2006.
nie mniej pierwsze układy z programowalnymi shaderami wspierającymi FP16 i FP32 o ile dobrze pamiętam, to były karty z serii FX.
Jak dobrze pamiętam pierwsza prezentacja ATI, gdzie pokazano system który zwał się Close To Metal (potem Stream) gdzie użyto shaderów do obliczeń nie związanych z grafiką miała miejsce pod koniec roku 2006.
Nvidia wprowadziła CUDA wraz z GeForce'ami 8xxx. Obecne w tym czasie na rynku karty ATI (Radeony X19xx) nie oferowały nic o podobnej funkcjonalności.
Później pojawił się Stream, ale wsparcie dla niego było znacznie mniejsze niż dla CUDA.
fakt jest jeden - pierwsze pod tym względem akurat było AMD z CTM. To że nvidia miała lepsze pierwszeństwa nie zmienia.
Przecież od dawna są karty graficzne przystosowane do GPGPU. Nvidia tę idee wprowadziła już parę lat temu (wraz CUDA) jeszcze przed AMD.
Jak dobrze pamiętam pierwsza prezentacja ATI, gdzie pokazano system który zwał się Close To Metal (potem Stream) gdzie użyto shaderów do obliczeń nie związanych z grafiką miała miejsce pod koniec roku 2006.
Nvidia wprowadziła CUDA wraz z GeForce'ami 8xxx. Obecne w tym czasie na rynku karty ATI (Radeony X19xx) nie oferowały nic o podobnej funkcjonalności.
8800GTX miał premierę 8 listopada 2006.