GeForce GTX 680 to za mało? W takim wypadku zawsze można pokusić się o dołożenie kolejnej karty graficznej, lub zwrócić swoje myśli w stronę GeForce'a GTX 690, który ma na pokładzie dwa układy GK104.
Tym samym kupując jedną kartę otrzymujemy wydajność zbliżoną do tej jaką uzyskalibyśmy w przypadku konfiguracji SLI złożonej z dwóch GeForce'ów GTX 680. O ile bowiem zegary w jednoukładowej grafice wynoszą 1006 MHz podstawy i 1058 MHz dla odnośnika Boost, GTX 690 będzie miał dwa układy graficzne pracujące z częstotliwością 915 MHz, w których przypadku parametr Boost określono na 1019 MHz. Niezmienione zostały za to warunki z jakimi pracuje pamięć - do każdego z układów przydzielono 2 GB pamięci, której częstotliwość wynosi 1502MHz.
Nvidia zdecydowała się połączyć obydwie grafiki przy pomocy mostka firmy PLX (warto dodać, że z podobnego rozwiązania korzystał Radeon HD 6990) kosztem własnego układu NF200. Powodem takiego wyboru był brak wsparcia dla PCI Express 3.0 w przypadku rodzimego rozwiązania. Do tego dostajemy 10-fazową sekcję zasilania, miejsce na dwie 8-pinowe wtyczki zasilające,TDP obliczone przez Nvidie na 300 W, oraz dwa niezależne radiatory wspierane przez pojedynczy wentylator.




GeForce GTX 690 w skrajnych przypadkach będzie 90% szybszy od GeFroce'a GTX 680, a jeżeli dla kogoś to nadal za mało, nic nie stoi na przeszkodzie (oczywiście poza kwestią finansową) do stworzenia konfiguracji SLI z dwóch dwuukładowych potworów.


W kolejce po własny egzemplarz GeForce'a GTX 690 można ustawiać się już 3 maja. Wtedy to na rynek powinna trafić pierwsza partia nowych kart. Cena? Dość zaporowa, bo jeżeli GeForce GTX 690 faktycznie będzie kosztował 1000 dolarów, użytkownicy planujący zatrzymać się na dwóch układach GK104, będą musieli dobrze przemyśleć, czy nie wybrać dwóch GeForce'ów GTX 680.


A czy blisko 1 tyś $ to dużo? Cóż... jeżeli ktoś rzeczywiście takiej karty potrzebuje, to stać go także na monitor zdolny wyświetlić rozdzielczość 2560x1600, na topowy procesor który tej karcie zapewni adekwatną wydajność i także na >1kW zasilacz plus rachunki za prąd.
Inaczej mówiąc - dla zapaleńców składajcych sobie komputery za 10-20 tyś zł z wielkoformatowymi monitorami taka karta to idealne dopełnienie konfiguracji.
Natomiast dla wszystkich 'normalnych' użytkowników ani ten GTX690 ani nadchodzący HD7990, ani nawet pojedyczne GTX680 czy HD7970 są do niczego niepotrzebne, bo dużo słabsze i tańsze modele z obecnymi grami radzą sobie bez problemu.
Btw. podobno to AMD miało być pierwsze ze swoim 'New Zeland', a ostatecznie będzie miesiąc po Nvidii. Widać teraz to AMD chce dobrać zegary tak aby o 5% wyprzedzić GTX690
Do dziś liczyłem, że 690 może być jednak 1xGPU.
A czy blisko 1 tyś $ to dużo? Cóż... jeżeli ktoś rzeczywiście takiej karty potrzebuje, to stać go także na monitor zdolny wyświetlić rozdzielczość 2560x1600, na topowy procesor który tej karcie zapewni adekwatną wydajność i także na >1kW zasilacz plus rachunki za prąd.
Inaczej mówiąc - dla zapaleńców składajcych sobie komputery za 10-20 tyś zł z wielkoformatowymi monitorami taka karta to idealne dopełnienie konfiguracji.
Natomiast dla wszystkich 'normalnych' użytkowników ani ten GTX690 ani nadchodzący HD7990, ani nawet pojedyczne GTX680 czy HD7970 są do niczego niepotrzebne, bo dużo słabsze i tańsze modele z obecnymi grami radzą sobie bez problemu.
Btw. podobno to AMD miało być pierwsze ze swoim 'New Zeland', a ostatecznie będzie miesiąc po Nvidii. Widać teraz to AMD chce dobrać zegary tak aby o 5% wyprzedzić GTX690
Nie tylko dla zapaleńców. Jeżeli aplikacja korzysta z wszystkich rdzeni w CUDA i wydajność jest zadowalająca to można wykorzystać w GPGPU. Wsadzisz takich kart 4 i masz 8xGPU. Może się przydać w szpitalach/uniwerkach/polibudach. 680 pokazał bardzo skrajną wydajność nawet w tym samym zadaniu na tle 7970/580.
Dwugłowa hydra z wyglądu jest fajna + metalowa obudowa tylko cena 999$ odstrasza.
Mam porównanie karty Sapphire 5830 z jednym centralnym wentylatorem z kartą MSI 5850 Twin Frozr 2, ta druga jest nieporównanie cichsza gdy działa w Crossfire przy utrudnionym chłodzeniu (1 slot wolny pomiędzy kartami).
Już lepiej żeby karta zajmowała trzy sloty, z czego trzeci byłby przeznaczony na wentylatory pobierające powietrze z boku a nie z góry karty, tak jak w schładzaczach Accelero Xtreme.
Wyrzucanie gorącego powietrza na zewnątrz obudowy przez te dziurki w śledziu to mrzonka, do tego służą liczne wentylatory wyciągowe w obudowie.
Mam porównanie karty Sapphire 5830 z jednym centralnym wentylatorem z kartą MSI 5850 Twin Frozr 2, ta druga jest nieporównanie cichsza gdy działa w Crossfire przy utrudnionym chłodzeniu (1 slot wolny pomiędzy kartami).
Już lepiej żeby karta zajmowała trzy sloty, z czego trzeci byłby przeznaczony na wentylatory pobierające powietrze z boku a nie z góry karty, tak jak w schładzaczach Accelero Xtreme.
Wyrzucanie gorącego powietrza na zewnątrz obudowy przez te dziurki w śledziu to mrzonka, do tego służą liczne wentylatory wyciągowe w obudowie.
Tak jak piszesz, karta by musiałaby być 3 slotowa. Zauważ, że 58xx to karty 1xGPU. Czyli masz sporo ciepłowodów, które przenoszą ciepło z GPU na boki kart itp...
Jak to tutaj sobie wyobrażasz? ciepłowód z pierwszego GPU wyprowadzałby powietrze do? Bo już mamy kolejne GPU, albo ograniczenie wymiarowe.
Jedyna wolna przestrzeń to pomiędzy radiatorami. Tylko tam można by wyprowadzić ileś tam ciepła... i powierzchnia by się zwiększyła na oko o 1/3 czyli o 1/6/GPU, czyli dość nie wiele. Za to trzeba by było dać 2/3x wentylatory i zająć 3 slot.
Tu masz ideał bo nie trzeba dawać ciepłowodu, a przestrzeń wykorzystana jest przez wentylator.