komentarze
GilasZobacz profil
Poziom ostrzeżenia: 0%
Gilas2010.01.18, 16:26
..::DAN::.. @ 2010.01.18 16:25  Post: 339263
jarziel @ 2010.01.18 16:23  Post: 339261
Tylko, że jeżeli chcesz mieć obraz wyświetlany na 3 monitorach musisz mieć co najmniej dwie karty graficzne(a może nawet tri sli?)


Ale po co? O ATi Eyefinity słyszał? Jedna karta max 6 monitorów :).


Plus ileś tam przejściówek za ileś tam set złotych... :szczerbaty:
*Konto usunięte*2010.01.18, 16:32
Nvidia jest jak ZSRR zawsze wygra w wyscigu zbrojeń z ATI....
XaradasZobacz profil
Poziom ostrzeżenia: 0%
Xaradas2010.01.18, 16:34
Gilas @ 2010.01.18 16:26  Post: 339264
..::DAN::.. @ 2010.01.18 16:25  Post: 339263
(...)


Ale po co? O ATi Eyefinity słyszał? Jedna karta max 6 monitorów :).


Plus ileś tam przejściówek za ileś tam set złotych... :szczerbaty:

Samsung ma zestaw monitorów 3 i 6 panelowych :E chyba z kablami, ale cenę wywalili w kosmos :D
fajny RafałekZobacz profil
Poziom ostrzeżenia: 0%
fajny Rafałek2010.01.18, 16:34
Gilas @ 2010.01.18 16:26  Post: 339264
..::DAN::.. @ 2010.01.18 16:25  Post: 339263
(...)


Ale po co? O ATi Eyefinity słyszał? Jedna karta max 6 monitorów :).


Plus ileś tam przejściówek za ileś tam set złotych... :szczerbaty:


A raczej monitory z DP.
jarzielZobacz profil
Poziom ostrzeżenia: 0%
jarziel2010.01.18, 16:40
..::DAN::.. @ 2010.01.18 16:25  Post: 339263
jarziel @ 2010.01.18 16:23  Post: 339261
Tylko, że jeżeli chcesz mieć obraz wyświetlany na 3 monitorach musisz mieć co najmniej dwie karty graficzne(a może nawet tri sli?)


Ale po co? O ATi Eyefinity słyszał? Jedna karta max 6 monitorów :).



Ja chciałem podkreślić, że nvidia wprowadziła w fermi podobne rozwiązanie tylko że jeżeli chcesz mieć obraz na 3 monitorach musisz conajmniej mieć 2 karty(lub nawet 3 , nie jestem pewnien) więc trochę to śmieszne jest:)
LeeLoo_TZobacz profil
Poziom ostrzeżenia: 0%
LeeLoo_T2010.01.18, 16:41
Alma @ 2010.01.18 15:56  Post: 339244
Nie ważne jak szybki, jak wspaniały, jak zielony będzie ten procesor graficzny i cała karta. O popularności zadecyduje cena i proporcjonalność do oferty konkurencji. Tyle na dany moment można powiedzieć. nie ma co się podniecać za wczas szczególnie jeżeli nie będzie się opłacać.

Zadecyduje tez popularnosc marki i odpowiednia promocja, a to potrafi zdzialac CUDA.
XaradasZobacz profil
Poziom ostrzeżenia: 0%
Xaradas2010.01.18, 16:45
LeeLoo_T @ 2010.01.18 16:41  Post: 339272
Alma @ 2010.01.18 15:56  Post: 339244
Nie ważne jak szybki, jak wspaniały, jak zielony będzie ten procesor graficzny i cała karta. O popularności zadecyduje cena i proporcjonalność do oferty konkurencji. Tyle na dany moment można powiedzieć. nie ma co się podniecać za wczas szczególnie jeżeli nie będzie się opłacać.

Zadecyduje tez popularnosc marki i odpowiednia promocja, a to potrafi zdzialac CUDA.


Nie tylko, bo fanboystwo też :E
..::DAN::..Zobacz profil
Poziom ostrzeżenia: 0%
..::DAN::..2010.01.18, 16:55
jarziel @ 2010.01.18 16:40  Post: 339271
..::DAN::.. @ 2010.01.18 16:25  Post: 339263
(...)


Ale po co? O ATi Eyefinity słyszał? Jedna karta max 6 monitorów :).



Ja chciałem podkreślić, że nvidia wprowadziła w fermi podobne rozwiązanie tylko że jeżeli chcesz mieć obraz na 3 monitorach musisz conajmniej mieć 2 karty(lub nawet 3 , nie jestem pewnien) więc trochę to śmieszne jest:)



Nie wydaje mi się. Z tego co pamiętam to miała wystarczyć 1 karta. Jak byś coś znalazł o tym to zapodaj.

Ja idę grać w pokera. AVE HAZARD :E.
AmphilyonZobacz profil
Poziom ostrzeżenia: 0%
Amphilyon2010.01.18, 17:03
jeden ten GF jak wyjdzie to będzie kosztował pewnie z 2,500zł albo i więcej a do tego czasu HD 5850 kosztujący dziś np na ESC ~1,050zł stanieje do 900zł albo i lepiej i będzie to wyglądać 3x 5850 = 1 nowy GF gdzie raczej przegra z takimi trzema kartami xd
ДЙGel+Zobacz profil
Poziom ostrzeżenia: 0%
ДЙGel+2010.01.18, 17:03
jrura @ 2010.01.18 13:00  Post: 339124
eee tam i tak ATi ma najbadziej wydajniejsze karty graficzne, to co nvidia robi to to jest smieszne, taka kolekcje kart co oni wydali to nikt jesze chyba nie wydal tylko szkoda ze wszystkie sa prawie takie same;/ ATI gora

Biedny rozczarowany fanboy ati ;( <przytula>
Rafal (hypnos)Zobacz profil
Poziom ostrzeżenia: 0%
Rafal (hypnos)2010.01.18, 17:08
..::DAN::.. @ 2010.01.18 16:55  Post: 339283
jarziel @ 2010.01.18 16:40  Post: 339271
(...)


Ja chciałem podkreślić, że nvidia wprowadziła w fermi podobne rozwiązanie tylko że jeżeli chcesz mieć obraz na 3 monitorach musisz conajmniej mieć 2 karty(lub nawet 3 , nie jestem pewnien) więc trochę to śmieszne jest:)



Nie wydaje mi się. Z tego co pamiętam to miała wystarczyć 1 karta. Jak byś coś znalazł o tym to zapodaj.

Ja idę grać w pokera. AVE HAZARD :E.

Wymagane sa dwie karty. GF100 tak jak poprzednicy potrafi wyswietlic obraz jedynie na dwoch monitorach. Jak chcesz podlaczyc trzeci musisz sie zaopatrzyc w dodatkowa karte. Opieram sie na artykule zamieszczonym na anadtech.
jarzielZobacz profil
Poziom ostrzeżenia: 0%
jarziel2010.01.18, 17:11
..::DAN::.. @ 2010.01.18 16:55  Post: 339283
jarziel @ 2010.01.18 16:40  Post: 339271
(...)


Ja chciałem podkreślić, że nvidia wprowadziła w fermi podobne rozwiązanie tylko że jeżeli chcesz mieć obraz na 3 monitorach musisz conajmniej mieć 2 karty(lub nawet 3 , nie jestem pewnien) więc trochę to śmieszne jest:)



Nie wydaje mi się. Z tego co pamiętam to miała wystarczyć 1 karta. Jak byś coś znalazł o tym to zapodaj.

.


'GF100 will also support NVIDIA Surround (another terrible name not to be confused with anything Surround Sound related) which is its answer to AMD’s Eyefinity multi-display gaming technology. The fact of the matter is that NV Surround is a knee jerk reaction to the competition’s success in this arena. GF100 will NOT support 3 displays off a single-GPU video card. This obviously raises the price of entry for NV Surround tremendously.'
http://www.hardocp.com/article/2010/01/17/...acts_opinions/3 'In order to calculate 3D and Bezel Correction, nVidia requires that you use two GT200 or GF100-class GPUs and three DVI connectors.'
http://www.brightsideofnews.com/news/2010/...t.aspx?pageid=3
Piszą, że wrażenia z gry są lepsze no ale trzeba 2 karty graficzne mieć:/
Krzychu2009proZobacz profil
Poziom ostrzeżenia: 0%
Krzychu2009pro2010.01.18, 17:25
I słuchajcie sie fudzilli hehe ma 512:)
ntt_systemZobacz profil
Poziom ostrzeżenia: 0%
ntt_system2010.01.18, 17:28
no i ten news rozpoczoł kolejna wojnę fanbojów
..::DAN::..Zobacz profil
Poziom ostrzeżenia: 0%
..::DAN::..2010.01.18, 17:35
ntt_system @ 2010.01.18 17:28  Post: 339300
no i ten news rozpoczoł kolejna wojnę fanbojów


Jak każdy o tematyce tychże firm.
GAMEOHOLIKZobacz profil
Poziom ostrzeżenia: 0%
GAMEOHOLIK2010.01.18, 17:38
nie czytałem waszych komentarzy, ale zapytam się tych, co się tak jarają kartą nvidi i jej wydajnością (pomijając to że będzie obcięta w seri GF):

który z was kupi tą kartę?

..::DAN::..Zobacz profil
Poziom ostrzeżenia: 0%
..::DAN::..2010.01.18, 17:41
GAMEOHOLIK @ 2010.01.18 17:38  Post: 339306
nie czytałem waszych komentarzy, ale zapytam się tych, co się tak jarają kartą nvidi i jej wydajnością (pomijając to że będzie obcięta w seri GF):

który z was kupi tą kartę?



Obcięta? Ten news wniósł, że właśnie nie będzie obcięta. Tamto było plotką. Apropo pytania będzie to garstka tych osób. Później po obniżce będzie ich więcej.


@Krzychu2009pro
Po 1. Nie napisałem, że się nią jaram.
Po 2. Nie zadałem nawet takiego pytania więc odpowiadasz nie tej osobie.
Po 3. Nie wiem czy wiesz ale jestem bardziej zwolennikiem AMD/ATi. Nie potrzebuję ani CUDA, PhysX i co tam jeszcze mają bo z tego nie korzystam :).

P.S. To jest napisane spokojnym tonem :).
Krzychu2009proZobacz profil
Poziom ostrzeżenia: 0%
Krzychu2009pro2010.01.18, 17:43
SuLac0 @ 2010.01.18 13:40  Post: 339158
Amitoza @ 2010.01.18 13:10  Post: 339136
Cóż za rozczarowanie! brak loga AMD w jakimkolwiek miejscu. To jest benchmark, a nie jakiś pokazik technologiczny zrobiony dla AMD.

2 s w google

http://blogs.amd.com/how-to/2009/11/18/11-...unigine-heaven/
I’m glad to see that AMD takes leadership in real-time 3D hardware. No need to say, our team is happy to work with this company because of their responsive developers and constantly improving technologies

milego dnia ;)


Dlatego jest taki do bani hehe, żeby schody były płaskie Rolf!! na dx10!! chamstwo^^
@.::DAN::.
O kurcze Przepraszam pomyliłem sie. Pod-jarany jestem, ale ze zdałem kolejny egzamin elektryka. Na pewno nie Głupimi kartami graficznymi. Co sie dzieje, to niestety śledzę. Jednak kiedyś lubiłem być informatykiem;) Ma sie papiery, ale sie robi coś jeszcze, zawsze mało:P
Każdy ma swoje rozsądne podejście. Nikt kota w worku nie kupuje, no chyba, ze w ciemnej ulicy. Nikt ni komu nie powinien wmawiać co on ma słuchać, w czym chodzi, lub jaką markę lubić. Tak jak ja lubię każdą muzę oprócz ROCK-a. Tak samo jak tu. Każda moda jest pod dupę potłuc. A z tym najbardziej zgłupieć można, z dziewczynami.
@GAMEOHOLIK
kto kupi??
Ja w przyszłości na pewno,jak zabraknie wydajności tego co mam, ale tak się nie jaram jak ty swoim tekstem.
W jaki sposób? grozisz?:))

Tak ogólnie, dlaczego mi sie zdaje, że najwięcej jest postów od tych fanów ati??
GAMEOHOLIKZobacz profil
Poziom ostrzeżenia: 0%
GAMEOHOLIK2010.01.18, 17:53
ja bije do tego, kto będzie na tyle nierozsądny żeby kupić kartę do domu, za cenę której złożę całkiem fajny komputer
GAMEOHOLIKZobacz profil
Poziom ostrzeżenia: 0%
GAMEOHOLIK2010.01.18, 17:53
ja bije do tego, kto będzie na tyle nierozsądny żeby kupić kartę do domu, za cenę której złożę całkiem fajny komputer
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.