Nie ważne jak szybki, jak wspaniały, jak zielony będzie ten procesor graficzny i cała karta. O popularności zadecyduje cena i proporcjonalność do oferty konkurencji. Tyle na dany moment można powiedzieć. nie ma co się podniecać za wczas szczególnie jeżeli nie będzie się opłacać.
Zadecyduje tez popularnosc marki i odpowiednia promocja, a to potrafi zdzialac CUDA.
Tylko, że jeżeli chcesz mieć obraz wyświetlany na 3 monitorach musisz mieć co najmniej dwie karty graficzne(a może nawet tri sli?)
Ale po co? O ATi Eyefinity słyszał? Jedna karta max 6 monitorów .
Ja chciałem podkreślić, że nvidia wprowadziła w fermi podobne rozwiązanie tylko że jeżeli chcesz mieć obraz na 3 monitorach musisz conajmniej mieć 2 karty(lub nawet 3 , nie jestem pewnien) więc trochę to śmieszne jest
Tylko, że jeżeli chcesz mieć obraz wyświetlany na 3 monitorach musisz mieć co najmniej dwie karty graficzne(a może nawet tri sli?)
Ale po co? O ATi Eyefinity słyszał? Jedna karta max 6 monitorów .
@Gilas
Nie bo jest edycja specjalna 5870 co ma 6 mini DP więc przejściówek nie potrzeba. Raczej parę ładnych tys $ za monitory . Zresztą nie chciałem pisać o sensowności takiego rozwiązania tylko, że coś takiego można mieć jak się chce.
Ciekawe jakie będą ceny tych kastratów od NV? Bo na ta najdroższą konfiguracje szkoda co patrzeć... wszystko jest jeszcze za drogie :/ I przeznaczona dla fanatyków frapsów czy czego tam jeszcze
Ale o jakich cenach piszesz, chyba ATI...??? Fakt ich najwydajniejsze konstrukcje są zdecydowanie za drogie, ale muszą się nachapać prze wyjściem GF-100 bo później znów chude lata...
O NV i ich cenach jeszcze cisza i nic nie wiadomo...
Jakbyś prowadził firmę to też byś się chciał nachapać, a NV to jak myślisz co zrobi ?? Też będą chcieli się nachapać i tak jest od zawsze
Przy uzysku z wafla na poziomie 25 procent, przypuszczalny koszt to ponad 150 dolarów.
Przy 20 procentach, (jak to było niedawno podawane) to już około 185 dolarów.
Byłoby wskazane dla Nvidii, żeby ten układ był naprawdę wydajny (i nie tylko w zastosowaniach profesjonalnych) bo na 32/28nm będzie trzeba jeszcze dłuższą chwilę poczekać.
To jest tylko bliźniacza technologia. To się nazywa chyba 'NVIDIA VISION 3D' (?). Pozwala uzyskać obraz na max 3 monitorach + ten ich efekt 3d ze specjalnym monitorem i okularami.
dolores_26 @ 2010.01.18 16:01
Coś pięknego - nv rulezzzzzzzzzzz ...
Nie ma to jak fachowy i rzeczowy komentarz.
P.S. Apropo tego obrazu 3D AMD/ATi też już to ma bodajże w CCC 10.1 i też działa na tej samej zasadzie tj. monitor 120 Hz++ i okularki.
Ciekawe jakie będą ceny tych kastratów od NV? Bo na ta najdroższą konfiguracje szkoda co patrzeć... wszystko jest jeszcze za drogie :/ I przeznaczona dla fanatyków frapsów czy czego tam jeszcze
Ale o jakich cenach piszesz, chyba ATI...??? Fakt ich najwydajniejsze konstrukcje są zdecydowanie za drogie, ale muszą się nachapać prze wyjściem GF-100 bo później znów chude lata...
O NV i ich cenach jeszcze cisza i nic nie wiadomo...
Przy uzysku z wafla na poziomie 25 procent, przypuszczalny koszt to ponad 150 dolarów.
Przy 20 procentach, (jak to było niedawno podawane) to już około 185 dolarów.
Byłoby wskazane dla Nvidii, żeby ten układ był naprawdę wydajny (i nie tylko w zastosowaniach profesjonalnych) bo na 32/28nm będzie trzeba jeszcze dłuższą chwilę poczekać.
Nie ważne jak szybki, jak wspaniały, jak zielony będzie ten procesor graficzny i cała karta. O popularności zadecyduje cena i proporcjonalność do oferty konkurencji. Tyle na dany moment można powiedzieć. nie ma co się podniecać za wczas szczególnie jeżeli nie będzie się opłacać.
Całkowita prawda, ale do niektórych to nie dotrze
cyrix czekamy na koment
Nie ważne jak szybki, jak wspaniały, jak zielony będzie ten procesor graficzny i cała karta. O popularności zadecyduje cena i proporcjonalność do oferty konkurencji. Tyle na dany moment można powiedzieć. nie ma co się podniecać za wczas szczególnie jeżeli nie będzie się opłacać.
NVIDIA zapowiada że wydajność geometryczna GF100 jest (maksymalnie) ośmiokrotnie wyższa niż w przypadku procesora GT200, stosowanego między innymi w karcie GeForce GTX 285.
Oczywiście marketingowo wykorzystano kiepski punkt poprzednika by dodać klasy nowemu wynalazkowi
Zatem 2x to przywrócenie normalności(wzgledem konkurencji która to już ma), x2 z racji nowej serii wiekszej ilości rdzeni/CUDÓW, 2x z racji lepszego taktowania, usprawnień itd.
Z jednym ale...analiza wyników benchmarku Unigine budzi zastanowienie...
Po pierwsze..wykres dziwnie 'wystrzeliwuje', po drugie to tylko jeden benchmark. Bo jak wierzyć skoro konkurencja robila podobnie - gra Call Of Juarez dla ATI serii 2900[dobra 'optymalizacja' czy raczej oszustwo]
Mimo wszystko wyniki bardzo prawdopodobne.
Trzeba jednak zauważyć jakiej powierzchni jest to chip!!!
Nie sztuka wymieść wszystko jak sie ma wielka szufle.
Skoro wielkie i ma 384bit, to napewno droższe.
Skoro 1.5x5870 to porównywalne do 5970.
No i możliwe że firma ATI ma coś jeszcze w zanadrzu.
A tak zupelnie zupelnie poważnie. Kogo to obchodzi że firma X ma coś wiekszego niż firma Y, skoro wydajność/powierzchnie wypada podobna. Biorac pod uwage fakt że firma Y już to sprzedaje a firma X wciaż tylko zapowiada...i cfana trzyma w niepewności zakompleksione klientele.
Czyli GF100 będzie ogromnym i mocarnym chipem tak jak jego poprzednik. Będzie zapewne bardzo drogi, albo bardzo gorący i prądożerny. Co do Unigine to nie widzę rozdzielczości i konfiguracji testowej. Poza tym jeśli GF100 ma mieć ponad 3 miliardy tranzystorów to porównywać go powinno się chyba do dwóch 5850... Nie rokowałbym nadziei na inny przedział cenowy...
Przy uzysku z wafla na poziomie 25 procent, przypuszczalny koszt to ponad 150 dolarów.
Przy 20 procentach, (jak to było niedawno podawane) to już około 185 dolarów.
Byłoby wskazane dla Nvidii, żeby ten układ był naprawdę wydajny (i nie tylko w zastosowaniach profesjonalnych) bo na 32/28nm będzie trzeba jeszcze dłuższą chwilę poczekać.
Zadecyduje tez popularnosc marki i odpowiednia promocja, a to potrafi zdzialac CUDA.
Ale po co? O ATi Eyefinity słyszał? Jedna karta max 6 monitorów
Ja chciałem podkreślić, że nvidia wprowadziła w fermi podobne rozwiązanie tylko że jeżeli chcesz mieć obraz na 3 monitorach musisz conajmniej mieć 2 karty(lub nawet 3 , nie jestem pewnien) więc trochę to śmieszne jest
Ale po co? O ATi Eyefinity słyszał? Jedna karta max 6 monitorów
Plus ileś tam przejściówek za ileś tam set złotych...
A raczej monitory z DP.
Ale po co? O ATi Eyefinity słyszał? Jedna karta max 6 monitorów
Plus ileś tam przejściówek za ileś tam set złotych...
Samsung ma zestaw monitorów 3 i 6 panelowych
Ale po co? O ATi Eyefinity słyszał? Jedna karta max 6 monitorów
Plus ileś tam przejściówek za ileś tam set złotych...
Ale po co? O ATi Eyefinity słyszał? Jedna karta max 6 monitorów
@Gilas
Nie bo jest edycja specjalna 5870 co ma 6 mini DP więc przejściówek nie potrzeba. Raczej parę ładnych tys $ za monitory
Ale o jakich cenach piszesz, chyba ATI...??? Fakt ich najwydajniejsze konstrukcje są zdecydowanie za drogie, ale muszą się nachapać prze wyjściem GF-100 bo później znów chude lata...
O NV i ich cenach jeszcze cisza i nic nie wiadomo...
Jakbyś prowadził firmę to też byś się chciał nachapać, a NV to jak myślisz co zrobi ?? Też będą chcieli się nachapać i tak jest od zawsze
Np. taki jak ten: http://www.brightsideofnews.com/news/2010/...-iacta-est.aspx
To co mnie zaintrygowało, to wreszcie podana przybliżona powierzchnia Fermi - około 570 mm2.
Czyli w 40nm mamy potwora wielkości GTX280 w 65nm (576 mm2).
Przy uzysku z wafla na poziomie 25 procent, przypuszczalny koszt to ponad 150 dolarów.
Przy 20 procentach, (jak to było niedawno podawane) to już około 185 dolarów.
Byłoby wskazane dla Nvidii, żeby ten układ był naprawdę wydajny (i nie tylko w zastosowaniach profesjonalnych) bo na 32/28nm będzie trzeba jeszcze dłuższą chwilę poczekać.
Patrząc na stronę :
http://www.brightsideofnews.com/news/2010/...t.aspx?pageid=3
z twoich testów mamy obraz na 3 monitorach. Czyżby nawet w nv używano konkurencyjnych rozwiązań??
To jest tylko bliźniacza technologia. To się nazywa chyba 'NVIDIA VISION 3D' (?). Pozwala uzyskać obraz na max 3 monitorach + ten ich efekt 3d ze specjalnym monitorem i okularami.
Nie ma to jak fachowy i rzeczowy komentarz.
P.S. Apropo tego obrazu 3D AMD/ATi też już to ma bodajże w CCC 10.1 i też działa na tej samej zasadzie tj. monitor 120 Hz++ i okularki.
Nowy GeForce' mnie podnieca
PS Dziwne byloby i niebezpieczne dla reputacji NVidii wydanie spóźnionego produktu w dodatku wolniejszego niż u konkurecji.
Ale o jakich cenach piszesz, chyba ATI...??? Fakt ich najwydajniejsze konstrukcje są zdecydowanie za drogie, ale muszą się nachapać prze wyjściem GF-100 bo później znów chude lata...
O NV i ich cenach jeszcze cisza i nic nie wiadomo...
Np. taki jak ten: http://www.brightsideofnews.com/news/2010/...-iacta-est.aspx
To co mnie zaintrygowało, to wreszcie podana przybliżona powierzchnia Fermi - około 570 mm2.
Czyli w 40nm mamy potwora wielkości GTX280 w 65nm (576 mm2).
Przy uzysku z wafla na poziomie 25 procent, przypuszczalny koszt to ponad 150 dolarów.
Przy 20 procentach, (jak to było niedawno podawane) to już około 185 dolarów.
Byłoby wskazane dla Nvidii, żeby ten układ był naprawdę wydajny (i nie tylko w zastosowaniach profesjonalnych) bo na 32/28nm będzie trzeba jeszcze dłuższą chwilę poczekać.
Patrząc na stronę :
http://www.brightsideofnews.com/news/2010/...t.aspx?pageid=3
z twoich testów mamy obraz na 3 monitorach. Czyżby nawet w nv używano konkurencyjnych rozwiązań??
Całkowita prawda, ale do niektórych to nie dotrze
cyrix czekamy na koment
Oczywiście marketingowo wykorzystano kiepski punkt poprzednika by dodać klasy nowemu wynalazkowi
Zatem 2x to przywrócenie normalności(wzgledem konkurencji która to już ma), x2 z racji nowej serii wiekszej ilości rdzeni/CUDÓW, 2x z racji lepszego taktowania, usprawnień itd.
Z jednym ale...analiza wyników benchmarku Unigine budzi zastanowienie...
Po pierwsze..wykres dziwnie 'wystrzeliwuje', po drugie to tylko jeden benchmark. Bo jak wierzyć skoro konkurencja robila podobnie - gra Call Of Juarez dla ATI serii 2900[dobra 'optymalizacja' czy raczej oszustwo]
Mimo wszystko wyniki bardzo prawdopodobne.
Trzeba jednak zauważyć jakiej powierzchni jest to chip!!!
Nie sztuka wymieść wszystko jak sie ma wielka szufle.
Skoro wielkie i ma 384bit, to napewno droższe.
Skoro 1.5x5870 to porównywalne do 5970.
No i możliwe że firma ATI ma coś jeszcze w zanadrzu.
A tak zupelnie zupelnie poważnie. Kogo to obchodzi że firma X ma coś wiekszego niż firma Y, skoro wydajność/powierzchnie wypada podobna. Biorac pod uwage fakt że firma Y już to sprzedaje a firma X wciaż tylko zapowiada...i cfana trzyma w niepewności zakompleksione klientele.
Np. taki jak ten: http://www.brightsideofnews.com/news/2010/...-iacta-est.aspx
To co mnie zaintrygowało, to wreszcie podana przybliżona powierzchnia Fermi - około 570 mm2.
Czyli w 40nm mamy potwora wielkości GTX280 w 65nm (576 mm2).
Przy uzysku z wafla na poziomie 25 procent, przypuszczalny koszt to ponad 150 dolarów.
Przy 20 procentach, (jak to było niedawno podawane) to już około 185 dolarów.
Byłoby wskazane dla Nvidii, żeby ten układ był naprawdę wydajny (i nie tylko w zastosowaniach profesjonalnych) bo na 32/28nm będzie trzeba jeszcze dłuższą chwilę poczekać.