komentarze
hajapackageZobacz profil
Poziom ostrzeżenia: 0%
hajapackage2010.01.18, 14:56
kamil32 @ 2010.01.18 13:15  Post: 339140
Nvidia jak zawsze miażdży slabego ati..

!!!!!!!!11
Nie widać Cyrixa ale widać zrekrutował już swoich następców. :E
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842010.01.18, 14:57
SuLac0 @ 2010.01.18 14:13  Post: 339188
Janisz @ 2010.01.18 14:07  Post: 339182

no wiesz, gdyby to NV zleciła, to na ATI działał by NA PEWNO woolniej...

no wlasnie sek w tym, ze to amd/ati uczestniczylo w tworzeniu tego bencza, wiec na 100% mozna zalozyc, ze wykorzystuja max swoj hardware, a tutaj nagle wyskakuje nv, ze swoim gf100 i maja wydajnosc ich podwojnego (hd5970) ukladu. na dwa mies przed premiera. dla mnie to totalna porazka marketingowa jezeli chodiz o ati i tesselacje.

Wykorzystuje DX11. Tam nie ma specyficznych rozszerzeń tylko danego producenta...Jeśli jakieś były aplikacje w DX pisane pod konkretną architekturę - to w czasach np. radeona 2900 który miał tyle TMU co ROP, a G80 od 2 do 2.66x więcej - stąd gry z porządnym multitexture, AF potrafiły zagiąć R600 dość ostro. Ale patrz, od HD4k praktycznie stosunek ROP:TMU w radkach i GF jest ten sam. R770 16RBE, 40TMU, GT200 - 32ROP, 80TMU ... Cypress to samo. Fermi? Nie sądzę by różnice były większe - jest określone takie optimum i jak na dzień dzisiejszy nie zapowiadają się jakieś przełomy. Wydajność Fermi - haa, pogadamy jak już wyjdzie i każdy będzie mógł sobie przejrzeć obiektywne testy, bo OBIE firmy swoje wersje testów zawsze troszkę naciągały :]
czulloZobacz profil
Poziom ostrzeżenia: 0%
czullo2010.01.18, 15:23
cyrix133 ma dzisiaj po zajeciach gimnazjalnych kolko plastyczne i bedzie wieczorem. info pewne
Krzysztof0430Zobacz profil
Poziom ostrzeżenia: 0%
Krzysztof04302010.01.18, 15:24
no nareszcie jest coś wiadomo o fermim i jeżeli będzie tak jak na wykresie pokazane z radeonem 5870 to normalnie cyrix będzie normalnie w siódmym niebie :E
YaronimoZobacz profil
Poziom ostrzeżenia: 0%
Yaronimo2010.01.18, 15:26
Promilus1984 @ 2010.01.18 14:57  Post: 339214
SuLac0 @ 2010.01.18 14:13  Post: 339188
(...)

no wlasnie sek w tym, ze to amd/ati uczestniczylo w tworzeniu tego bencza, wiec na 100% mozna zalozyc, ze wykorzystuja max swoj hardware, a tutaj nagle wyskakuje nv, ze swoim gf100 i maja wydajnosc ich podwojnego (hd5970) ukladu. na dwa mies przed premiera. dla mnie to totalna porazka marketingowa jezeli chodiz o ati i tesselacje.

Wykorzystuje DX11. Tam nie ma specyficznych rozszerzeń tylko danego producenta...Jeśli jakieś były aplikacje w DX pisane pod konkretną architekturę - to w czasach np. radeona 2900 który miał tyle TMU co ROP, a G80 od 2 do 2.66x więcej - stąd gry z porządnym multitexture, AF potrafiły zagiąć R600 dość ostro. Ale patrz, od HD4k praktycznie stosunek ROP:TMU w radkach i GF jest ten sam. R770 16RBE, 40TMU, GT200 - 32ROP, 80TMU ... Cypress to samo. Fermi? Nie sądzę by różnice były większe - jest określone takie optimum i jak na dzień dzisiejszy nie zapowiadają się jakieś przełomy. Wydajność Fermi - haa, pogadamy jak już wyjdzie i każdy będzie mógł sobie przejrzeć obiektywne testy, bo OBIE firmy swoje wersje testów zawsze troszkę naciągały :]


Nie wiem jak to wygląda teraz i w DirectX (podejrzewanże jak MS trzyma łapę nad specyfikacją to raczej sami zajmują się dodawaniem ficzerków w nowych releasach) - ale dawno temu gdy jeszcze bawiłem się w pisanie w OpenGL ATI np posiadało specjalne funkcje pod ich chipy - 'naj'przykładem jest chociażby implementacja trueform w RTCW.
*Konto usunięte*2010.01.18, 15:30
Yaronimo @ 2010.01.18 15:26  Post: 339228

Nie wiem jak to wygląda teraz i w DirectX (podejrzewanże jak MS trzyma łapę nad specyfikacją to raczej sami zajmują się dodawaniem ficzerków w nowych releasach) - ale dawno temu gdy jeszcze bawiłem się w pisanie w OpenGL ATI np posiadało specjalne funkcje pod ich chipy - 'naj'przykładem jest chociażby implementacja trueform w RTCW.

no a jak mogli to inaczej rozwiązać, skoro tylko chipy ATI tą funkcję obsługiwały, a M$ nie implementował jej w DX??
rainyZobacz profil
Poziom ostrzeżenia: 0%
rainy2010.01.18, 15:41
Zamiast się wykłócać o mało wiarygodne benchmarki, lepiej zapoznać się z artykułami, które się pojawiły w sieci.

Np. taki jak ten: http://www.brightsideofnews.com/news/2010/...-iacta-est.aspx
To co mnie zaintrygowało, to wreszcie podana przybliżona powierzchnia Fermi - około 570 mm2.
Czyli w 40nm mamy potwora wielkości GTX280 w 65nm (576 mm2).

Przy uzysku z wafla na poziomie 25 procent, przypuszczalny koszt to ponad 150 dolarów.
Przy 20 procentach, (jak to było niedawno podawane) to już około 185 dolarów.

Byłoby wskazane dla Nvidii, żeby ten układ był naprawdę wydajny (i nie tylko w zastosowaniach profesjonalnych) bo na 32/28nm będzie trzeba jeszcze dłuższą chwilę poczekać.
trustnob1tchZobacz profil
Poziom ostrzeżenia: 0%
trustnob1tch2010.01.18, 15:43
Czyli GF100 będzie ogromnym i mocarnym chipem tak jak jego poprzednik. Będzie zapewne bardzo drogi, albo bardzo gorący i prądożerny. Co do Unigine to nie widzę rozdzielczości i konfiguracji testowej. Poza tym jeśli GF100 ma mieć ponad 3 miliardy tranzystorów to porównywać go powinno się chyba do dwóch 5850... Nie rokowałbym nadziei na inny przedział cenowy...
StanleyZobacz profil
Poziom ostrzeżenia: 0%
Stanley2010.01.18, 15:54
NVIDIA zapowiada że wydajność geometryczna GF100 jest (maksymalnie) ośmiokrotnie wyższa niż w przypadku procesora GT200, stosowanego między innymi w karcie GeForce GTX 285.


Oczywiście marketingowo wykorzystano kiepski punkt poprzednika by dodać klasy nowemu wynalazkowi :]
Zatem 2x to przywrócenie normalności(wzgledem konkurencji która to już ma), x2 z racji nowej serii wiekszej ilości rdzeni/CUDÓW, 2x z racji lepszego taktowania, usprawnień itd.
Z jednym ale...analiza wyników benchmarku Unigine budzi zastanowienie...
Po pierwsze..wykres dziwnie 'wystrzeliwuje', po drugie to tylko jeden benchmark. Bo jak wierzyć skoro konkurencja robila podobnie - gra Call Of Juarez dla ATI serii 2900[dobra 'optymalizacja' czy raczej oszustwo]

Mimo wszystko wyniki bardzo prawdopodobne.
Trzeba jednak zauważyć jakiej powierzchni jest to chip!!!
Nie sztuka wymieść wszystko jak sie ma wielka szufle.

Skoro wielkie i ma 384bit, to napewno droższe.
Skoro 1.5x5870 to porównywalne do 5970.
No i możliwe że firma ATI ma coś jeszcze w zanadrzu.

A tak zupelnie zupelnie poważnie. Kogo to obchodzi że firma X ma coś wiekszego niż firma Y, skoro wydajność/powierzchnie wypada podobna. Biorac pod uwage fakt że firma Y już to sprzedaje a firma X wciaż tylko zapowiada...i cfana trzyma w niepewności zakompleksione klientele.
AlmaZobacz profil
Poziom ostrzeżenia: 0%
Alma2010.01.18, 15:56
Nie ważne jak szybki, jak wspaniały, jak zielony będzie ten procesor graficzny i cała karta. O popularności zadecyduje cena i proporcjonalność do oferty konkurencji. Tyle na dany moment można powiedzieć. nie ma co się podniecać za wczas szczególnie jeżeli nie będzie się opłacać.
dolores_26Zobacz profil
Poziom ostrzeżenia: 0%
dolores_262010.01.18, 16:01
Coś pięknego - nv rulezzzzzzzzzzz ...
XaradasZobacz profil
Poziom ostrzeżenia: 0%
Xaradas2010.01.18, 16:07
Alma @ 2010.01.18 15:56  Post: 339244
Nie ważne jak szybki, jak wspaniały, jak zielony będzie ten procesor graficzny i cała karta. O popularności zadecyduje cena i proporcjonalność do oferty konkurencji. Tyle na dany moment można powiedzieć. nie ma co się podniecać za wczas szczególnie jeżeli nie będzie się opłacać.

Całkowita prawda, ale do niektórych to nie dotrze :E
cyrix czekamy na koment :E
Marek1981Zobacz profil
Poziom ostrzeżenia: 0%
Marek19812010.01.18, 16:07

rainy @ 2010.01.18 15:41  Post: 339236
Zamiast się wykłócać o mało wiarygodne benchmarki, lepiej zapoznać się z artykułami, które się pojawiły w sieci.

Np. taki jak ten: http://www.brightsideofnews.com/news/2010/...-iacta-est.aspx
To co mnie zaintrygowało, to wreszcie podana przybliżona powierzchnia Fermi - około 570 mm2.
Czyli w 40nm mamy potwora wielkości GTX280 w 65nm (576 mm2).

Przy uzysku z wafla na poziomie 25 procent, przypuszczalny koszt to ponad 150 dolarów.
Przy 20 procentach, (jak to było niedawno podawane) to już około 185 dolarów.

Byłoby wskazane dla Nvidii, żeby ten układ był naprawdę wydajny (i nie tylko w zastosowaniach profesjonalnych) bo na 32/28nm będzie trzeba jeszcze dłuższą chwilę poczekać.


Patrząc na stronę :
http://www.brightsideofnews.com/news/2010/...t.aspx?pageid=3
z twoich testów mamy obraz na 3 monitorach. Czyżby nawet w nv używano konkurencyjnych rozwiązań??
GilasZobacz profil
Poziom ostrzeżenia: 0%
Gilas2010.01.18, 16:08
.:Proxy:. @ 2010.01.18 14:39  Post: 339199
Ciekawe jakie będą ceny tych kastratów od NV? Bo na ta najdroższą konfiguracje szkoda co patrzeć... wszystko jest jeszcze za drogie :/ I przeznaczona dla fanatyków frapsów czy czego tam jeszcze ;)


Ale o jakich cenach piszesz, chyba ATI...??? Fakt ich najwydajniejsze konstrukcje są zdecydowanie za drogie, ale muszą się nachapać prze wyjściem GF-100 bo później znów chude lata...
O NV i ich cenach jeszcze cisza i nic nie wiadomo...
StanleyZobacz profil
Poziom ostrzeżenia: 0%
Stanley2010.01.18, 16:15
Jesli to nie ściema(wyniki GF100) to czeka ich(ATI) miazga.
Nowy GeForce' mnie podnieca :)

PS Dziwne byloby i niebezpieczne dla reputacji NVidii wydanie spóźnionego produktu w dodatku wolniejszego niż u konkurecji.
..::DAN::..Zobacz profil
Poziom ostrzeżenia: 0%
..::DAN::..2010.01.18, 16:18
Marek1981 @ 2010.01.18 16:07  Post: 339251

rainy @ 2010.01.18 15:41  Post: 339236
Zamiast się wykłócać o mało wiarygodne benchmarki, lepiej zapoznać się z artykułami, które się pojawiły w sieci.

Np. taki jak ten: http://www.brightsideofnews.com/news/2010/...-iacta-est.aspx
To co mnie zaintrygowało, to wreszcie podana przybliżona powierzchnia Fermi - około 570 mm2.
Czyli w 40nm mamy potwora wielkości GTX280 w 65nm (576 mm2).

Przy uzysku z wafla na poziomie 25 procent, przypuszczalny koszt to ponad 150 dolarów.
Przy 20 procentach, (jak to było niedawno podawane) to już około 185 dolarów.

Byłoby wskazane dla Nvidii, żeby ten układ był naprawdę wydajny (i nie tylko w zastosowaniach profesjonalnych) bo na 32/28nm będzie trzeba jeszcze dłuższą chwilę poczekać.


Patrząc na stronę :
http://www.brightsideofnews.com/news/2010/...t.aspx?pageid=3
z twoich testów mamy obraz na 3 monitorach. Czyżby nawet w nv używano konkurencyjnych rozwiązań??


To jest tylko bliźniacza technologia. To się nazywa chyba 'NVIDIA VISION 3D' (?). Pozwala uzyskać obraz na max 3 monitorach + ten ich efekt 3d ze specjalnym monitorem i okularami.



dolores_26 @ 2010.01.18 16:01  Post: 339247
Coś pięknego - nv rulezzzzzzzzzzz ...


Nie ma to jak fachowy i rzeczowy komentarz.


P.S. Apropo tego obrazu 3D AMD/ATi też już to ma bodajże w CCC 10.1 i też działa na tej samej zasadzie tj. monitor 120 Hz++ i okularki.
arco2006Zobacz profil
Poziom ostrzeżenia: 0%
arco20062010.01.18, 16:19
ale NV drogo będzie miała, a ceny ATI nie będą takie złe porównaniu od tych cudaków.
jarzielZobacz profil
Poziom ostrzeżenia: 0%
jarziel2010.01.18, 16:23
Tylko, że jeżeli chcesz mieć obraz wyświetlany na 3 monitorach musisz mieć co najmniej dwie karty graficzne(a może nawet tri sli?)
XaradasZobacz profil
Poziom ostrzeżenia: 0%
Xaradas2010.01.18, 16:24
Gilas @ 2010.01.18 16:08  Post: 339252
.:Proxy:. @ 2010.01.18 14:39  Post: 339199
Ciekawe jakie będą ceny tych kastratów od NV? Bo na ta najdroższą konfiguracje szkoda co patrzeć... wszystko jest jeszcze za drogie :/ I przeznaczona dla fanatyków frapsów czy czego tam jeszcze ;)


Ale o jakich cenach piszesz, chyba ATI...??? Fakt ich najwydajniejsze konstrukcje są zdecydowanie za drogie, ale muszą się nachapać prze wyjściem GF-100 bo później znów chude lata...
O NV i ich cenach jeszcze cisza i nic nie wiadomo...

Jakbyś prowadził firmę to też byś się chciał nachapać, a NV to jak myślisz co zrobi ?? Też będą chcieli się nachapać i tak jest od zawsze :E
..::DAN::..Zobacz profil
Poziom ostrzeżenia: 0%
..::DAN::..2010.01.18, 16:25
jarziel @ 2010.01.18 16:23  Post: 339261
Tylko, że jeżeli chcesz mieć obraz wyświetlany na 3 monitorach musisz mieć co najmniej dwie karty graficzne(a może nawet tri sli?)


Ale po co? O ATi Eyefinity słyszał? Jedna karta max 6 monitorów :).

@Gilas

Nie bo jest edycja specjalna 5870 co ma 6 mini DP więc przejściówek nie potrzeba. Raczej parę ładnych tys $ za monitory :E. Zresztą nie chciałem pisać o sensowności takiego rozwiązania tylko, że coś takiego można mieć jak się chce.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.