@zsx111
' I tutaj widać Wasze krótkie myślenie, bo w raz z premierą ma wyjść także tańsza odmiana (GTX360?), na początku pewnie będzie oferowana w cenie mniej więcej Radeona HD5870, bo popyt na nią zapewne będzie ogromny i inaczej nie wyrobią z produkcją, ale na wakacjach już na pewno osiągnie normalny pułap 700-800zł'
Lol, czy ty widzisz co piszesz? oczywiście bardzo bym chciał żeby gt360 kosztował tyle, to byłaby prawdziwa rewolucja, bo 5870 musiałby kosztować ze 100 mniej od niej, a gtx285 jeszcze drugą stówe Ta twoja wypowiedz bardzo mnie rozśmieszyła. Jak ta karta będzie tyle kosztować to dam Ci znać, ale to w tym roku nie nastapi
Już od 3 lat w średnim i wysokim segmencie nVidia posiada korzystniejszy wskaźnik wydajność/cena
Od wprowadzenia HD4k w średnim i wysokim segmencie to właśnie AMD miało najlepsze wskaźniki perf/price, a także perf/watt. Przykłady to 4670, 4850...u NV porównywalne miały 9600gso (ale gorsze perf/watt od radeona) i gts250. Wyższy high end nigdy nie był opłacalny, bo w cenie GTX280 miałeś 2x HD4850 (a w sumie nawet za mniej) które w większości gier miały lepszą wydajność - zresztą to samo dotyczy duetu gts250 (9800gtx).
2.
Widzisz, a Ci co wcześniej kupili GTX295 mogą sobie na tych samych ustawieniach pograć znacznie dłużej w każdą grę
Jasne, pewnie z tego samego powodu posiadacze 7900GTx albo 8800GTS 640 mogą sobie z rozsądną wydajnością grać w nowsze gry...Nie? No patrz, a taki odpowiednik tego 7900 czyli X1900 sobie radzi znacznie lepiej, a hd3870 też nie najgorzej. Jeśli chodzi o wyciskanie ze sprzętu max. wraz z 'dojrzewaniem' sterowników udaje się osiągnąć coraz więcej. Tak, to już było w czasach R7500, 8500 a nawet 9800! Ale masz klapki na oczach żeby widzieć coś więcej niż zielone logo nvidii (przy okazji polecam zapoznanie się ze znaczeniem łacińskiego słowa invidia).
Dla mnie sprawa wygląda tak. Pojedynczy układ ati trochę przegrywał trochę wygrywał z kanapką NV . Tutaj podkręcony radek praktycznie nawiązuje walkę a 2 układowy daje wąchać rure wydechową nowemu fermi . To co dla nv najważniejsze czyli posiadanie najszybszej karty na rynku się nie udało .
A to czy karta jest fajna czy nie to prócz ludzi dla których najszybszy sprzet jest hoby, będzie decydował stosunek cena- możliwości w chwili premiery. Wszystko inne to funboyowanie ludzi z 'gimnazjum' których w większości w polskich realiach nie będzie to fizycznie dotyczyło z racji braku biletów narodowego banku polskiego.
Oczywiście dotyka ich to mentalnie co zresztą widać po postach.
To w roli podsumowania... długo się czytało posty... prawie godzinę Mięcha było oczywiście więcej niż w garmażeryjnym
Spóźnieni, z małym uzyskiem, z wielkim klocem (rozmiary) zbyt dużo nie zawojują... Będzie cięcie i kastrowanie, ale to już nie będzie takie mega super hiper co nakręca klientów na daną serie produktów
Wydajność większa od konkurencji... teraz tylko pytanie jak z ceną będzie, bo jak będą chcieli zbyt wiele przyciąć to z niskich cen HD5k będą nici A kupił bym takiego 57xx... tylko portfel ciągle drze się bo głodny
Na pewno nie będą wywalać częściowo niesprawnych chipów, tylko je sprzedawać po obniżonej cenie - każdy tak robi. A biorąc pod uwagę stopień skomplikowania Fermiego pełnosprawne chipy z 512 rdzeniami CUDA będą przeznaczone głównie na rynek profesjonalny, zapewniający producentowi znacznie większe zyski od egzemplarza.
Ceny kart dla graczy z pewnością będą odstraszające ale nie po to kupiłem pół roku temu GF275 żeby go teraz zmieniać, może za rok albo dwa. Dla mnie Fermi to taki sam potwór co 90 nm G80 (8800 GTX), sam był średnio udany z powodu ogromnej energochłonności, ale dał początek rodzinie GPU G92 (65 nm) i G92b (55 nm). Jak zrobią Fermiego w 28 nm to może on być bardzo udanym GPU.
A co do dalszej części wypowiedzi, to wystarczy się odwołać do mojego posta #231,
który chyba jest ponadczasowy i będzie pasował na każdą Twoją odpowiedź.
Nie dość, że jesteś ciężkim przypadkiem fanboystwa, to na dodatek jeszcze cierpisz na megalomanię.
Czy mam coś interesującego do dodania o prawdopodobnej powierzchni Fermi (570 mm2)?
Zdaje się, że twierdziłeś, iż będzie duużo mniejszy.
Na pewno nie będą wywalać częściowo niesprawnych chipów, tylko je sprzedawać po obniżonej cenie - każdy tak robi. A biorąc pod uwagę stopień skomplikowania Fermiego pełnosprawne chipy z 512 rdzeniami CUDA będą przeznaczone głównie na rynek profesjonalny, zapewniający producentowi znacznie większe zyski od egzemplarza.
.
Niby to było by racjonalne podejście, aby w pełni sprawne układy leciały na rynek profesjonalny, ale nvidia podała już specyfikację tesli i wynika z niej, że układ będzie miał mniej jednostek.
zsx - GT240 - 727mln tranzystorów 144mm2 40nm
Fermi ~3mld tranzystorów (a ponoć więcej), z prostej proporcji którą chyba KAŻDY w szkole miał (ci po gimnazjum) to blisko 600mm2. 570mm2 nie jest zatem niczym WYOLBRZYMIONYM, a raczej właśnie stanowi o dopracowaniu nowego wymiaru technologicznego przez nV. Wzorując się na upakowaniu tranzystorów w mniejszym GT220 również wychodzi ~570mm2. Co z tego wynika? Ano nic wielkiego, tylko że z 300mm wafla można uzyskać 124 GF100 albo 214 Cypressów. Oczywiście to jest teoretyczne max. ale jest ich oczywiście mniej ze względu na choćby geometrię (dzielenie koła na prostokąty) czy zanieczyszczenia. I tak realnie GF100 jest w produkcji ze 2x droższy od Cypressa. Sam GPU, nie karta oczywiście, ale producenci GPU zarabiają na sprzedanych GPU. Jeśli tego nie wiedziałeś to teraz wiesz.
Mógłbym teraz udowodnić Ci że mimo dominującej przewagi rynkowej nvidii to AMD na sprzedanych gpu zarobiło więcej ...ale po co, to jak tłuc grochem o ścianę.
oO lol nie wiem o co wam wszystkim chodzi szczerze mówiąc ,każdy sobie kupi to na co będzie go stać ,wszyscy powini się cieszyć ,ze Nv jednak wypuści ten układ bo coś ostatnio smuta taka cenowa była a tak na nas klientów jednej czy drugiej firmy powoli zaczyna słonko się uśmiechać a to czy będzie bardziej wydajne czy nie?
Ludzie obecne układy ati i nv sa tak mocnymi Gpu że jeszcze sporo czasu upłynie kiedy trzeba będzie je wymienić a raczej kiedy rynek gier je dogoni , a rynek gier jest tak daleko z tyłu za tymi Gpu ,że tak na prawde obecnie to jest sztuka dla sztuki
Wreszcie skonczylem czytac komenty i widze ze coraz gorzej z poziomem. Czas stracony... Bedzie test setki na labie to wtedy oliwa wyplynie, a tak to dalej ta sama papka nvidii.
@zsx111
' I tutaj widać Wasze krótkie myślenie, bo w raz z premierą ma wyjść także tańsza odmiana (GTX360?), na początku pewnie będzie oferowana w cenie mniej więcej Radeona HD5870, bo popyt na nią zapewne będzie ogromny i inaczej nie wyrobią z produkcją, ale na wakacjach już na pewno osiągnie normalny pułap 700-800zł'
Lol, czy ty widzisz co piszesz? oczywiście bardzo bym chciał żeby gt360 kosztował tyle, to byłaby prawdziwa rewolucja, bo 5870 musiałby kosztować ze 100 mniej od niej, a gtx285 jeszcze drugą stówe Ta twoja wypowiedz bardzo mnie rozśmieszyła. Jak ta karta będzie tyle kosztować to dam Ci znać, ale to w tym roku nie nastapi
Naprawdę nie wiem co w tym dziwnego, że średnia półka kosztuje początkowo ~1400zł i później spada w cenie o jakieś 40%?
Promilus1984 @ 2010.01.18 23:43
1.
Już od 3 lat w średnim i wysokim segmencie nVidia posiada korzystniejszy wskaźnik wydajność/cena
Od wprowadzenia HD4k w średnim i wysokim segmencie to właśnie AMD miało najlepsze wskaźniki perf/price, a także perf/watt. Przykłady to 4670, 4850...u NV porównywalne miały 9600gso (ale gorsze perf/watt od radeona) i gts250. Wyższy high end nigdy nie był opłacalny, bo w cenie GTX280 miałeś 2x HD4850 (a w sumie nawet za mniej) które w większości gier miały lepszą wydajność - zresztą to samo dotyczy duetu gts250 (9800gtx)
Ale spójrzmy na to co napisałeś:
4850 vs gts250: http://pclab.pl/art35740-6.html
NVIDIA wygrywa prawie we wszystkim (nie licząc benchmarków), oferuje wiele dodatków (PhysX, CUDA, dobre stery) + pobiera mniej energii (w spoczynku 2W więcej, czyli różnica praktycznie żadna, ale pod obciążeniem znacznie mniej)
4670 vs 9600 - fakt, tutaj Radeon jest bardziej energooszczędny, ale jest też słabszy. A o wskaźniku, o którym mówiłem (wydajność/cena) nVidia wygrywa bezapelacyjnie, nawet w podanych przez Ciebie przykładach.
rainy @ 2010.01.18 23:55
Zdaje się, że twierdziłeś, iż będzie duużo mniejszy.
To proszę przytoczyć moją wypowiedź, gdzie tak mówiłem. Pan mnie z kimś pomylił.
Ja powiem tak:
Kupuje to na co mnie stać, i to co jest najlepsze w interesującym mnie przedziale cenowy... koniec kropka krótka piłka. A z Fermim to, będzie ciężko bo karta może być nie opłacalna ;/
Ale jak ktoś już wcześniej napisał, pożyjemy zobaczymy...
Carpe Diem <--To dla was chłopaki :* idźcie pograć z kumplami w karty albo w Scrable a nie przed kompem 24H
Heh, chyba zacznę się tutaj ubiegać o pozycję moderatorską, bo to co się tu dzieje to jakieś jaja...
A co do tematu, to GF100 nie ma racji bytu... będzie niesamowicie drogi i do rynku kart graficznych nie wniesie niczego szczególnego, po za tym, że będzie szumnie zapowiadany boom na karty ATI, bo w tej chwili to najodpowiedniejsza propozycja...
Już sobie wyobrażam te 1kW zasilacze, aby to uciągnęły
Ale spójrzmy na to co napisałeś:
4850 vs gts250: http://pclab.pl/art35740-6.html
NVIDIA wygrywa prawie we wszystkim (nie licząc benchmarków), oferuje wiele dodatków (PhysX, CUDA, dobre stery) + pobiera mniej energii (w spoczynku 2W więcej, czyli różnica praktycznie żadna, ale pod obciążeniem znacznie mniej)
4670 vs 9600 - fakt, tutaj Radeon jest bardziej energooszczędny, ale jest też słabszy. A o wskaźniku, o którym mówiłem (wydajność/cena) nVidia wygrywa bezapelacyjnie, nawet w podanych przez Ciebie przykładach.
1. Mamy catalyst 9.12 a niebawem pewnie 10.1 - testy były na 9.1 i 9.2 (i były różnice)
2. Tak tak, a w momencie wersja serii hd4k radeon hd4850 kosztował 500zł przy ~800 9800GTX
3. 512MB vs 1GB...i różnice kilku procent, przeciwko półrocznemu dziadkowi referentowi wystawiono 4 wersję tego samego (8800GTS->9800GTX->9800GTX+->GTS250) gdzie w końcu udało się ograniczyć zużycie energii...a cena, nawet wtedy zabójcza, haha!
4. Jakbyś się nie trudził, nie przekonasz mnie, że GF9600GT kosztujący w okolicach kwietnia 2009r. jakieś 350zł jeśli nie więcej ma lepsze perf./watt albo perf/$ od 100zł tańszego szafirka hd4670.
Chcesz się odwołać do obecnej sytuacji? Gdy każdy wyprzedaje nie produkowane już sprzęty na tyle drogo na ile rynek pozwala? Eeee, bez przesady
A właśnie, bajerami w stylu CUDA mnie nie rozśmieszaj. GTS250 nie jest dość mocny żeby na max detalach z physx batmana uciągnąć w rozsądnej rozdzielczości, co najwyżej jako 'pomaginier' do gtx275, hueh. Gier z sprzętowym wykorzystaniem gpu do obsługi physx jest zaledwie kilka.
Aha, masz tutaj inny teścik niereferentów http://www.tomshardware.com/reviews/geforc...on,2274-16.html
No tak, rzeczywiście, różnice fps są dla radeona miażdżące...lol.
Klasyczna sytuacja. Wydajność o 100% większa od poprzednich generacji, jak to zawsze u NVidii.
Teraz ATI będzie 3 lata goniło tą kartę, a jak już dogonią, to się okaże, że rynek PC upadł. NVidia się uratuje, bo ma jakieś mobilne Tegry do łączenia z jonami tudzież innymi atomami
ATI - może mieć rękę w nocniku (co najwyżej!)
Czytam te wasze wypowiedzi i jedyne co mi przychodzi na myśl to - żenada.
Dorośnijcie w końcu.
Dziwię się, że moderatorzy w ogóle nie zablokowali możliwości pisania wypowiedzi pod tym artykułem bo potem stąd te wojny przenoszą się na forum do odpowiednich tematów wojennych.
Klasyczna sytuacja. Wydajność o 100% większa od poprzednich generacji, jak to zawsze u NVidii.
Teraz ATI będzie 3 lata goniło tą kartę, a jak już dogonią, to się okaże, że rynek PC upadł. NVidia się uratuje, bo ma jakieś mobilne Tegry do łączenia z jonami tudzież innymi atomami
ATI - może mieć rękę w nocniku (co najwyżej!)
Przepraszam Cię? Jesteś wróźką? Widzę ze dobrą! na podstawie nic nie znaczacych benchmarków, do tego z 0 możliwością obiektywizmu, ty umiesz wywnioskować że ta generacja będzie o 100% wydajniejsza! brawo!
Jesteś żałosny jak sporo osób które wypowiada się w tematach w których nie mają pojęcia, a wydaje mi się że 100% ludzi tutaj piszących nie miało jeszcze GT100 w rekach by móc cokolwiek powiedzieć jako PEWNOŚĆ. Co innego przypuszczenia, ale Ty wielka wróżko Vymiatacz widze ze już wiesz. Gratuluje poziomu!
Ja rozumiem - lubić jakąś firmę, ba nawet kochać, ale czy takie coś zezwala na brak myślenia? Większosć komentarzy to:
nvidia wypas, skopie dupe Ati
A druga cześć:
nvidia sux, ati jest lepsze
A nie lepiej tak?
Jakk na razie zapowiada się źle/średnio/dobrze (niepotrzebne skreślić), ale poczekam aż wyjdzie, wtedy będzie można coś wiecej powiedzieć itd.
A najlepiej tak:
Chciałbym również zauważyć rzecią grupę, do której piszac ten komentarz zacząłem należeć to grupa ludzi która komentuje inne komentarze i również pisze nic nie wnoszace komentarze mówiace o poziomie, o tym ze ludzie to fanboye, o tym by pcozekać na kartę itd.
A wiecie ile tutaj jest komentarzy coś wnoszacych pod tym newsem?
może 3-4, na pewno jeden czy dwa dające linki do innych stron z wiekszą liczbą obrazków, oraz kilka ciekawych analiz i tyle. A komentarzy jest już ponad 250, a mój będzie kolejnym nic nie wnoszacym komentarzem wkurzonego czytelnika bredni w komentarzach.
Dziwię się, że moderatorzy w ogóle nie zablokowali możliwości pisania wypowiedzi pod tym artykułem bo potem stąd te wojny przenoszą się na forum do odpowiednich tematów wojennych.
' I tutaj widać Wasze krótkie myślenie, bo w raz z premierą ma wyjść także tańsza odmiana (GTX360?), na początku pewnie będzie oferowana w cenie mniej więcej Radeona HD5870, bo popyt na nią zapewne będzie ogromny i inaczej nie wyrobią z produkcją, ale na wakacjach już na pewno osiągnie normalny pułap 700-800zł'
Lol, czy ty widzisz co piszesz? oczywiście bardzo bym chciał żeby gt360 kosztował tyle, to byłaby prawdziwa rewolucja, bo 5870 musiałby kosztować ze 100 mniej od niej, a gtx285 jeszcze drugą stówe
2.
A to czy karta jest fajna czy nie to prócz ludzi dla których najszybszy sprzet jest hoby, będzie decydował stosunek cena- możliwości w chwili premiery. Wszystko inne to funboyowanie ludzi z 'gimnazjum' których w większości w polskich realiach nie będzie to fizycznie dotyczyło z racji braku biletów narodowego banku polskiego.
Oczywiście dotyka ich to mentalnie co zresztą widać po postach.
Spóźnieni, z małym uzyskiem, z wielkim klocem (rozmiary) zbyt dużo nie zawojują... Będzie cięcie i kastrowanie, ale to już nie będzie takie mega super hiper co nakręca klientów na daną serie produktów
Wydajność większa od konkurencji... teraz tylko pytanie jak z ceną będzie, bo jak będą chcieli zbyt wiele przyciąć to z niskich cen HD5k będą nici
Ceny kart dla graczy z pewnością będą odstraszające ale nie po to kupiłem pół roku temu GF275 żeby go teraz zmieniać, może za rok albo dwa. Dla mnie Fermi to taki sam potwór co 90 nm G80 (8800 GTX), sam był średnio udany z powodu ogromnej energochłonności, ale dał początek rodzinie GPU G92 (65 nm) i G92b (55 nm). Jak zrobią Fermiego w 28 nm to może on być bardzo udanym GPU.
A co do dalszej części wypowiedzi, to wystarczy się odwołać do mojego posta #231,
który chyba jest ponadczasowy i będzie pasował na każdą Twoją odpowiedź.
Nie dość, że jesteś ciężkim przypadkiem fanboystwa, to na dodatek jeszcze cierpisz na megalomanię.
Czy mam coś interesującego do dodania o prawdopodobnej powierzchni Fermi (570 mm2)?
Zdaje się, że twierdziłeś, iż będzie duużo mniejszy.
.
Fermi ~3mld tranzystorów (a ponoć więcej), z prostej proporcji którą chyba KAŻDY w szkole miał (ci po gimnazjum) to blisko 600mm2. 570mm2 nie jest zatem niczym WYOLBRZYMIONYM, a raczej właśnie stanowi o dopracowaniu nowego wymiaru technologicznego przez nV. Wzorując się na upakowaniu tranzystorów w mniejszym GT220 również wychodzi ~570mm2. Co z tego wynika? Ano nic wielkiego, tylko że z 300mm wafla można uzyskać 124 GF100 albo 214 Cypressów. Oczywiście to jest teoretyczne max. ale jest ich oczywiście mniej ze względu na choćby geometrię (dzielenie koła na prostokąty) czy zanieczyszczenia. I tak realnie GF100 jest w produkcji ze 2x droższy od Cypressa. Sam GPU, nie karta oczywiście, ale producenci GPU zarabiają na sprzedanych GPU. Jeśli tego nie wiedziałeś to teraz wiesz.
Mógłbym teraz udowodnić Ci że mimo dominującej przewagi rynkowej nvidii to AMD na sprzedanych gpu zarobiło więcej ...ale po co, to jak tłuc grochem o ścianę.
Ludzie obecne układy ati i nv sa tak mocnymi Gpu że jeszcze sporo czasu upłynie kiedy trzeba będzie je wymienić a raczej kiedy rynek gier je dogoni , a rynek gier jest tak daleko z tyłu za tymi Gpu ,że tak na prawde obecnie to jest sztuka dla sztuki
' I tutaj widać Wasze krótkie myślenie, bo w raz z premierą ma wyjść także tańsza odmiana (GTX360?), na początku pewnie będzie oferowana w cenie mniej więcej Radeona HD5870, bo popyt na nią zapewne będzie ogromny i inaczej nie wyrobią z produkcją, ale na wakacjach już na pewno osiągnie normalny pułap 700-800zł'
Lol, czy ty widzisz co piszesz? oczywiście bardzo bym chciał żeby gt360 kosztował tyle, to byłaby prawdziwa rewolucja, bo 5870 musiałby kosztować ze 100 mniej od niej, a gtx285 jeszcze drugą stówe
Naprawdę nie wiem co w tym dziwnego, że średnia półka kosztuje początkowo ~1400zł i później spada w cenie o jakieś 40%?
Ale spójrzmy na to co napisałeś:
4850 vs gts250: http://pclab.pl/art35740-6.html
NVIDIA wygrywa prawie we wszystkim (nie licząc benchmarków), oferuje wiele dodatków (PhysX, CUDA, dobre stery) + pobiera mniej energii (w spoczynku 2W więcej, czyli różnica praktycznie żadna, ale pod obciążeniem znacznie mniej)
4670 vs 9600 - fakt, tutaj Radeon jest bardziej energooszczędny, ale jest też słabszy. A o wskaźniku, o którym mówiłem (wydajność/cena) nVidia wygrywa bezapelacyjnie, nawet w podanych przez Ciebie przykładach.
To proszę przytoczyć moją wypowiedź, gdzie tak mówiłem. Pan mnie z kimś pomylił.
Ja powiem tak:
Kupuje to na co mnie stać, i to co jest najlepsze w interesującym mnie przedziale cenowy... koniec kropka krótka piłka. A z Fermim to, będzie ciężko bo karta może być nie opłacalna ;/
Ale jak ktoś już wcześniej napisał, pożyjemy zobaczymy...
Carpe Diem <--To dla was chłopaki :* idźcie pograć z kumplami w karty albo w Scrable a nie przed kompem 24H
A co do tematu, to GF100 nie ma racji bytu... będzie niesamowicie drogi i do rynku kart graficznych nie wniesie niczego szczególnego, po za tym, że będzie szumnie zapowiadany boom na karty ATI, bo w tej chwili to najodpowiedniejsza propozycja...
Już sobie wyobrażam te 1kW zasilacze, aby to uciągnęły
4850 vs gts250: http://pclab.pl/art35740-6.html
NVIDIA wygrywa prawie we wszystkim (nie licząc benchmarków), oferuje wiele dodatków (PhysX, CUDA, dobre stery) + pobiera mniej energii (w spoczynku 2W więcej, czyli różnica praktycznie żadna, ale pod obciążeniem znacznie mniej)
4670 vs 9600 - fakt, tutaj Radeon jest bardziej energooszczędny, ale jest też słabszy. A o wskaźniku, o którym mówiłem (wydajność/cena) nVidia wygrywa bezapelacyjnie, nawet w podanych przez Ciebie przykładach.
1. Mamy catalyst 9.12 a niebawem pewnie 10.1 - testy były na 9.1 i 9.2 (i były różnice)
2. Tak tak, a w momencie wersja serii hd4k radeon hd4850 kosztował 500zł przy ~800 9800GTX
3. 512MB vs 1GB...i różnice kilku procent, przeciwko półrocznemu dziadkowi referentowi wystawiono 4 wersję tego samego (8800GTS->9800GTX->9800GTX+->GTS250) gdzie w końcu udało się ograniczyć zużycie energii...a cena, nawet wtedy zabójcza, haha!
4. Jakbyś się nie trudził, nie przekonasz mnie, że GF9600GT kosztujący w okolicach kwietnia 2009r. jakieś 350zł jeśli nie więcej ma lepsze perf./watt albo perf/$ od 100zł tańszego szafirka hd4670.
Chcesz się odwołać do obecnej sytuacji? Gdy każdy wyprzedaje nie produkowane już sprzęty na tyle drogo na ile rynek pozwala? Eeee, bez przesady
A właśnie, bajerami w stylu CUDA mnie nie rozśmieszaj. GTS250 nie jest dość mocny żeby na max detalach z physx batmana uciągnąć w rozsądnej rozdzielczości, co najwyżej jako 'pomaginier' do gtx275, hueh. Gier z sprzętowym wykorzystaniem gpu do obsługi physx jest zaledwie kilka.
Aha, masz tutaj inny teścik niereferentów
http://www.tomshardware.com/reviews/geforc...on,2274-16.html
No tak, rzeczywiście, różnice fps są dla radeona miażdżące...lol.
Teraz ATI będzie 3 lata goniło tą kartę, a jak już dogonią, to się okaże, że rynek PC upadł. NVidia się uratuje, bo ma jakieś mobilne Tegry do łączenia z jonami tudzież innymi atomami
ATI - może mieć rękę w nocniku (co najwyżej!)
Dorośnijcie w końcu.
Dziwię się, że moderatorzy w ogóle nie zablokowali możliwości pisania wypowiedzi pod tym artykułem bo potem stąd te wojny przenoszą się na forum do odpowiednich tematów wojennych.
Teraz ATI będzie 3 lata goniło tą kartę, a jak już dogonią, to się okaże, że rynek PC upadł. NVidia się uratuje, bo ma jakieś mobilne Tegry do łączenia z jonami tudzież innymi atomami
ATI - może mieć rękę w nocniku (co najwyżej!)
Przepraszam Cię? Jesteś wróźką? Widzę ze dobrą! na podstawie nic nie znaczacych benchmarków, do tego z 0 możliwością obiektywizmu, ty umiesz wywnioskować że ta generacja będzie o 100% wydajniejsza! brawo!
Jesteś żałosny jak sporo osób które wypowiada się w tematach w których nie mają pojęcia, a wydaje mi się że 100% ludzi tutaj piszących nie miało jeszcze GT100 w rekach by móc cokolwiek powiedzieć jako PEWNOŚĆ. Co innego przypuszczenia, ale Ty wielka wróżko Vymiatacz widze ze już wiesz. Gratuluje poziomu!
Ja rozumiem - lubić jakąś firmę, ba nawet kochać, ale czy takie coś zezwala na brak myślenia? Większosć komentarzy to:
nvidia wypas, skopie dupe Ati
A druga cześć:
nvidia sux, ati jest lepsze
A nie lepiej tak?
Jakk na razie zapowiada się źle/średnio/dobrze (niepotrzebne skreślić), ale poczekam aż wyjdzie, wtedy będzie można coś wiecej powiedzieć itd.
A najlepiej tak:
Chciałbym również zauważyć rzecią grupę, do której piszac ten komentarz zacząłem należeć to grupa ludzi która komentuje inne komentarze i również pisze nic nie wnoszace komentarze mówiace o poziomie, o tym ze ludzie to fanboye, o tym by pcozekać na kartę itd.
A wiecie ile tutaj jest komentarzy coś wnoszacych pod tym newsem?
może 3-4, na pewno jeden czy dwa dające linki do innych stron z wiekszą liczbą obrazków, oraz kilka ciekawych analiz i tyle. A komentarzy jest już ponad 250, a mój będzie kolejnym nic nie wnoszacym komentarzem wkurzonego czytelnika bredni w komentarzach.
Dziwię się, że moderatorzy w ogóle nie zablokowali możliwości pisania wypowiedzi pod tym artykułem bo potem stąd te wojny przenoszą się na forum do odpowiednich tematów wojennych.
Domyśl się dlaczego nie są zablokowane