1. Mamy catalyst 9.12 a niebawem pewnie 10.1 - testy były na 9.1 i 9.2 (i były różnice)
2. Tak tak, a w momencie wersja serii hd4k radeon hd4850 kosztował 500zł przy ~800 9800GTX
3. 512MB vs 1GB...i różnice kilku procent, przeciwko półrocznemu dziadkowi referentowi wystawiono 4 wersję tego samego (8800GTS->9800GTX->9800GTX+->GTS250) gdzie w końcu udało się ograniczyć zużycie energii...a cena, nawet wtedy zabójcza, haha!
4. Jakbyś się nie trudził, nie przekonasz mnie, że GF9600GT kosztujący w okolicach kwietnia 2009r. jakieś 350zł jeśli nie więcej ma lepsze perf./watt albo perf/$ od 100zł tańszego szafirka hd4670.
Chcesz się odwołać do obecnej sytuacji? Gdy każdy wyprzedaje nie produkowane już sprzęty na tyle drogo na ile rynek pozwala? Eeee, bez przesady
A właśnie, bajerami w stylu CUDA mnie nie rozśmieszaj. GTS250 nie jest dość mocny żeby na max detalach z physx batmana uciągnąć w rozsądnej rozdzielczości, co najwyżej jako 'pomaginier' do gtx275, hueh. Gier z sprzętowym wykorzystaniem gpu do obsługi physx jest zaledwie kilka.
Aha, masz tutaj inny teścik niereferentów http://www.tomshardware.com/reviews/geforc...on,2274-16.html
No tak, rzeczywiście, różnice fps są dla radeona miażdżące...lol.
1. Faktycznie, sterowniki świadczą na niekorzyść nVidii, bo oni osiągnęli znaczne zwiększenie wydajności, a ATI (wbrew fanbojskiej opinii) przez rok nie ruszyło się z miejsca (patrz testy sterowników na egiełdzie)
2. Ocyfiście! Próbujesz naginać fakty, ale dobrze wiesz, że były one w podobnej cenie.
3. ?
4. Mnie tam osobiście perf/$ nie interesuje, skoro jestem w Polsce. A tutaj nV górowała i góruje w stosunku wydajność/cena. I fakt, że Cię do tego nie przekonam, bo Ty masz swój cały czerwony świat, gdzie takie porządne firmy jak nV nie mają wstępu.
Nie każdy jest taki ograniczony, aby włączyć kompa, napisać bzdurnego posta na PCLabie, włączyć 3DMarka i popatrzeć na punkciki albo pograć sobie w Call of Juarez. Niektórym trudno jest docenić takie coś jak CUDA, ale nie mierz wszystkich swoją miarą. Może jeszcze ATI wyda kilkanaście kart swoich grafik i też sobie zda sprawę z korzyści przeniesienia obliczeń na GPU, i wtedy może wreszcie zrozumiesz na czym to polega
Ceny 9800GTX+ 512MB, 1GB i GT 250, to na przełomie marca i kwietnia 2009 od 650 do 850 zł. Za referenty. W tym samym czasie za 850zł można było kupić 4870. Ja wtedy kupowałem. Muszę sprawdzić cenę cholera.
2. Ocyfiście! Próbujesz naginać fakty, ale dobrze wiesz, że były one w podobnej cenie.
Większej bzdury nie słyszałem, żeby HD4850 KIEDYKOLWIEK kosztowało oficjalnie 850zł...a tyle właśnie widnieje na ostatniej stronie wklejonego PRZEZ CIEBIE testu - oczywiście w odniesieniu do GTS250. Żeby było śmieszniej, GTS startował 100-150zł wyżej od 9800GTX+ (na tym samym układzie i z podobnym taktowaniem). Nie mydl tu nikomu oczu, bo kto obserwuje ceny kart przez dłuższy okres wie, że nie tak całkiem dawno dopiero nV dojechała do odpowiedników wydajnościowych AMD.
Zgadza się, sam kupowałem 4850 we wrześniu 2008, zapłaciłem ok. 510 zł za niereferenta od Szafira, gdy refy zaczynały się od 450zł, to było jakieś 50 zł dopłaty względem 8800GT. GTX+ to była kwestia ~750zł wówczas. Prawda jest taka, że przez 48xx nV musiała ostro zjechać z cenami do tego stopnia, że część kart stała się niezbyt opłacalna w produkcji.
1. Faktycznie, sterowniki świadczą na niekorzyść nVidii, bo oni osiągnęli znaczne zwiększenie wydajności, a ATI (wbrew fanbojskiej opinii) przez rok nie ruszyło się z miejsca (patrz testy sterowników na egiełdzie)
Jedyną opinią fanboyską to jest twoja. A testy na egiełdzie? A ileż one modeli kart obejmują i ile wersji sterowników? Ile gier? Ahhh...nie zawsze jednak rzeczywiście konkretnie widać chłopaki do każdego zadania podchodzą.
2. Ocyfiście! Próbujesz naginać fakty, ale dobrze wiesz, że były one w podobnej cenie.
Większej bzdury nie słyszałem, żeby HD4850 KIEDYKOLWIEK kosztowało oficjalnie 850zł...a tyle właśnie widnieje na ostatniej stronie wklejonego PRZEZ CIEBIE testu - oczywiście w odniesieniu do GTS250. Żeby było śmieszniej, GTS startował 100-150zł wyżej od 9800GTX+ (na tym samym układzie i z podobnym taktowaniem). Nie mydl tu nikomu oczu, bo kto obserwuje ceny kart przez dłuższy okres wie, że nie tak całkiem dawno dopiero nV dojechała do odpowiedników wydajnościowych AMD.
I fakt, że Cię do tego nie przekonam, bo Ty masz swój cały czerwony świat, gdzie takie porządne firmy jak nV nie mają wstępu.
Bzdura, miewałem też i nV...i miałem mieć 9600GSO, ale wyszedł 4670 którego w wersji bulk złapałem za 270zł z przesyłką, gdy GSO były za 300+, zły interes? Absolutnie nie. Jak znowu będę zmieniał kartę to nadal będę kierował się wydajność/cena - wygra nv to kupię nv - proste i logiczne, dla każdego rozsądnego człowieka...ale nie Ciebie - bo nie jesteś rozsądny.
Niektórym trudno jest docenić takie coś jak CUDA, ale nie mierz wszystkich swoją miarą.
Wielu ludziom jest łatwo przecenić takie rzeczy jak CUDA, ale nie mierz wszystkich swoją miarą. Obliczenia GPU już mają ładne parę lat i to ATI startowało w tym pierwsze. CUDA CUDA, a EWSA, COLLATZ, IGRARGPU mające wersje dla nv i wersje dla amd działają lepiej na amd. Proste i tanie. I Tianhe-1 też korzysta z RV770 a nie GT200...
1. Mamy catalyst 9.12 a niebawem pewnie 10.1 - testy były na 9.1 i 9.2 (i były różnice)
2. Tak tak, a w momencie wersja serii hd4k radeon hd4850 kosztował 500zł przy ~800 9800GTX
3. 512MB vs 1GB...i różnice kilku procent, przeciwko półrocznemu dziadkowi referentowi wystawiono 4 wersję tego samego (8800GTS->9800GTX->9800GTX+->GTS250) gdzie w końcu udało się ograniczyć zużycie energii...a cena, nawet wtedy zabójcza, haha!
4. Jakbyś się nie trudził, nie przekonasz mnie, że GF9600GT kosztujący w okolicach kwietnia 2009r. jakieś 350zł jeśli nie więcej ma lepsze perf./watt albo perf/$ od 100zł tańszego szafirka hd4670.
Chcesz się odwołać do obecnej sytuacji? Gdy każdy wyprzedaje nie produkowane już sprzęty na tyle drogo na ile rynek pozwala? Eeee, bez przesady
A właśnie, bajerami w stylu CUDA mnie nie rozśmieszaj. GTS250 nie jest dość mocny żeby na max detalach z physx batmana uciągnąć w rozsądnej rozdzielczości, co najwyżej jako 'pomaginier' do gtx275, hueh. Gier z sprzętowym wykorzystaniem gpu do obsługi physx jest zaledwie kilka.
Aha, masz tutaj inny teścik niereferentów http://www.tomshardware.com/reviews/geforc...on,2274-16.html
No tak, rzeczywiście, różnice fps są dla radeona miażdżące...lol.
1. Faktycznie, sterowniki świadczą na niekorzyść nVidii, bo oni osiągnęli znaczne zwiększenie wydajności, a ATI (wbrew fanbojskiej opinii) przez rok nie ruszyło się z miejsca (patrz testy sterowników na egiełdzie)
2. Ocyfiście! Próbujesz naginać fakty, ale dobrze wiesz, że były one w podobnej cenie.
3. ?
4. Mnie tam osobiście perf/$ nie interesuje, skoro jestem w Polsce. A tutaj nV górowała i góruje w stosunku wydajność/cena. I fakt, że Cię do tego nie przekonam, bo Ty masz swój cały czerwony świat, gdzie takie porządne firmy jak nV nie mają wstępu.
Nie każdy jest taki ograniczony, aby włączyć kompa, napisać bzdurnego posta na PCLabie, włączyć 3DMarka i popatrzeć na punkciki albo pograć sobie w Call of Juarez. Niektórym trudno jest docenić takie coś jak CUDA, ale nie mierz wszystkich swoją miarą. Może jeszcze ATI wyda kilkanaście kart swoich grafik i też sobie zda sprawę z korzyści przeniesienia obliczeń na GPU, i wtedy może wreszcie zrozumiesz na czym to polega
Dziwię się, że moderatorzy w ogóle nie zablokowali możliwości pisania wypowiedzi pod tym artykułem bo potem stąd te wojny przenoszą się na forum do odpowiednich tematów wojennych.
Klasyczna sytuacja. Wydajność o 100% większa od poprzednich generacji, jak to zawsze u NVidii.
Teraz ATI będzie 3 lata goniło tą kartę, a jak już dogonią, to się okaże, że rynek PC upadł. NVidia się uratuje, bo ma jakieś mobilne Tegry do łączenia z jonami tudzież innymi atomami
ATI - może mieć rękę w nocniku (co najwyżej!)
Przepraszam Cię? Jesteś wróźką? Widzę ze dobrą! na podstawie nic nie znaczacych benchmarków, do tego z 0 możliwością obiektywizmu, ty umiesz wywnioskować że ta generacja będzie o 100% wydajniejsza! brawo!
Jesteś żałosny jak sporo osób które wypowiada się w tematach w których nie mają pojęcia, a wydaje mi się że 100% ludzi tutaj piszących nie miało jeszcze GT100 w rekach by móc cokolwiek powiedzieć jako PEWNOŚĆ. Co innego przypuszczenia, ale Ty wielka wróżko Vymiatacz widze ze już wiesz. Gratuluje poziomu!
Ja rozumiem - lubić jakąś firmę, ba nawet kochać, ale czy takie coś zezwala na brak myślenia? Większosć komentarzy to:
nvidia wypas, skopie dupe Ati
A druga cześć:
nvidia sux, ati jest lepsze
A nie lepiej tak?
Jakk na razie zapowiada się źle/średnio/dobrze (niepotrzebne skreślić), ale poczekam aż wyjdzie, wtedy będzie można coś wiecej powiedzieć itd.
A najlepiej tak:
Chciałbym również zauważyć rzecią grupę, do której piszac ten komentarz zacząłem należeć to grupa ludzi która komentuje inne komentarze i również pisze nic nie wnoszace komentarze mówiace o poziomie, o tym ze ludzie to fanboye, o tym by pcozekać na kartę itd.
A wiecie ile tutaj jest komentarzy coś wnoszacych pod tym newsem?
może 3-4, na pewno jeden czy dwa dające linki do innych stron z wiekszą liczbą obrazków, oraz kilka ciekawych analiz i tyle. A komentarzy jest już ponad 250, a mój będzie kolejnym nic nie wnoszacym komentarzem wkurzonego czytelnika bredni w komentarzach.
Czytam te wasze wypowiedzi i jedyne co mi przychodzi na myśl to - żenada.
Dorośnijcie w końcu.
Dziwię się, że moderatorzy w ogóle nie zablokowali możliwości pisania wypowiedzi pod tym artykułem bo potem stąd te wojny przenoszą się na forum do odpowiednich tematów wojennych.
Klasyczna sytuacja. Wydajność o 100% większa od poprzednich generacji, jak to zawsze u NVidii.
Teraz ATI będzie 3 lata goniło tą kartę, a jak już dogonią, to się okaże, że rynek PC upadł. NVidia się uratuje, bo ma jakieś mobilne Tegry do łączenia z jonami tudzież innymi atomami
ATI - może mieć rękę w nocniku (co najwyżej!)
Ale spójrzmy na to co napisałeś:
4850 vs gts250: http://pclab.pl/art35740-6.html
NVIDIA wygrywa prawie we wszystkim (nie licząc benchmarków), oferuje wiele dodatków (PhysX, CUDA, dobre stery) + pobiera mniej energii (w spoczynku 2W więcej, czyli różnica praktycznie żadna, ale pod obciążeniem znacznie mniej)
4670 vs 9600 - fakt, tutaj Radeon jest bardziej energooszczędny, ale jest też słabszy. A o wskaźniku, o którym mówiłem (wydajność/cena) nVidia wygrywa bezapelacyjnie, nawet w podanych przez Ciebie przykładach.
1. Mamy catalyst 9.12 a niebawem pewnie 10.1 - testy były na 9.1 i 9.2 (i były różnice)
2. Tak tak, a w momencie wersja serii hd4k radeon hd4850 kosztował 500zł przy ~800 9800GTX
3. 512MB vs 1GB...i różnice kilku procent, przeciwko półrocznemu dziadkowi referentowi wystawiono 4 wersję tego samego (8800GTS->9800GTX->9800GTX+->GTS250) gdzie w końcu udało się ograniczyć zużycie energii...a cena, nawet wtedy zabójcza, haha!
4. Jakbyś się nie trudził, nie przekonasz mnie, że GF9600GT kosztujący w okolicach kwietnia 2009r. jakieś 350zł jeśli nie więcej ma lepsze perf./watt albo perf/$ od 100zł tańszego szafirka hd4670.
Chcesz się odwołać do obecnej sytuacji? Gdy każdy wyprzedaje nie produkowane już sprzęty na tyle drogo na ile rynek pozwala? Eeee, bez przesady
A właśnie, bajerami w stylu CUDA mnie nie rozśmieszaj. GTS250 nie jest dość mocny żeby na max detalach z physx batmana uciągnąć w rozsądnej rozdzielczości, co najwyżej jako 'pomaginier' do gtx275, hueh. Gier z sprzętowym wykorzystaniem gpu do obsługi physx jest zaledwie kilka.
Aha, masz tutaj inny teścik niereferentów http://www.tomshardware.com/reviews/geforc...on,2274-16.html
No tak, rzeczywiście, różnice fps są dla radeona miażdżące...lol.
Heh, chyba zacznę się tutaj ubiegać o pozycję moderatorską, bo to co się tu dzieje to jakieś jaja...
A co do tematu, to GF100 nie ma racji bytu... będzie niesamowicie drogi i do rynku kart graficznych nie wniesie niczego szczególnego, po za tym, że będzie szumnie zapowiadany boom na karty ATI, bo w tej chwili to najodpowiedniejsza propozycja...
Już sobie wyobrażam te 1kW zasilacze, aby to uciągnęły
Ja powiem tak:
Kupuje to na co mnie stać, i to co jest najlepsze w interesującym mnie przedziale cenowy... koniec kropka krótka piłka. A z Fermim to, będzie ciężko bo karta może być nie opłacalna ;/
Ale jak ktoś już wcześniej napisał, pożyjemy zobaczymy...
Carpe Diem <--To dla was chłopaki :* idźcie pograć z kumplami w karty albo w Scrable a nie przed kompem 24H
@zsx111
' I tutaj widać Wasze krótkie myślenie, bo w raz z premierą ma wyjść także tańsza odmiana (GTX360?), na początku pewnie będzie oferowana w cenie mniej więcej Radeona HD5870, bo popyt na nią zapewne będzie ogromny i inaczej nie wyrobią z produkcją, ale na wakacjach już na pewno osiągnie normalny pułap 700-800zł'
Lol, czy ty widzisz co piszesz? oczywiście bardzo bym chciał żeby gt360 kosztował tyle, to byłaby prawdziwa rewolucja, bo 5870 musiałby kosztować ze 100 mniej od niej, a gtx285 jeszcze drugą stówe Ta twoja wypowiedz bardzo mnie rozśmieszyła. Jak ta karta będzie tyle kosztować to dam Ci znać, ale to w tym roku nie nastapi
Naprawdę nie wiem co w tym dziwnego, że średnia półka kosztuje początkowo ~1400zł i później spada w cenie o jakieś 40%?
Promilus1984 @ 2010.01.18 23:43
1.
Już od 3 lat w średnim i wysokim segmencie nVidia posiada korzystniejszy wskaźnik wydajność/cena
Od wprowadzenia HD4k w średnim i wysokim segmencie to właśnie AMD miało najlepsze wskaźniki perf/price, a także perf/watt. Przykłady to 4670, 4850...u NV porównywalne miały 9600gso (ale gorsze perf/watt od radeona) i gts250. Wyższy high end nigdy nie był opłacalny, bo w cenie GTX280 miałeś 2x HD4850 (a w sumie nawet za mniej) które w większości gier miały lepszą wydajność - zresztą to samo dotyczy duetu gts250 (9800gtx)
Ale spójrzmy na to co napisałeś:
4850 vs gts250: http://pclab.pl/art35740-6.html
NVIDIA wygrywa prawie we wszystkim (nie licząc benchmarków), oferuje wiele dodatków (PhysX, CUDA, dobre stery) + pobiera mniej energii (w spoczynku 2W więcej, czyli różnica praktycznie żadna, ale pod obciążeniem znacznie mniej)
4670 vs 9600 - fakt, tutaj Radeon jest bardziej energooszczędny, ale jest też słabszy. A o wskaźniku, o którym mówiłem (wydajność/cena) nVidia wygrywa bezapelacyjnie, nawet w podanych przez Ciebie przykładach.
rainy @ 2010.01.18 23:55
Zdaje się, że twierdziłeś, iż będzie duużo mniejszy.
To proszę przytoczyć moją wypowiedź, gdzie tak mówiłem. Pan mnie z kimś pomylił.
Wreszcie skonczylem czytac komenty i widze ze coraz gorzej z poziomem. Czas stracony... Bedzie test setki na labie to wtedy oliwa wyplynie, a tak to dalej ta sama papka nvidii.
oO lol nie wiem o co wam wszystkim chodzi szczerze mówiąc ,każdy sobie kupi to na co będzie go stać ,wszyscy powini się cieszyć ,ze Nv jednak wypuści ten układ bo coś ostatnio smuta taka cenowa była a tak na nas klientów jednej czy drugiej firmy powoli zaczyna słonko się uśmiechać a to czy będzie bardziej wydajne czy nie?
Ludzie obecne układy ati i nv sa tak mocnymi Gpu że jeszcze sporo czasu upłynie kiedy trzeba będzie je wymienić a raczej kiedy rynek gier je dogoni , a rynek gier jest tak daleko z tyłu za tymi Gpu ,że tak na prawde obecnie to jest sztuka dla sztuki
zsx - GT240 - 727mln tranzystorów 144mm2 40nm
Fermi ~3mld tranzystorów (a ponoć więcej), z prostej proporcji którą chyba KAŻDY w szkole miał (ci po gimnazjum) to blisko 600mm2. 570mm2 nie jest zatem niczym WYOLBRZYMIONYM, a raczej właśnie stanowi o dopracowaniu nowego wymiaru technologicznego przez nV. Wzorując się na upakowaniu tranzystorów w mniejszym GT220 również wychodzi ~570mm2. Co z tego wynika? Ano nic wielkiego, tylko że z 300mm wafla można uzyskać 124 GF100 albo 214 Cypressów. Oczywiście to jest teoretyczne max. ale jest ich oczywiście mniej ze względu na choćby geometrię (dzielenie koła na prostokąty) czy zanieczyszczenia. I tak realnie GF100 jest w produkcji ze 2x droższy od Cypressa. Sam GPU, nie karta oczywiście, ale producenci GPU zarabiają na sprzedanych GPU. Jeśli tego nie wiedziałeś to teraz wiesz.
Mógłbym teraz udowodnić Ci że mimo dominującej przewagi rynkowej nvidii to AMD na sprzedanych gpu zarobiło więcej ...ale po co, to jak tłuc grochem o ścianę.
Na pewno nie będą wywalać częściowo niesprawnych chipów, tylko je sprzedawać po obniżonej cenie - każdy tak robi. A biorąc pod uwagę stopień skomplikowania Fermiego pełnosprawne chipy z 512 rdzeniami CUDA będą przeznaczone głównie na rynek profesjonalny, zapewniający producentowi znacznie większe zyski od egzemplarza.
.
Niby to było by racjonalne podejście, aby w pełni sprawne układy leciały na rynek profesjonalny, ale nvidia podała już specyfikację tesli i wynika z niej, że układ będzie miał mniej jednostek.
A co do dalszej części wypowiedzi, to wystarczy się odwołać do mojego posta #231,
który chyba jest ponadczasowy i będzie pasował na każdą Twoją odpowiedź.
Nie dość, że jesteś ciężkim przypadkiem fanboystwa, to na dodatek jeszcze cierpisz na megalomanię.
Czy mam coś interesującego do dodania o prawdopodobnej powierzchni Fermi (570 mm2)?
Zdaje się, że twierdziłeś, iż będzie duużo mniejszy.
2. Tak tak, a w momencie wersja serii hd4k radeon hd4850 kosztował 500zł przy ~800 9800GTX
3. 512MB vs 1GB...i różnice kilku procent, przeciwko półrocznemu dziadkowi referentowi wystawiono 4 wersję tego samego (8800GTS->9800GTX->9800GTX+->GTS250) gdzie w końcu udało się ograniczyć zużycie energii...a cena, nawet wtedy zabójcza, haha!
4. Jakbyś się nie trudził, nie przekonasz mnie, że GF9600GT kosztujący w okolicach kwietnia 2009r. jakieś 350zł jeśli nie więcej ma lepsze perf./watt albo perf/$ od 100zł tańszego szafirka hd4670.
Chcesz się odwołać do obecnej sytuacji? Gdy każdy wyprzedaje nie produkowane już sprzęty na tyle drogo na ile rynek pozwala? Eeee, bez przesady
A właśnie, bajerami w stylu CUDA mnie nie rozśmieszaj. GTS250 nie jest dość mocny żeby na max detalach z physx batmana uciągnąć w rozsądnej rozdzielczości, co najwyżej jako 'pomaginier' do gtx275, hueh. Gier z sprzętowym wykorzystaniem gpu do obsługi physx jest zaledwie kilka.
Aha, masz tutaj inny teścik niereferentów
http://www.tomshardware.com/reviews/geforc...on,2274-16.html
No tak, rzeczywiście, różnice fps są dla radeona miażdżące...lol.
1. Faktycznie, sterowniki świadczą na niekorzyść nVidii, bo oni osiągnęli znaczne zwiększenie wydajności, a ATI (wbrew fanbojskiej opinii) przez rok nie ruszyło się z miejsca (patrz testy sterowników na egiełdzie)
2. Ocyfiście! Próbujesz naginać fakty, ale dobrze wiesz, że były one w podobnej cenie.
3. ?
4. Mnie tam osobiście perf/$ nie interesuje, skoro jestem w Polsce. A tutaj nV górowała i góruje w stosunku wydajność/cena. I fakt, że Cię do tego nie przekonam, bo Ty masz swój cały czerwony świat, gdzie takie porządne firmy jak nV nie mają wstępu.
Nie każdy jest taki ograniczony, aby włączyć kompa, napisać bzdurnego posta na PCLabie, włączyć 3DMarka i popatrzeć na punkciki albo pograć sobie w Call of Juarez. Niektórym trudno jest docenić takie coś jak CUDA, ale nie mierz wszystkich swoją miarą. Może jeszcze ATI wyda kilkanaście kart swoich grafik i też sobie zda sprawę z korzyści przeniesienia obliczeń na GPU, i wtedy może wreszcie zrozumiesz na czym to polega
Ceny 9800GTX+ 512MB, 1GB i GT 250, to na przełomie marca i kwietnia 2009 od 650 do 850 zł. Za referenty. W tym samym czasie za 850zł można było kupić 4870. Ja wtedy kupowałem. Muszę sprawdzić cenę cholera.
4. Mnie tam osobiście perf/$ nie interesuje, skoro jestem w Polsce. A tutaj nV górowała i góruje w stosunku wydajność/cena.
eee.... pogubiłem się... w jaki sposób wydajność do ceny w złotówkach jest różna od tej wyrażonej w dolarach?
Większej bzdury nie słyszałem, żeby HD4850 KIEDYKOLWIEK kosztowało oficjalnie 850zł...a tyle właśnie widnieje na ostatniej stronie wklejonego PRZEZ CIEBIE testu - oczywiście w odniesieniu do GTS250. Żeby było śmieszniej, GTS startował 100-150zł wyżej od 9800GTX+ (na tym samym układzie i z podobnym taktowaniem). Nie mydl tu nikomu oczu, bo kto obserwuje ceny kart przez dłuższy okres wie, że nie tak całkiem dawno dopiero nV dojechała do odpowiedników wydajnościowych AMD.
Zgadza się, sam kupowałem 4850 we wrześniu 2008, zapłaciłem ok. 510 zł za niereferenta od Szafira, gdy refy zaczynały się od 450zł, to było jakieś 50 zł dopłaty względem 8800GT. GTX+ to była kwestia ~750zł wówczas. Prawda jest taka, że przez 48xx nV musiała ostro zjechać z cenami do tego stopnia, że część kart stała się niezbyt opłacalna w produkcji.
Jedyną opinią fanboyską to jest twoja. A testy na egiełdzie? A ileż one modeli kart obejmują i ile wersji sterowników? Ile gier? Ahhh...nie zawsze jednak rzeczywiście konkretnie widać chłopaki do każdego zadania podchodzą.
Większej bzdury nie słyszałem, żeby HD4850 KIEDYKOLWIEK kosztowało oficjalnie 850zł...a tyle właśnie widnieje na ostatniej stronie wklejonego PRZEZ CIEBIE testu - oczywiście w odniesieniu do GTS250. Żeby było śmieszniej, GTS startował 100-150zł wyżej od 9800GTX+ (na tym samym układzie i z podobnym taktowaniem). Nie mydl tu nikomu oczu, bo kto obserwuje ceny kart przez dłuższy okres wie, że nie tak całkiem dawno dopiero nV dojechała do odpowiedników wydajnościowych AMD.
Bzdura, miewałem też i nV...i miałem mieć 9600GSO, ale wyszedł 4670 którego w wersji bulk złapałem za 270zł z przesyłką, gdy GSO były za 300+, zły interes? Absolutnie nie. Jak znowu będę zmieniał kartę to nadal będę kierował się wydajność/cena - wygra nv to kupię nv - proste i logiczne, dla każdego rozsądnego człowieka...ale nie Ciebie - bo nie jesteś rozsądny.
Wielu ludziom jest łatwo przecenić takie rzeczy jak CUDA, ale nie mierz wszystkich swoją miarą. Obliczenia GPU już mają ładne parę lat i to ATI startowało w tym pierwsze. CUDA CUDA, a EWSA, COLLATZ, IGRARGPU mające wersje dla nv i wersje dla amd działają lepiej na amd. Proste i tanie. I Tianhe-1 też korzysta z RV770 a nie GT200...
2. Tak tak, a w momencie wersja serii hd4k radeon hd4850 kosztował 500zł przy ~800 9800GTX
3. 512MB vs 1GB...i różnice kilku procent, przeciwko półrocznemu dziadkowi referentowi wystawiono 4 wersję tego samego (8800GTS->9800GTX->9800GTX+->GTS250) gdzie w końcu udało się ograniczyć zużycie energii...a cena, nawet wtedy zabójcza, haha!
4. Jakbyś się nie trudził, nie przekonasz mnie, że GF9600GT kosztujący w okolicach kwietnia 2009r. jakieś 350zł jeśli nie więcej ma lepsze perf./watt albo perf/$ od 100zł tańszego szafirka hd4670.
Chcesz się odwołać do obecnej sytuacji? Gdy każdy wyprzedaje nie produkowane już sprzęty na tyle drogo na ile rynek pozwala? Eeee, bez przesady
A właśnie, bajerami w stylu CUDA mnie nie rozśmieszaj. GTS250 nie jest dość mocny żeby na max detalach z physx batmana uciągnąć w rozsądnej rozdzielczości, co najwyżej jako 'pomaginier' do gtx275, hueh. Gier z sprzętowym wykorzystaniem gpu do obsługi physx jest zaledwie kilka.
Aha, masz tutaj inny teścik niereferentów
http://www.tomshardware.com/reviews/geforc...on,2274-16.html
No tak, rzeczywiście, różnice fps są dla radeona miażdżące...lol.
1. Faktycznie, sterowniki świadczą na niekorzyść nVidii, bo oni osiągnęli znaczne zwiększenie wydajności, a ATI (wbrew fanbojskiej opinii) przez rok nie ruszyło się z miejsca (patrz testy sterowników na egiełdzie)
2. Ocyfiście! Próbujesz naginać fakty, ale dobrze wiesz, że były one w podobnej cenie.
3. ?
4. Mnie tam osobiście perf/$ nie interesuje, skoro jestem w Polsce. A tutaj nV górowała i góruje w stosunku wydajność/cena. I fakt, że Cię do tego nie przekonam, bo Ty masz swój cały czerwony świat, gdzie takie porządne firmy jak nV nie mają wstępu.
Nie każdy jest taki ograniczony, aby włączyć kompa, napisać bzdurnego posta na PCLabie, włączyć 3DMarka i popatrzeć na punkciki albo pograć sobie w Call of Juarez. Niektórym trudno jest docenić takie coś jak CUDA, ale nie mierz wszystkich swoją miarą. Może jeszcze ATI wyda kilkanaście kart swoich grafik i też sobie zda sprawę z korzyści przeniesienia obliczeń na GPU, i wtedy może wreszcie zrozumiesz na czym to polega
Dziwię się, że moderatorzy w ogóle nie zablokowali możliwości pisania wypowiedzi pod tym artykułem bo potem stąd te wojny przenoszą się na forum do odpowiednich tematów wojennych.
Domyśl się dlaczego nie są zablokowane
Teraz ATI będzie 3 lata goniło tą kartę, a jak już dogonią, to się okaże, że rynek PC upadł. NVidia się uratuje, bo ma jakieś mobilne Tegry do łączenia z jonami tudzież innymi atomami
ATI - może mieć rękę w nocniku (co najwyżej!)
Przepraszam Cię? Jesteś wróźką? Widzę ze dobrą! na podstawie nic nie znaczacych benchmarków, do tego z 0 możliwością obiektywizmu, ty umiesz wywnioskować że ta generacja będzie o 100% wydajniejsza! brawo!
Jesteś żałosny jak sporo osób które wypowiada się w tematach w których nie mają pojęcia, a wydaje mi się że 100% ludzi tutaj piszących nie miało jeszcze GT100 w rekach by móc cokolwiek powiedzieć jako PEWNOŚĆ. Co innego przypuszczenia, ale Ty wielka wróżko Vymiatacz widze ze już wiesz. Gratuluje poziomu!
Ja rozumiem - lubić jakąś firmę, ba nawet kochać, ale czy takie coś zezwala na brak myślenia? Większosć komentarzy to:
nvidia wypas, skopie dupe Ati
A druga cześć:
nvidia sux, ati jest lepsze
A nie lepiej tak?
Jakk na razie zapowiada się źle/średnio/dobrze (niepotrzebne skreślić), ale poczekam aż wyjdzie, wtedy będzie można coś wiecej powiedzieć itd.
A najlepiej tak:
Chciałbym również zauważyć rzecią grupę, do której piszac ten komentarz zacząłem należeć to grupa ludzi która komentuje inne komentarze i również pisze nic nie wnoszace komentarze mówiace o poziomie, o tym ze ludzie to fanboye, o tym by pcozekać na kartę itd.
A wiecie ile tutaj jest komentarzy coś wnoszacych pod tym newsem?
może 3-4, na pewno jeden czy dwa dające linki do innych stron z wiekszą liczbą obrazków, oraz kilka ciekawych analiz i tyle. A komentarzy jest już ponad 250, a mój będzie kolejnym nic nie wnoszacym komentarzem wkurzonego czytelnika bredni w komentarzach.
Dorośnijcie w końcu.
Dziwię się, że moderatorzy w ogóle nie zablokowali możliwości pisania wypowiedzi pod tym artykułem bo potem stąd te wojny przenoszą się na forum do odpowiednich tematów wojennych.
Teraz ATI będzie 3 lata goniło tą kartę, a jak już dogonią, to się okaże, że rynek PC upadł. NVidia się uratuje, bo ma jakieś mobilne Tegry do łączenia z jonami tudzież innymi atomami
ATI - może mieć rękę w nocniku (co najwyżej!)
4850 vs gts250: http://pclab.pl/art35740-6.html
NVIDIA wygrywa prawie we wszystkim (nie licząc benchmarków), oferuje wiele dodatków (PhysX, CUDA, dobre stery) + pobiera mniej energii (w spoczynku 2W więcej, czyli różnica praktycznie żadna, ale pod obciążeniem znacznie mniej)
4670 vs 9600 - fakt, tutaj Radeon jest bardziej energooszczędny, ale jest też słabszy. A o wskaźniku, o którym mówiłem (wydajność/cena) nVidia wygrywa bezapelacyjnie, nawet w podanych przez Ciebie przykładach.
1. Mamy catalyst 9.12 a niebawem pewnie 10.1 - testy były na 9.1 i 9.2 (i były różnice)
2. Tak tak, a w momencie wersja serii hd4k radeon hd4850 kosztował 500zł przy ~800 9800GTX
3. 512MB vs 1GB...i różnice kilku procent, przeciwko półrocznemu dziadkowi referentowi wystawiono 4 wersję tego samego (8800GTS->9800GTX->9800GTX+->GTS250) gdzie w końcu udało się ograniczyć zużycie energii...a cena, nawet wtedy zabójcza, haha!
4. Jakbyś się nie trudził, nie przekonasz mnie, że GF9600GT kosztujący w okolicach kwietnia 2009r. jakieś 350zł jeśli nie więcej ma lepsze perf./watt albo perf/$ od 100zł tańszego szafirka hd4670.
Chcesz się odwołać do obecnej sytuacji? Gdy każdy wyprzedaje nie produkowane już sprzęty na tyle drogo na ile rynek pozwala? Eeee, bez przesady
A właśnie, bajerami w stylu CUDA mnie nie rozśmieszaj. GTS250 nie jest dość mocny żeby na max detalach z physx batmana uciągnąć w rozsądnej rozdzielczości, co najwyżej jako 'pomaginier' do gtx275, hueh. Gier z sprzętowym wykorzystaniem gpu do obsługi physx jest zaledwie kilka.
Aha, masz tutaj inny teścik niereferentów
http://www.tomshardware.com/reviews/geforc...on,2274-16.html
No tak, rzeczywiście, różnice fps są dla radeona miażdżące...lol.
A co do tematu, to GF100 nie ma racji bytu... będzie niesamowicie drogi i do rynku kart graficznych nie wniesie niczego szczególnego, po za tym, że będzie szumnie zapowiadany boom na karty ATI, bo w tej chwili to najodpowiedniejsza propozycja...
Już sobie wyobrażam te 1kW zasilacze, aby to uciągnęły
Ja powiem tak:
Kupuje to na co mnie stać, i to co jest najlepsze w interesującym mnie przedziale cenowy... koniec kropka krótka piłka. A z Fermim to, będzie ciężko bo karta może być nie opłacalna ;/
Ale jak ktoś już wcześniej napisał, pożyjemy zobaczymy...
Carpe Diem <--To dla was chłopaki :* idźcie pograć z kumplami w karty albo w Scrable a nie przed kompem 24H
' I tutaj widać Wasze krótkie myślenie, bo w raz z premierą ma wyjść także tańsza odmiana (GTX360?), na początku pewnie będzie oferowana w cenie mniej więcej Radeona HD5870, bo popyt na nią zapewne będzie ogromny i inaczej nie wyrobią z produkcją, ale na wakacjach już na pewno osiągnie normalny pułap 700-800zł'
Lol, czy ty widzisz co piszesz? oczywiście bardzo bym chciał żeby gt360 kosztował tyle, to byłaby prawdziwa rewolucja, bo 5870 musiałby kosztować ze 100 mniej od niej, a gtx285 jeszcze drugą stówe
Naprawdę nie wiem co w tym dziwnego, że średnia półka kosztuje początkowo ~1400zł i później spada w cenie o jakieś 40%?
Ale spójrzmy na to co napisałeś:
4850 vs gts250: http://pclab.pl/art35740-6.html
NVIDIA wygrywa prawie we wszystkim (nie licząc benchmarków), oferuje wiele dodatków (PhysX, CUDA, dobre stery) + pobiera mniej energii (w spoczynku 2W więcej, czyli różnica praktycznie żadna, ale pod obciążeniem znacznie mniej)
4670 vs 9600 - fakt, tutaj Radeon jest bardziej energooszczędny, ale jest też słabszy. A o wskaźniku, o którym mówiłem (wydajność/cena) nVidia wygrywa bezapelacyjnie, nawet w podanych przez Ciebie przykładach.
To proszę przytoczyć moją wypowiedź, gdzie tak mówiłem. Pan mnie z kimś pomylił.
Ludzie obecne układy ati i nv sa tak mocnymi Gpu że jeszcze sporo czasu upłynie kiedy trzeba będzie je wymienić a raczej kiedy rynek gier je dogoni , a rynek gier jest tak daleko z tyłu za tymi Gpu ,że tak na prawde obecnie to jest sztuka dla sztuki
Fermi ~3mld tranzystorów (a ponoć więcej), z prostej proporcji którą chyba KAŻDY w szkole miał (ci po gimnazjum) to blisko 600mm2. 570mm2 nie jest zatem niczym WYOLBRZYMIONYM, a raczej właśnie stanowi o dopracowaniu nowego wymiaru technologicznego przez nV. Wzorując się na upakowaniu tranzystorów w mniejszym GT220 również wychodzi ~570mm2. Co z tego wynika? Ano nic wielkiego, tylko że z 300mm wafla można uzyskać 124 GF100 albo 214 Cypressów. Oczywiście to jest teoretyczne max. ale jest ich oczywiście mniej ze względu na choćby geometrię (dzielenie koła na prostokąty) czy zanieczyszczenia. I tak realnie GF100 jest w produkcji ze 2x droższy od Cypressa. Sam GPU, nie karta oczywiście, ale producenci GPU zarabiają na sprzedanych GPU. Jeśli tego nie wiedziałeś to teraz wiesz.
Mógłbym teraz udowodnić Ci że mimo dominującej przewagi rynkowej nvidii to AMD na sprzedanych gpu zarobiło więcej ...ale po co, to jak tłuc grochem o ścianę.
.
A co do dalszej części wypowiedzi, to wystarczy się odwołać do mojego posta #231,
który chyba jest ponadczasowy i będzie pasował na każdą Twoją odpowiedź.
Nie dość, że jesteś ciężkim przypadkiem fanboystwa, to na dodatek jeszcze cierpisz na megalomanię.
Czy mam coś interesującego do dodania o prawdopodobnej powierzchni Fermi (570 mm2)?
Zdaje się, że twierdziłeś, iż będzie duużo mniejszy.