komentarze
Papencjusz_27Zobacz profil
Poziom ostrzeżenia: 0%
Papencjusz_272008.03.18, 18:42
Witam smilies/smile.gif Ten GX2 w porównaniu do Radzia 3870 X2 jest zaledwie szybszy max 20% smilies/szczerbaty.gif
tutaj jest fajny teścik:
http://www.matbe.com/articles/lire/751/nvi...force-9800-gx2/
jedynie w Crysis GX2 miażdży 3870 X2 smilies/shocked.gif
A teraz ceny:
3870 X2 1180 zł a GX2 1880 zł
Czy naprawdę opłaca się dać 700 zł więcej za grafikę aby mieć 20% więcej wydajności w grach smilies/bigsmile.gif smilies/szczerbaty.gif
Litości smilies/wink.gif
Pozdrawiam
opalenZobacz profil
Poziom ostrzeżenia: 0%
opalen2008.03.18, 18:15
CYTAT(BioComp @ 18 Marzec 2008, 18:03) <{POST_SNAPBACK}>
No w DX9 na HIGH idzie aż się kurzy smilies/tongue.gif Ale pod DX10 na ULTRA HIGH to już są niestety problemy. Grafika jeszcze ładniejsza, ale podczas jatki GPU nie wyrabia a szybkość spada do, bo ja wiem, 10-20 FPS smilies/szczerbaty.gif Trudno wtedy tam cokolwiek "ustrzelić" smilies/tongue.gif A i podczas gry (bez jatki) czuć opóźnienie podczas ruchów myszką. Tak więc ta grafika (GF9800 GX2) jest napewno dla takich, co to chcą w DX10 popykac w takiego krysia smilies/tongue.gif Natomiast ogólnie podsumowując, to jednak wstrzymał bym się z zakupami smilies/wink.gif do naprawdę nowej technologicznie karciochy, bo tu nic nowego oprócz nazwy nie mamy - od, takie SLI dwóch GTS'ów.


poszukaj moda który odblokowuje tryb ultra high na DX9 w krizysie, jest cos takiego, sprawdzałem, działa. Tryb dx10 to pic na wode.
krzywymaxZobacz profil
Poziom ostrzeżenia: 0%
krzywymax2008.03.18, 18:07
CYTAT(KamilM @ 18 Marzec 2008, 18:03) <{POST_SNAPBACK}>
hMM, jak były mierzone temperatury GX2? Bo patrzę na guru3d.com, i tam w stresie było 77 stopni. Niezła rozbieżność.


Nawet ok. 100'C mieli na guru. Na Labie mierzono termometrem na podczerwień.
BioCompZobacz profil
Poziom ostrzeżenia: 0%
BioComp2008.03.18, 18:03
CYTAT(krzywymax @ 18 Marzec 2008, 16:58) <{POST_SNAPBACK}>
Oczywiście smilies/thumbup.gif - mało kto będzie kupował taką ekskluzywną zabawkę - tak jak Skulltrail - dla wybranych... Teraz za kartę do 900 zł. (8800GTS) pograsz we wszystko nawet w Crysisa w bardzo bobrej jakości smilies/smile.gif

No w DX9 na HIGH idzie aż się kurzy smilies/tongue.gif Ale pod DX10 na ULTRA HIGH to już są niestety problemy. Grafika jeszcze ładniejsza, ale podczas jatki GPU nie wyrabia a szybkość spada do, bo ja wiem, 10-20 FPS smilies/szczerbaty.gif Trudno wtedy tam cokolwiek "ustrzelić" smilies/tongue.gif A i podczas gry (bez jatki) czuć opóźnienie podczas ruchów myszką. Tak więc ta grafika (GF9800 GX2) jest napewno dla takich, co to chcą w DX10 popykac w takiego krysia smilies/tongue.gif Natomiast ogólnie podsumowując, to jednak wstrzymał bym się z zakupami smilies/wink.gif do naprawdę nowej technologicznie karciochy, bo tu nic nowego oprócz nazwy nie mamy - od, takie SLI dwóch GTS'ów.
KamilMZobacz profil
Poziom ostrzeżenia: 0%
KamilM2008.03.18, 18:03
hMM, jak były mierzone temperatury GX2? Bo patrzę na guru3d.com, i tam w stresie było 77 stopni. Niezła rozbieżność.
krzywymaxZobacz profil
Poziom ostrzeżenia: 0%
krzywymax2008.03.18, 17:53
CYTAT(FatAlbert @ 18 Marzec 2008, 17:48) <{POST_SNAPBACK}>
ale skąd?

od Cruciala z USiA ?

z Anglii ?


A to już pytaj się na PW Piły smilies/smile.gif
FatAlbertZobacz profil
Poziom ostrzeżenia: 0%
FatAlbert2008.03.18, 17:48
ale skąd?

od Cruciala z USiA ?

z Anglii ?
krzywymaxZobacz profil
Poziom ostrzeżenia: 0%
krzywymax2008.03.18, 17:44
CYTAT(FatAlbert @ 18 Marzec 2008, 17:43) <{POST_SNAPBACK}>
skąd macie Ballistixy ?


Pewnie dostali do testów z resztą gratów smilies/wink.gif
FatAlbertZobacz profil
Poziom ostrzeżenia: 0%
FatAlbert2008.03.18, 17:43
skąd macie Ballistixy ?
Bono[UG]Zobacz profil
Poziom ostrzeżenia: 0%
Bono[UG]2008.03.18, 17:13
Napiszcie coś więcej o ESA.
Jak z wygodą użytkowania, czy wszystko trzeba ręcznie ustawiać, czy można włączyć automata od sterowania wiatrakami.
Co udało się monitorować i kontrolować, a z czym był problem.
Tchnijcie trochę więcej ducha w ten tekst (a raczej fotorelację smilies/Up_to_something.gif ).

No i czekam na test SLI smilies/glodny.gif
krzywymaxZobacz profil
Poziom ostrzeżenia: 0%
krzywymax2008.03.18, 17:05
CYTAT(glina @ 18 Marzec 2008, 16:56) <{POST_SNAPBACK}>
Tylko ta cena............. smilies/thumbdown.gif smilies/kwasny.gif


Ale Ultry, czy GTX'y kosztowały na początku nawet ok. 2900 zł.! A GX2 już można kupić za 1900 zł. czyli za cenę już na starce taką jaką GTX miał jeszcze ok. 4-5 miesięcy temu.


CYTAT(Gobli @ 18 Marzec 2008, 16:26) <{POST_SNAPBACK}>
do narzekających na pobór prądu: czy wy chociaż wiecie, jakie rachunki za prąd wasi rodzice płacą? ja za prąd płacę sam (duży dom jednorodzinny), wypada tego 180zł miesięcznie... nie uważam, że to jakoś potwornie dużo, a komputer włączony nonstop (cały zestaw w stanie spoczynku ciągnie ~220W, pod obciążeniem około 350-370W). nie, nie zarabiam dużo.


1. Tu nie siedzą tylko ludzie, którzy z rodzicami mieszkają... smilies/Up_to_something.gif
2. To płacisz zupełnie normalnie.
3. A właściwe Twój post nie wnosi nic to tego tematu.
BioCompZobacz profil
Poziom ostrzeżenia: 0%
BioComp2008.03.18, 17:00
CYTAT(Gobli @ 18 Marzec 2008, 16:26) <{POST_SNAPBACK}>
do narzekających na pobór prądu: czy wy chociaż wiecie, jakie rachunki za prąd wasi rodzice płacą? ja za prąd płacę sam (duży dom jednorodzinny), wypada tego 180zł miesięcznie... nie uważam, że to jakoś potwornie dużo, a komputer włączony nonstop (cały zestaw w stanie spoczynku ciągnie ~220W, pod obciążeniem około 350-370W). nie, nie zarabiam dużo.

Nawet 180 zł tylko za prąd miesięcznie to sporo, nie licząc neta, wody, kablówki, gazu, telefonu i innych mediów.
EDIT:Żeby nie tworzyć nowego tematu dodam, że dla mnie takie pobory mocy to koszmar. Ja nawet nie rozumiem, dlaczego mój GTS w spoczynku zużywa 150W? Pytam się, do czego?! Do wyświetlania dwuwymiarowego pulpitu? Taki sam pulpit mogłem oglądac na 4200Ti który pobierał o wiele mniej prądu... Jeśli nie mogą zmniejszyć poboru prądu w trybie 3D, niech chociaż pokombinują coś z poborem energii w Windows - gdy nie używa się zaawansowanych funkcji grafiki trójwymiarowej - coś jak mają procesory Intela, jak się za bardzo go nie nadwyręza, to zmniejsza taktowanie i napięcie, tym samym oszczędzając prąd - a w wydajności tego się nie odczuwa, bo odbywa się to dynamicznie.
krzywymaxZobacz profil
Poziom ostrzeżenia: 0%
krzywymax2008.03.18, 16:58
CYTAT(.4nDr3 @ 18 Marzec 2008, 16:50) <{POST_SNAPBACK}>
A co konsole mają wspólnego z tym tematem..? Gdybyś nie zauważył to jest to zestaw dla entuzjastów a nie zwykłego użytkownika, nikt do gry nie potrzebuje kompa za 15.000, na kartach za 500 - 600 zł można dzisiaj pograc we wszystko...


Oczywiście smilies/thumbup.gif - mało kto będzie kupował taką ekskluzywną zabawkę - tak jak Skulltrail - dla wybranych... Teraz za kartę do 900 zł. (8800GTS) pograsz we wszystko nawet w Crysisa w bardzo bobrej jakości smilies/smile.gif
glinaZobacz profil
Poziom ostrzeżenia: 0%
glina2008.03.18, 16:56
nVidia skleciła kanapkę 9800 GX2 tak szybko niczym McDonald produkuje BigMaci i mogłoby sie wydawać, że to będzie lipa jakich mało, jednak nie taki zły ten sandłicz. Wszyscy w sieci psioczyli na tą kartę, gdyby się spotkali na ulicy, to pewnie by sie nawet pobili o to, która grafa będzie lepsza. Okazało się, że GX2 nie jest taki kapryśny jak Radek X2, a to , że czasem jest sporo szybszy to w sumie nie powinno byc zaskoczeniem - skoro pojedynczy 8800GTS jest wyraźnie szybszy od jednego HD3870, to dwa GTS-y będą przecież szybsze od pary Radków. Ameryki chyba tym stwierdzeniem nie odkryłem, ale niektórzy mogą nie wiedzieć skąd ta przewaga nowego dziecka (dużego dziecka) sie wzięła. Tylko ta cena............. smilies/thumbdown.gif smilies/kwasny.gif Ale skoro byli tacy, co rok temu kupowali Ultry i GTX-y, to teraz też na pewno ktoś to kupi i będzie cieszył sie bardzo szybką grafą.
Ciekawe jak będzie wyglądać porównanie 2x GX2 vs. 2x 3870 X2 smilies/question.gif
DeVuZobacz profil
Poziom ostrzeżenia: 0%
DeVu2008.03.18, 16:50
CYTAT(sznuRki @ 18 Marzec 2008, 15:42) <{POST_SNAPBACK}>
BioComp ma absolutna racje ! Podzielam jego zdanie smilies/smile.gif Nadchodzi czas konsol smilies/bigsmile.gif !
Co do artu to wielkie ŁAAAŁ ! Karta miecie, ale poco mi takie cos :| ??

"Niedawno pisaliśmy, że ciężki GeForce 9800 GX2 jest problematyczny dla firm produkujących komputery ze względu na ryzyko wyłamania slotu PCI Express podczas transportu systemu z taką kartą. I rzeczywiście, takie ryzyko istnieje"

LOL


A co konsole mają wspólnego z tym tematem..? Gdybyś nie zauważył to jest to zestaw dla entuzjastów a nie zwykłego użytkownika, nikt do gry nie potrzebuje kompa za 15.000, na kartach za 500 - 600 zł można dzisiaj pograc we wszystko...
Franzl LangZobacz profil
Poziom ostrzeżenia: 0%
Franzl Lang2008.03.18, 16:46
nic ciekawego, 2 x 8800U w jednym
*Konto usunięte*2008.03.18, 16:39
CYTAT(Piter (R) @ 18 Marzec 2008, 16:17) <{POST_SNAPBACK}>
Albo zrobić mariaż: HDPC + konsola + 42" smilies/smile.gif Filmy i net, gry i TV smilies/smile.gif

Raczej HTPC - 780G na mATX+3800EE+1-2GB RAM+DVDRW+HDD+Tuner+PSU+klawa+mycha+pilocik+system
Pite(R)Zobacz profil
Poziom ostrzeżenia: 0%
Pite(R)2008.03.18, 16:37
CYTAT(krzywymax @ 18 Marzec 2008, 16:33) <{POST_SNAPBACK}>
Sterowniki odgrywają bardzo dużą rolę - oraz same gry i ich optymalizacja. Czy to Radeon, czy Nvidia.

Crysis (u mnie na średnich 30FPS) vs. UT3 (u mnie max detale i 45FPS, w zadymie niżej) smilies/smile.gif A po screenach widzę, że niemal tak samo ładne smilies/smile.gif
CYTAT(opalen @ 18 Marzec 2008, 16:34) <{POST_SNAPBACK}>
no właśnie, bardzo mnie boli ze nvidia smaruje producentom zeby ich gry byly "its ment to be played ( on nvidia) "

Tak bardzo chcą tego monopolu? Niech ATI wystartuje z jakimś programem.

@down:
Ach literóweczka... zresztą HD a HT... w HD filmy są i dlatego skojarzenie smilies/wink.gif
opalenZobacz profil
Poziom ostrzeżenia: 0%
opalen2008.03.18, 16:34
CYTAT(gregorio @ 18 Marzec 2008, 16:29) <{POST_SNAPBACK}>
W wiekszosci gier karta Nvidii wygrywa, w paru przegrywa i to sporo. Ciekawe na ile te wyniki odpowiadaja rzeczywistym mozliwoscia tych kart, a na ile tzw. "bliska wspolpraca" producentow gier i sprzetu.



no właśnie, bardzo mnie boli ze nvidia smaruje producentom zeby ich gry byly "its ment to be played ( on nvidia) "



...czy można by do testów stosować jednak najnowszą gre na openGL ( quake wars) a nie jakąś starszą ? wiem ze to ten sam silnik.. ale mimo wszystko w QW jest bardzo odświeżony i zmodernizowany.



CYTAT(Piter (R) @ 18 Marzec 2008, 16:33) <{POST_SNAPBACK}>
Taaa... zaoszczędzimy... smilies/szczerbaty.gif


no cóż, jak sie kupuje mało gier to może i ps3 lepiej, ...ale im więcej sie kupuje tym, paradoksalnie, lepiej PC
...poza tym gry juz teraz zaczynają wyglądać lepiej na PC.
krzywymaxZobacz profil
Poziom ostrzeżenia: 0%
krzywymax2008.03.18, 16:33
CYTAT(gregorio @ 18 Marzec 2008, 16:29) <{POST_SNAPBACK}>
W wiekszosci gier karta Nvidii wygrywa, w paru przegrywa i to sporo. Ciekawe na ile te wyniki odpowiadaja rzeczywistym mozliwoscia tych kart, a na ile tzw. "bliska wspolpraca" producentow gier i sprzetu.


Sterowniki odgrywają bardzo dużą rolę - oraz same gry i ich optymalizacja. Czy to Radeon, czy Nvidia.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.