komentarze
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2010.04.08, 23:20
Virtus* @ 2010.04.08 23:14  Post: 367541
Amitoza @ 2010.04.08 22:54  Post: 367526

tutaj zapewne też GPU-Z źle odczytuje temperaturę?


A skąd wiesz, że to nie fotomontaż ?
a skąd wiesz, że wyniki fermiego w recenzjach to nie pic na wodę? Samo zdjęcie jest z recenzji. I potwierdza tylko odczyty z gpuz.


tu masz dla porównania hd5970. A skoro temperatura na tym zdjęciu nie odbiega od odczytów, to w przypadku gtx480 jest tak samo.


kto z takim zapałem tworzy te konta aby dodawać minusy? :)
AtimaniacZobacz profil
Poziom ostrzeżenia: 0%
Atimaniac2010.04.08, 23:21
-4#42
Klops
TrisenKZobacz profil
Poziom ostrzeżenia: 0%
TrisenK2010.04.08, 23:23
Recenzje na wszystkich liczących się portalach świata kontra jeden użytkownik. Hmm... komu wierzyć? :E
KrendzelZobacz profil
Poziom ostrzeżenia: 0%
Krendzel2010.04.08, 23:29
TrisenK @ 2010.04.08 23:23  Post: 367544
Recenzje na wszystkich liczących się portalach świata kontra jeden użytkownik. Hmm... komu wierzyć? :E
Nikomu ;]
HuB3RTuSZobacz profil
Poziom ostrzeżenia: 0%
HuB3RTuS2010.04.08, 23:29
10#45
podchodzę do tego newsa z nadzieją ...

... ze radki stanieją :D

choc uwazam ze architektura fermi jest bardziej przyszłosciowa niz hd5xxx
to na dziś mówie 'a na co mnie to '
AtimaniacZobacz profil
Poziom ostrzeżenia: 0%
Atimaniac2010.04.08, 23:29
Dobra nieważne ,poprostu w poście nr 1 się zakręciłem ,GTX 480 ma TDP 280 W ,ja podawałem zaś GTX 480+ zestaw.
SatyavanZobacz profil
Poziom ostrzeżenia: 0%
Satyavan2010.04.08, 23:29
Mogli by zmienić jakoś w końcu układ tych referencyjnych obudów.
ddr2.plZobacz profil
Poziom ostrzeżenia: 0%
ddr2.pl2010.04.08, 23:29
Widać że zmnieszyli VDDC 0,83 było 0,99-1V
sidebandZobacz profil
Poziom ostrzeżenia: 0%
sideband2010.04.08, 23:31
ddr2.pl @ 2010.04.08 22:16  Post: 367493
Karty testowe to były inne karty tu widać że obniżyli V i zmienili bios

Oc jest na poziomie tego co było w reckach. A nowe biosy zmieniają to:
'The new VBIOS changes the fan ramp profile to maintain lower temperatures in multi-monitor idle, when two monitors are attached to a single card.' Być może evga przyłożyła się do montażu chłodzenia(dobry docisk) lub rzeczywiście obniżyli napięcie na gpu , bo wyższe napięcie i tak nie przekładało się na lepsze oc ze względu na wysokie tempy.

RaptureZobacz profil
Poziom ostrzeżenia: 0%
Rapture2010.04.08, 23:32
-5#50
Pięknie! Karta chłodna, wydajna, zobaczymy jak ceny.
Mr_HydeZobacz profil
Poziom ostrzeżenia: 0%
Mr_Hyde2010.04.08, 23:33
Milo wiedziec :] . Osobiscie przymierzam sie do gejforsa gtx 470 ,choc moze wyskrobie troche wiecej gotowki na najlepszego dziada .
OC czy jego brak . Co za roznica jak gier dedykowanych PC jest malo ,wygladaja srednio i chodza na 3'letnich konfiguracjach ,wiec po co OC ?? :] Benchmarki ? Osobiscie ich nie uzywam .
sidebandZobacz profil
Poziom ostrzeżenia: 0%
sideband2010.04.08, 23:33
ddr2.pl @ 2010.04.08 23:29  Post: 367550
Widać że zmnieszyli VDDC 0,83 było 0,99-1V

Gdzie to widzisz , skoro nibitor nie czyta tych biosów. Chyba , że masz 480.
zsx111Zobacz profil
Poziom ostrzeżenia: 0%
zsx1112010.04.08, 23:33
Iko @ 2010.04.08 23:04  Post: 367537
zsx111 @ 2010.04.08 22:53  Post: 367524
Kilka dni po premierze NVIDIA wypuściła nowy BIOS, który miał znacznie zmniejszać temperatury i jak widać ładnie sobie z tym poradzili.
No to już chyba kończą się argumenty, które mogły przemawiać za kupnem Radeonów ...

Nawet jeżeli obniżyli temperatury to nadal są dość duże, do tego ogromny hałas i pobór prądu... no i cena nieadekwatna do oferowanych możliwości.

Jeśli temperatura faktycznie wyniesie ok. 70*C w stresie, to jest to całkiem przyzwoita wartość; dla porównania Radek Hd5870 ma temperatury w okolicach 75-82*C. Oprócz tego obniżenie napięcia powoduje spadek poboru prądu, więc tutaj też możemy dostać miłą niespodziankę. Ale wszystko okaże się w najbliższych kilku dniach, gdy portale zaktualizują swoje recenzje.

Amitoza @ 2010.04.08 23:20  Post: 367542
kto z takim zapałem tworzy te konta aby dodawać minusy? :)

Żeby dodawać minusy trzeba mieć bodajże kilka miesięcy konto (3 miesiące? nie pamiętam dokładnie)
DziubekR1Zobacz profil
Poziom ostrzeżenia: 0%
DziubekR12010.04.08, 23:33
Pokazali atrape, to moze teraz zafalszowali odczyt programow, co by uspokoic sen kupujacych te karty. NVidia stracila u mnie zaufanie i teraz jestem w stanie uwierzyc w nawet najwieksza bajke o tej firmie.
HuB3RTuSZobacz profil
Poziom ostrzeżenia: 0%
HuB3RTuS2010.04.08, 23:35
-3#55
zsx111 @ 2010.04.08 23:33  Post: 367557

Żeby dodawać minusy trzeba mieć bodajże kilka miesięcy konto (3 miesiące? nie pamiętam dokładnie)

90 dni od załozenia konta ha wiem bo jeszcze nie moge :E
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2010.04.08, 23:37
ddr2.pl @ 2010.04.08 23:29  Post: 367550
Widać że zmnieszyli VDDC 0,83 było 0,99-1V

chyba w trybie oszczędnym jest te 0,83. Czy Ty wierzysz w cuda, że nagle obniżyli napięcie o prawie 0,2V (20%!) i podkręca sie tak samo jak wcześniej na 1V?
bue2010.04.08, 23:37


moze to niektorym pomoze?
ddr2.plZobacz profil
Poziom ostrzeżenia: 0%
ddr2.pl2010.04.08, 23:42
bue @ 2010.04.08 23:37  Post: 367562


moze to niektorym pomoze?

od razu mi się to w oko rzuciło
FunnyPunchZobacz profil
Poziom ostrzeżenia: 0%
FunnyPunch2010.04.08, 23:44
-1#59
bue @ 2010.04.08 23:37  Post: 367562


moze to niektorym pomoze?


Pod warunkiem, że monitor poprawnie odczytuje napięcie. W końcu to beta. Ale jeśli tak, to nie widzę wytłumaczenia dlaczego wysyłali do recenzji tak potwornie przewoltowane układy.
sidebandZobacz profil
Poziom ostrzeżenia: 0%
sideband2010.04.08, 23:45
Amitoza @ 2010.04.08 23:37  Post: 367561
ddr2.pl @ 2010.04.08 23:29  Post: 367550
Widać że zmnieszyli VDDC 0,83 było 0,99-1V

chyba w trybie oszczędnym jest te 0,83. Czy Ty wierzysz w cuda, że nagle obniżyli napięcie o prawie 0,2V (20%!) i podkręca sie tak samo jak wcześniej na 1V?

Masz małe pojęcie to samo jest w gt200 65nm , skalowalność oc wraz z wyższym napięciem jest kiepska i oc jest niesamowicie zależne od temperatury gpu. GT200 55nm oc jest wyraźnie mniej zależne od temperatury.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.