komentarze
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2010.03.02, 19:49
-3#61
zsx111 @ 2010.03.02 19:46  Post: 354477
Amitoza @ 2010.03.02 19:34  Post: 354470
(...)
do mnie z tym bijesz? Może spalić nawet 4 zasilacze na raz... ale co mnie to obchodzi ;)

Ja tylko informuję, że skoro chcesz mieć 400-watową grzałkę to kup nowego Radka ;)

!ShadoW! @ 2010.03.02 19:38  Post: 354473
I co Gontarczyk nie podobała się wiadomość na forum że GTX480 może mieć obcięte shadery xD

According to information from board partners circles the GTX 480 could be less than 512 shaders cores exhibit.

Link:
http://translate.google.pl/translate?hl=pl...ert-944353.html
Powinieneś w ogóle przestać pisać swoje ciepłe info bo to tylko przetłumaczone teksty z zagranicy... Ciekawe że nie napiszesz jakiegoś mniej optymistycznego newsa jak z w/w linku. Płynie w Tobie zielona krew... Jedziesz po Charlim a sam masz 0 wiedzę, sam byś chciał wiedzieć tyle co on. A ty siedzisz i banujesz ludzi haha :D Jak małe dziecko

A po co pisać o kolejnych plotkach wyssanych z palca? Tym bardziej, że NVIDIA oficjalnie mówi o 512 jednostkach CUDA na swojej stronie?

No na zime przydał by sie kaloryfer, bo w mieszkaniu ciągnie chłodem. Gdybym mógł się tylko wpiąć do kontaktu sąsiadów, to rozważał bym crossfire :E
tasakZobacz profil
Poziom ostrzeżenia: 0%
tasak2010.03.02, 19:49
to tylko zdjęcia a szumu jest więjc niż nie wiem co o to chyba nv chodziło zrobić z siebie 'baranów' a potem patrzeć jak się kłcą fanboye o to że i tak gtx 480 jest najpotężniejszy choć gotowego produktu nie ma smieszni jesteście!!!!
scoobydoo19911Zobacz profil
Poziom ostrzeżenia: 0%
scoobydoo199112010.03.02, 19:54
tasak @ 2010.03.02 19:49  Post: 354484
to tylko zdjęcia a szumu jest więjc niż nie wiem co o to chyba nv chodziło zrobić z siebie 'baranów' a potem patrzeć jak się kłcą fanboye o to że i tak gtx 480 jest najpotężniejszy choć gotowego produktu nie ma smieszni jesteście!!!!

jak patrze na komentarze pod newsami to dochoodze do wniosku że komentarze takie twój dolewają oliwy do ognia
CarboniXZobacz profil
Poziom ostrzeżenia: 0%
CarboniX2010.03.02, 19:59
-6#64
Delikatny @ 2010.03.02 18:51  Post: 354409
HuB3RTuS @ 2010.03.02 18:48  Post: 354405
po cichu licząc na jakies spadki cen u konkurencji :)

Nie licz na to te kart od nv to zupełnie inny segment one będą konkurencja ale dla HD 7xxx nawet HD 6xx im nie dorównają wydajnością.


Ty głupi czy z Ełku :E
scoobydoo19911Zobacz profil
Poziom ostrzeżenia: 0%
scoobydoo199112010.03.02, 20:01
Xaradas @ 2010.03.02 19:34  Post: 354471
Ralf_BoX @ 2010.03.02 19:33  Post: 354469
coś nie tak z tymi zdjęciami, popatrzcie na te http://pclab.pl/news41194.htm
lNa tych zdjęciach otwory na wlot powietrza po pierwsze są w inną stronę ułożone, a po drugie mają większy kąt wycinka koła powyżej 180st, a tutaj poniżej 180 stopni

Może 470 i 480 się różnią PCB ??

raczej się będą różnić chociażby ze wzgledu na różne wymagania elektryczne
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2010.03.02, 20:01
-1#66
CarboniX @ 2010.03.02 19:59  Post: 354492
Delikatny @ 2010.03.02 18:51  Post: 354409
(...)

Nie licz na to te kart od nv to zupełnie inny segment one będą konkurencja ale dla HD 7xxx nawet HD 6xx im nie dorównają wydajnością.


Ty głupi czy z Ełku :E

Ja myślę, że składa meble i mylą mu się segmenty od natłoku pracy.
tasakZobacz profil
Poziom ostrzeżenia: 0%
tasak2010.03.02, 20:04
scoobydoo19911 @ 2010.03.02 19:54  Post: 354488
tasak @ 2010.03.02 19:49  Post: 354484
to tylko zdjęcia a szumu jest więjc niż nie wiem co o to chyba nv chodziło zrobić z siebie 'baranów' a potem patrzeć jak się kłcą fanboye o to że i tak gtx 480 jest najpotężniejszy choć gotowego produktu nie ma smieszni jesteście!!!!

jak patrze na komentarze pod newsami to dochoodze do wniosku że komentarze takie twój dolewają oliwy do ognia


bo jesli ktoś ma rozum to nie pisałby tych 'komentarzy' i na tym zakończę z wami dyskusję na ten temat
Krzychu1989Zobacz profil
Poziom ostrzeżenia: 0%
Krzychu19892010.03.02, 20:06
-1#68
cyrix133 @ 2010.03.02 19:03  Post: 354425
przeciez gniazda zasilania widać i sa to 8 pin + 6 pin wiec nie ma apetytu na prąd...jest oszczędność prądu i b wysoka wydajność

Cyrix idioto jakbys czytał to to bys wiedział, nie ma apetytu na prąd, a wymagania zasilacza min 600W i minimalne natezenie 42A to dla kogo??!! Dla mikołaja?? Prosty rachunek 42*12V=504W min, co widzisz?? Oszczedności dalej??
scoobydoo19911Zobacz profil
Poziom ostrzeżenia: 0%
scoobydoo199112010.03.02, 20:10
tasak @ 2010.03.02 20:04  Post: 354496
scoobydoo19911 @ 2010.03.02 19:54  Post: 354488
(...)

jak patrze na komentarze pod newsami to dochoodze do wniosku że komentarze takie twój dolewają oliwy do ognia


bo jesli ktoś ma rozum to nie pisałby tych 'komentarzy' i na tym zakończę z wami dyskusję na ten temat

rozumiem twoje podejście do tematu mnie też czasem śmiesz a nawet wkurza jak ludz kłócą o kawałek laminatu i krzemu, ale jak chcą się kłocić to i tak będą to robić nawet jakby mieli przed sobą prezydenta czy papieża. niestety my polacy jestęsmy narodem uwielbiającym się kłócić i nic tego raczej nie zmieni przynajmiej w najbliższym czasie.
zsx111Zobacz profil
Poziom ostrzeżenia: 0%
zsx1112010.03.02, 20:12
-5#70
Krzychu1989 @ 2010.03.02 20:06  Post: 354497
cyrix133 @ 2010.03.02 19:03  Post: 354425
przeciez gniazda zasilania widać i sa to 8 pin + 6 pin wiec nie ma apetytu na prąd...jest oszczędność prądu i b wysoka wydajność

Cyrix idioto jakbys czytał to to bys wiedział, nie ma apetytu na prąd, a wymagania zasilacza min 600W i minimalne natezenie 42A to dla kogo??!! Dla mikołaja?? Prosty rachunek 42*12V=504W min, co widzisz?? Oszczedności dalej??

W którymś z poprzednich newsów była o tym mowa --> przeczytaj, a później edytuj komentarz, aby się już nie ośmieszać ;)
adrianking1991Zobacz profil
Poziom ostrzeżenia: 0%
adrianking19912010.03.02, 20:14
-1#71
Tja, faktycznie 'żre kilowaty prądu' trafny argument, co najmniej jakoby wspaniała 'uber karta, od uber firmy' HD5950 nie jadła 'kilowatów prądu' - Pobór w stresie, jest mało ważny tak na prawdę - praca na 'kickdown`ie', to zaledwie jakieś parę procent ogólnego wykorzystywania PC na codzień - ważny jest pobór w IDLEu, a o tym jakby nic jesio nie wiadomo, więc 'spokój' - bez przesądzania.... ;)
A co do układu - jak ich lubię, na prawdę jak ich lubię, ale ten GPU siakoś 'bliźniaczo podobny' do GT200... ;D
I chodź, do dziś uważam nV, za firmę robiącą 'lepszy całokształt', niźli ATi, to jednak uważam, że już z czym, jak z czym, ale z Fermi przeginają - rozumiem problemy, całkiem rozumiem 'długoterminowe problemy' - ale dla czego 'muszą' mydlić oczy, że 'everything is OK', a nie powiedzieć wprost, 'mamy niewielkie problemy - premiera się obsunie'..... ;)
scoobydoo19911Zobacz profil
Poziom ostrzeżenia: 0%
scoobydoo199112010.03.02, 20:16
adrianking1991 @ 2010.03.02 20:14  Post: 354503
Tja, faktycznie 'żre kilowaty prądu' trafny argument, co najmniej jakoby wspaniała 'uber karta, od uber firmy' HD5950 nie jadła 'kilowatów prądu' - Pobór w stresie, jest mało ważny tak na prawdę - praca na 'kickdown`ie', to zaledwie jakieś parę procent ogólnego wykorzystywania PC na codzień - ważny jest pobór w IDLEu, a o tym jakby nic jesio nie wiadomo, więc 'spokój' - bez przesądzania.... ;)
A co do układu - jak ich lubię, na prawdę jak ich lubię, ale ten GPU siakoś 'bliźniaczo podobny' do GT200... ;D
I chodź, do dziś uważam nV, za firmę robiącą 'lepszy całokształt', niźli ATi, to jednak uważam, że już z czym, jak z czym, ale z Fermi przeginają - rozumiem problemy, całkiem rozumiem 'długoterminowe problemy' - ale dla czego 'muszą' mydlić oczy, że 'everything is OK', a nie powiedzieć wprost, 'mamy niewielkie problemy - premiera się obsunie'..... ;)

z tym stanem spoczynku to akurat racja
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842010.03.02, 20:18
Krzychu1989 @ 2010.03.02 20:06  Post: 354497
cyrix133 @ 2010.03.02 19:03  Post: 354425
przeciez gniazda zasilania widać i sa to 8 pin + 6 pin wiec nie ma apetytu na prąd...jest oszczędność prądu i b wysoka wydajność

Cyrix idioto jakbys czytał to to bys wiedział, nie ma apetytu na prąd, a wymagania zasilacza min 600W i minimalne natezenie 42A to dla kogo??!! Dla mikołaja?? Prosty rachunek 42*12V=504W min, co widzisz?? Oszczedności dalej??

Tak, dokładnie, dla mikołaja. Zobacz jaką zasiłkę sapphire & spółka polecają do HD4890 czy 5870 - też okolice 600W? No patrz. A zużywają karty tyle? Nie. To czego się czepiasz?
.:Proxy:.Zobacz profil
Poziom ostrzeżenia: 0%
.:Proxy:.2010.03.02, 20:20
-1#74
cyrix133 @ 2010.03.02 18:54  Post: 354413

to gpu dziwnie podobne do gt200 w 65nm


Czyżby się rodziły pierwsze wątpliwości do ukochanej marki ? :lol2:

Andrew2 @ 2010.03.02 18:54  Post: 354414


(...)

(...)

Szkoda że sam nie mogę dać sobie minusa.


Nie martw się, ja Ci dam :] Zasłuzyłeś :D
________________________________________

Co do samej karty to poza ta cenzurą zwraca uwagę chłodzenie. Z tego co widać zastosowano tam technologię heatpipe direct-touch na pewno znacznie poprawiające odprowadzanie ciepła. Uwagę zwraca również 2 pinowa wtyczka zasilania wentylatora... Co teraz przez to rozumieć? Jest ciepła i wymaga stałych obrotów i b.wydajnego chłodzenia ? Albo chłodzenie jest tak wydajne ze wentylator może chodzić na stałych niewielkich obrotach a karta pozostanie chłodna... Ciekawe jak to w rzeczywistości jest ? :)
tasakZobacz profil
Poziom ostrzeżenia: 0%
tasak2010.03.02, 20:20
scoobydoo19911 @ 2010.03.02 20:10  Post: 354499
tasak @ 2010.03.02 20:04  Post: 354496
(...)


bo jesli ktoś ma rozum to nie pisałby tych 'komentarzy' i na tym zakończę z wami dyskusję na ten temat

rozumiem twoje podejście do tematu mnie też czasem śmiesz a nawet wkurza jak ludz kłócą o kawałek laminatu i krzemu, ale jak chcą się kłocić to i tak będą to robić nawet jakby mieli przed sobą prezydenta czy papieża. niestety my polacy jestęsmy narodem uwielbiającym się kłócić i nic tego raczej nie zmieni przynajmiej w najbliższym czasie.


czasami trafi się głos rozsądku ale nie tylko polacy lubią się kłucic;)pozostaje tylko czytać i pisać książki:)
adrianking1991Zobacz profil
Poziom ostrzeżenia: 0%
adrianking19912010.03.02, 20:21
Tak btw - na prawdę też nie wiem, po co OBAJ producenci montują po dwie wtyczki zasilające na kartach - jedna taka wtyczka, bez problemu potrafiłaby dostarczyć i 400-500W, jeśli tylko zasilacz 'jest w stanie' - nie wiem, dla lansu, czy po co? ;S
draeneiZobacz profil
Poziom ostrzeżenia: 0%
draenei2010.03.02, 20:22
-2#77
Panowie, ale o czym ta rozmowa? Widzi,my tylko zdjęcia chłodzenia i mówimy od razu, że pobije HD7xxx? To tak jak mówić jaki będzie samochód wiedząc czy będą światła halogenowe czy 'normalne'.
bumcykcykZobacz profil
Poziom ostrzeżenia: 0%
bumcykcyk2010.03.02, 20:23
adrianking1991 @ 2010.03.02 20:21  Post: 354510
Tak btw - na prawdę też nie wiem, po co OBAJ producenci montują po dwie wtyczki zasilające na kartach - jedna taka wtyczka, bez problemu potrafiłaby dostarczyć i 400-500W, jeśli tylko zasilacz 'jest w stanie' - nie wiem, dla lansu, czy po co? ;S

normy ('bezpieczeństwo' ) - teoretycznie.
adrianking1991Zobacz profil
Poziom ostrzeżenia: 0%
adrianking19912010.03.02, 20:24
Co do 'wtyczki 2-pinowej od FANa': 2 pinowce też mogą mieć regulacje obrotów - brak odczytu obrotów wentylatora, nie oznacza braku kontroli napięcia na nim: miałem 9600GT, która z dwupinowej wtyczki miała kontrolę... ;)
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842010.03.02, 20:31
adrianking1991 @ 2010.03.02 20:24  Post: 354514
Co do 'wtyczki 2-pinowej od FANa': 2 pinowce też mogą mieć regulacje obrotów - brak odczytu obrotów wentylatora, nie oznacza braku kontroli napięcia na nim: miałem 9600GT, która z dwupinowej wtyczki miała kontrolę... ;)

Dokładnie - jeśli temp. wzrośnie ponad jakiś próg to po prostu kontroler PWM na płytce zwiększy wypełnienie (i wartość skuteczną napięcia zasilającego wentylator) - co przeniesie się na wyższe obroty - jeśli to będzie za mało to znów zwiększy wypełnienie - tak, aż będzie powstrzymany nadmierny wzrost temperatury. Przy ochładzaniu odpowiednio po troszku będzie wypełnienie zmniejszane ;) I odczyt obrotów jest zasadniczo w tym momencie zbędny.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.