komentarze
p.r.Zobacz profil
Poziom ostrzeżenia: 0%
p.r.2010.03.02, 23:43
Promilus1984 @ 2010.03.02 21:19  Post: 354551

Jeśli 8 pinowy wtyk ma przenieść 150W to musi być do niego podciągnięte napięcie odpowiednio grubszym przewodem. A jak dobrze kojarzę wszystkie przewody w zasilaczach są tej samej grubości ze względu na koszty. Więc 8pin 150W kontra 6 pin 75W to dla mnie total odlot i śmiechu warte.

kable napieciowe moga byc bardzo cienkie ;p pradowe daje sie grube
prznar1Zobacz profil
Poziom ostrzeżenia: 0%
prznar12010.03.02, 23:34
.:Proxy:. @ 2010.03.02 20:20  Post: 354508
cyrix133 @ 2010.03.02 18:54  Post: 354413

to gpu dziwnie podobne do gt200 w 65nm


Czyżby się rodziły pierwsze wątpliwości do ukochanej marki ? :lol2:

Andrew2 @ 2010.03.02 18:54  Post: 354414


(...)

(...)

Szkoda że sam nie mogę dać sobie minusa.


Nie martw się, ja Ci dam :] Zasłuzyłeś :D
________________________________________

Co do samej karty to poza ta cenzurą zwraca uwagę chłodzenie. Z tego co widać zastosowano tam technologię heatpipe direct-touch na pewno znacznie poprawiające odprowadzanie ciepła. Uwagę zwraca również 2 pinowa wtyczka zasilania wentylatora... Co teraz przez to rozumieć? Jest ciepła i wymaga stałych obrotów i b.wydajnego chłodzenia ? Albo chłodzenie jest tak wydajne ze wentylator może chodzić na stałych niewielkich obrotach a karta pozostanie chłodna... Ciekawe jak to w rzeczywistości jest ? :)

zasilacze też mają dwupinowce a jednak mają kontrolowane obroty wentylatora. także to raczej nie to o czym myślałeś. choć przy takim toku rozumowania było by 50/50 cicho głośno. :E
McMenelZobacz profil
Poziom ostrzeżenia: 0%
McMenel2010.03.02, 23:29
pawełpclab @ 2010.03.02 22:50  Post: 354589



Co do kosztów to TSMC daje klientom wybór albo kupują tylko sprawne chipy po wyższych cenach, albo kupują całe wafle po 5000$ i co sprawne to ich. AMD wybrało pierwsza opcję, Nvidia drugą. Właśnie dlatego AMD mogło wprowadzić wcześniej układy 40nm ale teraz nadal płaca taka samą cenę jak w sierpniu 2009.
Nvidia musiała czekać aż proces 40nm będzie dopracowany tak by uzysk zapewniał opłacalność. Tak więc nie można przesądzić który układ jest droższy dla producenta.


Ok ale weź pod uwagę to iż realnie to i tak taka sama liczba kości wyjdzie. Jedynie kontrola jest przeniesiona na ATI. Plus sama wielkość chipu decyduje o uzysku z wafla. Wiadomo wafel ma stałe wymiary teraz należy na nim umieścić układ i go wytworzyć. ATI ma tu nieco więcej do powiedzenia w kwestii uzysku ponieważ ich chip jest mały w stosunku do fermi więc większe prawdopodobieństwo na to iż w wafelku będzie więcej sprawnych układów. Czysta statystyka. Plus niesprawne układy lądują jako 5830.
BlissZobacz profil
Poziom ostrzeżenia: 0%
Bliss2010.03.02, 23:22
zsx111 @ 2010.03.02 23:04  Post: 354594
1dzikikrolik @ 2010.03.02 22:43  Post: 354587
(...)


Radeon HD 5850 ma ustalony maksymalny pobór mocy na poziomie 151W, a nie jak napisałeś powyżej 200W ;)

Tfu, fakt, biję się w pierś. Maksymalne TDP podawane to 190W, a czasami na różnych serwisach pojawiają się też inne mniejsze wartości np. 150W.

Daj źródło twojej informacji. Gdzie ktoś podaje, że HD5850 ma TDP na poziomie 190W? ;)
HD5850 = 151W.
HD5870 = 188W.
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2010.03.02, 23:07
Tyle 'innych' komentarzy dawno nie było... nawet nie chciałem pisać ale...

Go go nVidia! Ile można czekać! Go go! Żeby Fermi było tak wydajne jak Radeony HD9000!!! A co! I jak najtańsze! I jak najoszczędniejsze!

To może tanio kupię HD5850 :)
zsx111Zobacz profil
Poziom ostrzeżenia: 0%
zsx1112010.03.02, 23:04
1dzikikrolik @ 2010.03.02 22:43  Post: 354587
zsx111 @ 2010.03.02 21:12  Post: 354546

Bo chodzi o to, że GTX480 w życiu nie pobierze tych 500W, nawet nie wiem jakbyś się starał. Dla porównania HD5850 potrzebuje 40A * 12V, czyli by wychodziło zgodnie z Twoimi obliczeniami: 480W; a Radek ten ma ustalony maksymalny pobór na nieco ponad 200W.


Radeon HD 5850 ma ustalony maksymalny pobór mocy na poziomie 151W, a nie jak napisałeś powyżej 200W ;)

Tfu, fakt, biję się w pierś. Maksymalne TDP podawane to 190W, a czasami na różnych serwisach pojawiają się też inne mniejsze wartości np. 150W.
pawełpclabZobacz profil
Poziom ostrzeżenia: 0%
pawełpclab2010.03.02, 22:50
McMenel @ 2010.03.02 21:54  Post: 354565
4evolution Chodzi o to iż NV nie ma nic nowego w tych segmentach gdzie ATI ma już pełną gamę produktów z serii 5xxx. Co do wielkości wszystko zależy od wydajności jeżeli będzie podobna dla 480 i 5870 to koszty produkcji 5870 będą mniejsze z powodu większego uzysku z jednego wafla. Ergo taniej i więcej kart na rynku. Tu chodzi o to aby uzyskać jak najlepszą wydajność jak najmniejszą powierzchnią ponieważ produkcja dużej liczby mniejszych układów jest efektywniejsza niż produkcja większych. Tu trzeba planować każdy układ. Naprawdę szczerze chcę aby te GF były wydajne i tanie ale wątpię aby były na tyle tanie aby stanowiły konkurencję dla oferty ATI. Tu nie ma już raczej możliwości na to aby była wielka walka cenowa.



Co do kosztów to TSMC daje klientom wybór albo kupują tylko sprawne chipy po wyższych cenach, albo kupują całe wafle po 5000$ i co sprawne to ich. AMD wybrało pierwsza opcję, Nvidia drugą. Właśnie dlatego AMD mogło wprowadzić wcześniej układy 40nm ale teraz nadal płaca taka samą cenę jak w sierpniu 2009.
Nvidia musiała czekać aż proces 40nm będzie dopracowany tak by uzysk zapewniał opłacalność. Tak więc nie można przesądzić który układ jest droższy dla producenta.
LameismynameZobacz profil
Poziom ostrzeżenia: 0%
Lameismyname2010.03.02, 22:46
Trzeba się przypatrzeć czy ten potwór nie jest 'wycięty' z czegoś starszego np. 9800GX2 czy coś :P

(kto śledzi wydarzenia to zrozumie ten żarcik)

A tak na serio to czekamy na więcej zdjęć i może coś bez cenzury :)
1dzikikrolikZobacz profil
Poziom ostrzeżenia: 0%
1dzikikrolik2010.03.02, 22:43
zsx111 @ 2010.03.02 21:12  Post: 354546

Bo chodzi o to, że GTX480 w życiu nie pobierze tych 500W, nawet nie wiem jakbyś się starał. Dla porównania HD5850 potrzebuje 40A * 12V, czyli by wychodziło zgodnie z Twoimi obliczeniami: 480W; a Radek ten ma ustalony maksymalny pobór na nieco ponad 200W.


Radeon HD 5850 ma ustalony maksymalny pobór mocy na poziomie 151W, a nie jak napisałeś powyżej 200W ;)
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842010.03.02, 22:13
Wszystkie nie są, ale głównie stosuje się 16AWG i 18AWG z tego co kojarzę, chociaż widziałem też 28AWG

Nie mówię o tych do molex mini - ale do EPS, PEG power conn, molex lub SATA są z reguły te same.
pawełpclabZobacz profil
Poziom ostrzeżenia: 0%
pawełpclab2010.03.02, 22:12
suddeath @ 2010.03.02 19:18  Post: 354448
Andrew2 @ 2010.03.02 19:07  Post: 354431
I znowu każda nie przychylna wypowiedź o produkcie i użytkownik jest nagradzany ocenami minusowymi. Coraz bardziej mam wrażenie że na tym forum nie można wypowiadać własnego zdania o produkcie gdyż ono nie może się zgadzać z jednomyślnością ogółu.


Ludzie, tu nie chodzi o nieprzychylne komentarze, tylko o idiotyczne docinki bez żadnych logicznych argumentów typu:

'WOW super karta zjada 5890 na śniadanie i nawet seria 6000 jej nie dogoni'

'Ale złom, żre kilowaty prądu i pewnie w sklepach pojawi się w 2015'

Dotyczy to obydwu stron. Coraz trudniej znaleźć tutaj jakieś ciekawe wypowiedzi godne dyskusji.

Co do karty to wiadomo że dopiero pierwsze benchamrki przeprowadzone przez jakieś niezależne serwisy wyjaśnią czy będzie warta swojej ceny.



No nie bardzo można sie z tym zgodzić. Odpowiedzi w stylu 'fake' 'kolejny kotlet' chyba podpadają pod te bezsensowne docinki o których piszesz a takie odpowiedzi mają sporo +
coo84Zobacz profil
Poziom ostrzeżenia: 0%
coo842010.03.02, 22:06
Promilus1984 @ 2010.03.02 19:19  Post: 354451

100W z 8pin. Każdy żółty kabelek to 25W (~2A).

W 8pin jak są trzy żółte kabelki to nie ma problemu; p
http://www.cooling.pl/silentiumpc-adapter-...ukt,551246.html
Krzychu1989 @ 2010.03.02 20:06  Post: 354497

Cyrix idioto jakbys czytał to to bys wiedział, nie ma apetytu na prąd, a wymagania zasilacza min 600W i minimalne natezenie 42A to dla kogo??!! Dla mikołaja?? Prosty rachunek 42*12V=504W min, co widzisz?? Oszczedności dalej??

Podają wymagania dla całego kompa+ogromny zapas, gtx280 miał 40A a sam nie zużywał połowy tego.
bumcykcyk @ 2010.03.02 20:23  Post: 354513
adrianking1991 @ 2010.03.02 20:21  Post: 354510
Tak btw - na prawdę też nie wiem, po co OBAJ producenci montują po dwie wtyczki zasilające na kartach - jedna taka wtyczka, bez problemu potrafiłaby dostarczyć i 400-500W, jeśli tylko zasilacz 'jest w stanie' - nie wiem, dla lansu, czy po co? ;S

normy ('bezpieczeństwo' ) - teoretycznie.

mnie ciekawi po kij, skoro wg innych norm 'bezpieczeństwo' to 20A na pojedynczym kablu, więc dużo więcej; o
michal-prezes1 @ 2010.03.02 21:02  Post: 354537
Zresztą pakowanie tyle kasy w karty jest nieopłacalne. Szybko stanieje, a wydajność nie będzie jakaś typu 200 % 5850.

Nigdy wydajność nie rośnie proporcjonalnie, najbardziej opłacalne są mainstreamowce, chociaż przy czystej matematyce to integry i najniższe układy wymiatają; o
adrianking1991 @ 2010.03.02 21:05  Post: 354543
Tak jeszcze ode mnie: IMO najładniejszą wizualnie karta od nVidii, i w ogóle, jaką tylko sobie przypominam, był GTX 260, ale wersja 65nm..... 65nm, ponieważ tylko ona miałą tą śliczną 'obudową górnej PCB', niestety moja 55nm 260^2 już tego niema - traci trochę uroku

Backplate był rzeczywiście ładny, potem niestety przenieśli kości pamięci na jedną stronę(a backplate miał za zadanie schłodzić te kości) i uznali że nie ma co wywalać kasy na pusto. Gtx280 też to miał, w połączeniu z rozmiarem i czarnym pcb wygląd powalał.
Promilus1984 @ 2010.03.02 21:19  Post: 354551
A jak dobrze kojarzę wszystkie przewody w zasilaczach są tej samej grubości ze względu na koszty. Więc 8pin 150W kontra 6 pin 75W to dla mnie total odlot i śmiechu warte.

Wszystkie nie są, ale głównie stosuje się 16AWG i 18AWG z tego co kojarzę, chociaż widziałem też 28AWG

A, i HEHEHE, znowu nie ma dwóch wtyczek 8pin, a enermax...: )
radoskór007Zobacz profil
Poziom ostrzeżenia: 0%
radoskór0072010.03.02, 22:06
Dobrych marketingowców mają że polecili firmie zasłonić gniazda zasilania i styki PCI-e :E
4evolutionZobacz profil
Poziom ostrzeżenia: 0%
4evolution2010.03.02, 22:05
A do własnych kwestii już się nie odniesiesz czy tylko tak chcesz zmieniać tematy za każdym razem? Co ma piernik do wiatraka? Najpierw gadasz o klapie bo w 40 nm nowy Gpu jest większy, potem że GTX 480 nie ma szans na rynku low-end, a teraz prawisz banałami, że NVIDIA nie ma nic nowego w innych segmentach. Równie dobrze możesz powiedzieć, że adres tej strony to www.pclab.pl. Do wcześniejszych głupot ma się to nijak. Fanboje z obu stron mają wspólną cechę. Najpierw obsmarowują drugą stronę, a potem gdy im się wytknie głupoty to ubierają się w szatki tych sprawiedliwych, takich obiektywnych, byle tylko nie przyznać że strzelają farmazonami.
*Konto usunięte*2010.03.02, 22:01
zasłonili gniazdo by nie bylo widac ze jest bezposrednio na 220v ;D
McMenelZobacz profil
Poziom ostrzeżenia: 0%
McMenel2010.03.02, 21:54
4evolution Chodzi o to iż NV nie ma nic nowego w tych segmentach gdzie ATI ma już pełną gamę produktów z serii 5xxx. Co do wielkości wszystko zależy od wydajności jeżeli będzie podobna dla 480 i 5870 to koszty produkcji 5870 będą mniejsze z powodu większego uzysku z jednego wafla. Ergo taniej i więcej kart na rynku. Tu chodzi o to aby uzyskać jak najlepszą wydajność jak najmniejszą powierzchnią ponieważ produkcja dużej liczby mniejszych układów jest efektywniejsza niż produkcja większych. Tu trzeba planować każdy układ. Naprawdę szczerze chcę aby te GF były wydajne i tanie ale wątpię aby były na tyle tanie aby stanowiły konkurencję dla oferty ATI. Tu nie ma już raczej możliwości na to aby była wielka walka cenowa.
4evolutionZobacz profil
Poziom ostrzeżenia: 0%
4evolution2010.03.02, 21:45
McMenel @ 2010.03.02 21:36  Post: 354559
To jest 40 nm ?? O fak... Ponoć zmniejszanie procesu technologicznego ma służyć zmniejszaniu wielkości układów. Jeżeli wyjdzie karta kanapka to będą mieli naprawdę problemy... Przecież to jest ogromne.


Wydaje mi się czy GPU HD 5870 jest większe od HD 4870? GTX 480 to nie GTX 280 żeby po zmianie wymiary był mniejszy. HD 5870 to też nie HD 4870 - i też nie jest mniejszy. Mniejsze wymiary nie są do zmniejszania powierzchni rdzeni, a od tego aby na mniejszych powierzchniach móc upakować więcej.

McMenel @ 2010.03.02 21:36  Post: 354559
Jeżeli będzie dobra to może zawojują ten 1% rynku high end ale na mid czy low nie mają co liczyć.


Wydaje mi się czy Radeon HD 5870 nie robi furory na rynku low-end? Źle się czujesz czy nie wiesz, że HD 5870 i GTX 480 nie mają być dla low-endu, a na rynek high-end?

Reszta to wróżby osoby ewidentnie nastawionej jednostronnie. Jak możesz mówić o tym czy GTX 480 będzie się źle sprzedawał? Numery w Totka też znasz? Jak się będzie sprzedawał to będzie wiadomo parę miesięcy po premierze a nie z tego że to wróżysz.
SystemZobacz profil
Poziom ostrzeżenia: 0%
System2010.03.02, 21:42
Bedzie piecyk mniam, mniam :D


scoobydoo19911Zobacz profil
Poziom ostrzeżenia: 0%
scoobydoo199112010.03.02, 21:38
akurat z dużych kart nie są największe zyski tylko z integr
McMenelZobacz profil
Poziom ostrzeżenia: 0%
McMenel2010.03.02, 21:36
To jest 40 nm ?? O fak... Ponoć zmniejszanie procesu technologicznego ma służyć zmniejszaniu wielkości układów. Jeżeli wyjdzie karta kanapka to będą mieli naprawdę problemy... Przecież to jest ogromne. W porównaniu do 5870
http://w184.wrzuta.pl/obraz/7U4gcAASH5o/radeon_hd_5870-3
Powiem to tak. Pożegnajcie się z niskimi cenami. Jeżeli układ jest taki duży to uzysk rzeczywiście będzie mały więc i karta automatycznie będzie droższa o wiele od 5870. Nie wspomnę o pierwszej partii która przez to iż słabo dostępna będzie osiągała horrendalne ceny. Szczerze nie będzie walki między NV i ATI. Przynajmniej jeżeli chodzi o cenę. To co podano te 600 $ to można między bajki włożyć. Słaby uzysk=mała ilość kart na rynku=wysoka cena karty. Ciekawe jak będzie z wydajnością . Jeżeli będzie dobra to może zawojują ten 1% rynku high end ale na mid czy low nie mają co liczyć. Zbyt dobrze obsadzone serią 5xxx a wiadomo największe zyski są właśnie na tych rynkach. High jest nastawiony na prestiż nie na przynoszenie zysków. A nie zapowiada się na to iż NV wypuści coś na te rynki. No chyba iż kotlety odgrzewane. I jeszcze raz ale bydleeeee.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.