Bo chodzi o to, że GTX480 w życiu nie pobierze tych 500W, nawet nie wiem jakbyś się starał. Dla porównania HD5850 potrzebuje 40A * 12V, czyli by wychodziło zgodnie z Twoimi obliczeniami: 480W; a Radek ten ma ustalony maksymalny pobór na nieco ponad 200W.
Radeon HD 5850 ma ustalony maksymalny pobór mocy na poziomie 151W, a nie jak napisałeś powyżej 200W
4evolution Chodzi o to iż NV nie ma nic nowego w tych segmentach gdzie ATI ma już pełną gamę produktów z serii 5xxx. Co do wielkości wszystko zależy od wydajności jeżeli będzie podobna dla 480 i 5870 to koszty produkcji 5870 będą mniejsze z powodu większego uzysku z jednego wafla. Ergo taniej i więcej kart na rynku. Tu chodzi o to aby uzyskać jak najlepszą wydajność jak najmniejszą powierzchnią ponieważ produkcja dużej liczby mniejszych układów jest efektywniejsza niż produkcja większych. Tu trzeba planować każdy układ. Naprawdę szczerze chcę aby te GF były wydajne i tanie ale wątpię aby były na tyle tanie aby stanowiły konkurencję dla oferty ATI. Tu nie ma już raczej możliwości na to aby była wielka walka cenowa.
Co do kosztów to TSMC daje klientom wybór albo kupują tylko sprawne chipy po wyższych cenach, albo kupują całe wafle po 5000$ i co sprawne to ich. AMD wybrało pierwsza opcję, Nvidia drugą. Właśnie dlatego AMD mogło wprowadzić wcześniej układy 40nm ale teraz nadal płaca taka samą cenę jak w sierpniu 2009.
Nvidia musiała czekać aż proces 40nm będzie dopracowany tak by uzysk zapewniał opłacalność. Tak więc nie można przesądzić który układ jest droższy dla producenta.
Bo chodzi o to, że GTX480 w życiu nie pobierze tych 500W, nawet nie wiem jakbyś się starał. Dla porównania HD5850 potrzebuje 40A * 12V, czyli by wychodziło zgodnie z Twoimi obliczeniami: 480W; a Radek ten ma ustalony maksymalny pobór na nieco ponad 200W.
Radeon HD 5850 ma ustalony maksymalny pobór mocy na poziomie 151W, a nie jak napisałeś powyżej 200W
Tfu, fakt, biję się w pierś. Maksymalne TDP podawane to 190W, a czasami na różnych serwisach pojawiają się też inne mniejsze wartości np. 150W.
Co do kosztów to TSMC daje klientom wybór albo kupują tylko sprawne chipy po wyższych cenach, albo kupują całe wafle po 5000$ i co sprawne to ich. AMD wybrało pierwsza opcję, Nvidia drugą. Właśnie dlatego AMD mogło wprowadzić wcześniej układy 40nm ale teraz nadal płaca taka samą cenę jak w sierpniu 2009.
Nvidia musiała czekać aż proces 40nm będzie dopracowany tak by uzysk zapewniał opłacalność. Tak więc nie można przesądzić który układ jest droższy dla producenta.
Ok ale weź pod uwagę to iż realnie to i tak taka sama liczba kości wyjdzie. Jedynie kontrola jest przeniesiona na ATI. Plus sama wielkość chipu decyduje o uzysku z wafla. Wiadomo wafel ma stałe wymiary teraz należy na nim umieścić układ i go wytworzyć. ATI ma tu nieco więcej do powiedzenia w kwestii uzysku ponieważ ich chip jest mały w stosunku do fermi więc większe prawdopodobieństwo na to iż w wafelku będzie więcej sprawnych układów. Czysta statystyka. Plus niesprawne układy lądują jako 5830.
Czyżby się rodziły pierwsze wątpliwości do ukochanej marki ?
Andrew2 @ 2010.03.02 18:54
(...)
(...)
Szkoda że sam nie mogę dać sobie minusa.
Nie martw się, ja Ci dam Zasłuzyłeś
________________________________________
Co do samej karty to poza ta cenzurą zwraca uwagę chłodzenie. Z tego co widać zastosowano tam technologię heatpipe direct-touch na pewno znacznie poprawiające odprowadzanie ciepła. Uwagę zwraca również 2 pinowa wtyczka zasilania wentylatora... Co teraz przez to rozumieć? Jest ciepła i wymaga stałych obrotów i b.wydajnego chłodzenia ? Albo chłodzenie jest tak wydajne ze wentylator może chodzić na stałych niewielkich obrotach a karta pozostanie chłodna... Ciekawe jak to w rzeczywistości jest ?
zasilacze też mają dwupinowce a jednak mają kontrolowane obroty wentylatora. także to raczej nie to o czym myślałeś. choć przy takim toku rozumowania było by 50/50 cicho głośno.
Jeśli 8 pinowy wtyk ma przenieść 150W to musi być do niego podciągnięte napięcie odpowiednio grubszym przewodem. A jak dobrze kojarzę wszystkie przewody w zasilaczach są tej samej grubości ze względu na koszty. Więc 8pin 150W kontra 6 pin 75W to dla mnie total odlot i śmiechu warte.
kable napieciowe moga byc bardzo cienkie ;p pradowe daje sie grube
Rewelacji z wydajnością pewnie nie ma - już by się czymś pochwalili - no nic Nvidia chyba będzie się musiała na stałe odzwyczaić od bycia na szczycie. Ta karta będzie oczywiście szybsza od 5870 - jednak AMD miało pół roku na przygotowanie odpowiedzi - więc pewnie 5890 lub 6870 niedługo będzie wchodzić na rynek. Zresztą czemu tu się dziwić - AMD zatrudnia łacznie ponad 3 razy więcej pracowników od Nvidii. Ze starym ATI Nvidia wygrywała jak chciała - teraz ATI to mocniejsza od nich ekipa - oprócz najlepszych w tym momencie kart, mają lepszy marketing i nie denerwują przyszłych klientów, pokazując jak bardzo głęboko ich mają. Myślę, że fanboje kupią, do tego garstka ludzi zmieniających przed wakacjami kompa, a pozostali rozsądni poczekają na odpowiedź AMD...
kamassss @ 2010.03.02 18:52
Ale kaszan
Dlaczego zasłonili gniazda zasilania? :HMM:
Pewnie są na nich jakieś HIPER tajne oznaczenia...
Rewelacji z wydajnością pewnie nie ma - już by się czymś pochwalili - no nic Nvidia chyba będzie się musiała na stałe odzwyczaić od bycia na szczycie. Ta karta będzie oczywiście szybsza od 5870 - jednak AMD miało pół roku na przygotowanie odpowiedzi - więc pewnie 5890 lub 6870 niedługo będzie wchodzić na rynek. Zresztą czemu tu się dziwić - AMD zatrudnia łacznie ponad 3 razy więcej pracowników od Nvidii. Ze starym ATI Nvidia wygrywała jak chciała - teraz ATI to mocniejsza od nich ekipa - oprócz najlepszych w tym momencie kart, mają lepszy marketing i nie denerwują przyszłych klientów, pokazując jak bardzo głęboko ich mają. Myślę, że fanboje kupią, do tego garstka ludzi zmieniających przed wakacjami kompa, a pozostali rozsądni poczekają na odpowiedź AMD...
kamassss @ 2010.03.02 18:52
Ale kaszan
Dlaczego zasłonili gniazda zasilania? :HMM:
Pewnie są na nich jakieś HIPER tajne oznaczenia...
PCI-e też ściśle tajne... No tak, przecież nikt nigdy nie widział złącza pci-e razem z kartą. Do wcześniejszych modeli kart, złącza pci-e nvidia sprzedawała oddzielnie i trzeba było sobie je samemu przylutować... To jest pewnie ta nowość
Co do kosztów to TSMC daje klientom wybór albo kupują tylko sprawne chipy po wyższych cenach, albo kupują całe wafle po 5000$ i co sprawne to ich. AMD wybrało pierwsza opcję, Nvidia drugą. Właśnie dlatego AMD mogło wprowadzić wcześniej układy 40nm ale teraz nadal płaca taka samą cenę jak w sierpniu 2009.
Nvidia musiała czekać aż proces 40nm będzie dopracowany tak by uzysk zapewniał opłacalność. Tak więc nie można przesądzić który układ jest droższy dla producenta.
Ok ale weź pod uwagę to iż realnie to i tak taka sama liczba kości wyjdzie. Jedynie kontrola jest przeniesiona na ATI. Plus sama wielkość chipu decyduje o uzysku z wafla. Wiadomo wafel ma stałe wymiary teraz należy na nim umieścić układ i go wytworzyć. ATI ma tu nieco więcej do powiedzenia w kwestii uzysku ponieważ ich chip jest mały w stosunku do fermi więc większe prawdopodobieństwo na to iż w wafelku będzie więcej sprawnych układów. Czysta statystyka. Plus niesprawne układy lądują jako 5830.
AMD kupuje tylko sprawne chipy. Kontrola poprawności leży po stronie TSMC. W opcji dostaw wybranej przez AMD to TSMC ponosi koszty ryzyka i stad wyższa cena. W tym przypadku uzysk ma znaczenie dla TSMC bo zwiększa się ich zysk.
ATI, podobnie jak nvidia nie ma nic do powiedzenia w kwestii uzysku. W przeciwieństwie do nvidii uzysk uzyskiwany w procesie 40nm TSMC nie ma wpływu na cenę chipów AMD.
'wypełnienie' w prądzie DC? ja ciebie nie rozumiem czy ty coś zmyślasz?
edit: aa, jeżeli mowisz ze w celu obniżenia RPM napiecie 12V podawane jest z 'przerwami', i regulując te przerwy reguluje obroty to by miało prawo dzialac ofkoz, ale chyba w praktyce tego sie nie stosuje(?).
Temat dla ciebie na dziś... Przetwornice impulsowe obniżające. Jest tego od groma w komputerze, od zasilacza do układów zasilających CPU, pamięci jak i GPU.
pawełpclab
To ile płaci AMD to pewnie tajemnica handlowa AMD i TSMC. Cena co do której się dogadali na pewno nie jest dla słabych uzysków. Raczej to wyglądało tak, że TSMC nie zarabiało tyle ile by chciało, ze względu na słaby uzysk. AMD ma na swoich układach dużo większą marżę i zapewne ma możliwość opuszczenia ceny. Ceny obecnie są jakie są, a wynikają z tego, że popyt na ich karty jest duży. Nie muszą obniżać ceny aby zwiększyć popyt. Nie zapowiadają się również obniżki po wydaniu Fermiego, bo wiele wskazuje na to, że będzie tych kart mało i będą drogie.
Teraz zagadka - jak są końcówki 6+2 pin (rozłączalne) do kart pci-e to te 6 pin daje 75W a kolejne 2 piny drugie tyle? Bo ogółem chyba tak do tego podchodzą producenci kart graficznych. Jeśli 8 pinowy wtyk ma przenieść 150W to musi być do niego podciągnięte napięcie odpowiednio grubszym przewodem. A jak dobrze kojarzę wszystkie przewody w zasilaczach są tej samej grubości ze względu na koszty. Więc 8pin 150W kontra 6 pin 75W to dla mnie total odlot i śmiechu warte.
-to nie 'producenci kart graficznych tak podchodzą', tylko tak zostało ustalone przez Mądre Głowy, czyli 6pin = 75W, a 8pin = 150W...
-...nie wiem czy wiesz/widziałeś, ale żeby było śmieszniej, to robiąc 8pina dodali dwa czarne, zamiast teoretycznie po 1 sztuce żółtego i czarnego = 2 x więcej amperów na kablu?
6pin:
[5][6]
[3][4]
[1][2]
1,3,5 - żółtki
2,4,6 - czarne
8pin:
[7][8]
[5][6]
[3][4]
[1][2]
1,3,5 - żółtki
2,4,6,7,8 - czarne
zagadka zrobiła sie ciekawsza?
-mimo ze nie dodali żadnego żółtka (12v) to jednak dodali, bo w 6 pinie środkowego żółtego teoretycznie nie powinno być A nie powinno, bo środkowy czarny robi za sensor podpięcia. Czyli 75W bylo liczone dla dwóch kabli wte i dwóch wewte, czyli 37.5W(3.125A)/kabel
-w 8pinie nadal są 3 żółtki, ale teraz wszystkie 3 mają za zadanie wozić prund. Czarny (1. z dwóch nowych) na skraju w szeregu z żółtymi robi teraz za sensor, że jest 8pin podłączony (a nie tylko 6pin - bo 6 pin pasuje do gniazda 8pin), sensor z 6 pina został na swoim miejscu, a drugi nowy czarny został dodany, żeby pund miał którędy wracac do domu z 'nowego' żółtego, który teraz jest a wcześniej nie teoretycznie powinno go być jak juz pisałem
Czyli w tym miejscu zwiększyli max obciążenie o 50% czyli 75W --> 112.5W
a gdzie brakujące 37.5W?
-teraz odpowiedź pół-na-pół:
a) przy max >bezpiecznym< prądzie trzeba liczyć nie tylko kable, ale też piny i materiał wtyków. Poodooobno w którymś tam roku zarządzono, ze piny mają byc lepsze i już. Tzn podniesiono max dopuszczalne ampery, lepszy materiał... Podobno, bo to całe zasilanie k.graf jest objęte jakąś niezrozumiałą tajemicą, tzn nie ma oficjalnie dostępnych specyfikacji dla zwykłego śmiertelnika. Tu by można skończyć, ale:
b) teoretycznie spokojnie bezpieczne powinno być i ~300W dla 6pin z kabli 18AWG, tzn w 999 na 1000 przypadków będzie ok. Tylko, że projektując coś takiego, trzeba najpierw poobliczać max bezpieczny prąd, potem od wyniku odjąć pewien margines bezpieczeństwa. Potem jeszcze raz margines bezpieczeństwa. I jeszcze raz...To ma działać w milionie przypadków na milion w temperaturze 80'C, przy chomiku który wyszedł z klatki i zaczął przegryzać kable.. No i jak ustalali ze 6pin ma być '75W' to dali o 1 margines za dużo. Stwierdzili ze robienie całego zamieszania z wprowadzeniem 8pina jest nie warte, jeżeli miałby dawać tylko oficjalnie 112.5W. To walneli 150W żeby było równo i już. Było 3.125A/kabel, jest 4.167A, czyli wzrost ledwie o 33%, a nie o 100% jakby sie mogło wydawać. Nadal ta wartość jest z paroma marginesami bezpieczeństwa więc nic sie nie zmieni. A w praktyce nigdy nawet sie nie zbliży do tych 4A, bo jak karta będzie potrzebować np 210W to teoretycznie starczyło by 75W ze slota + 150W z 8pina, ale ati/nvidia nigdy tak nie zrobią, bo jak faktyczny pobór W zbliża się do teoretycznego, to wrzucają juz kolejnego PEGa, czyli w tym przypadku na karcie będzie już 8pin + 6pin...
tyle...
Pojedyncze załącze ninigi typu n42 ma dopuszczalny prąd 9A, temperaturę pracy do 105C. Ustalenia ile przez jaką wtyczkę idzie jest podobnym ustaleniem, że do niedawna unijny ogórek musiał być prosty. To jaki prąd popłynie zależy od rezystancji, a tu może się trafić różnie. Ilość pinów ma raczej na celu odciążenie zasilania przez PCI-E, bo jak by się trafiło, że zasilanie na slocie będzie mieć mniejszą rezystancję, niż przez wtyczki, to slot poszedłby z dymem. Takie zasilanie przewidziane jest tyko po to, aby zdecydowana większość prądu płynęła przez wtyczki.
AMD kupuje tylko sprawne chipy. Kontrola poprawności leży po stronie TSMC. W opcji dostaw wybranej przez AMD to TSMC ponosi koszty ryzyka i stad wyższa cena. W tym przypadku uzysk ma znaczenie dla TSMC bo zwiększa się ich zysk.
ATI, podobnie jak nvidia nie ma nic do powiedzenia w kwestii uzysku. W przeciwieństwie do nvidii uzysk uzyskiwany w procesie 40nm TSMC nie ma wpływu na cenę chipów AMD.
Sam sobie przeczysz. Najpierw twierdzisz iż ATI kupuje wafle a teraz że same układy.Ależ uzysk z wafla wpływa na cenę. Lepszy uzysk więcej układów tym mniej strat produkcyjnych które trzeba zrekompensować poprzez cenę karty. Mówisz iż firmy nie mają nic do uzysku ależ mają i to bardzo dużo. to one projektują układy im większy układ tym mniejsza ilość na waflu. ATI z mniejszym układem ma lepszy uzysk z wafla niż NV z większym.
bumcykcyk - nie wiem w czym miałoby przeszkadzać 'sensorowi podpięcia' działanie środkowego czarnego jako przewód roboczy Czyli zasadniczo wg tego co piszesz już ten dostępny w zasilaczach 6 pin peg ma 150W Hueh, ale mają podkręconych inżynierów w tych komisjach. I jeszcze zwiększają moc dostarczaną przez PCI-E, a tam w gnieździe dokładnie tyle samo pinów zasilających...coś mnie się nie podoba.
No dobra, a na tym cebicie mają zamiar włożyć tą kartę do jakiegoś kompa, podłaczyć i pokazać że działa? Bo jak na razie to jakieś jaja, co mnie obchodzi jak chip wygląda, ja chcę zobaczyć jak to cudo działa.
Nie mówię o tych do molex mini - ale do EPS, PEG power conn, molex lub SATA są z reguły te same.
Bo chodzi o to, że GTX480 w życiu nie pobierze tych 500W, nawet nie wiem jakbyś się starał. Dla porównania HD5850 potrzebuje 40A * 12V, czyli by wychodziło zgodnie z Twoimi obliczeniami: 480W; a Radek ten ma ustalony maksymalny pobór na nieco ponad 200W.
Radeon HD 5850 ma ustalony maksymalny pobór mocy na poziomie 151W, a nie jak napisałeś powyżej 200W
(kto śledzi wydarzenia to zrozumie ten żarcik)
A tak na serio to czekamy na więcej zdjęć i może coś bez cenzury
Co do kosztów to TSMC daje klientom wybór albo kupują tylko sprawne chipy po wyższych cenach, albo kupują całe wafle po 5000$ i co sprawne to ich. AMD wybrało pierwsza opcję, Nvidia drugą. Właśnie dlatego AMD mogło wprowadzić wcześniej układy 40nm ale teraz nadal płaca taka samą cenę jak w sierpniu 2009.
Nvidia musiała czekać aż proces 40nm będzie dopracowany tak by uzysk zapewniał opłacalność. Tak więc nie można przesądzić który układ jest droższy dla producenta.
Bo chodzi o to, że GTX480 w życiu nie pobierze tych 500W, nawet nie wiem jakbyś się starał. Dla porównania HD5850 potrzebuje 40A * 12V, czyli by wychodziło zgodnie z Twoimi obliczeniami: 480W; a Radek ten ma ustalony maksymalny pobór na nieco ponad 200W.
Radeon HD 5850 ma ustalony maksymalny pobór mocy na poziomie 151W, a nie jak napisałeś powyżej 200W
Tfu, fakt, biję się w pierś. Maksymalne TDP podawane to 190W, a czasami na różnych serwisach pojawiają się też inne mniejsze wartości np. 150W.
Go go nVidia! Ile można czekać! Go go! Żeby Fermi było tak wydajne jak Radeony HD9000!!! A co! I jak najtańsze! I jak najoszczędniejsze!
To może tanio kupię HD5850
Radeon HD 5850 ma ustalony maksymalny pobór mocy na poziomie 151W, a nie jak napisałeś powyżej 200W
Tfu, fakt, biję się w pierś. Maksymalne TDP podawane to 190W, a czasami na różnych serwisach pojawiają się też inne mniejsze wartości np. 150W.
Daj źródło twojej informacji. Gdzie ktoś podaje, że HD5850 ma TDP na poziomie 190W?
HD5850 = 151W.
HD5870 = 188W.
Co do kosztów to TSMC daje klientom wybór albo kupują tylko sprawne chipy po wyższych cenach, albo kupują całe wafle po 5000$ i co sprawne to ich. AMD wybrało pierwsza opcję, Nvidia drugą. Właśnie dlatego AMD mogło wprowadzić wcześniej układy 40nm ale teraz nadal płaca taka samą cenę jak w sierpniu 2009.
Nvidia musiała czekać aż proces 40nm będzie dopracowany tak by uzysk zapewniał opłacalność. Tak więc nie można przesądzić który układ jest droższy dla producenta.
Ok ale weź pod uwagę to iż realnie to i tak taka sama liczba kości wyjdzie. Jedynie kontrola jest przeniesiona na ATI. Plus sama wielkość chipu decyduje o uzysku z wafla. Wiadomo wafel ma stałe wymiary teraz należy na nim umieścić układ i go wytworzyć. ATI ma tu nieco więcej do powiedzenia w kwestii uzysku ponieważ ich chip jest mały w stosunku do fermi więc większe prawdopodobieństwo na to iż w wafelku będzie więcej sprawnych układów. Czysta statystyka. Plus niesprawne układy lądują jako 5830.
to gpu dziwnie podobne do gt200 w 65nm
Czyżby się rodziły pierwsze wątpliwości do ukochanej marki ?
(...)
(...)
Szkoda że sam nie mogę dać sobie minusa.
Nie martw się, ja Ci dam
________________________________________
Co do samej karty to poza ta cenzurą zwraca uwagę chłodzenie. Z tego co widać zastosowano tam technologię heatpipe direct-touch na pewno znacznie poprawiające odprowadzanie ciepła. Uwagę zwraca również 2 pinowa wtyczka zasilania wentylatora... Co teraz przez to rozumieć? Jest ciepła i wymaga stałych obrotów i b.wydajnego chłodzenia ? Albo chłodzenie jest tak wydajne ze wentylator może chodzić na stałych niewielkich obrotach a karta pozostanie chłodna... Ciekawe jak to w rzeczywistości jest ?
zasilacze też mają dwupinowce a jednak mają kontrolowane obroty wentylatora. także to raczej nie to o czym myślałeś. choć przy takim toku rozumowania było by 50/50 cicho głośno.
Jeśli 8 pinowy wtyk ma przenieść 150W to musi być do niego podciągnięte napięcie odpowiednio grubszym przewodem. A jak dobrze kojarzę wszystkie przewody w zasilaczach są tej samej grubości ze względu na koszty. Więc 8pin 150W kontra 6 pin 75W to dla mnie total odlot i śmiechu warte.
kable napieciowe moga byc bardzo cienkie ;p pradowe daje sie grube
Dlaczego zasłonili gniazda zasilania? :HMM:
Pewnie są na nich jakieś HIPER tajne oznaczenia...
Dlaczego zasłonili gniazda zasilania? :HMM:
Pewnie są na nich jakieś HIPER tajne oznaczenia...
PCI-e też ściśle tajne... No tak, przecież nikt nigdy nie widział złącza pci-e razem z kartą. Do wcześniejszych modeli kart, złącza pci-e nvidia sprzedawała oddzielnie i trzeba było sobie je samemu przylutować... To jest pewnie ta nowość
Co do kosztów to TSMC daje klientom wybór albo kupują tylko sprawne chipy po wyższych cenach, albo kupują całe wafle po 5000$ i co sprawne to ich. AMD wybrało pierwsza opcję, Nvidia drugą. Właśnie dlatego AMD mogło wprowadzić wcześniej układy 40nm ale teraz nadal płaca taka samą cenę jak w sierpniu 2009.
Nvidia musiała czekać aż proces 40nm będzie dopracowany tak by uzysk zapewniał opłacalność. Tak więc nie można przesądzić który układ jest droższy dla producenta.
Ok ale weź pod uwagę to iż realnie to i tak taka sama liczba kości wyjdzie. Jedynie kontrola jest przeniesiona na ATI. Plus sama wielkość chipu decyduje o uzysku z wafla. Wiadomo wafel ma stałe wymiary teraz należy na nim umieścić układ i go wytworzyć. ATI ma tu nieco więcej do powiedzenia w kwestii uzysku ponieważ ich chip jest mały w stosunku do fermi więc większe prawdopodobieństwo na to iż w wafelku będzie więcej sprawnych układów. Czysta statystyka. Plus niesprawne układy lądują jako 5830.
AMD kupuje tylko sprawne chipy. Kontrola poprawności leży po stronie TSMC. W opcji dostaw wybranej przez AMD to TSMC ponosi koszty ryzyka i stad wyższa cena. W tym przypadku uzysk ma znaczenie dla TSMC bo zwiększa się ich zysk.
ATI, podobnie jak nvidia nie ma nic do powiedzenia w kwestii uzysku. W przeciwieństwie do nvidii uzysk uzyskiwany w procesie 40nm TSMC nie ma wpływu na cenę chipów AMD.
edit: aa, jeżeli mowisz ze w celu obniżenia RPM napiecie 12V podawane jest z 'przerwami', i regulując te przerwy reguluje obroty to by miało prawo dzialac ofkoz, ale chyba w praktyce tego sie nie stosuje(?).
Temat dla ciebie na dziś... Przetwornice impulsowe obniżające. Jest tego od groma w komputerze, od zasilacza do układów zasilających CPU, pamięci jak i GPU.
pawełpclab
To ile płaci AMD to pewnie tajemnica handlowa AMD i TSMC. Cena co do której się dogadali na pewno nie jest dla słabych uzysków. Raczej to wyglądało tak, że TSMC nie zarabiało tyle ile by chciało, ze względu na słaby uzysk. AMD ma na swoich układach dużo większą marżę i zapewne ma możliwość opuszczenia ceny. Ceny obecnie są jakie są, a wynikają z tego, że popyt na ich karty jest duży. Nie muszą obniżać ceny aby zwiększyć popyt. Nie zapowiadają się również obniżki po wydaniu Fermiego, bo wiele wskazuje na to, że będzie tych kart mało i będą drogie.
Teraz zagadka - jak są końcówki 6+2 pin (rozłączalne) do kart pci-e to te 6 pin daje 75W a kolejne 2 piny drugie tyle? Bo ogółem chyba tak do tego podchodzą producenci kart graficznych. Jeśli 8 pinowy wtyk ma przenieść 150W to musi być do niego podciągnięte napięcie odpowiednio grubszym przewodem. A jak dobrze kojarzę wszystkie przewody w zasilaczach są tej samej grubości ze względu na koszty. Więc 8pin 150W kontra 6 pin 75W to dla mnie total odlot i śmiechu warte.
-to nie 'producenci kart graficznych tak podchodzą', tylko tak zostało ustalone przez Mądre Głowy, czyli 6pin = 75W, a 8pin = 150W...
-...nie wiem czy wiesz/widziałeś, ale żeby było śmieszniej, to robiąc 8pina dodali dwa czarne, zamiast teoretycznie po 1 sztuce żółtego i czarnego = 2 x więcej amperów na kablu?
6pin:
[5][6]
[3][4]
[1][2]
1,3,5 - żółtki
2,4,6 - czarne
8pin:
[7][8]
[5][6]
[3][4]
[1][2]
1,3,5 - żółtki
2,4,6,7,8 - czarne
zagadka zrobiła sie ciekawsza?
-mimo ze nie dodali żadnego żółtka (12v) to jednak dodali, bo w 6 pinie środkowego żółtego teoretycznie nie powinno być
-w 8pinie nadal są 3 żółtki, ale teraz wszystkie 3 mają za zadanie wozić prund. Czarny (1. z dwóch nowych) na skraju w szeregu z żółtymi robi teraz za sensor, że jest 8pin podłączony (a nie tylko 6pin - bo 6 pin pasuje do gniazda 8pin), sensor z 6 pina został na swoim miejscu, a drugi nowy czarny został dodany, żeby pund miał którędy wracac do domu z 'nowego' żółtego, który teraz jest a wcześniej nie teoretycznie powinno go być jak juz pisałem
Czyli w tym miejscu zwiększyli max obciążenie o 50% czyli 75W --> 112.5W
a gdzie brakujące 37.5W?
-teraz odpowiedź pół-na-pół:
a) przy max >bezpiecznym< prądzie trzeba liczyć nie tylko kable, ale też piny i materiał wtyków. Poodooobno w którymś tam roku zarządzono, ze piny mają byc lepsze i już. Tzn podniesiono max dopuszczalne ampery, lepszy materiał... Podobno, bo to całe zasilanie k.graf jest objęte jakąś niezrozumiałą tajemicą, tzn nie ma oficjalnie dostępnych specyfikacji dla zwykłego śmiertelnika. Tu by można skończyć, ale:
b) teoretycznie spokojnie bezpieczne powinno być i ~300W dla 6pin z kabli 18AWG, tzn w 999 na 1000 przypadków będzie ok. Tylko, że projektując coś takiego, trzeba najpierw poobliczać max bezpieczny prąd, potem od wyniku odjąć pewien margines bezpieczeństwa. Potem jeszcze raz margines bezpieczeństwa. I jeszcze raz...To ma działać w milionie przypadków na milion w temperaturze 80'C, przy chomiku który wyszedł z klatki i zaczął przegryzać kable.. No i jak ustalali ze 6pin ma być '75W' to dali o 1 margines za dużo. Stwierdzili ze robienie całego zamieszania z wprowadzeniem 8pina jest nie warte, jeżeli miałby dawać tylko oficjalnie 112.5W. To walneli 150W żeby było równo i już. Było 3.125A/kabel, jest 4.167A, czyli wzrost ledwie o 33%, a nie o 100% jakby sie mogło wydawać. Nadal ta wartość jest z paroma marginesami bezpieczeństwa więc nic sie nie zmieni. A w praktyce nigdy nawet sie nie zbliży do tych 4A, bo jak karta będzie potrzebować np 210W to teoretycznie starczyło by 75W ze slota + 150W z 8pina, ale ati/nvidia nigdy tak nie zrobią, bo jak faktyczny pobór W zbliża się do teoretycznego, to wrzucają juz kolejnego PEGa, czyli w tym przypadku na karcie będzie już 8pin + 6pin...
tyle...
Pojedyncze załącze ninigi typu n42 ma dopuszczalny prąd 9A, temperaturę pracy do 105C. Ustalenia ile przez jaką wtyczkę idzie jest podobnym ustaleniem, że do niedawna unijny ogórek musiał być prosty. To jaki prąd popłynie zależy od rezystancji, a tu może się trafić różnie. Ilość pinów ma raczej na celu odciążenie zasilania przez PCI-E, bo jak by się trafiło, że zasilanie na slocie będzie mieć mniejszą rezystancję, niż przez wtyczki, to slot poszedłby z dymem. Takie zasilanie przewidziane jest tyko po to, aby zdecydowana większość prądu płynęła przez wtyczki.
AMD kupuje tylko sprawne chipy. Kontrola poprawności leży po stronie TSMC. W opcji dostaw wybranej przez AMD to TSMC ponosi koszty ryzyka i stad wyższa cena. W tym przypadku uzysk ma znaczenie dla TSMC bo zwiększa się ich zysk.
ATI, podobnie jak nvidia nie ma nic do powiedzenia w kwestii uzysku. W przeciwieństwie do nvidii uzysk uzyskiwany w procesie 40nm TSMC nie ma wpływu na cenę chipów AMD.
Sam sobie przeczysz. Najpierw twierdzisz iż ATI kupuje wafle a teraz że same układy.Ależ uzysk z wafla wpływa na cenę. Lepszy uzysk więcej układów tym mniej strat produkcyjnych które trzeba zrekompensować poprzez cenę karty. Mówisz iż firmy nie mają nic do uzysku ależ mają i to bardzo dużo. to one projektują układy im większy układ tym mniejsza ilość na waflu. ATI z mniejszym układem ma lepszy uzysk z wafla niż NV z większym.