Śmieszy mnie tylko rozumowanie w komentarzach
Wasza pralka bierze więcej prądu przy paru praniach niż FX przez cały miesiąc. Nie wspomnę o czajniku elektrycznym. No a jak żona/narzeczona/dziewczyna prasuje lub suszy włosy... Heh Zlitujcie się i pomyślcie
200W codziennie w skali roku przy codzienności to może w przeliczeniu parę złotych Ale jeśli tak liczycie to nie używajcie czajników elektrycznych, suszarek, zmywarek, pralek, opiekaczy, tosterów, frytkownic, piekarników elektrycznych, żelazek i wielu innych urządzeń niezbędnych wam do wygodnego życia.
200W przy założeniu, że komp działa 8H na dobę daje nam: 30zł/mies.
jat to pomnożyć razy 12 miesięcy 378zł rocznie.
Co do rachunków mieszkam w kilkupoziomowym domu, mam kilka TV, Pralkę, Czajnik, 2 suszarki, prostownicę (2 kobiety w domu) i za prąd płacę 180-200zł mies.
Do tego liczę BTC kompy biorą 1KW i za to płacę 350zł/mies.
Razem 550zł/mies. O tym jak ciężko odprowadzić te 1000W z pokoju w upalne dni nie będę wspominać. Pokuj zdatny do zamieszkania w godzinach 22:00-7:00
Podsumowując jak ktoś siedzi dużo przy kompie każdy wat zaczyna się przekładać na rachunek za prąd.
Ale po co to liczysz w ten sposób. Taka różnica była w jednym teście i po OC bardzo dużym. Ja bym FX w ogóle nie podkręcał bo jak widać co się dzieje. Na stocku wcale nie jest źle. Ale i tak bym go nie kupił.
Ke ??
Co do poboru to chciałbym wiedzieć jak szanowna redakcja bierze się za max obciążenie. Czy to max realne czy max OCCT/prime czy coś w tym stylu. Plus prąd nie jest aż tak drogi. Różnica między i5 a FX w ciągu roku to max 100 zł. A co do wydajności to zobacz jeszcze wykresy bo chyba inne rzeczy widzimy. Ja nie widzę więcej niż 20 % różnicy.
Co do 20-procentowej różnicy wystarczy wskazać Photoshopa, o grach nie trzeba wspominać.
To tak tylko w ramach poprawnego przeliczania procentów i wyjawienia metod poboru energii.
No dobra super ale co Ci dają te 'Testy Photoshopa'. Praca w Photoshopie wg Ciebie polega na waleniu filtrami w gotowy obrazek? Ja bym w ogóle wyrzucił te testy bo nic nie udowadniają. W codziennej pracy używa się takich opcji może raz dziennie,
Masakra ten FX. Nie dość, że przegrywa z I5 750 to jeszcze stockowy żre więcej prądu niż mi 2500k@4.9Ghz przy 1.52V Teraz z GTX'em 590 po lekkim OC mam dosłownie na styk (Be Quiet Straightpower E6 650W) a z tym fxem, nie dość, że miałbym wydajność gorszą niż na powiedzmy GTX'ie 580 i tym 2500k@4.9ghz (a może nawet i stockowym) to jeszcze żarło by mi to więcej prądu. Zatem chciałbym Was spytać, na ch.. mi ten fx, bo nawet do profesjonalnych zastosowań dla grafików i programistów się średnio nadaje. Piszecie niektórzy, że cena o 200zł niższa niż obecna była by atrakcyjna. Guzik prawda. Za 200zł niżej macie I5 750, który nadal jest szybszy od tego fx'a. Do tego i tak po OC na 4Ghz przy 1.4V i tak by ciągnął mniej prądu niż ten FX po OC na 4.7Ghz Ten proc byłby dobry powiedzmy za 280-300zł za nówkę. O, to była by idealna cena, ale ludzie, nie 640zł. Żeby nie było, że wychodzę na fanboya to powiem, że kosztujący 500zł sześciordzeniowy Phenom II jest znacznie lepszym wyborem. Co do pozostałych procków intela to też jest bardzo średnio. I5 750@4Ghz nadal będzie szybszy niż SB 2400 po maksymalnym możliwym OC, a IB 3450 z kolei jest w cenie używek 2500K, które je dosłownie deklasują i to w stocku.
Mogliście się trochę bardziej przyłożyć do kręcenia tego FX'a a nie tylko zwiększyć mnożnik, bo wiadomo, że przynosi to najmniejsze efekty. O kant dupy takie testy.
Dla mnie niesamowity jest skok wydajności architektury jaki się ostatnio dokonał. Owszem CPU każdej kolejnej generacji były wydajniejsze od poprzedniej, ale bez jakiegoś tam szału. Pentium MMX nad Pentium, zegar w zegar był niemal tak samo wydajny, jedynie aplikacje które potrafiły wykorzystać MMX zyskiwały zauważalną przewagę. Pentium II lekko przyspieszył, ale głównie dzięki znacznie szybszej pamiech cashe taktowanej połową zegara CPU, a nie częstotliwością magistrali FSB, jak było to za czasów CPU na socket 7 i wcześniejszych.To samo Penium II i Pentium III. Zegar w zegar następca miał 1-2% przewagi nad poprzednikiem. Owszem posiadal instrukcje SSE i tak jak w przypadku Pentium MMX, jesli coś potrafiło z tego skorzystać, to przyspieszało nieco bardziej. O Pentium 4 szkoda wogóle gadać. Pierwszy raz w historii wydajność w przeliczeniu na MHz spadła. Dośc wspomnieć że pierwsze Pentium IV 1,5 GHz miały wydajność zbliżoną do Pentium III 1 GHz.
Prawdziwy, nimal rewolucyjny skok nastąpił przy wprowadzeniu Core2Duo. Niesamowite wręcz przyspieszenie względem poprzednika. Gdy wydawało się że AMD się odbuduje prezentując Phenoma i wkrótce Phenoma II, Intel pokazal Core i7 które znów dołożylo kilkanaście procent więcej wydajności zegar w zegar względem poprzednika. Każda kolejna rewizja Core i7, o której Intel mówi że ma 'kosmetyczne poprawki' dokłada kolejne 3-7% sprawności. Takich przyspieszeń nigdy w historii CPU nie było.
Jak mnie pamięć nie myli to w i7 nie było tak prostej sprawy. Wydajność na MHz spadła, ale procesor był lepszy dzięki turbo i HT.
Tak czy siak SB dołożył dwie cegiełki, a IB postawiło kropkę nad 'i'.
Natomiast Phenom II to był spory progres gdyby zegary miał 20-30% większe od nehalem-a byłby lepszy i tak było, bo pierwsze rewizje Nehalema były potwornie żarłoczne na energię i grzały się zwłaszcza po OC. Dopiero D0 był gwarantem tego co stało się łatką w nehalemach.
FX to krok wstecz. Wydajność wątku spadła znacząco, ale za to mamy 8 rdzeniowe CPU, który skaluje się na poziomie 80%<.... (dobrze rozproszonych obliczeniach wydajność rośnie 6-7x względem 1 wątku). Gdyby wydajność wątku była 20% większa byłby sukces.
Tylko zwrócić trzeba uwagę, że Intel bardzo odchudził procesory. Tymczasem dopakowany Phenom II przeniesiony do 32nm byłby raczej sporo większy od buldka. Buldek ma bardzo mały rdzeń.
Od kiedy zużycie prądu przekłada się bezpośrednio na ilość wydzielanej temperatury? Przekłada się oczywiście, ale... W ogóle... Nie rozumiem!
To totalne pomylenie zużycia energii z ilością wydzielanego ciepła.
Dla mnie niesamowity jest skok wydajności architektury jaki się ostatnio dokonał. Owszem CPU każdej kolejnej generacji były wydajniejsze od poprzedniej, ale bez jakiegoś tam szału. Pentium MMX nad Pentium, zegar w zegar był niemal tak samo wydajny, jedynie aplikacje które potrafiły wykorzystać MMX zyskiwały zauważalną przewagę. Pentium II lekko przyspieszył, ale głównie dzięki znacznie szybszej pamiech cashe taktowanej połową zegara CPU, a nie częstotliwością magistrali FSB, jak było to za czasów CPU na socket 7 i wcześniejszych.To samo Penium II i Pentium III. Zegar w zegar następca miał 1-2% przewagi nad poprzednikiem. Owszem posiadal instrukcje SSE i tak jak w przypadku Pentium MMX, jesli coś potrafiło z tego skorzystać, to przyspieszało nieco bardziej. O Pentium 4 szkoda wogóle gadać. Pierwszy raz w historii wydajność w przeliczeniu na MHz spadła. Dośc wspomnieć że pierwsze Pentium IV 1,5 GHz miały wydajność zbliżoną do Pentium III 1 GHz.
Prawdziwy, nimal rewolucyjny skok nastąpił przy wprowadzeniu Core2Duo. Niesamowite wręcz przyspieszenie względem poprzednika. Gdy wydawało się że AMD się odbuduje prezentując Phenoma i wkrótce Phenoma II, Intel pokazal Core i7 które znów dołożylo kilkanaście procent więcej wydajności zegar w zegar względem poprzednika. Każda kolejna rewizja Core i7, o której Intel mówi że ma 'kosmetyczne poprawki' dokłada kolejne 3-7% sprawności. Takich przyspieszeń nigdy w historii CPU nie było.
zastanawia mnie tylko co byście zrobili gdyby ktos wam kazał zbudować VW golfa dajac wam budżet który wystarczył by na zaprojektowanie co najwyżej hulajnogi??
Ojej, biedne AMD. A popatrz, kiedyś potrafili stworzyć Athlona 64, mimo, że budżet pewnie wcale nie był większy. A teraz takie buble.
Majac budzet pozwalajacy na zaprojektowanie hulajnogi nikt rozsadny nie zabiera sie za projektowanie golfa. Niech kazdy zajmuje sie tym co umie najlepiej w miare swoich mozliwosci. Skoro nie umiem zaprojektowac skutera, to za to sie nie zabieram.
@mlodybe - no to też nikt nie porównuje porshe do malucha. I choć w tej samej cenie Fiat czy Skoda oferują zazwyczaj więcej niż BMW czy Mercedes to nie sposób zaprzeczyć faktom, że top BMW jednak deklasuje top FIAT
zastanawia mnie tylko co byście zrobili gdyby ktos wam kazał zbudować VW golfa dajac wam budżet który wystarczył by na zaprojektowanie co najwyżej hulajnogi??
To by wyjasniało sytuacje choć jesli już podawać maksymalne zużycie energii przez cały komputer to powinno się wybrać test który bardzo mocno obciąża cały zestaw tym bardziej, że podany wynik dotyczy całego zestawu a nie samego procesora. Byłoby mniej nieporozumień.
Zwyczajny amatorze, to był test procesora i obciążyli procesor. PROCESOR.
Zmierzyliśmy, ile energii pobiera cała platforma testowa. Pobór energii był mierzony w drugim przejściu kodowania wideo w x264, w trakcie odtwarzania filmu HD w Windows Media Playerze oraz w stanie spoczynku – po 10 minutach wyświetlania pulpitu.
Chyba, że chciałbyś zobaczyć okolice 500W zestawu z AMD, to wystarczy obciążyć jeszcze Radeona.
Jeśli testuje się komputer na maksymalne zużycie energii to trzeba wybrać taki test który wyciska siódme poty i obciąża maksymalnie wszystkie najwazniejsze elementy (głównie procesor i gpu). Inaczej jest to zwyczajna amatorka.
@up
190W? To chyba niemożliwe. Jeszcze może w OCCT, ale w Crysis. Przecież to dość energooszczędne komponenty.
Co do testu poboru prądu. Możesz wypalać GPU tak, że nie obciążasz CPU, a jedynie GPU. W tym wypadku te 290W to z okolice <200W to sama karta graficzna.
i wtedy za niską cene masz dobry sprzęt do gier czyt 344zł na dzień dzisiejszy
i5 owszem wydajniejsze w grach ale cena to już ponad 700zł
Biorąc pod uwage cena/wydajność amd wygrywa bezapelacyjnie i do tego można go ładnie podkręcić co jeszcze bardziej powiększa różnice o której mówie.
Dla tego siedze na amd.
Wasza pralka bierze więcej prądu przy paru praniach niż FX przez cały miesiąc. Nie wspomnę o czajniku elektrycznym. No a jak żona/narzeczona/dziewczyna prasuje lub suszy włosy... Heh
200W codziennie w skali roku przy codzienności to może w przeliczeniu parę złotych
200W przy założeniu, że komp działa 8H na dobę daje nam: 30zł/mies.
jat to pomnożyć razy 12 miesięcy 378zł rocznie.
Co do rachunków mieszkam w kilkupoziomowym domu, mam kilka TV, Pralkę, Czajnik, 2 suszarki, prostownicę (2 kobiety w domu) i za prąd płacę 180-200zł mies.
Do tego liczę BTC kompy biorą 1KW i za to płacę 350zł/mies.
Razem 550zł/mies. O tym jak ciężko odprowadzić te 1000W z pokoju w upalne dni nie będę wspominać. Pokuj zdatny do zamieszkania w godzinach 22:00-7:00
Podsumowując jak ktoś siedzi dużo przy kompie każdy wat zaczyna się przekładać na rachunek za prąd.
Ale po co to liczysz w ten sposób. Taka różnica była w jednym teście i po OC bardzo dużym. Ja bym FX w ogóle nie podkręcał bo jak widać co się dzieje. Na stocku wcale nie jest źle. Ale i tak bym go nie kupił.
Ke ??
Co do poboru to chciałbym wiedzieć jak szanowna redakcja bierze się za max obciążenie. Czy to max realne czy max OCCT/prime czy coś w tym stylu. Plus prąd nie jest aż tak drogi. Różnica między i5 a FX w ciągu roku to max 100 zł. A co do wydajności to zobacz jeszcze wykresy bo chyba inne rzeczy widzimy. Ja nie widzę więcej niż 20 % różnicy.
Pobór energii podczas renderingu:
i5-2400 def: 101
i5-2400 oc: 106
i5-3450 def: 91
i5-3450 oc: 103
FX-8120 def: 211
FX-8120 oc: 380
Cywilizacja V:
i5-2400 def: 178
i5-2400 oc: 186
i5-3450 def: 175
i5-3450 oc: 187
FX-8120 def: 277
FX-8120 oc: 359
Test animacji flash-a:
i5-2400 def: 80
i5-2400 oc: 93
i5-3450 def: 79
i5-3450 oc: 92
FX-8120 def: 182
FX-8120 oc: 227
Co do 20-procentowej różnicy wystarczy wskazać Photoshopa, o grach nie trzeba wspominać.
To tak tylko w ramach poprawnego przeliczania procentów i wyjawienia metod poboru energii.
No dobra super ale co Ci dają te 'Testy Photoshopa'. Praca w Photoshopie wg Ciebie polega na waleniu filtrami w gotowy obrazek? Ja bym w ogóle wyrzucił te testy bo nic nie udowadniają. W codziennej pracy używa się takich opcji może raz dziennie,
Prawdziwy, nimal rewolucyjny skok nastąpił przy wprowadzeniu Core2Duo. Niesamowite wręcz przyspieszenie względem poprzednika. Gdy wydawało się że AMD się odbuduje prezentując Phenoma i wkrótce Phenoma II, Intel pokazal Core i7 które znów dołożylo kilkanaście procent więcej wydajności zegar w zegar względem poprzednika. Każda kolejna rewizja Core i7, o której Intel mówi że ma 'kosmetyczne poprawki' dokłada kolejne 3-7% sprawności. Takich przyspieszeń nigdy w historii CPU nie było.
Jak mnie pamięć nie myli to w i7 nie było tak prostej sprawy. Wydajność na MHz spadła, ale procesor był lepszy dzięki turbo i HT.
Tak czy siak SB dołożył dwie cegiełki, a IB postawiło kropkę nad 'i'.
Natomiast Phenom II to był spory progres gdyby zegary miał 20-30% większe od nehalem-a byłby lepszy i tak było, bo pierwsze rewizje Nehalema były potwornie żarłoczne na energię i grzały się zwłaszcza po OC. Dopiero D0 był gwarantem tego co stało się łatką w nehalemach.
FX to krok wstecz. Wydajność wątku spadła znacząco, ale za to mamy 8 rdzeniowe CPU, który skaluje się na poziomie 80%<.... (dobrze rozproszonych obliczeniach wydajność rośnie 6-7x względem 1 wątku). Gdyby wydajność wątku była 20% większa byłby sukces.
Tylko zwrócić trzeba uwagę, że Intel bardzo odchudził procesory. Tymczasem dopakowany Phenom II przeniesiony do 32nm byłby raczej sporo większy od buldka. Buldek ma bardzo mały rdzeń.
To totalne pomylenie zużycia energii z ilością wydzielanego ciepła.
Dotyczy SB
Prawdziwy, nimal rewolucyjny skok nastąpił przy wprowadzeniu Core2Duo. Niesamowite wręcz przyspieszenie względem poprzednika. Gdy wydawało się że AMD się odbuduje prezentując Phenoma i wkrótce Phenoma II, Intel pokazal Core i7 które znów dołożylo kilkanaście procent więcej wydajności zegar w zegar względem poprzednika. Każda kolejna rewizja Core i7, o której Intel mówi że ma 'kosmetyczne poprawki' dokłada kolejne 3-7% sprawności. Takich przyspieszeń nigdy w historii CPU nie było.
zastanawia mnie tylko co byście zrobili gdyby ktos wam kazał zbudować VW golfa dajac wam budżet który wystarczył by na zaprojektowanie co najwyżej hulajnogi??
Ojej, biedne AMD. A popatrz, kiedyś potrafili stworzyć Athlona 64, mimo, że budżet pewnie wcale nie był większy. A teraz takie buble.
No i wszystko się zgadza...
Wniosek taki, że GPU ciągnie więcej jak 110W... Co akurat jest prawdą.
Zestaw PClab-a z7950 ciągnie 290W czyli 100W więcej niż twój, co jak przełożysz na GPU to się zgodzi.
zastanawia mnie tylko co byście zrobili gdyby ktos wam kazał zbudować VW golfa dajac wam budżet który wystarczył by na zaprojektowanie co najwyżej hulajnogi??
Nie trzeba... wystarczy dać napięcie w okolicach 1,5 V
Chyba, że chciałbyś zobaczyć okolice 500W zestawu z AMD, to wystarczy obciążyć jeszcze Radeona.
190W? To chyba niemożliwe. Jeszcze może w OCCT, ale w Crysis. Przecież to dość energooszczędne komponenty.
Co do testu poboru prądu. Możesz wypalać GPU tak, że nie obciążasz CPU, a jedynie GPU. W tym wypadku te 290W to z okolice <200W to sama karta graficzna.