komentarze
Hamil_HamsterZobacz profil
Poziom ostrzeżenia: 0%
Hamil_Hamster2013.01.10, 16:07
focus @ 2013.01.10 15:39  Post: 627836

To chcemy i na 100% dołączymy do scenariusza typowego użytkowania - o to się nie obawiaj. To właśnie pasuje do typu 'czasowego' :) Tak samo jak gry.

Gierki jednak mają tendencje do wyciskania ze sprzętu wszystkiego co może zaoferować w danej chwili, tak jak napisałeś w artykule układ wykona więcej pracy. Odtworzenie filmu to zadanie wymagające za każdym razem tej podobnej ilości obliczeń, tylko rozciągnięte w czasie. Dlatego zwróciłem na to uwagę, ale skoro ma być w kolenych artykułach to świetnie :)
OlafoZobacz profil
Poziom ostrzeżenia: 0%
Olafo2013.01.10, 15:58
-2#34
PiotreQ! @ 2013.01.10 15:41  Post: 627837
seria i7 9xx nie bedzie juz brana pod uwagę ? :(

I bardzo dobrze. Kogo interesuje platforma z której korzysta promil użytkowników? :E
RelativyZobacz profil
Poziom ostrzeżenia: 0%
Relativy2013.01.10, 15:54
Mnie bardzo interesuje temat kiedy stosunek wydajność/pobór energi jest najlepszy.
(wiem jak to dział w teorii i robiłem takie testy na radeonach 5850) ale fajnie byłoby zobaczyć to w praktyce.

Kolejna rzecz, troszkę odchodzi od tematu poboru energi. Wpływ zmiany taktowania procesora na jego wydajność. (też trochę testów na ten temat robiłem i wyniki były bardzo ciekawe).
PiotreQ!Zobacz profil
Poziom ostrzeżenia: 0%
PiotreQ!2013.01.10, 15:41
-7#32
seria i7 9xx nie bedzie juz brana pod uwagę ? :(
focusZobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjifocus2013.01.10, 15:39
Hamil_Hamster @ 2013.01.10 15:22  Post: 627827
Cieszę się widząc, że ktoś sie wziął za praktyczny aspekt zagadnienia poboru energii przez komputery, zamiast kolejnych abstrakcji.
Jednak podział na dwie kategorie - czasową i zadaniową całkowicie nie przystaje do jednak dość popularnego zastosowania komputerów jakim jest oglądanie filmów.
Niezależnie od tego czy to przez przeglądarkę czy w dedykowanym programie na różnych procesorach i gpu odtwarzenie będzie się odbywało z różnym obciążeniem i co za tym idzie poborem energii.
Kwestia jest łatwa do zbadania, już wykonane przez Was wcześniej testy laptopów pokazują, że bardzo różnie z tym bywa, no ale przy porównaniu całych laptopów jest tak duży rozrzut w składowych zestawu, że nie da się wyciągnąć żadnych sensownych wniosków w temacie.

Krótko : dajcie proszę testy poboru energii dla odtwarzania wideo, zarówno przez przeglądarkę jak i lokalnie.

To chcemy i na 100% dołączymy do scenariusza typowego użytkowania - o to się nie obawiaj. To właśnie pasuje do typu 'czasowego' :) Tak samo jak gry.
*Konto usunięte*2013.01.10, 15:37
-5#30
a może sprawdzenie wytrwałości np proca poprzez nagrzanie go aż do przegrzania i porównać wyniki np Intela z AMD
KunislawZobacz profil
Poziom ostrzeżenia: 0%
Kunislaw2013.01.10, 15:28
-3#29
Dajcie procesor Q6600 vs AMD ATHLON II X4 641K lub 750K i zróbcie testy w BF 3 i np. dekompresji.
cdarekZobacz profil
Poziom ostrzeżenia: 0%
cdarek2013.01.10, 15:27
Bardzo dobry pomysł. Ostatnio sam sobie to mierzyłem, po przejściu na ivy bridge i okazało się, że zwykły desktop na i5 3570k schodzi do 30 W w idle (sama buda, bez dodatkowej karty graficznej), a nawet oglądanie filmu czy jakieś prace biurowe nie są w stanie podbić tego ponad 60W (chyba że na krótko, nie mam profesjonalnego miernika), podczas gdy starszy i słabszy zestaw bierze około 100-200 W (idle-stres). W związku z tym, bardzo ciekawe byłoby przetestowanie nieprzetaktowanego i przetaktowanego ivy bridge przy zbyt dużym zasilaczu, bo nawet dodając do tego grafikę ciężko zrobić 300 W w stresie (bez oc).

Jak wiadomo, oc powoduje większy wzrost zużycia energii, niż przyrost mocy obliczeniowej. Przy standardach sprawności zasilaczy mierzy się najniżej przy 20%, więc trudno byłoby uzyskać maksymalną sprawność przy zasilaczu większym od 500 W. Z drugiej strony, czy zasilacze ~300 W nie są traktowane przez producentów jako dolna półka? Dlatego byłoby ciekawe obejrzeć porównanie w tym przypadku pomiędzy jakimś dużym zasilaczem 80+ platinium/titanium i czymś w okolicy 400 W (bo chyba 300 W trudno by znaleźć) noname oraz dobrej marki.

Warto obliczyć jaki zestaw tak naprawdę ma w idle tyle, że opłaca się brać mocniejszy zasilacz. Z tego co mi się wydaje, bez przetaktowania ciężko uzasadnić cokolwiek powyżej 600 W, a bez topowej karty graficznej to nawet 400-500 W.

Przydałyby się wykresy sprawności poniżej 20% obciążenia dla różnych zasilaczy. Przyjmowanie scenariuszy użytkowania raczej nic nie da, bo w każdym przypadku wyjdzie, że opłaca się mieć najmniejszy możliwy zasilacz z wysoką sprawnością. Lepiej się skupić na dobraniu dużej liczby różnych zestawów. Może coś ze starszych generacji, które mniej płynnie przechodziły w niższe stany oszczędzania energii - i5 750/760, core 2 quad. Jedyny scenariusz użytkowania, jaki jest ciekawy, to ile się traci poprzez oc w idle, bo zazwyczaj oznacza to wyłączenie speedstep i podbite napięcie.
focusZobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjifocus2013.01.10, 15:24
Bogie @ 2013.01.10 15:15  Post: 627823
A ja mam inny pomysł.
Czy większa temperatura procesora powoduje większe zużycie energii (wycieki?) - oczywiście zmniejszamy wydajność chłodzenia i sprawdzamy.

To zrobimy. Nawet znam wynik tego testu :)
Bogie @ 2013.01.10 15:15  Post: 627823
Podkręcanie procesora i zwiększanie napięcia - do kiedy zwiększanie napięcia ma pozytywny wpływ na energoefektywność - czy podbijać napięcie dla 4,7ghz zamiast 4,5 na i5 itp.
Jak zmienia się zużycie prądu przy podkręcaniu bez zmiany napięcia.

To akurat to jest oczywiste i nie widzę większego sensu tego sprawdzanie. Pobór energii rośnie do kwadratu różnicy - żadne O/C nie będzie bardziej efektywne niż def, no chyba że takie bez zmiany napięcia (to akurat jest możliwe).
Hamil_HamsterZobacz profil
Poziom ostrzeżenia: 0%
Hamil_Hamster2013.01.10, 15:22
Cieszę się widząc, że ktoś sie wziął za praktyczny aspekt zagadnienia poboru energii przez komputery, zamiast kolejnych abstrakcji.
Jednak podział na dwie kategorie - czasową i zadaniową całkowicie nie przystaje do jednak dość popularnego zastosowania komputerów jakim jest oglądanie filmów.
Niezależnie od tego czy to przez przeglądarkę czy w dedykowanym programie na różnych procesorach i gpu odtwarzenie będzie się odbywało z różnym obciążeniem i co za tym idzie poborem energii.
Kwestia jest łatwa do zbadania, już wykonane przez Was wcześniej testy laptopów pokazują, że bardzo różnie z tym bywa, no ale przy porównaniu całych laptopów jest tak duży rozrzut w składowych zestawu, że nie da się wyciągnąć żadnych sensownych wniosków w temacie.

Krótko : dajcie proszę testy poboru energii dla odtwarzania wideo, zarówno przez przeglądarkę jak i lokalnie.

Poza tym chętnie bym zobaczył starcie nettop vs tani laptop o podobnych parametrach (korzystający z zewnętrznych perferiów), szczególnie w kontekscie APU AMD, jako komputer domowy pracujący większość dnia.
cichy45Zobacz profil
Poziom ostrzeżenia: 0%
cichy452013.01.10, 15:16
Mat48 @ 2013.01.10 15:02  Post: 627820
cichy45 @ 2013.01.10 14:46  Post: 627808
(...)
I jeszcze po jakim czasie inwestycja się zwraca. Widząc, że w perspektywie 10 lat wyjdziemy na 0 w stosunku do 'normalnego' (niekoniecznie no-name) zasilacza to biznes raczej słaby.

Racja, ale, dokładając do zasilacza zyskujesz też na dodatkowych zabezpieczeniach, solidniejszych komponentach i wytrzymałości na przeciążenia :)
I inne ulepszacze typu modularne kabelki.
emgiebZobacz profil
Poziom ostrzeżenia: 0%
emgieb2013.01.10, 15:15
Tą samą metodologią porównać coś MOCNO podkręconego. Typu Q6600 @2,4 vs @3,6. Czy wzrost wydajności po podkręceniu jest wart wzrostu ceny zużytego prądu i o ile :) albo cokolwiek nowszego, co można pogonić o 50%.

Ciężko mi trochę uwierzyć w ten szacunek 100 miesięcznie za komputer - nijak nie przystaje do moich rachunków za prąd. Mam komp włączony 24/24, nie mam gazu w domu, więc gotowanie jedzie na prądzie, jest wielka lodówa, milion ładowarek, sporo świateł (choć energooszczędnych), rachunek wynosi niecałe 300 za jeden okres rozliczeniowy, czyli za dwa miesiące bodajże. Wychodziłoby więc, że 200 z tego to komp, a 100 - reszta. Nie sądzę ^^
BogieZobacz profil
Poziom ostrzeżenia: 0%
Bogie2013.01.10, 15:15
12#23
A ja mam inny pomysł.
Czy większa temperatura procesora powoduje większe zużycie energii (wycieki?) - oczywiście zmniejszamy wydajność chłodzenia i sprawdzamy.
Podkręcanie procesora i zwiększanie napięcia - do kiedy zwiększanie napięcia ma pozytywny wpływ na energoefektywność - czy podbijać napięcie dla 4,7ghz zamiast 4,5 na i5 itp.
Jak zmienia się zużycie prądu przy podkręcaniu bez zmiany napięcia.
focusZobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjifocus2013.01.10, 15:06
xxser @ 2013.01.10 15:04  Post: 627821
Zgłaszam prośbę przetestowania 2 procesorów: Core 2 Duo E8200 i Core 2 Quad Q9450.

Core 2 Quad Q9450 to dwa procesory E8200 na jednej płytce PCB.

Tylko co taki test miałby nam powiedzieć? Czy posiadacz E8000 ma inną opcję wymiany niż Q9xxx jeśli chce zachować płytę główną?
xxserZobacz profil
Poziom ostrzeżenia: 0%
xxser2013.01.10, 15:04
Zgłaszam prośbę przetestowania 2 procesorów: Core 2 Duo E8200 i Core 2 Quad Q9450.

Core 2 Quad Q9450 to dwa procesory E8200 na jednej płytce PCB.
Mat48Zobacz profil
Poziom ostrzeżenia: 0%
Mat482013.01.10, 15:02
cichy45 @ 2013.01.10 14:46  Post: 627808
Np., ile prądu zmarnuje zasilacz no name 600W vs. zasilacz z certyfikatem złotym/platynowym z bardzo wysoką sprawnością?
Na tych samych podzespołach.
I jeszcze po jakim czasie inwestycja się zwraca. Widząc, że w perspektywie 10 lat wyjdziemy na 0 w stosunku do 'normalnego' (niekoniecznie no-name) zasilacza to biznes raczej słaby.
high_foreheadZobacz profil
Poziom ostrzeżenia: 0%
high_forehead2013.01.10, 14:57
Taki typowy przykład: 4h przeglądania internetu i 5h grania dziennie. Leciwy, użytkowany przez kilka osób komputer z q6600@3.5 ghz, radeonem 4870 i zasilaczem 650wat 80 plus, kontra i5 3570 (lub podobny), radeon 7850 i 450wat 80 plus bronze. Komputer w założeniu wymieniany co 4 lata. Czy taka inwestycja się opłaca lub ile trzeba było by do niej dopłacić?
karlito123Zobacz profil
Poziom ostrzeżenia: 0%
karlito1232013.01.10, 14:56
Adio @ 2013.01.10 14:40  Post: 627803
FX 8320 OC 4.7Ghz vs Core i5 2500K OC 4.7Ghz obie z Radeonem HD 7950.
5 Godzin Grania, 3 Godziny ogladania filmow i jakies 4 godziny internetu :)

Nie wiem co tutaj porównywać - Core i5 jest sporo wydajniejszy zegar w zegar, do tego ma niższe TDP, a więc double kill. Jak procki mają porównywalne TDP to sama wydajność pokazuje który zużyje mniej prądu na dane zadanie. Jak już to możnaby się pokusić o porównanie APU AMD z Intelem bez oddzielnej karty graficznej. Core mają niższe TDP, ale i niższą wydajność od GPU w A8 czy A10.
chaostheoryZobacz profil
Poziom ostrzeżenia: 0%
chaostheory2013.01.10, 14:50
FX-8350 vs 3770K vs 3930K - rendering 3DSMax / obróbka filmów Premiere Pro :>
Klocuch12Zobacz profil
Poziom ostrzeżenia: 0%
Klocuch122013.01.10, 14:50
10#16
mogli zrobic test 2500k vs 2500t (45w) :e
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.