i7 860 - gtx 470
i7 2600k - gtx 570
i7 3770k - gtx 670
i porównanie skoku technologicznego do 'prundu'. Uwzględnijcie też ile te karty razem z CPU dają mniejsze zużycie w np AutoCAD, unigraphics, catia, proenginer itp.
W sumie racja. Może by wyszła ciekawostka, że opłaca się sprzedać 480 i kupić 7870 w perspektywie dwóch lat cena prądu zwróci koszty utrzymania tego potwora.
Co do AutoCad, Catia itp... w starszych wersjach np. Maya Quadro potrafi osiągać wyniki GFów 10x mocniejszych.
Prośba: zgłaszajcie proszę zarówno propozycje porównań (CPU taki kontra CPU inny), jak również scenariusze wykorzystania (np. 2 godziny przeglądam internet, 2 godziny gram, 1,5 godziny oglądam film). Mile widziane też inne oryginalne pomysły - np. koszt użycia zbyt mocnego zasilacza.
Focus - cos dla Ciebie.
Scenariusz z zycia wziety - u mnie praktycznie standard.
Rano:
30-60 minut - przegladanie netu pclab i xbitlabs (zalezy od tego, o ktorej wstane i ile mam czasu przed praca). Mozesz usrednic do 45 minut.
Wieczorem:
- 1h net,
- 5h gra World of Tanks i kopanie innym tyłka,
- 1,5h film na dobranoc. Komp dziala, CWK albo Switch off go wylacza po 90 minutach.
CPU: Sempron 140 @ 3100 (345 x 9),
MB: MSI 790GX-G65,
GPU: Radeon HD3300 integra, 700 MHz, SidePort 1333,
2 dyski ATA 100, 1 dysk SATA,
Zasilacze: najczesciej Chieftec 400W, GPS400AA-101A, czasami inne 500W, 600W, 750W.
dlatego zrezygnowałem z PC na rzecz laptopa mniejsza wydajność ale za to o wiele mniejsze zużycie prądu, coś za coś.
Ps :sama cena kilowata nie jest tak duża tak naprawdę to połowa rachunku to same opłaty stałe, jakbyśmy płacili za samo zużycie to nie było by problemu.
i7 860 - gtx 470
i7 2600k - gtx 570
i7 3770k - gtx 670
i porównanie skoku technologicznego do 'prundu'. Uwzględnijcie też ile te karty razem z CPU dają mniejsze zużycie w np AutoCAD, unigraphics, catia, proenginer itp.
Szkoda, że redakcja nie obliczyła przykładowej oszczędności np w skali roku, zakładając że komputer pracuje stale X godzin dziennie, oczywiście przy dzisiejszych stawkach za pobór energii.
ja się zastanawiam nad zrezygnowaniem z pcta na rzecz laptopa + monitora 24'. Ciekawy jestem jaka to by była oszczędność (np komputer 3-4letni a laptop za ~2.5k (w wakacje był artykuł z samsungiem za 2.5k, który miał zastąpić pc))
Ja chce zamienić moja A8 na kabini x4 do neta i face + dedyk (enduro) do call of duty bo do reszty mam konsole.
ja się zastanawiam nad zrezygnowaniem z pcta na rzecz laptopa + monitora 24'. Ciekawy jestem jaka to by była oszczędność (np komputer 3-4letni a laptop za ~2.5k (w wakacje był artykuł z samsungiem za 2.5k, który miał zastąpić pc))
Fajny pomysł. Może jakiś starszy procesor (Core2Duo?) w porównaniu do nowej jednostki? Przy podejściu 'użytkowym' - trochę pracy (pakiet biurowy), trochę zabawy (czytanie 'pclaba-a' ) i rozrywki (granie) pozdrawiam!
Realna praca większości użytkowników wygląda tak jak opisał to Abadon. Najwolniejszym elementem, w 95% decydującym o czasie wykonania zadania jest człowiek. Wydajność procesora nie ma wpływu na to jak szybko człowiek podejmie decyzję, nie poprawi szybkości obsługi interfejsów. W takim przypadku większa wydajność procesora to tylko większy komfort obsługi, a tego nie da się zmierzyć kW/h.
Najwolnieszy jest człowiek ale główną rolą planowanego testu ma być ocena realnych różnic w zużyciu energii elektrycznej w realnej codziennej pracy. Testy zużycia energii wykonywane do tej pory w testach pokazywały niekiedy monstrualne wręcz różnice. Tyle że wszystkie dotychczasowe procedury testowe zużycia energii były nierealne, bo żaden komputer nie jest przez 100% czasu pracy ani w spoczynku, ani obciązony grą czy kodowaniem filmu.
Juz w 'przedteście' w nieco sztuczny sposób, ale jednak pokazano że Core i5 może być bardziej energooszczedny od Pentium G. Oczywiśnie niemal nikt tak nie robi że wyłącza komputer zaraz po wykonaniu jakiegos zadania. Ale podczas gdy Pentium G nadal sie poci z kodowaniem filmu, i5 jest już dawno przełaczone w tryb energooszczędny. Potem użytkownik chce tenże film obejrzeć lub poogladać teledyski na youtube w full HD. I wtedy np. Pentium będzie obciazony w 40-50% i powiedzmy ze bedzie musiał przyspieszyć do 80% swojej częstotliwosci taktowania, a i5 będzie podczas tej samej operacji obciążony w 25-30% i bedzie sobie chodził w 50% swojego standardowego taktowania.
Odrazu zaznaczam że powyższe wartości są przykładowe i nie sprawdzałem jak wygladają kolejne stopnie taktowania P i i5, chodziło mi tylko o przedstawienie ideii testu jaki bym najchętniej widział.
Realnie, to jeśli założy się do wykonania te same zadania i sztywne ramy czasowe w jakich muszą być wykonane, to trudno będzie mówić o jakiejkolwiek większej energoefektywności.
Wiadomo, że procesor do wykonananie jakiegoś zadania potrzebuje jkąś konkretną wartość energii. I jeśli jest on dobrze zaprojektowany to w przybliżeniu na jeden cykl pracy będzie zużywał tyle samo. Wykonanie konkretnego zadania to taka sama ilość cykli pracy. Czyli na wykonanie tego samego zadania wolniejszy, jak i szybciej taktowany zużyje tyle samo energii. W skryptowym teście oszczędność nie wynika z oszczędności procesora, tylko z krótszego czasu działanie peryferiów. Kiedy czas działania całości będzie identyczny różnica w energoosczędności będzie żadna lub prawie żadna. Czasem najwiekszy wpływ na wynik końcowy może mieć sprawność zasilacza. W takim przypadu najlepszy jest procesor najtańszy na którym zadania wykonuje się równie komfortowo, albo inaczej, nie irytuje swoja ślamazarnością.
Imo jest sens tylko elementarnych testów. Wszelkie bardziej złożone scenariusze da się zasymulować na podstawie tych testów z dokładnością do błędu pomiarowego.
Tak na szybko, bo odpowiedzi na pozostałe posty udzielę nieco później, wynik testu na zasilaczu Corsair TX850W:
Na tym zasilaczu cały komputer zjadł 840 Wh, czyli aż o 94 Wh więcej. Niby niewiele (nawet w skali roku), ale mimo wszystko nie zawsze lepszy zasilacz jest bardziej energooszczędny.
i7 2600k - gtx 570
i7 3770k - gtx 670
i porównanie skoku technologicznego do 'prundu'. Uwzględnijcie też ile te karty razem z CPU dają mniejsze zużycie w np AutoCAD, unigraphics, catia, proenginer itp.
W sumie racja. Może by wyszła ciekawostka, że opłaca się sprzedać 480 i kupić 7870 w perspektywie dwóch lat cena prądu zwróci koszty utrzymania tego potwora.
Co do AutoCad, Catia itp... w starszych wersjach np. Maya Quadro potrafi osiągać wyniki GFów 10x mocniejszych.
Focus - cos dla Ciebie.
Scenariusz z zycia wziety - u mnie praktycznie standard.
Rano:
30-60 minut - przegladanie netu pclab i xbitlabs (zalezy od tego, o ktorej wstane i ile mam czasu przed praca). Mozesz usrednic do 45 minut.
Wieczorem:
- 1h net,
- 5h gra World of Tanks i kopanie innym tyłka,
- 1,5h film na dobranoc. Komp dziala, CWK albo Switch off go wylacza po 90 minutach.
CPU: Sempron 140 @ 3100 (345 x 9),
MB: MSI 790GX-G65,
GPU: Radeon HD3300 integra, 700 MHz, SidePort 1333,
2 dyski ATA 100, 1 dysk SATA,
Zasilacze: najczesciej Chieftec 400W, GPS400AA-101A, czasami inne 500W, 600W, 750W.
Maja w miare rowno wydajnosc, ale phenom zre duzo wiecej
Ps :sama cena kilowata nie jest tak duża tak naprawdę to połowa rachunku to same opłaty stałe, jakbyśmy płacili za samo zużycie to nie było by problemu.
Na tych samych podzespołach.
Dołączam się do prośby
i7 2600k - gtx 570
i7 3770k - gtx 670
i porównanie skoku technologicznego do 'prundu'. Uwzględnijcie też ile te karty razem z CPU dają mniejsze zużycie w np AutoCAD, unigraphics, catia, proenginer itp.
Zasilacze ?
Klawiatury?
Napędy ?
Ciepło, ciepło
Zasilacze ?
Klawiatury?
Ciepło, ciepło
Zasilacze ?
Ja chce zamienić moja A8 na kabini x4 do neta i face + dedyk (enduro) do call of duty bo do reszty mam konsole.
Realna praca większości użytkowników wygląda tak jak opisał to Abadon. Najwolniejszym elementem, w 95% decydującym o czasie wykonania zadania jest człowiek. Wydajność procesora nie ma wpływu na to jak szybko człowiek podejmie decyzję, nie poprawi szybkości obsługi interfejsów. W takim przypadku większa wydajność procesora to tylko większy komfort obsługi, a tego nie da się zmierzyć kW/h.
Najwolnieszy jest człowiek ale główną rolą planowanego testu ma być ocena realnych różnic w zużyciu energii elektrycznej w realnej codziennej pracy. Testy zużycia energii wykonywane do tej pory w testach pokazywały niekiedy monstrualne wręcz różnice. Tyle że wszystkie dotychczasowe procedury testowe zużycia energii były nierealne, bo żaden komputer nie jest przez 100% czasu pracy ani w spoczynku, ani obciązony grą czy kodowaniem filmu.
Juz w 'przedteście' w nieco sztuczny sposób, ale jednak pokazano że Core i5 może być bardziej energooszczedny od Pentium G. Oczywiśnie niemal nikt tak nie robi że wyłącza komputer zaraz po wykonaniu jakiegos zadania. Ale podczas gdy Pentium G nadal sie poci z kodowaniem filmu, i5 jest już dawno przełaczone w tryb energooszczędny. Potem użytkownik chce tenże film obejrzeć lub poogladać teledyski na youtube w full HD. I wtedy np. Pentium będzie obciazony w 40-50% i powiedzmy ze bedzie musiał przyspieszyć do 80% swojej częstotliwosci taktowania, a i5 będzie podczas tej samej operacji obciążony w 25-30% i bedzie sobie chodził w 50% swojego standardowego taktowania.
Odrazu zaznaczam że powyższe wartości są przykładowe i nie sprawdzałem jak wygladają kolejne stopnie taktowania P i i5, chodziło mi tylko o przedstawienie ideii testu jaki bym najchętniej widział.
Realnie, to jeśli założy się do wykonania te same zadania i sztywne ramy czasowe w jakich muszą być wykonane, to trudno będzie mówić o jakiejkolwiek większej energoefektywności.
Wiadomo, że procesor do wykonananie jakiegoś zadania potrzebuje jkąś konkretną wartość energii. I jeśli jest on dobrze zaprojektowany to w przybliżeniu na jeden cykl pracy będzie zużywał tyle samo. Wykonanie konkretnego zadania to taka sama ilość cykli pracy. Czyli na wykonanie tego samego zadania wolniejszy, jak i szybciej taktowany zużyje tyle samo energii. W skryptowym teście oszczędność nie wynika z oszczędności procesora, tylko z krótszego czasu działanie peryferiów. Kiedy czas działania całości będzie identyczny różnica w energoosczędności będzie żadna lub prawie żadna. Czasem najwiekszy wpływ na wynik końcowy może mieć sprawność zasilacza. W takim przypadu najlepszy jest procesor najtańszy na którym zadania wykonuje się równie komfortowo, albo inaczej, nie irytuje swoja ślamazarnością.
Imo jest sens tylko elementarnych testów. Wszelkie bardziej złożone scenariusze da się zasymulować na podstawie tych testów z dokładnością do błędu pomiarowego.
Na tym zasilaczu cały komputer zjadł 840 Wh, czyli aż o 94 Wh więcej. Niby niewiele (nawet w skali roku), ale mimo wszystko nie zawsze lepszy zasilacz jest bardziej energooszczędny.