Prośba: zgłaszajcie proszę zarówno propozycje porównań (CPU taki kontra CPU inny), jak również scenariusze wykorzystania (np. 2 godziny przeglądam internet, 2 godziny gram, 1,5 godziny oglądam film). Mile widziane też inne oryginalne pomysły - np. koszt użycia zbyt mocnego zasilacza.
Na Anandtechu ostatnio sporo się pobawili mierząc konsumpcję ARM-ów i Atomów. Wpinali szeregowo rezystory (jakieś miliomy) bezpośrednio w zasilanie proców i mierzyli spadek napięcia na rezystorach.
Na Anandtechu ostatnio sporo się pobawili mierząc konsumpcję ARM-ów i Atomów. Wpinali szeregowo rezystory (jakieś miliomy) bezpośrednio w zasilanie proców i mierzyli spadek napięcia na rezystorach.
Ale tutaj chodzi o coś praktycznego. Tabletu nie składa się jak PC-a, że kupujesz jakąś tam płytę główną, jakiś procesor itd. Tamto jest oczywiście ciekawe, ale nic więcej.
Tylko jedno ale. Komputer jest używany do 3h grania albo 8h pracy albo 2h oglądania filmu. To jest realne zużycie energii. Nie właczamy komputer aby wyliczyć pi do 10 mln miejsc i go wyłączyć. Komputer towarzyszy człowiekowi w czasie. Jest właczony n godzin w ciągu dnia i liczy się zużycie prądu przez te n godzin które jest stałą.
Prośba: zgłaszajcie proszę zarówno propozycje porównań (CPU taki kontra CPU inny), jak również scenariusze wykorzystania (np. 2 godziny przeglądam internet, 2 godziny gram, 1,5 godziny oglądam film). Mile widziane też inne oryginalne pomysły - np. koszt użycia zbyt mocnego zasilacza.
Koszt zastosowania zbyt mocnego zasilacza? Przecież zasilacz to w uproszczeniu prostownik, w jaki sposób go obciążymy to tyle energii pobierze. (wliczając sprawność i moc znamionową). Jak zastosujemy 1000W zasilacz a podzespoły będą wykorzystywać max 300 W to po godzinie nie będzie tak że wykorzystamy 1kWh...
Tylko jedno ale. Komputer jest używany do 3h grania albo 8h pracy albo 2h oglądania filmu. To jest realne zużycie energii. Nie właczamy komputer aby wyliczyć pi do 10 mln miejsc i go wyłączyć. Komputer towarzyszy człowiekowi w czasie. Jest właczony n godzin w ciągu dnia i liczy się zużycie prądu przez te n godzin które jest stałą.
Nie przeczytałeś całego artykułu! Nieładnie.
W tym właśnie rzecz, że są generalnie dwa scenariusze:
1. w którym robimy coś aż się skończy (np. rendering)
2. w którym np. gramy przez 3 godziny
Wszystko to opisałem w artykule i chciałbym żebyście zaproponowali jakieś swoje scenariusze użytkowania.
Prośba: zgłaszajcie proszę zarówno propozycje porównań (CPU taki kontra CPU inny), jak również scenariusze wykorzystania (np. 2 godziny przeglądam internet, 2 godziny gram, 1,5 godziny oglądam film). Mile widziane też inne oryginalne pomysły - np. koszt użycia zbyt mocnego zasilacza.
Koszt zastosowania zbyt mocnego zasilacza? Przecież zasilacz to w uproszczeniu prostownik, w jaki sposób go obciążymy to tyle energii pobierze. (wliczając sprawność i moc znamionową). Jak zastosujemy 1000W zasilacz a podzespoły będą wykorzystywać max 300 W to po godzinie nie będzie tak że wykorzystamy 1kWh...
Tak, ale zasilacze mają różną sprawność przy różnym obciążeniu. Zasilacze bardzo mocne, np. 1000 W mają bardzo małą sprawność przy obciążeniu typu 80 W. Sprawdzaliśmy to już wieeeeeeele razy.
FX 8320 OC 4.7Ghz vs Core i5 2500K OC 4.7Ghz obie z Radeonem HD 7950.
5 Godzin Grania, 3 Godziny ogladania filmow i jakies 4 godziny internetu
Nie wiem co tutaj porównywać - Core i5 jest sporo wydajniejszy zegar w zegar, do tego ma niższe TDP, a więc double kill. Jak procki mają porównywalne TDP to sama wydajność pokazuje który zużyje mniej prądu na dane zadanie. Jak już to możnaby się pokusić o porównanie APU AMD z Intelem bez oddzielnej karty graficznej. Core mają niższe TDP, ale i niższą wydajność od GPU w A8 czy A10.
Taki typowy przykład: 4h przeglądania internetu i 5h grania dziennie. Leciwy, użytkowany przez kilka osób komputer z q6600@3.5 ghz, radeonem 4870 i zasilaczem 650wat 80 plus, kontra i5 3570 (lub podobny), radeon 7850 i 450wat 80 plus bronze. Komputer w założeniu wymieniany co 4 lata. Czy taka inwestycja się opłaca lub ile trzeba było by do niej dopłacić?
Np., ile prądu zmarnuje zasilacz no name 600W vs. zasilacz z certyfikatem złotym/platynowym z bardzo wysoką sprawnością?
Na tych samych podzespołach.
I jeszcze po jakim czasie inwestycja się zwraca. Widząc, że w perspektywie 10 lat wyjdziemy na 0 w stosunku do 'normalnego' (niekoniecznie no-name) zasilacza to biznes raczej słaby.
Ciepło, ciepło
Porównanie zestawu bez MOBO/PSU ErP, takiego z MOBO z ErP, kolejnego z PSU z ErP i ostatecznie takiego z MOBO i PSU kompatybilnego z ErP.
5 Godzin Grania, 3 Godziny ogladania filmow i jakies 4 godziny internetu
Ale tutaj chodzi o coś praktycznego. Tabletu nie składa się jak PC-a, że kupujesz jakąś tam płytę główną, jakiś procesor itd. Tamto jest oczywiście ciekawe, ale nic więcej.
Na tych samych podzespołach.
Koszt zastosowania zbyt mocnego zasilacza? Przecież zasilacz to w uproszczeniu prostownik, w jaki sposób go obciążymy to tyle energii pobierze. (wliczając sprawność i moc znamionową). Jak zastosujemy 1000W zasilacz a podzespoły będą wykorzystywać max 300 W to po godzinie nie będzie tak że wykorzystamy 1kWh...
Nie przeczytałeś całego artykułu!
W tym właśnie rzecz, że są generalnie dwa scenariusze:
1. w którym robimy coś aż się skończy (np. rendering)
2. w którym np. gramy przez 3 godziny
Wszystko to opisałem w artykule i chciałbym żebyście zaproponowali jakieś swoje scenariusze użytkowania.
Na tych samych podzespołach.
To na 100% zrobimy, tylko musimy taki zasilacz kupić, bo nikt go nam nie pożyczy pewnie ;D
Koszt zastosowania zbyt mocnego zasilacza? Przecież zasilacz to w uproszczeniu prostownik, w jaki sposób go obciążymy to tyle energii pobierze. (wliczając sprawność i moc znamionową). Jak zastosujemy 1000W zasilacz a podzespoły będą wykorzystywać max 300 W to po godzinie nie będzie tak że wykorzystamy 1kWh...
Tak, ale zasilacze mają różną sprawność przy różnym obciążeniu. Zasilacze bardzo mocne, np. 1000 W mają bardzo małą sprawność przy obciążeniu typu 80 W. Sprawdzaliśmy to już wieeeeeeele razy.
5 Godzin Grania, 3 Godziny ogladania filmow i jakies 4 godziny internetu
Nie wiem co tutaj porównywać - Core i5 jest sporo wydajniejszy zegar w zegar, do tego ma niższe TDP, a więc double kill. Jak procki mają porównywalne TDP to sama wydajność pokazuje który zużyje mniej prądu na dane zadanie. Jak już to możnaby się pokusić o porównanie APU AMD z Intelem bez oddzielnej karty graficznej. Core mają niższe TDP, ale i niższą wydajność od GPU w A8 czy A10.
Na tych samych podzespołach.