Recenzja
JMKS, Czwartek, 20 stycznia 2011, 14:13
Procesory: Core 2 Duo E8500

...i inne rzeczy z tym związane. E8500 męczony przy bardzo różnych ustawieniach. Teoria i praktyka.


Kilkanaście miesięcy temu miałem do zrobienia projekt na zajęcia ze statystyki - padło właśnie na moc mikroprocesorów. Zebrałem sporo danych, zreferowałem temat i się nawet podobało. Przyszedł czas na omówienie sprawy mniej statystycznie, a bardziej sprzętowo.

1. Cel
Pomysł na zbadanie mocy procesorów pojawił się przy pisaniu poprzedniego artykułu, dotyczącego "śmiesznych" fabrycznych zegarów procesorów. Wykonałem kilka pomiarów, spodobało mi się, więc wykonałem kolejne i tak dalej.
Na początku (własnie na potrzeby tamtej publikacji) chodziło jedynie o zbadanie wpływu częstotliwości na moc, jednak z czasem i rosnącą liczbą pomiarów postanowiłem zestawic z mocą też napięcie i temperatury, a także możliwą do uzyskania stabilną częstotliwość z użytym napięciem.
Wszystko to można też obliczyć teoretycznie (zakładając jednak sporo przybliżeń i uproszczeń), a następnie porównać z wynikami pomiarów.

2. Terminologia, trochę fizyki
Jako że język potoczny rózni się miejscami dość mocno od technicznego, warto zdać sobie sprawę z tych różnic. W dalszej części będą też mniej oczywiste informacje, co może niektórych zaciekawić.
Żeby to było spójne, zacznę od prądu. Czym jest prąd? Prąd elektryczny to uporządkowany ruch elektronów. Jest to więc zjawisko, a nie wielkość fizyczna.
Dalej mamy natężenie prądu elektrycznego [I] - wielkość fizyczna, określająca stosunek wartości ładunku elektrycznego do czasu przepływu ładunku.
Napięcie elektryczne [U] - różnica potencjałów elektrycznych między dwoma punktami obwodu elektrycznego.
Moc [P] - to właśnie ten "pobór prądu", gdy pytamy ile urządzenie "bierze" prądu. Fizycznie jest to miara wykonanej pracy  do czasu jej wykonania, P=W/t, ew. miara prędkości emisji energii, P=E/t. W elektryczności jest ona wprost proporcjonalna do napięcia i natężenia prądu zasilającego urządzenie, P=U*I. 1 wat (jednostka mocy) to 1 dżul (jednostka pracy) wykonywany przez 1 sekundę.
Żeby jeszcze to jakoś powiązać z czymś namacalnym, przytoczę przykład z życia codziennego. Podgrzanie litra wody na herbatę z temperatury 20°C do 100°C wymaga dostarczenia 80*4200kJ (ciepło właściwe wody wynosi 4200kJ, a więc ciepło potrzebne do ogrzania kilograma wody o 1°C wynosi 4200kJ) czyli 336000kJ. Czajnik elektryczny o mocy 2000W potrzebuje na to 336000/2000=168s, czyli niecałe 3 minuty. Procesor o mocy 65W potrzebowałby 2000/65=30,77x więcej czasu - ponad półtorej godziny, nie mówiąc już o tym że to trochę za wysoka dla komputera temperatura.
Dość dziwne porównanie, ale pokazuje że to "ta sama fizyka", oba urządzenia zamieniają energię elektryczną w ciepło z bardzo dużą sprawnością - procesor niby jeszcze coś przy okazji robi, ale to inna sprawa ;).

Właśnie. Przed chwilą porównałem procesor do pospolitej grzałki. Ze "statystycznego" punktu widzenia to prawda - jakiś mały ułamek procenta energii elektrycznej pobieranej przez procesor jest zużywany ściśle na tę pracę procesora, której chcemy, natomiast praktycznie 100% tej energii jest de facto tracone i emitowane w postaci ciepła. Mozna więc przyjąć że ilość energii koniecznej do rozproszenia jest równa ilości pobranej energii elektrycznej.
Taką wartość można przybliżyć np. przez daną producenta zwaną TDP, bądź próbowac mierzyć.
TDP znaczy po angielsku "Thermal Design Power", co dośc figlarnie mozna przetłumaczyc jako "Moc Cieplna w Zamyśle". Biorąc pod uwagę zawiłość definicji jaką znalazłem w specyfikacji Intela, uważam że tłumaczenie jest dość celne ;). Definicja TDP u Intela to w wolnym przekładzie "najwyższy trwały poziom mocy cieplnej, który osiągnie procesor używany przez wszystkie bądź prawie wszystkie rzeczywiste aplikacje które oczekuje sie że będą na danym procesorze wykonywane, opierając się na przybliżeniu w dziedzinie programów i sprzętu w trakcie życia procesora". Znalazłem też nowszą definicję, już bardziej przystępną i w sumie mniej "ostrożną": "poziom rozpraszania ciepła osiągany przy użyciu najbardziej obciążających aplikacji". Ta definicja jest ze specyfikacji dla Core2 - pewnie przy odejściu od procesorów z TDP znacznie przekraczającym 100W jak przy najszybszych Pentium 4 można sobie było na odrobinę nonszalancji pozwolić ;).

3. Trochę fizyki ciąg dalszy - częstotliwość, moc
Teraz już ściśle o procesorach. Procesor powiniene działać szybko, dokładnie i zużywać mało energii. Na wykładzie z architektury komputera prowadzący określił to dosadnie - sprzeczność!
Tak naprawdę mając gotowy procesor chodzi o osiągnięcie optimum między taktowaniem, napięciem i możliwościami rozpraszania ciepła - to najpierw robi producent, a później jeszcze ewentualnie niektórzy we własnym zakresie :).
Teoria (jak zwykle, zakładając mnóstwo uproszczeń) jest dość prosta. Częstotliwość pracy procesora limituje czas propagacji - "czas upływający od chwili zmiany stanu wejścia układu logicznego lub elementu logicznego do chwili ustalenia stanu wyjść". Jeśli wymusimy (ustawiając dużą częstotliwość) czas pojedynczego cyklu zegara procesora krótszy niż czas propagacji, wystąpią błędy.
Zatem im krótszy czas propagacji, tym wyższą częstotliwość można osiągnąć. Na czas propagacji wpływają: temperatura (T, zależność wprost proporcjonalna), ilość wyprowadzeń z bramki logicznej ("fan-out", zależność jw.) i napięcie (U, zależność odwrotnie proporcjonalna).

000013814d3633a3.jpg

Procesor podczas pracy wydziela energię cieplną. To właśnie ta sprzeczność wynikająca z faktu że procesor sam sobie "szkodzi" - ciepło zwiększa temperaturę, co wydłuża czas propagacji i obniża maksymalną częstotliwość pracy. Dla mikroprocesorów w technologii CMOS (Complementary Metal-Oxide-Semiconductor) wzór na moc jest następujący:
P=(G+Cf)*U^2, gdzie:
G - teoretyczna moc dla zerowej częstotliwości (dla układów CMOS powinna być zerowa);
f - częstotiwość pracy; U - napięcie.
Mając zatem TDP (a dużo lepiej - 1 pomiar wykonany dla ustawień fabrycznych) i znając standardowe napięcie oraz częstotliwość można w prosty sposób wszystko teoretycznie wyliczyć.

4. Metodologia pomiaru mocy
Jest to dla mnie najciekawsza część publikacji - mogłem się pobawić i jeszcze dowiedzieć czegoś konkretnego (po przemyśleniu dochodzę do wniosku, że próba interpretacji wyników może być równie emocjonująca ;)). Tutaj nie są potrzebne jakieś "eksperymenty myślowe" - to się da zmierzyć empirycznie.
Mechanizm wyglądał tak - podłączyłem drugi zasilacz (Modecom Feel 350W, taki akurat się znalazł) do złącza 12V_CPU, zwarłem zielony kabel z czarnym we wtyczce ATX ("zawsze włączony") i za pomocą watomierza mierzyłem moc pobieraną "ze ściany" przy przeróżnych procesorach, taktowaniach, napięciach i obciążeniach. Pomiar podczas bezczynności to wyświetlanie pulpitu, obciążenie to uruchomiony program Orthos, służący m.in. do testowania stabilności. Nie jest to zupełnie maksymalne obciążenie, ale do tej pierwszej definicji TDP pasuje.
Do projektu ze statystyki użyłem E8500 (w rewizji E0) i to była najbardziej spójna część pomiarów, dlatego właśnie wyniki z tego procesora są przedmiotem artykułu - inne pomiary robiłem głównie dla zabawy, bez jakiegoś konkretnego celu i tylko dla kilku ustawień. Drugą istotną częścią platformy testowej była płyta główna Asus P5Q-Pro.
Bardziej ambitne podejście wymaga użycia miernika cęgowego (bądź fizycznego wpięcia się amperomierzem w obwód) w celu zbadania faktycznego poboru prądu (natężenie pradu przepływającego przez złącze 12V_CPU, w amperach, np. dość niedawno Zalman przedstawił gotowe rozwiązanie do tego przeznaczone, nawet z wyświetlaczem przeznaczonym na przód obudowy ;)), ale takim nie dysponuję - dlatego pomiary nie są ścisłe (no dobrze, zdecydowanie NIE tylko dlatego, ale o tym później). Do zasilacza podłączyłem jeszcze wentylator Deltę na 5V (ponoć zasilacze nie lubią być obciążane tylko z jednej linii). W ten sposób zasilacz brał ok. 19-20W przy wyłączonym komputerze. W ramach sprawdzenia poprawności metody zmierzyłem zużycie energii przez "główny" zasilacz w przypadku zmiany wyłącznie napięcia procesora - w granicach błędu pomiarowego identyczne.
Na pewno więc od każdego odczytanego wyniku trzeba odjąć 19W. W celu uzyskania samej mocy wydzielanej na procesorze, należy jeszcze uwzględnić sprawność zasilacza (myślę że ok. 80%, nie licząc tych 19W na start, w końcu to dość "podstawowy" zasilacz) oraz sekcji zasilania (tutaj liczę >90%). W sumie więc wyniki jakie będę podawał to [odczyt-19]*0,80. Nie twierdzę że uzyskane wyniki są w 100% zgodne z rzeczywistością, jednak parę rzeczy można zaobserwować. A czego się nie zaobserwuje, to można dopowiedzieć ;).

5. Wyniki i interpretacja - wstęp
Na początek podam moc dla ustawień standardowych. Częstotliwość to na pewno 3,16GHz, natomiast niestety pojęcia nie mam jakie było standardowe napięcie - nie sprawdziłem, a teraz nie mam jak, chociaż jestem w miarę pewien że pomiędzy 1,20V a 1,25V. Statystycznie więc najmniejszy błąd popełnię podając średnią arytmetyczną dla tych dwóch pomiarów - 28,8W. Dla porównania podam wynik dla innego procesora o TDP równym 65W (tyle samo co E8500). Celeron D 352 w analogicznym teście osiągnął 49,6W (odczyt z watomierza wyniósł 81W) - ponad 50% więcej. Jest to też pewne uwiarygodnienie metody - mianowicie to pobór mocy E8500 tak bardzo różni się od oficjalnego TDP, a nie sposób pomiaru tak bardzo fałszuje wynik. Wspomnę jeszcze o kwestii, które powoduje pewne rozbieżności między zmierzoną wartością a oficjalnym TDP - temperatura. Z uwagi na to że oficjalna wartość jest podawana dla maksymalnej dopuszczalnej temperatury pracy procesora, wartość ta będzie nieco większa (~5-10%?) niż zmierzona w mniej wymagających warunkach. Nieco więcej o tym napiszę pod koniec artykułu.
Pomiary zacząłem od właściwie ściśle overclockerskiego testu - badanie maksymalnej częstotliwości osiągniętej przy danym napięciu, a pomiar mocy przeprowadzałem "przy okazji". Te wyniki przedstawię na koniec. Po pierwsze ciężko tę sprawę ugryźć od strony teorii, a po drugie "podatność na OC" w dużej mierze zależy od konkretnego egzemplarza - jako że tutaj przede wszystkim skupiam się na zależnościach między wartościami, a nie na konkretnych wartościach, zaczynanie od na sztywno podanych MHz nie jest najlepszym wyborem.
Pomiary przeprowadziłem w celu zbadania wpływu częstotliwości pracy i napięcia zasilającego na pobieraną przez procesor moc.

5a. Wyniki i interpretacja - zależność mocy od częstotliwości
Dla zbadania zależności mocy od częstotliwości wykonałem pomiary przy napięciu 1,50V - w ten sposób róznice są bardziej widoczne (z drugiej strony - im bardziej napięcie oddala się od standardowego, tym większe szanse na to że praktyka będzie od teorii odbiegać). Sprawdzałem pobór mocy od ~800MHz do ~4,2GHz co około 250MHz.
Wyniki przedstawiam w tabelce oraz na wykresie, z naniesionymi liniami trendu i ich równaniami. Współczynnik dopasowania R2 to liczba z przedziału (0;1) - im bliżej jedności, tym proponowane równanie lepiej wyjaśnia zachowanie badanej zmiennej.
000013844d3633b7.jpg000013854d3633bc.jpg

Teoria jest prosta: przy zmianie częstotliwości (f), moc (P) powinna zmieniać się liniowo, zgodnie z równaniem P=P_TDP*(f_actual/f_stock). W praktyce wykres jest w dużej mierze liniowy (R2 powyżej 0,975), choć o wyraźnie mniejszym nachyleniu - w konsekwencji z ekstrapolacji otrzymujemy sporo większy niż zerowy pobór mocy dla zerowej częstotliwości. Jest to wynik właściwy raczej dla układów elektronicznych z klasy TTL (Transistor-Transistor Logic) a nie dla układów scalonych w technologii CMOS. Próba "zmuszenia" linii trendu do przejścia przez początek układu współrzędnych (kolor fioletowy) skończyła się wartością R2 na poziomie 0,72; czyli wyraźnie odbiegającym od poprzedniej. Należy więc przyjąć, że liniowe dopasowanie jest prawidłowe, a przewidywana moc dla 0MHz jest wyraźnie większa od 0W.
Podam jeszcze współczynnik korelacji między wyliczeniami teoretycznymi a praktyką - 0,988. Jest to bardzo wysoka korelacja, co pokazuje że zestawienie danych pomiarowych i wyliczeń teoretycznych "ma sens" ;). Jednocześnie wyjaśnię - na współczynnik korelacji wpływa zmienność danych, a zupełnie nie wpływają bezwzględne wartości. Innymi słowy, przemnożenie wszystkich wartości danej serii przez dowolną stałą (tutaj: wartość mocy przyjętą dla ustawień standardowych) nie wpływa na wartość współczynnika korelacji.

5b. Wyniki i interpretacja - zależność mocy od napięcia
Tym razem 2 serie pomiarów - przy częstotliwości 1,8GHz i 3,16GHz (stanardowej). W pierwszym przypadku cały zakres napięć, w drugim kilka musiało odpaść, bo częstotliwość już minimalnie wymagająca.

000013864d3633c1.jpg000013874d3633c5.jpg

Jako że zależność mocy od napięcia jest kwadratowa, wartości teoretyczne można obliczyć ze wzoru P=P_stock*(1,8/f_stock)*(V_actual/V_stock)^2. W tym przypadku występuje dodatkowy czynnik powodujący rozbieżności między obliczeniami a pomiarami - inna niż standardowa częstotliwość. Tę kwestią uda się wyeliminować przy następnym wykresie, z pomiarami wykonanymi dla stadanrdowej częstotliwości taktowania.
Można też spróbować do sprawy podejść od innej strony - skoro mam już pewne przybliżenie dla 1,50V z poprzedniej serii pomiarów (5a; P dla 1,8GHz wynosi zgodnie z równaniem z poprzedniego wykresu 13,73+0,01*1800=31,73W), dodałem też kolumnę bazującą na tej wartości. Kolumna ta nie jest jednak na tyle istotna, aby umieszczać te wyniki na wykresie.
Do serii wyników praktycznych dopasowałem dwie linie trendu, z czego jedną przechodzącą przez początek układu współrzędnych (dla zerowego napięcia jak najbardziej można się spodziewać zerowego poboru mocy).
Fioletowa linia mimo że matematycznie ładnie dopasowana, z logicznego punktu widzenia nadaje się do odrzucenia (wystarczy spojrzeć na ekstrapolację dla niskich napięć). Czarna linia trendu (ta przechodząca przez 0,0) spełnia wszystkie warunki jakie powinna i ze współczynnikiem R2 0,981 dobrze opisuje kwadratową zależność mocy od napięcia. Współczynnik korelacji między toerią a praktyką to znów 0,988.

000013884d3633c8.jpg000013894d3633cd.jpg


Skorzystanie ze standardowej częstotliwości ma sporo zalet. Przede wszystkim (zgodnie z myślą przewodnią artykułu), z uwagi na eliminację dość istotnego czynnika jakim jest znaczna zmiana taktowania, procesor reaguje na zmianę parametrów w najbardziej zbliżony do idealnego sposób.
Co prawda fioletowa linia trendu znów jest do odrzucenia (tym razem osiąga ujemne wartości dla małych napięć), ale za to czarna linia przechodząca przez (0,0) jest bardzo dobrze dopasowana, osiągając R2 równy 0,997; a więc znacznie większy niż przy 1,8GHz. Współczynnik korelacji między teorią a praktyką wynosi tym razem aż 0,999, co oznacza niemal całkowitą zgodność teoretycznego wytłumaczenie tego, co obserwujemy w praktyce. Dodatkowo to, że wyniki praktyczne różnią się w tym wypadku od wartości obliczonych teoretycznie właśnie w taki sposób ("praktyka" mniejsza od "teorii" dla niskich napięć, a większa dla wysokich) można wytłumaczyć wpływem temperatury, czego nie brałem pod uwagę w wyliczeniach, a co w sposób widoczny choć niewielki zwiększa rzeczywisty pobór mocy wraz ze wzrostem temperatury. Można więc powiedzieć, że wyniki z tej serii pomiarowej dają się w pełni wytłumaczyć teoretycznie - to cieszy :).


5c. Wyniki i interpretacja - zależność możliwej do uzyskania częstotliwości taktowania od napięcia zasilającego
Tak jak mówiłem, była to pierwsza seria pomiarów jakie zebrałem, a jednocześnie ta najbardziej praktyczna. Zestawienie napięć z możliwymi do uzyskania stabilnymi częstotliwościami taktowania procesora (uważając jednocześnie na temperaturę) to bardzo istotne informacje w procesie wyboru ustawień przy których komputer będzie  docelowo działał.
Za "stabilną" orientacyjnie przyjąłem częstotliwość wynoszącą 96% tej, przy której Orthos wyświetlał komunikat o błędzie w ciągu kilkunastu sekund - podczas działania programu podnosiłem stopniowo FSB, aż do uzyskania niestabilności. Oczywiście to droga mocno na skróty, jednak uzyskiwanie w tym przypadku w pełni ścisłych danych mija się z celem.

000013824d3633ad.jpg
000013834d3633b2.jpg
Jak już wspomniałem, ciężko mi opisać to teoretycznie, więc przejdę do interpretacji wyników. Co można powiedzieć... Taka dość przeciętna sztuka na oko ;).
Wzrost napięcia powoduje skrócenie czasu propagacji, a w konsekwencji umożliwia zwiększenie częstotliwości - to akurat oczywista oczywistość :). Widać wyraźnie, w szczególności dla kilku największych wartości napięć, że zwiększanie napięcia o taką samą wartość daje coraz mniejsze efekty. W związku z tym, mimo że fioletowa linia prosta charakteryzuje się dość wysokim współczynnikiem R2 równym 0,967, co do istoty nie opisuje ona dobrze tej zależności - pokazuje tylko że statystycznie dużo można udowodnić, co niekoniecznie będzie ściśle odpowiadać rzeczywistości.
Myślę za to, że gdyby prowadzić pomiar dla jeszcze większych napięć możnaby uzyskać wartości zbliżone do czarnej linii (współczynnik dopasowania 0,999; choć równanie tym razem dopasowane czysto empirycznie, bez zbytnich podstaw teoretycznych) - po pierwsze widać że już niewiele można z procesora wykrzesać (mowa o w pełni stabilnej pracy, bez zmiany chłodzenia), a po drugie przewiduje spadek częstotlwości dla bardzo wysokich napięć. To ostatnie jest spowodowane oczywiście wpływem temperatury (odsyłam do pierwszego obrazka w artykule).
Jak widać po wynikach, przy w miarę bezpiecznym napięciu ok. 1,45V można osiągnąć mniej więcej 4,2GHz - właśnie na takiej częstotliwości ustabilizowałem procesor do codziennej pracy.

6. Pozostałe obserwacje i wnioski z ostatniego zestawienia
Kilka ogólnych rozważań które mi się nasunęły podczas testów.
Przede wszystkim na uwagę zasługuje bardzo niski pobór mocy nieobciążonego procesora - w porównaniu z procesorami Core2 poprzedniej generacji (Conroe) różnice są znaczne. Dawniej mierzyłem wartości dla np. E6400 na płycie Asus Commando, czyli na platformie starszej o praktycznie całą generację. O ile wartości dla obciążonego procesora są porównywalne, tak podczas bezczynności różnica jest ogromna - przykładowo dla napięcia ok. 1,28V 4W dla E8500 przy 35,2W dla E6400! Mowa tu o niestanardowych ustawieniach - przy wartościach automatycznych, gdy E6400 obniża znacznie napięcie zasilania, pobór mocy również mocno maleje (choć nie aż tak, o kolejnych kilkanaście W). Natomiast na ręcznie ustawionym napięciu, gdy nie następuje jego obniżenie, różnice są ogromne. Widać więc że zarządzanie energią w czasie bezczynności zostało bardzo usprawnione.
Odczytywałem też temperatury, korzystając z czujników wewnątrz procesora (na rdzeniach) i na płycie głównej. Korzystając z tych danych również można sporządzić wykres i próbować do czegoś dopasować, ale po pierwsze to by mocno odbiegało od głównego wątku tej publikacji, a po drugie te odczyty były bardzo orientacyje, bez ustabilizowania się temperatury itd. - po prostu "przy okazji".
Pomiar prowadzony był w temperaturze 23,5°C, stąd mniej więcej taki odczyt z płyty głównej dla najniższych napięć. Zachęcony niskim odczytem i małym poborem mocy postanowiłem nawet zdjąć radiator przy 0,85V - dało się, ale po kilku chwilach pracy pod obciążeniem nawet te kilka watów okazało się być za dużą ilością ciepła i temperatura dość szybko rosła ;).
Skoro już o temperaturze, to warto omówić jej wpływ na pobieraną moc. Nie zostało to uwzględnione w rozważaniach teoretycznych, a wprowadza pewną rozbieżność między moimi wyliczeniami a bardziej dokładnym przewidywaniem. Mimo że ze wzrostem temperatury opór w półprzewodnikach maleje, to jednak wzrost temperatury jest zdecydowanie niekorzystny. Po pierwsze, jak pisałem w części teoretycznej, im wyższa temperatura tym dłużej trwa propagacja sygnału, co ogranicza częstotliwość taktowania. Jeśli chodzi o moc, ze wzrostem temperatury rośnie prąd upływu bramki, zwiększając straty energii czyli pobieraną moc. Sądzę, że w zakresie temperatur w jakich odbywały się pomiary (temperatur na rdzeniach procesora od ~30°C do ~65°C) różnica w mocy wynosi ok. 10% - nie tak wiele aby wypaczyć zależności, jednak wystarczająco aby nieco je "zwichrować". Można było oczywiście próbować do wyliczeń teoretycznych dodać zależność od temperatury, jednak jako że dane nie są ścisłe, wprowadziłoby to raczej dodatkowy zamęt niż znacząco poprawiło wyliczenia.

7. Rachunek błędów, czyli tłumaczenie (się)
Przyczyn, dla których uzyskane wyniki odbiegają od wartości rzeczywistych jest mnóstwo. Wymienię i omówię te najważniejsze. Zaznaczam też od razu, że to co innego niż do tej pory - tym razem nie chodzi o różnice między wartościami wyliczonymi a uzyskanymi.
Przede wszystkim watomierz - prosty model, który ma dokładność z tego co się orientuję minimum +-10W. To bardzo dużo przy mierzeniu wartości rzędu 100W. To wprowadza dość dużą niedokładność, ale można przyjąć że błąd ten nie zaburza w sposób znaczący zależności między poszczególnymi pomiarami.
Druga sprawa to dość specyficzna metoda pomiaru wykorzystująca dodatkowy zasilacz, i to o dość niskiej sprawności. Mój sposób przybliżenia wartości rzeczywistej zakłada faktyczną sprawność zasilacza (+sekcji zasilania na płycie głównej) na poziomie ok. 60% dla odczytu 80W (przeliczony wynik dla tej wartości to 48,8W), przy czym sprawność ta rośnie wraz ze zwiększaniem mocy. Potencjalnie wprowadza to pewien (choć raczej niewielki) błąd, fałszujący obserwowaną moc, a w konsekwencji zależności.
Ostatni ze znaczących błędów to pewna "chybotliwość" pomiarów oraz czynnik ludzki. Obciążenie Orthosem z całą pewnością nie jest idealnie równomierne podczas całego pomiaru, więc tu są pewne wahania, podobnie sprawa ma się choćby z napięciem z gniazdka sieciowego itd., co w konsekwencji prowadzi do oscylowania odczytu na poziomie 2-3W. Takim błędem jest więc obarczony każdy odczyt, niezależnie od wszystkich wyżej wymienionych. W kwestii czynnika ludzkiego - mam nadzieję że byłem w miarę obiektywny i w razie czego myliłem się po równo w obie strony ;), chociaż niestety napięcia standardowego dla procesora jak wtedy nie zapisałem tak już nie odnajdę.
Reasumując, odczyt z pojedynczego pomiaru teoretycznie może być znacząca różny (nawet i ok. 20W!) od wartości rzeczywistej. Co jednak istotniejsze, mimo że wartości bezwględne poszczególnych pomiarów są obarczone dużą niedokładnością, różnice między pojedynczymi odczytami wynikające z błędów pomiaru nie są na tyle duże aby zaburzyć obserwowane zależności.


8. Podsumowanie
Czyli się trochę pobawiłem. Pomierzyłem nieco, powstawiałem w tabelki, zbudowałem wykresy, dopasowałem linie, policzyłem, porównałem, opisałem. Co z tego wynika? Właściwie niewiele. Zbadałem tylko 1 procesor - to akurat dość spory problem. Nikt, a tymbardziej ja, nie zagwarantuje że procesor innej firmy, z innej rodziny czy nawet bliźniaczy model będzie zachowywał się w idenyczny sposób - im bardziej podobny tym większe szanse, ale generalnie reguły może nie być; jest po prostu za mało danych.
Metoda też dość amatorska, za to przy bardzo różnych ustawieniach, choć po czasie widzę że np. pomiar zależności mocy od częstotliwości by się dla "bardziej standardowego" napięcia przydał. Na dodatek udałem, że używam statystyki do opisu wyników (na szczęście wykładowca też się dał nabrać ;)) - a wiadomo że są kłamstwa, większe kłamstwa i statystyka.
Więc żeby nie przesadzać z wnioskami wynikającymi z dopasowań "które rozumie tylko autor", nie będę twierdził że skoro "współczynnik korelacji między teorią a praktyką w najgorszym razie wyniósł 0,988" (część faktyczna) to "wszystko się niemal idealnie zgadza" (to już pewne nadużycie). Dużo bliższe prawdy jest stwierdzenie, że skoro otrzymałem takie wartości, to nie można odrzucić "hipotezy zerowej" (liniowa zależność mocy od częśtotliwości i kwadratowa od napięćia), choć nie można mówić o pełnym potwierdzeniu tej hipotezy. "Na oko" widać że rozbieżności są miejscami wyraźne (choć zależności "mniej więcej" wyglądają tak jak chce teoria) i żadne współczynniki tego nie zmieniają. Jedyną w miarę konkretną rzeczą wynikająca z pomiarów jest wniosek, że TDP niewiele ma wspólnego z faktycznie pobieraną mocą (a ta ostatnia dla testowanego procesora jest od TDP znacznie mniejsza) - to nie jest zaskoczenie, żeby dojść do takiego wniosku wystarczy porównać firmowe radiatory dla kilku rodzin procesorów o takim samym TDP.
Co jeszcze? Trochę teorii wrzuciłem - może to kogoś zainteresuje i np. zachęci do dalszego wgłębienia się w temat. Sam się najbardziej nad "prądem upływu bramk" zastanawiam, jaki na to wpływ ma technologia high-k metal gate z użyciem hafnu i co to ma wspólnego z fizyką kwantową (podpowiedź: tunelowanie elektronów przez izolator) - gdyby chcieć to zgłebiać, to nie przedstawiłem nawet wierzchołka góry lodowej ;).
Wywoławszy pewien mętlik w głowach Czytelników, nie pozostaje mi nic innego, niż zakończyć. Do następnego razu!

Ocena recenzji
Ocen: 15
Komentarze (3)
hubert (2011.01.20, 20:03)
#1
Ciekawy artykuł. Dobrze wiedzieć o czym się mówi ;)
pawełpclab (2011.01.20, 23:46)
#2
Witam.
Generalnie to jestem pod wrażeniem że cokolwiek Ci z tego wyszło.
Metodologia pomiaru z użyciem watomierza na pierwszy rzut oka wydaje się skazana na porażkę. Na pierwszy rzut oka zakres błędów watomierza powinien uniemożliwić takie doświadczenie, i jedyną sensowną metodą wydaje się pomiar napiecia i natężenia prądu we wtyczce.
Tak jest na pierwszy rzut oka.
Gdy się jednak wgłębić w temat jak taki watomierz działa. Poczytać datasheety i noty aplikacyjne układów mierzących energię to okazuje się że zastosowana przez Ciebie metoda pomiaru z użyciem watomierza wcale nie skazuje na porażkę.
Okazuje się bowiem że faktycznie poziom błędu tych układów to około 0.1-0.2%, co przy zakresie pomiarowym rzędu 3000W daje +-30W. Jednocześnie jednak nawet tanie kosztujące poniżej 2$ układy mają programowalne wzmocnienia napięcia wejściowego w zakresie 1-128. A że w takich miernikach są połączone z mikrokontrolerem to taki uC moze dynamicznie zmieniać zakres pomiarowy przez zmianę wzmocnień, a błąd układu to nadal 0.1-0.2W.
Mało tego wszystkie takie układy wykonują mnóstwo pomiarów na sekundę, wiec nawet jak watomierz nie dostosowuje automatycznie zakresu to pomiar jaki odczytujemy to statystyczna wartość mierzonej mocy obarczona statystycznym błędem.
Nie wiem czy powyższe jest jasne. Chodzi o to że odczytując wartość z takiego watomierza widzimy 'średnią' wartość z kilku/kilkunastu tysięcy pomiarów na próbce statystycznej. Dzięki temu nawet nie znając błędu miernika błędy te nie zabuzaja obserwowanych zależności. Tak jak pisałeś
Większą przyczyna błędu jest w tej metodzie sprawność zasilacza. Kilka dni temu pisałem w innym wątku że sprawność zasilacza ATX zależy od obciążenia i poniżej 15% wartości nominalnej spada ona drastycznie i jest bardzo zależna od obciążenia.
Twoje doświadczenie potwierdza i tę tezę.
p.s
Mógłbyś opisać co to był za watomierz użyty do pomiaru, może jakieś jego zdjęcie?
A jakby była możliwość rozkręcenia go i odczytania nazwy układu mierzącego energię to było by już super, choć to może być niemożliwe no chiński producent użyć tych układów w tych dziwacznych obudowach zalewanych lakierem w fabryce.

(ponoć zasilacze nie lubią być obciążane tylko z jednej linii).

układ sterujący zasilacza ATX mierzy napięcie tylko na jednaj linii, najczęściej 5V. Dlatego do jego poprawnej pracy potrzebne jest jakieś wstępne obciążenie na tej linii. Gdyby takiego obciążenia nie było to układ sterujący po naładowaniu kondensatorów na wyjściu 5V uznał by że skoro napięcie na 5V jest OK to nie ma potrzeby wysyłania impulsów na transformator. W tym czasie gdy układ sterujący byłby przekonany o poprawnym napięciu, napięcia na pozostałych liniach mogły by spaść nawet do 0


Edytowane przez autora (2011.01.21, 00:18)
cytod (2011.01.28, 20:07)
#3
Bardzo przyjemnie się czyta a i dowiedzieć czegoś sensownego można się było :) .
Artykuły tego typu tj 'od technicznej strony' przydały by się (regularnie) na pclabie.
Zaloguj się, by móc komentować