Co w treści artykułu? Kolejno scharakteryzuję:
- chłodzenie powietrzem
- chłodzenie wodą
- chłodzenie suchym lodem i ciekłym azotem
- chłodzenie z wykorzystaniem przemiany fazowej
- inne sposoby chłodzenia
Mam świadomość, że dla sporej części z Was artykuł może wydać się banalny i powtarzający znane prawdy. Tak dzieje się zawsze przy pisaniu artykułu na pewnym poziomie ogólności, bez szczegółów i detali konstrukcyjnych. Znalezienie złotego środka nie jest łatwe, ale artykuł będą czytać nie tylko znawcy przedmiotu i doświadczeni użytkownicy, ale mniej wprowadzeni w tematykę, a zainteresowani informacjami jej dotyczącymi. I właśnie głównie do nich jest on adresowany. Zanim przejdę do szczegółów, trzeba omówić elementarne zasady i prawdy wynikające z podstaw fizyki.
Trochę fizyki
Proszę się nie denerwować – nie mam zamiaru stresować Czytelników wzorami i ich przekształceniami oraz zawiłymi wywodami termodynamicznymi. W zupełności wystarczy kilka prostych przykładów do wprowadzenia w zagadnienia ciepła i jego zachowania w otoczeniu. Zacznijmy od równoważności pracy i energii. Wystarczy zapamiętać, że zgromadzona energia (w jakiejkolwiek postaci) jest stanem materii, charakteryzującym się gotowością do wykonania pracy. Dlatego też jednostki, w których mierzymy pracę i energię są identyczne. Ponieważ otaczająca nas rzeczywistość nie jest idealna (nie pytajcie mnie dlaczego), to i przemiana energii w pracę obarczona jest pewną niedoskonałością. Niedoskonałość ta zwie się sprawnością i dotyczy każdej takiej przemiany. Polega to na tym, że jeżeli wprowadzimy do jakiejkolwiek maszyny 100 jednostek energii, to na jej wyjściu zawsze uzyskamy mniej. Im więcej, tym maszyna ma większą sprawność. Chyba jasne? Prościej się nie da!
A co z tą „znikającą” częścią energii? Bardzo dobre pytanie! W znakomitej większości przypadków (komputery, niestety, mają ogólną sprawność fatalnie małą) zamienia się ona w ciepło i jest bezpowrotnie tracona, przy okazji stanowiąc spory problem dla użytkownika maszyny. Dlaczego? Powoduje ona bezproduktywne, a często i niszczące, nagrzewanie jej elementów. Dodam jeszcze, że wykonana praca też zazwyczaj zamienia się w ciepło, co powoduje dalszy wzrost temperatury. Tu powoli zaczynamy wkraczać na znajomy grunt, ale jeszcze chwilę pomęczę Was teorią. Ułatwi to zrozumienie całości zagadnień związanych z chłodzeniem. Kilku mądrych uczonych ustaliło i doświadczalnie potwierdziło, że:
- ciepło przepływa od ciała gorącego do ciała chłodniejszego
- zamknięty układ cieplny dąży do wyrównania temperatur jego elementów składowych
- przepływające ciepło natrafia na swej drodze na opór, tzw. rezystancję cieplną
Fakty te wymagają omówienia. Przepływ ciepła pomiędzy ciałami może odbywać się trzema sposobami: poprzez promieniowanie, przewodzenie lub konwekcję. Kto kiedykolwiek siedział przy ognisku lub stał w pobliżu nagrzanego pieca, dobrze rozumie czym jest promieniowanie. Energia cieplna wypromieniowywana jest do otoczenia w postaci elektromagnetycznych fal podczerwonych. A próbował ktoś wziąć do ręki garnek, w którym zagotowała się woda? Trochę kłopotliwe, prawda? Dzieje się tak na skutek przewodnictwa cieplnego metalu, który przejął od wody część ciepła. Konwekcję (czyli unoszenie) najłatwiej zrozumieć na przykładzie termowentylatora, którym dogrzewa się mieszkanie późną jesienią, zanim uruchomione zostanie ogrzewanie docelowe. Ogrzewane prądem elektrycznym spirale owiewane są strumieniem powietrza, który odbiera od nich ciepło, rozprowadzając je po pomieszczeniu.
Na wyrównywanie się temperatur ciężko jest znaleźć dobry przykład, ponieważ dotyczy to układu idealnego, a takie nie istnieją. Ale... zimą otwierasz okno w jednym pokoju, a w drugim nie. Po kilku minutach różnice temperatury w obu pokojach będą łatwo odczuwalne. Jeżeli teraz zamkniesz okno i otworzysz drzwi pomiędzy pokojami, to po kilkunastu minutach temperatury w obu pokojach będą identyczne. Trochę to naciągane, ale nie wymyśliłem lepszego przykładu. A co z tą rezystancją cieplną? Weź do ręki zwykłą szmatkę i podnieś wspomniany wyżej garnek. Udało się? Tak, ponieważ umożliwiła to jej duża rezystancja cieplna.
Te fundamentalne prawdy dotyczące każdego układu cieplnego są podstawą do wytłumaczenia i zrozumienia najważniejszego parametru charakteryzującego element (cooler) używany do chłodzenia różnych części naszej maszyny (komputera). Parametrem tym jest współczynnik C/W, określający wydajność elementu chłodzącego, którego jednostka wyrażana jest w °C/Wat. Określa on stosunek różnicy temperatury (ΔT) pomiędzy powierzchnią coolera a temperaturą otoczenia, do rozpraszanej przez cooler mocy (W). Im współczynnik ten jest mniejszy, tym cooler ma większą zdolność do odbierania ciepła z układu (CPU, GPU itp.). Można też powiedzieć, że ma mniejszą rezystancję cieplną, czyli ciepło płynące z np. CPU do coolera napotyka na mniejszy opór.
Innymi słowy: C/W określa, o ile będzie wyższa temperatura radiatora od temperatury otoczenia przy wzroście mocy wydzielanej przez CPU o 1 Wat. Jeżeli CPU wydziela 100 W, a współczynnik C/W coolera wynosi 0,2, to temperatura radiatora będzie o 20°C wyższa od temperatury otoczenia.
Aby była pełna jasność, popatrzmy na wzór: C/W = ΔT/W, wyrażany w °C/Wat. Teraz dochodzimy do najczęściej powtarzanego błędu w sposobie myślenia użytkownika: co mnie obchodzi jakieś C/W, mnie interesuje o ile stopni spadnie temperatura CPU w mojej obudowie i o ile chłodniejszy będzie CPU.
Każda obudowa jest inna, inne też są elementy składowe (karta graficzna, chipset, elementy zasilające, wentylatory, pamięć) komputera i inne ich usytuowanie. Aby znaleźć odpowiedź na tak postawione pytanie, pozostaje jedynie metoda doświadczalna. Tak zwany „zdrowy rozsądek” podpowiada, że coś tu jest nie w porządku. Ale tylko pozornie. Otóż współczynnik C/W umożliwia porównanie zdolności do odprowadzania ciepła przez różne coolery. Im mniejszy jest współczynnik C/W danego coolera, tym niższą uzyskamy temperaturę coolera (a więc i w obudowie). W przybliżeniu można też określić jaka ona będzie, ale to zależy od zastosowanej konkretnej konfiguracji sprzętu.
Można przekształcić omawiany wzór, aby otrzymać wartość ΔT. Moc (z grubsza) znamy, więc wystarczy kilka elementarnych działań matematycznych. Natomiast jeżeli do tej samej obudowy włożymy cooler o współczynniku np. C/W=0,2 °C/Wat, a poprzednio mieliśmy 0,35 °C/Wat i temperaturę wewnątrz obudowy np. 45 °C, to możemy się spodziewać jej spadku do około 30-35°C. Dlaczego nie do T=0,2/0,35*45=26°C? Niestety, ale na temperaturę wnętrza obudowy wpływają jeszcze inne grzejące się elementy.
Uwaga: należy pamiętać, że osiągnięcie temperatury coolera niższej niż temperatura otoczenia jest niemożliwe. Przynajmniej w zazwyczaj stosowanym układzie, w którym powietrze lub woda do chłodzenia pobierane są z tego samego pomieszczenia, w którym umieszczony jest komputer. Wynika to z zasady wyrównywania się temperatur elementów układu cieplnego.
Chłodzenie powietrzem (Air Cooling)
Historycznie biorąc, jest to najstarszy sposób, stosowany do chłodzenia elementów komputera. Większość z Was zapewne pamięta czasy, gdy królował Celeron 300A. Nieświadomym wyjaśniam, że ten CPU, wyprodukowany przez firmę Intel, był swego czasu prawdziwym hitem, przynajmniej jeśli chodzi o podkręcanie. Prosty trik sprzętowy umożliwiał zmianę taktowania z 300 do 450 MHz, co dawało wzrost wydajności o 50%! Niekwestionowany przebój. A do tego wszystkiego sprawę chłodzenia CPU załatwiał niewielki, prawie niesłyszalny, wiatraczek.
Potem już nie było tak wesoło. Konkurencyjne Durony i Athlony grzały się znacznie, a i samo Pentium też powoli zaczęło zamieniać się w piekarnik. No dobrze. Na czym więc polega problem?
Powyższy rysunek przedstawia prostą w swojej istocie zasadę działania AC. To konwekcja ciepła w najczystszej postaci. Naprawdę nie ma tu nic skomplikowanego, ale... istnieje takie powiedzenie, że najlepszą obudową komputera jest jej brak! I nie bez powodu. Problem polega na tym, że cooler odbierający ciepło z CPU jest nagrzany do wysokiej temperatury. Wpływa to bardzo niekorzystnie na temperaturę wewnątrz obudowy. Wprawdzie zaawansowane technologicznie obudowy PC są wyposażone w odpowiednie kanały rozprowadzające zasysane z otoczenia i wydmuchiwane na zewnątrz powietrze, ale zazwyczaj wiąże się to ze wzrostem ilości działających wentylatorów. Przy mocach rzędu 70-100 W (i więcej) zaczyna pojawiać się problem wytwarzanego przez nie hałasu. Jeżeli jeszcze do tego dodamy hałas wentylatora karty graficznej – całość zaczyna przypominać odgłosy wydawane przez suszarkę do włosów.
Oczywiście – każdy ma to, co lubi. Jednemu będzie przeszkadzać, drugi będzie się chwalił. Ja nie lubię. Ponieważ problem nie mógł ujść uwadze producentów coolerów, rozpoczął się wyścig technologiczny o osiągnięcie jak największej wydajności cieplnej (czyli jak najmniejszego współczynnika C/W) przy jednoczesnym zminimalizowaniu hałasu. Istotnym etapem tego wyścigu było wymyślenie coolera używającego tzw. heat-pipe, czyli – po naszemu – ciepłowodów lub rurek cieplnych.
Grafika pokazuje zasadę działania tego pomysłu. Szczelna rurka jest wypełniona (ale nie całkowicie) cieczą o niskiej temperaturze wrzenia. Dodatkowo, panujące w rurce ciśnienie jeszcze obniża tę temperaturę. Rurka jednym końcem umocowana jest do elementu odbierającego ciepło z CPU, a drugim do radiatora, który je rozprasza. Radiator chłodzony jest wentylatorem, rozpraszającym i usuwającym na zewnątrz obudowy ciepło dostarczone przez rurki heat-pipe. Schłodzona ciecz opada na drugi koniec rurki, nagrzewa się i parując unosi do góry, przy okazji transportując ciepło do radiatora. I tak w kółko! Oczywiście to tylko zasada. Współczesne coolery wykorzystujące opisaną zasadę mają spore wymiary, wiele rurek heat-pipe i ważą niemało. Najlepsze modele osiągają C/W na poziomie 0,2 °C/Wat.
Istotnym elementem takich zestawów są wentylatory. I tutaj postęp technologiczny stara się, poprzez zwiększenie średnicy wentylatora i zmniejszenie jego obrotów, zredukować do akceptowalnego poziomu wydzielany hałas.
Fotografia przedstawia „najmocniejszy” obecnie cooler firmy Thermalright Ultra 120 Extreme. Oczywiście do kompletu potrzebny jest jeszcze wentylator, najlepiej wolnoobrotowy, o średnicy 120 mm.
Jak każde rozwiązanie techniczne, AC ma swoje wady i zalety, zależne od mocy wydzielanej przez CPU, którą cooler musi wyprowadzić na zewnątrz obudowy. Jest to kwestia umowna, proponuję trzy zakresy mocy: poniżej 70 W, 70 do 100 W i ponad 100 W. Dla CPU do 70 W, moim zdaniem, zastosowanie AC jest optymalnym rozwiązaniem: jest względnie ciche i tanie, cooler nie jest zbyt ciężki. W przedziale 70-100 W z ciszą pojawiają się problemy, cena nie jest już tak konkurencyjna, a samo urządzenie przybiera znacząco na wadze i rozmiarach. Chłodzenie AC zestawu z CPU powyżej 100 W zapewnia nam spory hałas, koszt i ciężar coolera. Dlaczego zwracam uwagę na ciężar? To kwestia mobilności naszej maszyny. Przy ciężarze coolera rzędu 800 – 1000 g może on całkiem zwyczajnie urwać się z zapinki podczas gwałtownego wstrząsu, bo przecież podczas transportu mogą się przytrafić różne sytuacje. Niektórzy producenci starają się zabezpieczyć użytkownika przed taką przykrością, stosując mocowanie coolera bezpośrednio do płyty głównej (cztery otwory wokół socketu CPU). Płyta jest jeszcze dodatkowo wzmocniona usztywniającą podkładką, umieszczoną z drugiej strony socketu. Ale, jak podkreślam – każdy ma to co lubi i nie mam zamiaru nikogo przekonywać na siłę, aby zmieniał upodobania lub przekonania.
Jest też faktem, że producenci starają się wprowadzać na rynek CPU nie wydzielające dużo ciepła, przy jednoczesnym zapewnieniu ich wydajności na niewiele niższym poziomie niż jednostki high-end (tzw. procesory Energy Efficient). Stwarza to dobre warunki do stosowania AC – jako najprostszego i najtańszego sposobu chłodzenia. Jeżeli jednak ktoś chce mieć poziom hałasu o jeden stopień niższy, to nie pozostaje mu nic innego jak wyposażyć swoją maszynę w układ chłodzenia wodą – WC (water cooling). I właśnie temu rozwiązaniu poświęcę kolejny rozdział artykułu.
Chłodzenie wodą (Water Cooling)
Są dwie podstawowe różnice pomiędzy chłodzeniem AC i WC. Pierwsza jest oczywista: to rodzaj chłodzącego maszynę medium. Druga nie jest tak spektakularna – powietrze odbiera ciepło z coolera bezpośrednio, natomiast woda – pośrednio. Wyjaśnia to poniższy rysunek.
Układ WC składa się z elementów na nim wyszczególnionych. Zasada działania jest następująca: ciecz chłodząca (niekoniecznie woda) ze zbiornika wpływa do pompki, która powoduje obieg cieczy w układzie. Po przejściu przez bloki wodne umieszczone na CPU i GPU, i odebraniu z nich ciepła, wpływa do chłodnicy, gdzie ulega schłodzeniu i powraca do obiegu.
Czyli najpierw mamy przewodzenie, potem konwekcję przez wodę i wreszcie konwekcję przez powietrze. W układzie zazwyczaj jeszcze umieszczone są czujniki przepływu, temperatury i poziomu cieczy. Najważniejszy z nich jest czujnik przepływu, który powinien wyłączyć maszynę w przypadku zaniku ruchu cieczy w instalacji.
Co z tą pośredniością? To chyba oczywiste – ciepło z CPU i GPU odbierają podstawy bloków wodnych i dopiero przepływająca ciecz chłodzi je, odprowadzając wydzielone ciepło. Po co takie sztuczki? Otóż jest po temu jeden bardzo istotny powód – zdolność wody do przejmowania ciepła jest 20 razy większa niż powietrza! To powoduje, że stosunkowo niewielka ilość wody jest w stanie odebrać duże ilości ciepła.
Niestety – nagrzaną wodę trzeba ochłodzić. Dokonuje się to w chłodnicy, która tak naprawdę nie jest niczym innym jak znanym już nam układem AC! Tak więc znów pojawia się problem hałasu. Na szczęście, ponieważ wody jest niewiele, a chłodnice są bardzo wydajne, wystarczy jeden lub dwa wolnoobrotowe wentylatory o średnicy 120 mm.
Można też problem ten rozwiązać radykalnie, stosując pasywną (bez wentylatora) chłodnicę. Rozwiązanie takie zaproponowała firma Zalman – jest to znany Reserator – chłodnica, zbiornik i pompka jednocześnie.
Wtedy hałasować (prawie niesłyszalnie) będzie jedynie pompka, ale coś za coś – z mobilnością maszyny będzie kiepsko.
Jeżeli nie przewidujemy wędrówek ze sprzętem – jest to rozwiązanie godne zastanowienia. Oczywiście zastanawiać się będą wyłącznie zwolennicy chłodzenia metodą WC.
Aby nie narazić się na powierzchowne potraktowanie tematu, wypada jeszcze powiedzieć, że WC można podzielić na tzw. układy zamknięte (taki jak powyżej) oraz otwarte. Różnica polega głównie na tym, że (przynajmniej teoretycznie) cieczy w układzie zamkniętym nie powinno ubywać, natomiast w otwartym – z definicji dolewamy jej od czasu do czasu. W układzie otwartym zbiornik na ciecz nie jest szczelnie zamknięty i zazwyczaj usytuowany jest na zewnątrz komputera.
Wiąże się to z jeszcze jedną sprawą – rozszerzalnością cieplną wody. W układzie otwartym problem nie istnieje. W zamkniętym obchodzi się go poprzez odpowiednie (w stosunku do lustra cieczy) umieszczenie króćców wlotu i wylotu zbiornika cieczy, których nie wolno pomylić! Króciec doprowadzający ciecz musi być usytuowany powyżej odprowadzającego. W firmowych zestawach układów WC króćce są odpowiednio oznakowane (We, Wy lub In, Out). Zbiornik cieczy w układzie zamkniętym z reguły umieszczony jest wewnątrz obudowy komputera.
Podobnie pompki – dzielą się na zatapialne i niezatapialne. Ze względów praktycznych pompki zatapialne stosuje się w układach otwartych. Klasycznym przykładem pompki zatapialnej jest pompka akwarystyczna, wykorzystywana do układów WC samodzielnie wykonywanych przez hobbystów, w początkach mody na WC, celem obniżenia kosztów. Dla jasności – pompka zatapialna (z uwagi na zasadę działania) musi być umieszczona wewnątrz zbiornika z cieczą, natomiast pompka niezatapialna jest umieszczona poza nim. Obecnie powszechnie producenci zestawów WC stosują niezatapialne pompki specjalizowane, a jedyna różnica to wartość zasilającego je napięcia, wydajności i wysokości podnoszenia. Pompki te charakteryzują się również doskonałą jakością i niezawodnością.
Napięcia i wydajności tłumaczyć nie muszę, natomiast wysokość podnoszenia określa zdolność pompki do skutecznego transportowania cieczy w pionie, przeciwko sile grawitacji. Z reguły zestaw WC jest tak zaprojektowany, aby woda ze zbiornika wpływała do pompki pod wpływem siły grawitacji, a powracała do niego właśnie dzięki zdolności podnoszenia.
Przy okazji chciałbym również rozwiać jeden z bardzo popularnych mitów, dotyczących średnicy przewodów łączących elementy składowe w układzie WC. Otóż zazwyczaj uważa się, że im większa jest średnica tych przewodów, tym lepsze rezultaty chłodzenia można uzyskać (czyli niższą temperaturę CPU i GPU). Jest to poniekąd prawda, ale nieporozumienie polega na tym, że użytkownik stosujący duże średnice przewodów spodziewa się spektakularnych różnic temperaturowych. Tymczasem osiągane różnice temperatur pomiędzy np. układem z przewodami o średnicy 8 i 12 mm nie przekraczają dziesiątych części stopnia Celsjusza! Kto mi nie wierzy – niech sprawdzi.
Stosując mniejsze średnice zyskujemy łatwość montażu i brak kłopotów z załamywaniem się przewodów – o wiele łatwiej jest wygiąć pod ostrzejszym kątem przewód o mniejszej średnicy bez ryzyka jego załamania i uniemożliwienia przepływu.
Teraz kilka słów o wadach i zaletach. Zaletą WC jest znacząca redukcja hałasu towarzyszącego pracy komputera. Dla niektórych ludzi jest to czynnik najważniejszy i decydujący. WC umożliwia też bez specjalnego wysiłku umiarkowany overclocking CPU i GPU, przy jeszcze akceptowanym wzroście poziomu hałasu.
Wady to: większa cena, mniejsza mobilność sprzętu, konieczność stosowania przynajmniej czujnika przepływu. Dla zupełnie „zielonych” w temacie dochodzi jeszcze konieczność powierzenia montażu specjaliście, bo pomyłki i niedokładności mogą być bardzo kosztowne.
Istnieje jeszcze jedno niebezpieczeństwo: przekroczenie tzw. punktu rosy. Problem polega na możliwości skroplenia się pary wodnej zawartej w powietrzu atmosferycznym na chłodniejszych od otoczenia elementach komputera. Woda na płycie głównej komputera to zazwyczaj kosztowny przypadek. Temperatura punktu rosy zależy od zawartości wilgoci w powietrzu oraz ciśnienia. Przykładowo, przyjmując temperaturę otoczenia 25°C i stałe ciśnienie, dla różnych wilgotności względnych powietrza otrzymamy następujące temperatury punktu rosy:
Jak widać, dopiero przy 100% wilgotności punkt rosy osiągnie temperaturę otoczenia. W praktyce taka sytuacja nigdy nie ma miejsca. Ale tu przestroga dla konstruktorów typu „pomysłowy Dobromir” – jeżeli dodacie lodu do wody w układzie otwartym lub skierujecie na chłodnicę powietrze o temperaturze niższej niż panująca w pokoju z komputerem, np. zimą spoza okna, to przynajmniej sprawdźcie higrometrem wilgotność w pokoju i popatrzcie na zaprezentowaną tabelkę. Woda skrapla się nagle i bez ostrzeżenia. Nieszczęście gotowe. Ale ja ostrzegałem!
Dyskusje, co lepsze – AC czy WC, są tak stare jak problem wyższości Świąt Bożego Narodzenia nad Wielkanocą i nie mają większego sensu. Niech każdy sobie założy takie chłodzenie, jakie uważa za stosowne. To kwestia indywidualnego wyboru, preferencji i upodobań. A zmienić je przecież zawsze można. I w ten sposób właśnie dotarliśmy do sposobu chłodzenia, którym interesuje się wcale niemała ilość osób. Z punktu widzenia zwykłego użytkownika, który trochę pogra, trochę porysuje, posłucha muzyki lub coś napisze – jest to sposób całkowicie nieużyteczny. Ale przecież nie wszyscy (na szczęście) muszą mieć takie same poglądy i hobby.
Chłodzenie suchym lodem (DI) i ciekłym azotem (LN)
Wyjaśnijmy to na początku – DI i LN to skróty od Dry Ice i Liquid Nitrogen. Wiadomo, że gatunek ludzki współzawodniczy ze sobą od tysiącleci w różnych dziedzinach. Zaczęło się od zdobywania pożywienia i przeżycia (lub nie) tego lub innego klanu pierwotnych myśliwych, a skończyło na rywalizacji współczesnych klanów o setne części sekundy w benchmarkach SuperPi. Gdyby ktoś nie wiedział (nie wierzę!) o co chodzi – jest to program obliczający liczbę π z określoną dokładnością (np. do 1 mln cyfr po przecinku). Czas wykonania obliczeń jest miarą wydajności CPU. Wiadomo, że program będzie liczył tym szybciej, im wyżej będzie taktowany CPU. Jest to pewne uproszczenie, wpływ na wynik ma jeszcze pamięć i chipset, ale nie wchodźmy w szczegóły.
Przetaktowany CPU grzeje się mocno, więc trzeba go dobrze schłodzić. „Dobrze” jest tu pojęciem względnym. Przy tego rodzaju współzawodnictwie istotna jest możliwość uzyskania ekstremalnie niskich temperatur CPU i utrzymania ich przez czas niezbędny do wykonania obliczeń przez CPU oraz uzyskania upragnionego komunikatu końcowego, zawierającego jak najkrótszy czas zakończenia całej operacji. Do tego celu hobbyści używają zestalonego dwutlenku węgla CO2 lub ciekłego azotu N2, które umożliwiają, odpowiednio, osiągnięcie (zależy to od ciśnienia atmosferycznego) temperatur około -78°C i -195°C.
Dwutlenek węgla sublimuje (czyli przechodzi ze stanu stałego bezpośrednio w gazowy) w temperaturze pokojowej dość wolno, natomiast skroplony azot paruje szybko. Sublimację CO2 przyspiesza (umożliwiając wydajne chłodzenie CPU) dodanie do niego spirytusu lub acetonu. Ale musi to być robione bardzo ostrożnie i w odpowiednich proporcjach.
Natomiast ciekły azot wlewamy bezpośrednio do naszej „aparatury”. Obie te technologie używają do osiągnięcia zamierzonego celu takie same elementy. Podstawowym jest odpowiednio przygotowana rura miedziana, tzw. kontener, otulona materiałem termoizolacyjnym (armaflex). Rura ta z jednego końca ma wspawane denko, które z zewnętrznej strony musi być płaskie, gładkie i wypolerowane.
Konstrukcja kontenera musi umożliwiać przymocowanie go do płyty głównej w taki sam sposób, jak mocowane są coolery, a okolice socketu CPU też muszą być jak najlepiej zaizolowane termicznie przy użyciu armaflexu i to z obu stron płyty głównej. CPU musi dokładnie dolegać do wypolerowanego denka rury.
Dla zajmujących się biciem rekordów w SuperPi są to banały. Celowo nie opisuję detali i szczegółów. Nie chcę mieć na sumieniu początkujących w tej dziedzinie. Tu naprawdę nie ma żartów, szansa na nieodwracalne uszkodzenie płyty głównej jest spora, bo niektóre z nich, ogólnie biorąc, nie tolerują takich prób.
Jeszcze kilka słów o przechowywaniu suchego lodu i ciekłego azotu. Ten pierwszy, jak już wspominałem, w warunkach temperatury pokojowej i bez dodatków sublimuje wolno. Dlatego też stosunkowo długo można go przechowywać w styropianowym pudle o grubych ściankach. Natomiast ciekły azot, który paruje szybko, można przechowywać (ale czas też jest ograniczony) w specjalnym termosie i bezpośrednio z niego podczas prób uzupełniać wrzącą w pokojowej temperaturze ciecz. Oba potrzebne entuzjastom ekstremalnego overclockingu media są łatwe do nabycia, ale o ile cena suchego lodu jest do zaakceptowania, to cena ciekłego azotu, razem z kaucją za termos, stanowi już spory wydatek.
Ciekawscy użyją w Google opcji zaawansowanego szukania, wybiorą język polski i wpiszą np. dry ice. Dowiedzą się wtedy o wiele więcej niż tu napisałem. A jest tej wiedzy „tajemnej” jeszcze całkiem sporo. Osobiście radzę stosować starą zasadę: zanim zaczniesz uczyć się pisma Quipu, opanuj dobrze własny alfabet...
Rada dla chcących spróbować: dowiedz się kto w okolicy robi takie rzeczy. Przyglądnij się dobrze, obserwuj, pytaj. Nie rób tego w pojedynkę! Nigdy nic nie wiadomo! Banalne, ale pomyśl przez chwilę: w niedużym pokoju, szybko wypełniającym się sublimującym dwutlenkiem węgla lub parującym azotem zabraknie miejsca na tlen! W tym przypadku omdlenie to najmniejszy problem. Może być gorzej. Nikogo nie straszę, ani nie odstręczam od prób. Ale dokładnie przemyśl co masz zamiar zrobić, bo potem może już nie być na to czasu! Wprawdzie krótkotrwały kontakt skóry z płynnym azotem nie powoduje żadnych konsekwencji, ale nie radzę sprawdzać ile on może trwać! I jeszcze jedno – cokolwiek robisz – rób w okularach ochronnych! Rękawice ochronne obowiązkowe!
Ponieważ zwykli użytkownicy też chcieliby mieć do dyspozycji CPU schłodzony do tak niskich temperatur (czyli podkręcony, o wiele szybszy komputer), co w przypadku profesjonalnego zajmowania się obróbką np. grafiki lub multimediów jest całkowicie zrozumiałe, pojawiło się rozwiązanie udostępniające taką możliwość. Co to takiego?
Chłodzenie z wykorzystaniem przemiany fazowej
Chłodzenie, które zapewnia stałą ujemną temperaturę CPU na poziomie kilkudziesięciu stopni, nie jest niczym innym jak specyficznie zbudowaną, doskonale wszystkim znaną, najzwyklejszą lodówką! Zazwyczaj ta metoda chłodzenia określana jest jako FC (Freon Cooling).
Zasada działania jest banalnie prosta: sprężony i następnie rozprężający się gaz obniża swoją temperaturę (darujemy sobie termodynamiczne wywody, dlaczego tak się dzieje). Proces ten odbywa się w tzw. parowniku, którego konstrukcja umożliwia przymocowanie go do CPU i trwałe jego chłodzenie. Jest to możliwe, ponieważ gaz w układzie jest na przemian sprężany i rozprężany, przechodząc nieustannie przez przemiany fazowe powodujące zmiany jego stanu skupienia.
W teorii brzmi to bardzo prosto, w praktyce układ jest dość skomplikowany i musi spełniać dość ostre kryteria techniczne, ale przecież lodówki są produkowane masowo na całym świecie! Z jedną różnicą – lodówka, która nas interesuje, umożliwia osiąganie znacznie niższych temperatur niż domowa. Lecz to jest jedynie kwestia odpowiedniego projektu, obliczeń i elementów.
Do napełnienia układu najczęściej stosuje się propan, zapewniający uzyskanie temperatury około -42°C, ale stosowane są i inne gazy, umożliwiające osiąganie niższych temperatur. Już słyszę pytanie: dlaczego więc nie stosuje się gazów dających najniższą temperaturę? Odpowiedź jest prosta: im niższa temperatura wrzenia gazu, tym niższej potrzebujemy temperatury aby go skroplić, co jest niezbędnym wymogiem trwania ciągłego procesu chłodzenia. Chęć osiągnięcia za wiele i zbyt szybko, zazwyczaj nie prowadzi do sukcesu. Jak sobie z tym problemem poradzić, omówię nieco dalej. Wymagane parametry temperaturowe zależą od rodzaju gazu oraz ciśnienia, pod jakim będzie pracował.
Rysunek poniżej przedstawia schemat i elementy prostego, jednostopniowego (czyli z jednym kompresorem) układu FC.
Jak widać, składa się on z: kompresora, odciążnika cieplnego, skraplacza, filtra, kapilary, parownika i odsysacza. Jaką rolę one pełnią? Wyjaśnijmy po kolei:
- Kompresor – zapewnia sprężenie gazu do takiego ciśnienia, aby uległ on skropleniu w skraplaczu. Poza mocą charakteryzuje go ciśnienie ssania – im mniejsze, tym lepiej, gdyż wtedy temperatura w parowniku będzie najniższa
- Odciążnik cieplny – niezbędny element układu, ułatwiający pracę skraplacza – oddaje tzw. „pierwsze ciepło” oraz redukuje drgania układu wywołane pracą kompresora. Zazwyczaj jest to kilka zwojów spiralnie zwiniętej miedzianej rurki o wewnętrznej średnicy 6 mm
- Skraplacz – intensywnie chłodzony powietrzem element, w którym skrapla się nagrzany na skutek sprężenia gaz. Dobór właściwej mocy skraplacza jest elementem decydującym o poprawnej pracy całego układu
- Filtr – spełnia w układzie dwojaką rolę: wyłapuje różne „ciała obce”, które mogły się do niego przedostać oraz usuwa wilgoć.
- Kapilara – jest to rurka miedziana z wewnętrznym otworem o średnicy około 0,8 mm. Pełni rolę zaworu rozprężającego, wywołując różnicę ciśnienia, dzięki czemu skroplony gaz rozpręża się w parowniku. Standardowa długość kapilary to około 3 m.
- Parownik – zapewnia odbiór ciepła z procesora, zazwyczaj jest wykonany z miedzi, o specyficznej konstrukcji wewnętrznej gwarantującej jak najdłuższe przebywanie rozprężającego się gazu w jego wnętrzu
- Odsysacz – zazwyczaj wykonana ze stali nierdzewnej elastyczna rurka, z wlutowanymi końcówkami z rurki miedzianej, umożliwiająca swobodną manipulację parownikiem
Mam świadomość, że zaledwie pobieżnie omówiłem temat jednostopniowego układu chłodzącego, wykorzystującego przemianę fazową gazu do chłodzenia CPU. Dla znawców tematu to śmiesznie mało, ale dla początkujących – całkiem sporo informacji. Konsekwentnie niemal zupełnie nie zajmuję się szczegółami konstrukcyjnymi. Napomknę tylko, że dzięki podgrzewaniu pewnych elementów parownika można rozwiązać problem punktu rosy.
Wspominałem o trudnościach związanych z uzyskaniem w opisanym układzie jeszcze niższych temperatur. Rozwiązaniem tego problemu jest tzw. kaskada. Na czym polega jej działanie? Kaskada jest połączeniem dwóch (lub więcej) układów jednostopniowych w taki sposób, że rozprężający się gaz w pierwszym stopniu kaskady nie jest kierowany do parownika, ale do wymiennika ciepła, w którym schładza gaz krążący w drugim stopniu kaskady.
Gazy obu obiegów nie mają ze sobą żadnego kontaktu, wszystko polega jedynie na wymianie ciepła. Oczywiście pozwala to na uzyskanie niższej temperatury gazu w drugim stopniu, niż pozwoliłby na to skraplacz.
Dalej już jest bez zmian: kapilara umożliwia rozprężenie skroplonego gazu w parowniku, a odsysacz drugiego stopnia kaskady przywraca gaz do obiegu. W rezultacie uzyskujemy niższą temperaturę parownika, a więc i CPU. Wygląda to dość prosto, ale w rzeczywistości pojawiają się problemy związane z obiegiem oleju smarującego kompresor – te kłopoty praktycznie nie występują w układzie jednostopniowym. Problemy są do rozwiązania: w układzie pojawia się separator oleju i zawór powrotu oleju. Początkującym nie radzę się tym bawić, a zaawansowani dobrze wiedzą, o co chodzi.
Teoretycznie biorąc możliwa jest konstrukcja nawet pięciokrotnej kaskady i osiągnięcie temperatur rzędu -150°C. Pojawia się jedynie pytanie o celowość wykonania i koszt takiego zestawu. Z całym szacunkiem dla cudzych pasji i ambicji – nie widzę w tym większego sensu.
Kilka lat temu użytkownicy o zasobnych portfelach mogli sobie zafundować gotowy zestaw jednostopniowy firmy Asetek (Vapochill) lub Chip-Con (Prometeia). Za jedyne kilkaset Euro otrzymywali zgrabną podstawę pod komputer, zawierającą wszystkie omówione elementy – łącznie z układami pomiarowymi, umożliwiającą ciągłe schłodzenie CPU od -25°C do - 48°C, zależnie od traconej w nim mocy. Obecnie produkcja tych urządzeń chyba została wstrzymana – nigdzie nie mogłem znaleźć oferty handlowej. Trudno się dziwić – wysoki koszt, produkcja niewielka. Interes przestał się opłacać.
Aby nieco ochłodzić zapaleńców, zamieszczam fotografię kaskady w amatorskim wykonaniu, którą znalazłem na serwisie VR-Zone.
Jak widać, zbudowanie układu, który umożliwia schłodzenie CPU do -111°C nie jest bułką z masłem. Do przemyślenia!
Powoli zbliżam się do końca tematów związanych z chłodzeniem. Zostały do omówienia metody inne niż opisane powyżej.
Inne metody chłodzenia
Przedstawię teraz jeden z rzadko dziś stosowanych sposobów chłodzenia – chłodzenie przy użyciu modułów Peltiera. Pojedyncze ogniwo Peltiera jest półprzewodnikowym złączem wykonanym na bazie tellurku bizmutu, domieszkowanego selenem i antymonem. Pomiędzy dwoma ceramicznymi płytkami, wykonanymi na bazie tlenków glinu, przylutowane są do miedzianych ścieżek szeregowo połączone złącza p i n.
Fotografia pokazuje typowy moduł Peltiera o niewielkiej mocy. Teraz nie obejdzie się bez minimum fizyki. W półprzewodniku typu p brakuje elektronów, natomiast w półprzewodniku typu n jest ich nadmiar. Zależnie od kierunku przepływu prądu część elektronów musi zwiększyć swoją energię, a część zmniejszyć. Może się to jedynie odbyć poprzez oddanie lub pobranie ciepła do otoczenia. Gdy jedna strona płytki się grzeje, druga się studzi. Od strony CPU mamy np. 0°C, a od strony coolera np. 70°C. I to w zasadzie wszystko.
W praktyce chłodzenie tym sposobem używane jest rzadko. Powodem jest konieczność odprowadzenia dwukrotnie większej ilości ciepła niż wydziela CPU oraz zastosowanie zasilacza prądu stałego o dużej wydajności prądowej. Tych wad nie jest w stanie zrekompensować brak części ruchomych i niewielka cena samego modułu. Energetyczna sprawność tego typu chłodzenia jest niewielka, a uzyskane temperatury nie usprawiedliwiają konieczności stosowania niezbędnego i drogiego chłodzenia wodnego. Chłodzenie powietrzem zupełnie się do tego nie nadaje. Do tego dochodzą jeszcze znane kłopoty z punktem rosy. Zdecydowanie odradzam.
Istnieje jeszcze jeden sposób chłodzenia CPU, o którym wspomnę z historycznego obowiązku. Gdy jeszcze nie było wspaniałego, rewolucyjnego, najbezpieczniejszego itp., itd., systemu operacyjnego Windows XP, całkiem niezłe rezultaty osiągało się metodą programową, wykorzystując rozkaz HALT w asemblerze. Specjalny program czuwał nad obciążeniem procesora i gdy tylko nie był on obciążany, kazał mu wykonywać rozkaz HALT, czyli nie pracować! Kto nie pracuje, ten się nie grzeje! Szczególnie podatne na tą metodę były Durony i Athlony w wersji K7. Z autopsji pamiętam, że w trybie idle (spoczynku) temperatura CPU spadła mi o około 10°C.
Zakończenie
Artykuł koncentrował się na chłodzeniu CPU i GPU. Oczywiście w komputerze istnieją jeszcze inne elementy, które można i należy chłodzić. Uznałem, że nie ma większego sensu prezentowanie chłodzenia RAM-u, chipsetów, tranzystorów MOSFET w liniach zasilających czy zasilaczy. Przecież z reguły chłodzone są przy użyciu AC lub WC, a artykuł ogólnie omawia metody chłodzenia, a nie koncentruje się na wybranych przykładach. Zapewniam, że jak dobrze poszukacie w sieci, to znajdziecie opisy przeróżnych konkretnych i ciekawych rozwiązań technicznych, łącznie z PSU chłodzonymi metodą WC!
W artykule z premedytacją pominąłem sposoby chłodzenia typu „pomysłowy Dobromir”. Inwencja ludzka jest niewyczerpana i ciężko jest zebrać wszelkie mniej lub bardziej sensowne i pomysłowe metody na obniżenie temperatury jakiegoś elementu komputera, o kilka lub kilkanaście stopni. Czasami takie rozwiązania działają dobrze, czasami powodują spore straty finansowe. Ale nie uważam, że jest to powód do wyśmiewania nieudanych „wynalazków”. Doświadczenia zebrane przy ich wdrażaniu zaprocentują w przyszłości. Jeżeli ktoś nie boi się rozebrać maszyny i wypróbować swój pomysł (choćby był kompletną porażką), to należą mu się duże brawa. W przyszłości ma szansę być dobrym inżynierem. Nie zmienia to zasady, że jednak lepiej i taniej jest się uczyć na cudzych błędach niż własnych. Co polecam wszystkim zainteresowanym sposobami chłodzenia wybiegającym poza uznane standardy AC i WC.
- Przeczytaj również: Core 2 Duo E6750 - krioterapia i wyniki