Hipoteza: karta graficzna może być ograniczana przez źle dobrany procesor
Wieść gminna dotycząca ograniczania karty graficznej przez procesor nie wzięła się znikąd. Regularnie testerzy kart, komentując wyniki testów, używają stwierdzeń typu: „W tej grze wydajność najszybszych kart została ograniczona przez użyty w platformie testowej procesor”. A skoro testerzy z reguły korzystają z najszybszych w danej chwili CPU, często jeszcze solidnie podkręconych, to większość z Was pewnie myśli sobie, że mając słabszy układ, również doświadczy tego problemu. Swój udział w zbudowaniu tej hipotezy (na razie owo zjawisko traktujemy jako hipotezę, którą spróbujemy potwierdzić lub obalić) mają też liczne doświadczenia użytkowników, którzy wymienili w swoim komputerze kartę graficzną i zgłaszają, najczęściej na forach dyskusyjnych, że nie zaobserwowali wzrostu wydajności. Czy ta hipoteza jest zatem prawdziwa?
Żeby to zrozumieć…
…trzeba zdawać sobie sprawę, dzięki czemu na ekranie pojawia się klatka obrazu, a właściwie to dziesiątki klatek na sekundę. Gra, szczególnie typu FPS, trochę przypomina prawdziwe życie: nasze decyzje mają wpływ na to, co widzimy, jak się poruszamy itd. W realnym świecie możemy patrzeć w niebo, obserwować otaczających nas ludzi, jak i z nimi rozmawiać. Nasze zachowanie ma wpływ na to, co zrobią inni, ale finalnie to nie my podejmujemy za nich decyzje – nie sterujemy innymi. Dokładnie tak samo jest w grze – nasze działania (interakcja) mają wpływ na to, co robią inne postacie w grze, ale to komputer decyduje, na podstawie zaprogramowanych algorytmów, co się finalnie wydarzy. Wszystko to liczy właśnie procesor. To on jest odpowiedzialny za określenie pozycji przeciwnika, to on ustala trajektorię pocisku, ten zaś zadaje rany stosowne do miejsca, w które uderzy. Wystarczy spojrzeć na jakąkolwiek grę z serii Total War, by zrozumieć, o co chodzi: każdy z setek widocznych na ekranie żołnierzy wykonuje jakieś czynności (walczy w określony sposób). Każdy ruch postaci jest liczony przez procesor.
Za to karta graficzna jest odpowiedzialna za ostateczne przygotowanie geometrii obrazu (chodzi o kształt obiektów itp.), nałożenie tekstur oraz doświetlenie sceny.
Nie należy jednak sądzić (po rozmiarach powyższych opisów), że karta ma mniej pracy niż procesor. Z tego, co powiedzieliśmy, wynika jednak jasno, że w przypadku, gdy na ekranie jest wielu przeciwników bądź komputer musi obliczać skomplikowaną „fizykę” (na przykład sposób rozpadania się po wybuchu budynku, którego upadające fragmenty opisane są stosownymi algorytmami), procesor ma zdecydowanie więcej pracy niż wtedy, gdy oglądamy krajobrazy takie jak choćby w grze Crysis.
Czy procesor będzie ograniczał nową kartę graficzną? Przyjrzyjmy się przykładom. Na tapetę wzięliśmy drugą część Wiedźmina.
Momenty w grze zależne od wydajności karty graficznej, a momenty zależne od wydajności procesora
Na powyższym zrzucie ekranu wyraźnie widać, że z punktu widzenia procesora pracy nie ma zbyt wiele. Do policzenia jest raptem ruch konarów drzew i liści pod wpływem delikatnych podmuchów wiatru. Za to karta graficzna ma dużo więcej pracy. Musi przeliczyć nie tylko skomplikowaną geometrię wszystkich drzew i liści, ale też na każdy element nałożyć tekstury i obliczyć cienie, które w takim przypadku są bardzo skomplikowane (duża liczba obiektów, które przesłaniają światło słoneczne).
W takiej sytuacji nawet wolny procesor będzie w zupełności wystarczający do tego, aby płynność rozgrywki była zachowana. Natomiast karta graficzna musi być naprawdę szybka. W momencie, w którym zrzut ekranu został wykonany, wydajność GPU i CPU będzie wyglądała następująco.
Zaprezentowane poniżej wartości zostały uzyskane w miejscu przedstawionym na wcześniejszym zrzucie ekranu (jest to druga sekunda gry, czas przedstawiony na osi poziomej) na dwóch różnych konfiguracjach. Niebieska kropka to liczba klatek na sekundę, jaką osiągnął przeciętny procesor w połączeniu z, powiedzmy, „najszybszą na świecie kartą graficzną”. Czerwona kropka to liczba klatek na sekundę, jaką osiągnęła przeciętna karta graficzna w tym trybie w połączeniu z „najszybszym na świecie procesorem”.
Takie przykłady można, oczywiście, mnożyć i występują one w praktycznie każdej grze, niezależnie od gatunku. Poniżej kilka przykładowych zrzutów ekranu z popularnych gier, przedstawiających „momenty GPU”.
Momenty zależne od wydajności procesora
Na powyższym zrzucie ekranu dostrzegamy liczną grupę walczących rycerzy. Procesor dla każdego z nich musi OSOBNO liczyć zachowanie, „fizykę” ruchów, uderzeń, obrażeń itd. To wszystko jest bardzo skomplikowane i w tej grze duża liczba rdzeni procesora jest dość dobrze wykorzystywana. Z kolei z punktu widzenia karty graficznej nie ma tutaj zbyt wiele pracy. Na postaciach nie ma szczególnie wielu skomplikowanych tekstur, oświetlenie zaś nie natrafia po drodze na bardzo dużą liczbę obiektów.
W takim przypadku nawet względnie wolna karta graficzna w zupełności wystarczy do zapewnienia płynności, procesor natomiast powinien być z lepszej półki. Relacja wydajności (w tej sekundzie gry) będzie wyglądała następująco (opis kropek identyczny jak na poprzednim wykresie):
Podobnie jak w „momentach GPU”, tak i tutaj przykłady takich sytuacji można by mnożyć i wbrew pozorom mogą one stanowić nawet większość czasu gry – świetnym przykładem jest Crysis: Warhead.
Komputer jest tak szybki jak jego najwolniejszy element
Jeśli przeczytałeś poprzednią stronę, to powinieneś już wiedzieć, jak interpretować wykresy zamieszczone na tej stronie. Są one bowiem zapisem z testu przeprowadzonego we wcześniej opisanych momentach.
Komputer jest tak szybki jak jego najwolniejszy element? To stwierdzenie jest w zasadzie prawdziwe zawsze. Problemem jest wskazanie najwolniejszego podzespołu, no bo na jakiej podstawie określimy, że na przykład procesor jest wolniejszy od karty graficznej? Odpowiedź jest prosta: nie jest to możliwe. Ale prawdą jest, że liczba wyświetlonych w ciągu sekundy klatek w grze będzie równa temu, na co pozwoli najwolniejszy z duetu karta graficzna i procesor. Na szczęście istnieją sposoby na to, by zweryfikować, który element ogranicza osiągi.
Przygotowaliśmy jeden, bardzo krótki, test w grze Wiedźmin 2. Użyta karta graficzna to Sapphire Radeon HD 7970 Vapor-X. Jeśli chodzi o pojedyncze GPU, to w obozie AMD jest to „high-end”. Testy przeprowadziliśmy w rozdzielczości 1920 × 1080 w maksymalnych ustawieniach szczegółowości obrazu, w których ta karta powinna zapewniać pełną płynność.
Zamieszczone poniżej wykresy obrazują zmiany w liczbie klatek na sekundę w poszczególnych etapach testu. Linia niebieska przestawia osiągi procesora w połączeniu z „najszybszą na świecie” kartą graficzną, linia czerwona zaś – osiągi Radeona HD 7970 w parze z „najszybszym na świecie” procesorem. Czarnymi kropkami zaznaczyliśmy liczbę klatek na sekundę, jaką uzyskamy w każdej sekundzie testu. A uzyskamy tyle klatek, na ile będzie pozwalał wolniejszy z tandemu karta graficzna i procesor.
Podejście nr 1:
Zrobiliśmy rzecz straszną: połączyliśmy kartę Radeon HD 7970 za mniej więcej 2000 zł z procesorem za… 230 zł – Pentium G860. Wynik?
W pierwszych 9 sekundach testu (miejsce graficzne) procesor czekał na kartę – ta pracowała na maksimum swoich możliwości. Z kolei między 10. a 14. sekundą testu (miejsce procesorowe) to procesor się pocił, a „nudziła” się większość jednostek obliczeniowych karty. Wniosek? „Procesor ograniczył kartę graficzną” – nie może być inaczej, prawda? Dobrze, zamontujmy coś z lepszej półki, czyli solidnie przyspieszony Core i5-2500K.
Wnioski? W pierwszych 9 sekundach, podobnie jak po użyciu Pentium, karta była wąskim gardłem. Między 10. a 14. sekundą testu ograniczeniem był… ponownie procesor! Czyli co? Wniosek może być tylko jeden: Core i5-2500K podkręcony do 4,5 GHz ograniczył kartę graficzną.
A zatem czy do Radeona HD 7970 nie da się dobrać odpowiednio szybkiego procesora? Nic z tych rzeczy!
Wyjaśnienie
Po głębszej analizie powyższych wykresów doskonale widać, że w grze mogą występować zarówno miejsca „graficzne”, jak i „procesorowe”. W tych pierwszych ograniczeniem, czyli najwolniejszym elementem z duetu CPU i GPU, najczęściej bywa karta, w tych drugich zaś – procesor. To teoretycznie powinno wyjaśnić wszystko w temacie „ograniczania GPU przez CPU”.
Jak zatem należy dobierać procesor do karty graficznej (lub odwrotnie)?
Przede wszystkim, podobnie jak w przypadku kart graficznych, należy się kierować tym, w co się gra, a nie OGÓLNĄ wydajnością. Zestaw do gry w Metro 2033 oraz Crysis 2 będzie inny niż ten kupiony pod kątem GTA IV i StarCraft 2.
- Do Metro 2033 i Crysis 2 spokojnie można połączyć procesor klasy Intel Core i3 lub AMD FX-4300/6300 (nie trzeba ich podkręcać) z kartą klasy Radeona HD 7950/7970 lub GeForce'a GTX 670/680 – taki zestaw będzie w nich działał wyśmienicie.
- W przypadku GTA IV i StarCraft 2 wypadałoby się wyposażyć w minimum Core i5-3570K (ewentualnie w mocno podkręconego FX-a 8350) i połączyć go z kartą pokroju Radeona HD 7850 lub GeForce'a GTX 650 Ti.
Pierwszy zestaw (średnie CPU w parze z mocnym GPU) zupełnie się nie sprawdzi w StarCraft 2 czy GTA IV, podobnie jak drugi zestaw (bardzo mocne CPU współpracujące ze średnim GPU) nie będzie optymalnym wyborem do Metro 2033 lub Crysis 2.
Tak samo nie można się sugerować testem w grze, który został przeprowadzony w jednym miejscu testowym. W testach kart graficznych wybiera się miejsca możliwie najmniej zależne od wydajności procesora (idealny przykład to tych pierwszych 9 sekund z testu w drugiej części Wiedźmina). Takie testy nastawione są na to, by ukazać różnice między kartami graficznymi. W czasie gry mogą wystąpić (i najczęściej występują) momenty, lub nawet znaczące fragmenty, w których niezależnie od tego, czy w komputerze działa Radeon HD 7850 czy Radeon HD 7970, klatek w ciągu sekundy wyświetli się tyle samo. Wystarczy porównać wartości na tych oto dwóch wykresach:
Niezależnie od konfiguracji sprzętowej w każdej grze i w każdej sekundzie gry jeden podzespół z pary procesor i karta graficzna czeka na drugi. Sytuacja, w której karta zdoła wygenerować tyle samo klatek na sekundę w danym ustawieniu co procesor, jest równie prawdopodobna jak to, że po rzuceniu monetą ta wyląduje na boku. Tym samym nie ma czegoś takiego jak karta optymalna do danego procesora, podobnie jak nie istnieją procesory optymalne do poszczególnych kart graficznych. To dlatego, że karta jest zupełnie innego typu układem niż procesor. Operuje na innych danych, obliczenia wykonuje w inny sposób. Nie da się porównać CPU i GPU. A w grze praktycznie nigdy nie występuje sytuacja, w której CPU ma akurat tyle samo pracy co GPU. A jeśli nawet tak się zdarza, to trwa to ułamek sekundy.
Dobierając sprzęt, należy kupić najszybszy, jaki mieści się w założonym budżecie, ale zależnie od tego, jakie gry mają być uruchamiane, przesunąć nieco środki w kierunku procesora lub karty graficznej. To, czy potrzebne będzie nieco mocniejsze CPU, czy może nieco lepsze GPU, zależy od wielu czynników, z których najważniejszym jest zestaw gier.
Na przykład, gdy obecna konfiguracja to Core i3-2120 i Radeon HD 6870, wymiana tego drugiego na Radeona HD 7950 nic nie da w StarCraft 2 – praktycznie nie będzie różnicy w liczbie klatek na sekundę. Ale w przypadku Metro 2033 taka wymiana ma sens, i to bardzo duży. Odwracając sytuację: wymiana Core i3-2120 na Core i5-3570K do StarCraft 2 ma sens, nawet jeśli kartą jest Radeon HD 6870 lub podobnie wydajny model, ale z punktu widzenia miłośnika Metro 2033 będzie to wyrzucenie pieniędzy w błoto, gdyż akurat w tej grze liczba klatek na sekundę się nie zwiększy.
Recepta?
Ta jest prosta: należy przeanalizować test kart graficznych w danej grze, a zaraz potem (lub w odwrotnej kolejności) przeanalizować przeprowadzony w niej test procesorów. Oto przykład.
Najpierw wybieramy procesor do gry Battlefield 3:
Następnie wybieramy pod jej kątem kartę graficzną:
Inny przykład – Metro 2033
Wybieramy procesor do Metro 2033:
A następnie kartę graficzną:
Wyraźnie widać, że w tym drugim przypadku najlepiej jest kupić bardzo szybką kartę, na przykład Radeona HD 7950, ale procesor może być z niskiej półki, nawet taki za nieco ponad 300 zł.