Hipoteza: karta graficzna może być ograniczana przez źle dobrany procesor

Wieść gminna dotycząca ograniczania karty graficznej przez procesor nie wzięła się znikąd. Regularnie testerzy kart, komentując wyniki testów, używają stwierdzeń typu: „W tej grze wydajność najszybszych kart została ograniczona przez użyty w platformie testowej procesor”. A skoro testerzy z reguły korzystają z najszybszych w danej chwili CPU, często jeszcze solidnie podkręconych, to większość z Was pewnie myśli sobie, że mając słabszy układ, również doświadczy tego problemu. Swój udział w zbudowaniu tej hipotezy (na razie owo zjawisko traktujemy jako hipotezę, którą spróbujemy potwierdzić lub obalić) mają też liczne doświadczenia użytkowników, którzy wymienili w swoim komputerze kartę graficzną i zgłaszają, najczęściej na forach dyskusyjnych, że nie zaobserwowali wzrostu wydajności. Czy ta hipoteza jest zatem prawdziwa?

Żeby to zrozumieć…

…trzeba zdawać sobie sprawę, dzięki czemu na ekranie pojawia się klatka obrazu, a właściwie to dziesiątki klatek na sekundę. Gra, szczególnie typu FPS, trochę przypomina prawdziwe życie: nasze decyzje mają wpływ na to, co widzimy, jak się poruszamy itd. W realnym świecie możemy patrzeć w niebo, obserwować otaczających nas ludzi, jak i z nimi rozmawiać. Nasze zachowanie ma wpływ na to, co zrobią inni, ale finalnie to nie my podejmujemy za nich decyzje – nie sterujemy innymi. Dokładnie tak samo jest w grze – nasze działania (interakcja) mają wpływ na to, co robią inne postacie w grze, ale to komputer decyduje, na podstawie zaprogramowanych algorytmów, co się finalnie wydarzy. Wszystko to liczy właśnie procesor. To on jest odpowiedzialny za określenie pozycji przeciwnika, to on ustala trajektorię pocisku, ten zaś zadaje rany stosowne do miejsca, w które uderzy. Wystarczy spojrzeć na jakąkolwiek grę z serii Total War, by zrozumieć, o co chodzi: każdy z setek widocznych na ekranie żołnierzy wykonuje jakieś czynności (walczy w określony sposób). Każdy ruch postaci jest liczony przez procesor.