Karty graficzne
Artykuł
Tomasz Niechaj, Piątek, 25 stycznia 2013, 15:00

Wątpliwości w tej kwestii dręczą pecetowych graczy już przynajmniej kilka lat. Na samym forum PCLab.pl znajduje się kilkadziesiąt związanych z tym tematów, z których jeden ma blisko 800 odpowiedzi. Czy rzeczywiście procesor może ograniczać kartę graficzną? Czy trzeba go zmieniać, kupując nową, szybszą kartę? Dziś spróbujemy nieco ugryźć to zagadnienie. Przy okazji może uda się obalić kilka mitów :)

Hipoteza: karta graficzna może być ograniczana przez źle dobrany procesor

Wieść gminna dotycząca ograniczania karty graficznej przez procesor nie wzięła się znikąd. Regularnie testerzy kart, komentując wyniki testów, używają stwierdzeń typu: „W tej grze wydajność najszybszych kart została ograniczona przez użyty w platformie testowej procesor”. A skoro testerzy z reguły korzystają z najszybszych w danej chwili CPU, często jeszcze solidnie podkręconych, to większość z Was pewnie myśli sobie, że mając słabszy układ, również doświadczy tego problemu. Swój udział w zbudowaniu tej hipotezy (na razie owo zjawisko traktujemy jako hipotezę, którą spróbujemy potwierdzić lub obalić) mają też liczne doświadczenia użytkowników, którzy wymienili w swoim komputerze kartę graficzną i zgłaszają, najczęściej na forach dyskusyjnych, że nie zaobserwowali wzrostu wydajności. Czy ta hipoteza jest zatem prawdziwa?

Żeby to zrozumieć…

…trzeba zdawać sobie sprawę, dzięki czemu na ekranie pojawia się klatka obrazu, a właściwie to dziesiątki klatek na sekundę. Gra, szczególnie typu FPS, trochę przypomina prawdziwe życie: nasze decyzje mają wpływ na to, co widzimy, jak się poruszamy itd. W realnym świecie możemy patrzeć w niebo, obserwować otaczających nas ludzi, jak i z nimi rozmawiać. Nasze zachowanie ma wpływ na to, co zrobią inni, ale finalnie to nie my podejmujemy za nich decyzje – nie sterujemy innymi. Dokładnie tak samo jest w grze – nasze działania (interakcja) mają wpływ na to, co robią inne postacie w grze, ale to komputer decyduje, na podstawie zaprogramowanych algorytmów, co się finalnie wydarzy. Wszystko to liczy właśnie procesor. To on jest odpowiedzialny za określenie pozycji przeciwnika, to on ustala trajektorię pocisku, ten zaś zadaje rany stosowne do miejsca, w które uderzy. Wystarczy spojrzeć na jakąkolwiek grę z serii Total War, by zrozumieć, o co chodzi: każdy z setek widocznych na ekranie żołnierzy wykonuje jakieś czynności (walczy w określony sposób). Każdy ruch postaci jest liczony przez procesor.

Za to karta graficzna jest odpowiedzialna za ostateczne przygotowanie geometrii obrazu (chodzi o kształt obiektów itp.), nałożenie tekstur oraz doświetlenie sceny.

Nie należy jednak sądzić (po rozmiarach powyższych opisów), że karta ma mniej pracy niż procesor. Z tego, co powiedzieliśmy, wynika jednak jasno, że w przypadku, gdy na ekranie jest wielu przeciwników bądź komputer musi obliczać skomplikowaną „fizykę” (na przykład sposób rozpadania się po wybuchu budynku, którego upadające fragmenty opisane są stosownymi algorytmami), procesor ma zdecydowanie więcej pracy niż wtedy, gdy oglądamy krajobrazy takie jak choćby w grze Crysis.

Czy procesor będzie ograniczał nową kartę graficzną? Przyjrzyjmy się przykładom. Na tapetę wzięliśmy drugą część Wiedźmina.

Ocena artykułu:
Ocen: 55
Zaloguj się, by móc oceniać
shXh (2013.01.25, 15:08)
Ocena: 30

0%
Nie rozumiem :E





A tak na poważnie, to o ile przez pierwszy artykuł na ten temat (http://pclab.pl/art51525.html) ktoś mógł nie przebrnąć pomyślnie, to tutaj wszystko jest wyłożone łopatologicznie. Jeśli i tym razem ktoś nie zrozumie to nie ma dla niego ratunku :D
focus (2013.01.25, 15:10)

0%
tomcug @ 2013.01.25 15:08  Post: 632174
Artykuł oczywiście ciekawy, jednak wnioski są od dawna znane dla większości 'wyjadaczy' ;).

No ba! :) Ale gdybym nie uważał, że jest to potrzebne, to bym go nie napisał.

tomcug @ 2013.01.25 15:08  Post: 632174
Focus, co to za mapa na zrzucie z Crysisa? Przechodziłem tę grę kilka razy, ale za cholerę nie mogę sobie przypomnieć chociażby podobnej sytuacji :E.

Jeśli chodzi o GPU, to jest to pierwsza mapa z Warheada.
sideband (2013.01.25, 15:12)
Ocena: 6

0%
tomcug @ 2013.01.25 15:08  Post: 632174
Artykuł oczywiście ciekawy, jednak wnioski są od dawna znane dla większości 'wyjadaczy' ;). Focus, co to za mapa na zrzucie z Crysisa? Przechodziłem tę grę kilka razy, ale za cholerę nie mogę sobie przypomnieć chociażby podobnej sytuacji :E.

Warhead w zasadzie początek gry.
focus (2013.01.25, 15:21)

0%
Mam nadzieję, że artykuł przynajmniej dla większości będzie odpowiednio klarowny i zrozumiały. Jeśli będą wątpliwości, bądź trudności w zrozumieniu toku myślowego przedstawionego w artykule, chętnie będę odpowiadał w komentarzach.
Edytowane przez autora (2013.01.25, 15:22)
tomcug (2013.01.25, 15:23)
Ocena: 5

0%
sideband @ 2013.01.25 15:12  Post: 632177
tomcug @ 2013.01.25 15:08  Post: 632174
Artykuł oczywiście ciekawy, jednak wnioski są od dawna znane dla większości 'wyjadaczy' ;). Focus, co to za mapa na zrzucie z Crysisa? Przechodziłem tę grę kilka razy, ale za cholerę nie mogę sobie przypomnieć chociażby podobnej sytuacji :E.

Warhead w zasadzie początek gry.

Jakoś niespecjalnie kojarzę, zaraz odpalę z ciekawości :D. Tak na marginesie, przechodząc pierwszego Crysisa na Core i7-975 @ 4,5 GHz zauważyłem, że wymagania w stosunku do procesora ma sporo większe od Warheada. Praktycznie na każdej mapie jest masa miejsc, które są w stanie go zdusić do poziomu 30 FPS, czasem nawet mniej ;).
Edytowane przez autora (2013.01.25, 15:23)
focus (2013.01.25, 15:25)

0%
tomcug @ 2013.01.25 15:23  Post: 632186
sideband @ 2013.01.25 15:12  Post: 632177
(...)

Warhead w zasadzie początek gry.

Jakoś niespecjalnie kojarzę, zaraz odpalę z ciekawości :D. Tak na marginesie, przechodząc pierwszego Crysisa na Core i7-975 @ 4,5 GHz zauważyłem, że wymagania w stosunku do procesora ma sporo większe od Warheada. Praktycznie na każdej mapie jest masa miejsc, które są w stanie go zdusić do poziomu 30 FPS, czasem nawet mniej ;).

True, true, true - wymagania są ogromne nawet dla dzisiejszych maszyn.

Choć osobiście miałem jednak wrażenie, że Warhead jakoś zasadniczo lepszy pod tym względem nie był.
arval (2013.01.25, 15:26)
Ocena: 11

0%
Zasada wpływu CPU na GPU jest banalnie prosta. Każda komenda którą ma wykonać procesor GPU (za wyjątkiem shaderów itp.) jest przetwarzana wcześniej przez CPU. Jej parametry znajdują się w pamięci RAM. Tak więc procesor CPU musi taką komendę przetworzyć, przekazać ją razem z parametrami do karty graficznej która jest obsługiwana przez sterownik którego kod także wykonuje się na CPU.

Tak więc CPU+GPU jest ze sobą ściśle powiązane. Największym problemem jest przekazanie dużej ilości obiektów. Zwyczajnie procesory i magistrala są ograniczeniem dla ilości obiektów na scenie. Karta graficzna potrafi renderować miliony trójkątów ale nie ma jak ich dostarczyć/obsłużyć wydajnie przez tandem CPU+GPU(RAM+VRAM). Stąd pomysły takie jak tesselacja gdzie dodatkowa geometria pojawia się od razu po stronie GPU. Jednak prawdziwe złożone i interaktywne sceny z milionami obiektów wymagałyby znacznie lepszej współpracy CPU+GPU niż jest do dziś możliwe.
tomcug (2013.01.25, 15:27)
Ocena: 1

0%
focus @ 2013.01.25 15:25  Post: 632189
tomcug @ 2013.01.25 15:23  Post: 632186
(...)

Jakoś niespecjalnie kojarzę, zaraz odpalę z ciekawości :D. Tak na marginesie, przechodząc pierwszego Crysisa na Core i7-975 @ 4,5 GHz zauważyłem, że wymagania w stosunku do procesora ma sporo większe od Warheada. Praktycznie na każdej mapie jest masa miejsc, które są w stanie go zdusić do poziomu 30 FPS, czasem nawet mniej ;).

True, true, true - wymagania są ogromne nawet dla dzisiejszych maszyn.

Choć osobiście miałem jednak wrażenie, że Warhead jakoś zasadniczo lepszy pod tym względem nie był.

Warhead też ostro dawał w kość CPU, ale jednak nieco mniej, chociaż wymagania wciąż są bardzo duże ;).
Assassin (2013.01.25, 15:28)
Ocena: 20

0%
Phi, bzdury. Tu jest jedyny słuszny artykuł na ten temat:
:::

:E
Edytowane przez moderatora (2013.01.25, 15:37)
Zaloguj się, by móc komentować
Artykuły spokrewnione
Facebook
Ostatnio komentowane