artykuły

Call of Duty: Modern Warfare – test wydajności kart graficznych i procesorów

Powrót dobrych skryptów

42
4 listopada 2019, 14:24 Piotr Gołąb

W tym teście sprawdzimy jakie wymagania sprzętowe ma najnowsza odsłona Call of Duty: Modern Warfare i czy nowy silnik graficzny sprosta wymaganiom, jakie się stawia tytułom AAA. Zapraszamy do naszego testu

Spis treści

Call of Duty: Modern Warfare studia Infinty Ward to restart serii, która jest z graczami od 2007 roku. Debiut serii Modern Warfare był bardzo dobrze przyjęty i gra stała się klasykiem, do którego teraz inne tytuły są porównywane. Kampania dla pojedynczego gracza była bardzo dynamiczna i trzymała w napięciu przez cały czas. Spowodowane to było tym, że bardzo dużo sekwencji było oskryptowanych i po prostu sprawiały wrażenie uczestniczenia w dobrym filmie. Po restarcie serii oczekujemy dokładnie tego samego, dużo zapierającej dech w piersi akcji, ekscytujących pościgów i brutalności, a do tego oprawy audiowizualnej odpowiadającej standardom 2019 roku. Z tym ostatnim punktem możemy być spokojni, ponieważ najnowsza odsłona otrzymała nowy silnik graficzny, który wspiera wszystkie najnowsze technologie, łącznie ze śledzeniem promieni.

Call of Duty: Modern Warfare – wymagania sprzętowe

Najsłabsza konfiguracja, która zdaniem producenta gry nadaje się do jej uruchomienia w rozdzielczości 1920 × 1080 pikseli, to:

  • procesor – Intel Core i3-4340 3,6 GHz / AMD FX - 6300 3,5 GHz,
  • karta graficzna – GeForce GTX 670 2 GB / AMD Radeon HD 7950 lub lepsza,
  • pamięć operacyjna (RAM) – 8 GB,
  • nośnik danych – 175 GB,
  • system operacyjny – Windows 7 / 10 64-bitowy.

Zalecana konfiguracja do rozdzielczości 1920 × 1080 pikseli to:

  • procesor – Intel Core i5-2500K 3,3 GHz / AMD Ryzen 5 1600X 3,6 GHz,
  • karta graficzna – AMD Radeon R9 390 / GeForce GTX 970 4 GB lub lepsza,
  • pamięć operacyjna (RAM) – 12 GB,
  • nośnik danych – 175 GB,
  • system operacyjny – Windows 10 64-bitowy.

Teoretyczne wymagania sprzętowe najnowszej odsłony Call of Duty: Modern Warfare prezentują się bardzo skromnie. Czyżby nowy silnik graficzny miał małe zapotrzebowanie na moc obliczeniową? W głowie rodzi się wiele pytań, bo niskie wymagania naturalnie sugerują kiepską oprawę graficzną. A może po prostu podane wymagania są całkowicie nieadekwatne i tytuł będzie niegrywalny na rekomendowanych i minimalnych ustawieniach.

  • Rekomendowany CPU to Intel Core i5-2500K, procesor, który dzisiaj nie imponuje mocą obliczeniową, ale nadal duża liczba graczy nim dysponuje. Z kolei procesor AMD Ryzen 5 1600X jest dużo nowszą konstrukcją i wydajniejszą w porównaniu z Core i5-2500K. Przy czym obydwa te procesory w dzisiejszych czasach nie stanowić zapory, której gracze nie byliby w stanie pokonać, by cieszyć się przyjemną rozgrywką.
  • Rozdzielczość 1920 × 1080 pikseli wymaga minimum GeForce GTX 670 lub AMD Radeon HD 7950 z 2 GB pamięci VRAM. Tak niskie wymagania na pewno są przeznaczone do grania w minimalnych detalach i chyba nie koniecznie w rozdzielczości Full HD. Rekomendowane wymagania sprzętowe są dużo bardziej racjonalne, GeForce GTX 970 czy Radedon R9 390 to nadal są karty graficzne oferujące wydajność, która powinna być wystarczająca do grania w najnowsze tytuły w rozdzielczości 1920×1080 pikseli.

Miejsce testowe

W celu znalezienia miejsca testowego przeszliśmy całą kampanię dla pojedynczego gracza. Szukaliśmy takiej lokacji, która zapewni odpowiednią powtarzalność pomiarów i jednocześnie będzie odpowiednio obciążać układ graficzny. Ku naszemu zaskoczeniu okazało się, że takim miejscem jest sam początek gry. Widać, że graficy wzięli sobie do serca, że pierwsze wrażenie można zrobić tylko raz i trzeba je zrobić od razu. Nasz pierwszy spacer w grze przez oświetlony księżycem las jest pierwszą sceną, którą widzą gracze i teren ten prezentuję się fantastycznie, kolejne lokacje już nie mają takiego zapotrzebowania na moc obliczeniową.

 

Strona:
vegettoZobacz profil
Poziom ostrzeżenia: 0%
vegetto2019.11.04, 14:46
Coś kiepsko u Was Navi wypadły. Na innych portalach 5700 XT jest na poziomie 2070 Super, a tutaj to poziom 2060 Super. Ale się nie czepiam, bo to pewnie kwestia miejsca testowego. Ogólnie brawo za artykuł, bo testy gier zawsze mile widziane.
szymcio30Zobacz profil
Poziom ostrzeżenia: 0%
szymcio302019.11.04, 15:09
Wszystko zależy od miejsca testowego. Na pocieszenie GTX 1080Ti wciąż daje radę i niewiele ustępuje 2080 w 4K. Jednak widać, że pewne optymalizacje dały bardzo dobrą wydajność kart z serii RTX
DevizZobacz profil
Poziom ostrzeżenia: 0%
Deviz2019.11.04, 15:28
Kart z 4gb vram lepiej już nie kupować jeśli chcemy by karta posłużyła nam dłużej niż rok.
Edytowane przez autora (2019.11.04, 22:25)
DevizZobacz profil
Poziom ostrzeżenia: 0%
Deviz2019.11.04, 15:33
-2#4
Wpis usunięty przez moderatora
Edytowane przez moderatora (2019.11.04, 17:40)
daerraghZobacz profil
Poziom ostrzeżenia: 0%
daerragh2019.11.04, 15:59
20#5
GTX 1060 6GB daleko w tyle za RX 580 8GB. Chyba nVidia olala juz Pascale i nie optymalizuja sterow.
irokez85Zobacz profil
Poziom ostrzeżenia: 0%
irokez852019.11.04, 16:03
-3#6
4930k@4.4ghz do tego lekko podkręcony 1080ti i wszystko śmiga w ultra w 4k w stałych 60fps o ile renderowanie rozdzielczości ustawimy na 90% - nie zobaczysz różnicy między 90% a 100%!
addeptZobacz profil
Poziom ostrzeżenia: 0%
addept2019.11.04, 16:33
14#7
Serio GTX 1070 dostaje tak mocno w cztery litery od GTX 1660 Ti? Trochę dziwne. Czyżby Nvidia zaczęła olewać sterowniki do tych kart?
szymcio30Zobacz profil
Poziom ostrzeżenia: 0%
szymcio302019.11.04, 16:56
Skoro na kilkuletniej 970-tce można pograć w średnich detalach to nie jest tragicznie. Najwyższe ustawienia są bardziej wymagające w każdej grze więc po co powtarzać teorie spiskowe odnośnie sterowników. Co mają powiedzieć posiadacze Radeona VII;) Wydali tyle kasy a karty już na rynku brak.
lolek.oloZobacz profil
Poziom ostrzeżenia: 0%
lolek.olo2019.11.04, 17:36
U konkurencji Radeony znacznie lepiej wypadły :)
lolek.oloZobacz profil
Poziom ostrzeżenia: 0%
lolek.olo2019.11.04, 17:41
daerragh @ 2019.11.04 15:59  Post: 1221861
GTX 1060 6GB daleko w tyle za RX 580 8GB. Chyba nVidia olala juz Pascale i nie optymalizuja sterow.

To nie tylko to. Od samego początku polarisy znacznie lepiej wypadały od paskali w DX12(jako całe serie). Tutaj mamy grę pisaną pod DX12, więc po prostu różnica jest wyraźniejsza. To było wiadome od samego początku, że z myślą o grach DX12 lepiej brać GCN. Tyle że gier wykorzystujących DX12 na poważnie jest bardzo mało, a wydajność Polarisów, wkrótce może być już zbyt niska, do nowych gier.
Edytowane przez autora (2019.11.04, 17:43)
Zaloguj się, by móc komentować
1