artykuły

Ashes of the Singularity BETA – test kart graficznych i procesorów w benchmarku DirectX 12

Ashes of the Singularity – test w benchmarku DirectX 12

233 24 lutego 2016, 19:00 Ł. Marek, R. Stanisławski, M. Brzostek

Ashes of the Singularity to najgłośniejsza pod względem technologicznym z nadchodzących gier. Zastosowano w niej dwie metody wyświetlania obrazu, z których jedna wykorzystuje DirectX 12, a druga – DirectX 11. Gra studia Oxide Games jest jeszcze w fazie beta i dostępna wyłącznie dla tych, którzy dołożyli się do kampanii finansowania na Kickstarterze. Tymczasem udostępniono nam benchmark, który podobno wiernie reprezentuje prawdziwą rozgrywkę. Sprawdziliśmy, jak różni się wydajność w trybach DirectX 11 i DirectX 12.

Spis treści

Obietnica DirectX 12

Powstałe w ostatnich latach niskopoziomowe interfejsy programowania kart graficznych (Mantle, DirectX 12, Vulkan) obiecują programistom większą kontrolę nad sprzętem. Ma z tego wynikać szereg zalet. Dobrze wykorzystane, mogą między innymi pozwolić na lepsze spożytkowanie mocy obliczeniowej kart graficznych, szczególnie w konfiguracjach z mało wydajnymi procesorami. 

Zmniejszenie wpływu wydajności CPU na płynność animacji to jedna z najbardziej kuszących obietnic, jakie składa DirectX 12. AMD w jednej z zeszłorocznych prezentacji pokazało taki oto diagram:

Wtedy nie powiedziano, jakiej gry dotyczy – teraz wiemy, że chodziło o Ashes of the Singularity. Wykres pokazuje czas, jaki spędziły poszczególne wątki procesora AMD FX na przygotowywaniu jednej klatki obrazu. Na fioletowo zaznaczono kod gry, czyli część programu odpowiedzialną za samą rozgrywkę, przetwarzanie danych z myszy i klawiatury, komunikację sieciową, symulację sztucznej inteligencji i tym podobne, na czerwono – czas spędzony na przetwarzaniu poleceń DirectX (część należącą do API i systemu operacyjnego), na niebiesko – pracę wykonaną dla sterownika karty graficznej, a na zielono – wyświetlanie obrazu na monitorze.

Dzięki zastosowaniu DirectX 12 zmniejszyła się całkowita ilość obliczeń potrzebnych do funkcjonowania sterownika graficznego, a pozostałą część rozłożono na większą liczbę wątków. Dzięki temu zasoby obliczeniowe procesora zostały wykorzystane w większym stopniu, a wyświetlanie obrazu trwało znacznie krócej.

Podobny wykres – choć dotyczący innego programu, czterowątkowego procesora Intela i zintegrowanego układu graficznego Iris Pro – przedstawił Microsoft. Oczywiście, pokazywane są wybrane przypadki, w których zysk z użycia nowego API jest szczególnie duży. Benchmark Ashes of the Singularity zapewnia pierwszą okazję, żeby sprawdzić, jak jest w praktyce.

 

 

O czym trzeba pamiętać, czytając ten test?

To jest benchmark wersji beta pewnej gry

Po pierwsze, mamy do czynienia z wersją beta. Jak ostrzega nas ekran startowy gry, ta beta spali nam komputer i zabije psa:

Sami pracownicy studia Oxide twierdzą, że ich implementacja DirectX 12 jest tylko jedną z wielu i jest daleka od doskonałości. Wyciąganie na jej podstawie wniosków o DirectX 12 lub w ogóle niskopoziomowych API byłoby skrajnie lekkomyślne.

Do tego Ashes of Singularity, strategia czasu rzeczywistego, nie jest przedstawicielem najbardziej popularnych gatunków gier. RTS-y nie kojarzą się z przełomami technicznymi w dziedzinie grafiki komputerowej i zwykle są cenione za aspekty inne niż estetyczne. Wyświetlanie mnóstwa pojazdów i pocisków nie jest typową pracą, jaką wykonują karty graficzne w trakcie gry, a tylko jednym z przykładów. Dlatego przekładanie obserwacji z Ashes... na inne gry byłoby bardzo pochopne. Jak twierdzi studio Oxide, benchmark wiernie odzwierciedla to, co zobaczymy na ekranie podczas zwykłej rozgrywki, ale i tak należy go traktować z rezerwą.

Testujemy ograniczoną liczbę konfiguracji

Po drugie, interakcja gry, API, sterownika graficznego i sprzętu to bardzo rozległy temat. Peceta można złożyć z tysięcy kombinacji podzespołów, a gotowej maszynie wydać polecenia (programy) na kolejne tysiące sposobów. Benchmark Ashes of Singularity prezentuje bardzo wiele informacji, nie tylko wyniki cząstkowe, pokazujące wydajność w kolejnych kilkusekundowych ujęciach pola walki. W trybie DirectX 12 może on zmierzyć czas spędzony na kolejnych zadaniach obliczeniowych potrzebnych do złożenia gotowej klatki obrazu. To pozwala rozdzielić przypadki, kiedy oczekujemy głównie na zakończenie przetwarzania czegoś przez procesor i kiedy czekamy głównie na kartę graficzną. To trochę za mało, by jednoznacznie określić, że to na przykład silnik symulacyjny gry albo sterownik graficzny najbardziej ogranicza wydajność, ale pozwala wyciągnąć pewne wnioski.

Niestety, nie da się przedstawić ogromu danych generowanych przez benchmark, a ich interpretacja byłaby problematyczna. Dlatego skupiliśmy się na sprawdzeniu, czy niskopoziomowe API spełniły wspomnianą obietnicę, a zatem czy DirectX 12 rzeczywiście przynosi spodziewane korzyści w tych konfiguracjach, które najbardziej ich potrzebują.

Strona:
chaostheoryZobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjichaostheory2016.02.24, 19:02
Wciąż wykonujemy pomiary, więc pojawią się jeszcze wyniki kolejnych konfiguracji. O zmianach poinformujemy w komentarzach. Nieco później pojawi się też podsumowanie tego testu.
olaf7733Zobacz profil
Poziom ostrzeżenia: 0%
olaf77332016.02.24, 19:05
25#2
Po pierwsze, mamy do czynienia z wersją beta. Jak ostrzega nas ekran startowy gry, ta beta spali nam komputer i zabije psa:

:E

Ale czego oczekiwać więcej po becie?
desvadeosZobacz profil
Poziom ostrzeżenia: 0%
desvadeos2016.02.24, 19:06
12#3
Mam nadzieję, że o nie koniec, bo testy z procesorami za 2000zł nikomu nie są potrzebne. Większość siedzi na znacznie słabszym sprzęcie i interesują ich wyniki i3-i5 I-IV gen a nie skylake'i.
00sebastianZobacz profil
Poziom ostrzeżenia: 0%
00sebastian2016.02.24, 19:07
30#4

Jednego można być już pewnym: DX12 nie pomoże procesorom AMD FX. Wypadały gorzej od Core i3 i lepiej już nie będzie
adisoZobacz profil
Poziom ostrzeżenia: 0%
adiso2016.02.24, 19:08
22#5
Toż to jeszcze gorszy sort gry niż Hitman. Nie dość, że beta, to jeszcze tylko benchmark w grze która w ogóle nikogo nie interesuje. Czekam na pradziwe DX12 w normalnej grze
mroczny sedesZobacz profil
Poziom ostrzeżenia: 0%
mroczny sedes2016.02.24, 19:08
olaf7733 @ 2016.02.24 19:05  Post: 952845
Po pierwsze, mamy do czynienia z wersją beta. Jak ostrzega nas ekran startowy gry, ta beta spali nam komputer i zabije psa:

:E

Walić psa. Ważne żeby kota nie ruszyło. ;-)
mediaexpertZobacz profil
Poziom ostrzeżenia: 0%
mediaexpert2016.02.24, 19:09
10#7
Ja bym tej becie nie wierzył ani za grosz. AMD ostatnio pokazało się jak sztucznie blokować karty konkurencji w Hitmanie
ghs2016.02.24, 19:10
-7#8
czyli to o czym kiedyś pisałem. nie powstał jeszcze procesor który nie będzie wąskim gardłem (w dx11) dla r9 290/390. na radeonach boost w dx12 robi wrażenie, karciochy zyskują drugie życie. widać mniej więcej z czym należy parować radki (oczywiście w dx12 bo zakup radka do gier dx11 to strzał w stopę). absolutne minimum minimorum do r9 380 to i3-6100, do r9 360 bez i5-6400 nie ma co startować
vacoZobacz profil
Poziom ostrzeżenia: 0%
vaco2016.02.24, 19:11
22#9
Zaczyna się zabawa w demka technologiczne i bzdurne testy wbudowane. Niczemu to nie służy niestety
FarCry3Zobacz profil
Poziom ostrzeżenia: 0%
FarCry32016.02.24, 19:12
-8#10
A to DX12 poprawia coś tutaj jakość grafiki czy nic?
Zaloguj się, by móc komentować
1