komentarze
*Konto usunięte*2016.03.28, 12:03
Hashi @ 2016.03.28 10:14  Post: 960833
SunTzu @ 2016.03.28 10:07  Post: 960831
(...)

Szczęść Boże ;)
Masz widzę godmode jeśli potrafisz z 20FPSami grać w np. wyścigówkach.

Jedyna gra którą jako tako bez v-synca ograłem i było spoko to GRID, ale tam były sporadyczne cięcia (mówię o wersji konsolowej).
Co do samego V-sync to dziwię się, ze dopiero teraz tłumaczy się o co biega. To chyba logiczne, ze V-sync to bufforowanie klatek i miernik fps jest tu bez sensu. Jedyny miarodajny miernik fps to taki który mierzyłby to na kablu PC - Monitor.

I powodzenia w wykręceniu dobrego czasu w nawet GRIDzie przy 20FPSach. Nie widzę powodu by to (V-Sync/FPS/buforowanie) tłumaczyć i zagłębiać się w tak oczywisty temat.
Jedyne co to można się pośmiać z jakości gorszej niż 'filmowej'.

Możesz udowodnić swoją rację ustawić FPS limit na 20 i pokazać jaki czas masz w GRID.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2016.03.28, 12:02
12#53
Brawo za artykuł, zastosowana metodologia testowa wymaga dużo pracy, ale jest jedyną wartościową, dającą realne wyniki.

Co do DX12 to ja mam głównie obawy. Przynajmniej w przetestowanych tytułach nie jest dużo lepiej niż na DX11, a nie działają niektóre narzędzia, od których jestem 'uzależniony'. Obawiam się jednak gównie czegoś innego. Obecnie jest tak, że deweloperzy tworząc grę działają niechlujnie, popełniają błędy i ostateczny wynik w znacznej mierze zależy od tego, któremu z producentów GPU uda się lepiej shackować grę (z reguły wygrywała tu Nvidia). Teraz już tak nie będzie, ale czy to będzie oznaczało, że deweloperzy będą bardziej się przykładali, będą poświęcą więcej czasu na testy na różnych konfiguracjach? Śmiem wątpić...

Jacek1991 @ 2016.03.28 09:33  Post: 960823
jestem prawie pewien , że ktoś z redakcji ma w domu starszy zestaw(lub czesci). Jak by sie poprosiło to jestem pewien, że znalazł bys ei ktos kto by mogł taki zestaw udostępnić w zamian np. za możliwość przyjrzenia sie redakcji od środka ;)

No nie wiem. Wylęgarnie orków i podziemne sale tortur Mordoru to widok dla czytelników o mocnych nerwach ;)
kacper995Zobacz profil
Poziom ostrzeżenia: 0%
kacper9952016.03.28, 12:00
Widac ze DX12 w tych grach nie jest tu bezstronne
deton24Zobacz profil
Poziom ostrzeżenia: 0%
deton242016.03.28, 11:59
Ciekawe ile będzie trzeba czekać na optymalizację DX12 w nowych produkcjach która to rzeczywiście zwolni z obciążenia procesor, jak to już od dawna było dobrze zaimplementowane w Mantle, które szkoda swoją drogą że jest martwe.
Może lepiej było na nim się skupić, developerzy, a nie na DX12 z którego co najwyżej kabza jest. Ale komu w interesie rozwiązywać problem narzutu sterowników AMD. Nawet sztandarowa optymalizacja z DX12 leży.
McixZobacz profil
Poziom ostrzeżenia: 0%
Mcix2016.03.28, 11:57
-10#50
Żywy @ 2016.03.28 11:53  Post: 960854
Sęk w tym ze te gry to tak naprawdę gry DX11 z na siłe dorzuconymi paroma linijkami kodu z DX12, Gearsy np. to dokładnie ten sam kod co sprzed 10 lat o czym otwarcie mówił deweloper, wiec siłą rzeczy to nie miało prawa działać tak jak powinno. Deus Ex tez będzie w wersjach DX11 i 12 wiec wzrost wydajnosci (o ile jakiś bedzie) będzie znikomy. Fable anulowano, wiec na prawdziwa gre napisana od podstaw w DX12 przyjdzie nam czekać do Gearsow 4, i tu tez kłody pod nogi bo gra będzie pisana pod UWP...


Po drodze masz jeszcze Watch Dogs 2 oraz Warhammer Total War gdzie obsługa DX12 jest robiona wspólnie z AMD więc powinna mieć mocny nacisk na wielowątkowość. A z obozu MS masz w ciągu następnego miesiąca Quantum Break, Killer Instinct 3 oraz Forzę Motorport 6 Apex. A na jesieni ma się na PC pojawić Forza Horizon 3.
ŻywyZobacz profil
Poziom ostrzeżenia: 0%
Żywy2016.03.28, 11:53
Sęk w tym ze te gry to tak naprawdę gry DX11 z na siłe dorzuconymi paroma linijkami kodu z DX12, Gearsy np. to dokładnie ten sam kod co sprzed 10 lat o czym otwarcie mówił deweloper, wiec siłą rzeczy to nie miało prawa działać tak jak powinno. Deus Ex tez będzie w wersjach DX11 i 12 wiec wzrost wydajnosci (o ile jakiś bedzie) będzie znikomy. Fable anulowano, wiec na prawdziwa gre napisana od podstaw w DX12 przyjdzie nam czekać do Gearsow 4, i tu tez kłody pod nogi bo gra będzie pisana pod UWP...
Jacek1991Zobacz profil
Poziom ostrzeżenia: 0%
Jacek19912016.03.28, 11:36
szefons @ 2016.03.28 11:32  Post: 960851
Nie jest prawdą, że nie można tak samo monitorować fps w dx12 czy vulkan tak jak to robi FRAPS i inne obecnie, po prostu jeszcze nie dodali obsługi.

Nie ma różnicy czy się podepniemy pod potok renderowania tak jak się to robi w grach dx poniżej 12 czy będziemy po prostu zliczać wywołanie funkcji, która owy obraz najdalej w potoku finalnie 'wypluwa', bo i tak podpinano się w potoku pod funkcję która jest na możliwym samym końcu przed przekazaniem dalej, więc to działa tak samo jak dotychczas, tylko zlicza zamiast wpinać się między.

W oryginalnej metodzie, używanej w fraps, rtss itp., też nie dostawaliśmy informacji z tego co faktycznie widzimy na monitorze, a ostatniej funkcji potoku.

FRAPS i inne działają tak latami i nikomu to nie przeszkadzało.

Oczywiście jest problem z UWP, ale to inna kwestia prawda, wymysłów m$.

Także, mimo wszystko dobrze, że zastosowaliście metodę jak do FCATa, bo nie ma obecnie jednego sprawdzonego narzędzia, które by mogło mierzyć wszystkie gry, no niby można się uprzeć, że się da, ale nie wiem jaki jest stan wiarygodności nakładki steam.

TAK czy siak, sprawa GIER.

Jak dla mnie to one są zrobione tragicznie, gears of war to jest tragedia z tymi wymaganiami, a to jest remaster, który wcale nie wyróżnia się graficznie, a cała reszta to port z 2007 roku i jest pewne, że nic tam nie zmieniali, ani kodu logiki gry, ani AI, a jakie wymagania ma gra z 2007 roku - śmieszne jak na dzisiejsze.

Tomb, łatka robiona po czasie, no i hitman, czyli wczesny dostęp w przebraniu, w żadnej z tych gier nie ma stabilności, a wieli ma spadki w dx12, to się po prostu nazywa padaka.

Więc dla mnie te gry nie są żadnym wyznacznikiem.

Tak samo liczyłem na quantum break, ale sytuacja tej gry tez wygląda na robioną na szybko, zwłaszcza zestawiając rzekome wymagania ze specyfikacją xone.

Każda ta gra jest pisana na dx12 pod zamówienie MS... nie ma co oczekiwać cudów.
Luk4sZobacz profil
Poziom ostrzeżenia: 0%
Luk4s2016.03.28, 11:36
Wygląda na to, że wbrew wielu opiniom i wbrew wielu materiałom marketingowym DX12, przynajmniej na początku, nie będzie świętym graalem PC gamingu. Przez to, że developer ma niskopoziomowy dostęp do sprzętu robi się jeszcze większy burdel z optymalizacjami. Słabsza wydajność DX12 vs DX11 to raczej choroba wieku dziecięcego, ale obawiam się rozbieżności w wydajności w zależności od gry (czyli w zależności kto posmaruje) będą na porządku dziennym.
szefonsZobacz profil
Poziom ostrzeżenia: 0%
szefons2016.03.28, 11:32
Nie jest prawdą, że nie można tak samo monitorować fps w dx12 czy vulkan tak jak to robi FRAPS i inne obecnie, po prostu jeszcze nie dodali obsługi.

Nie ma różnicy czy się podepniemy pod potok renderowania tak jak się to robi w grach dx poniżej 12 czy będziemy po prostu zliczać wywołanie funkcji, która owy obraz najdalej w potoku finalnie 'wypluwa', bo i tak podpinano się w potoku pod funkcję która jest na możliwym samym końcu przed przekazaniem dalej, więc to działa tak samo jak dotychczas, tylko zlicza zamiast wpinać się między.

W oryginalnej metodzie, używanej w fraps, rtss itp., też nie dostawaliśmy informacji z tego co faktycznie widzimy na monitorze, a ostatniej funkcji potoku.

FRAPS i inne działają tak latami i nikomu to nie przeszkadzało.

Oczywiście jest problem z UWP, ale to inna kwestia prawda, wymysłów m$.

Także, mimo wszystko dobrze, że zastosowaliście metodę jak do FCATa, bo nie ma obecnie jednego sprawdzonego narzędzia, które by mogło mierzyć wszystkie gry, no niby można się uprzeć, że się da, ale nie wiem jaki jest stan wiarygodności nakładki steam.

TAK czy siak, sprawa GIER.

Jak dla mnie to one są zrobione tragicznie, gears of war to jest tragedia z tymi wymaganiami, a to jest remaster, który wcale nie wyróżnia się graficznie, a cała reszta to port z 2007 roku i jest pewne, że nic tam nie zmieniali, ani kodu logiki gry, ani AI, a jakie wymagania ma gra z 2007 roku - śmieszne jak na dzisiejsze.

Tomb, łatka robiona po czasie, no i hitman, czyli wczesny dostęp w przebraniu, w żadnej z tych gier nie ma stabilności, a wieli ma spadki w dx12, to się po prostu nazywa padaka.

Więc dla mnie te gry nie są żadnym wyznacznikiem.

Tak samo liczyłem na quantum break, ale sytuacja tej gry tez wygląda na robioną na szybko, zwłaszcza zestawiając rzekome wymagania ze specyfikacją xone.
czarny2jZobacz profil
Poziom ostrzeżenia: 0%
czarny2j2016.03.28, 11:31
Blasterjaxx @ 2016.03.28 11:20  Post: 960849
Born @ 2016.03.28 09:12  Post: 960809
Po obejrzeniu wyników wygląda na to że AMD ma problem w DX12 z dwoma rdzeniami
Prawie o połowe mniej fps?

To samo w Hitmanie
Geforce stracił 1,5 fps, a Radeon? Ponad 10


Przecież oba procki mają dwa rdzenie więc skąd wniosek, że mają problem z dwurdzeniowcami? Skoro na i3 powiedzmy osiąga dobre wyniki to problem jest gdzie indziej

2 rdzenie i 2 wątki to zupełnie inna historia niż 2 rdzenie i 4 wątki
BlasterjaxxZobacz profil
Poziom ostrzeżenia: 0%
Blasterjaxx2016.03.28, 11:20
-8#44
Born @ 2016.03.28 09:12  Post: 960809
Po obejrzeniu wyników wygląda na to że AMD ma problem w DX12 z dwoma rdzeniami


Prawie o połowe mniej fps?

To samo w Hitmanie


Geforce stracił 1,5 fps, a Radeon? Ponad 10


Przecież oba procki mają dwa rdzenie więc skąd wniosek, że mają problem z dwurdzeniowcami? Skoro na i3 powiedzmy osiąga dobre wyniki to problem jest gdzie indziej
McixZobacz profil
Poziom ostrzeżenia: 0%
Mcix2016.03.28, 11:13
-7#43
Fuudimitzu @ 2016.03.28 10:53  Post: 960844

Gdzie czytałeś o współpracy AMD w WD2?


AMD poinformowało o tym na swojej stronie i na twitterze
https://twitter.com/Roy_techhwood/status/714255139419193346

motiffZobacz profil
Poziom ostrzeżenia: 0%
motiff2016.03.28, 11:11
-3#42
R4zen @ 2016.03.28 10:57  Post: 960845

Przecież to oczywiste, że GPU generując większą ilość fps będzie zużywać większą ilość energii, więc ten test jest zbędny

Nie takie oczywiste, bo wzrost efektywności w generowaniu klatek nie jest taki pewny, a jest czasem spadek hehe.
R4zenZobacz profil
Poziom ostrzeżenia: 0%
R4zen2016.03.28, 10:57
motiff @ 2016.03.28 10:50  Post: 960842
Na kartach Nvidii dx12 może nic nie dać, a z pewnością pojawią się czasem spadki wydajności.
Słowa dewelopera gry są oczywiste, dla 5-10% async computing wzrost niewielki wydajności u AMD, Nvidii żadne zyski i powoduje ogromne problemy optymalizacyjne.
It’s not surprising, then, to find out from Jonas Meyer’s (Lead Render Programmer at IO Interactive) GDC 2016 presentation Advanced Graphics Techniques Tutorial Day: Rendering ‘Hitman’ with DirectX 12 that NVIDIA cards gained no benefit from Async Compute, though IO Interactive claimed to be working with NVIDIA to fix this.

On the other hand, it’s quite surprising to read that even AMD cards merely got a 5-10% performance boost, especially after AMD endorsed HITMAN’s implementation as the best one yet. Async Compute, which has been used for SSAA (Screen Space Anti Aliasing), SSAO (Screen Space Ambient Occlusion) and the calculation of light tiles in HITMAN, was also “super hard” to tune; according to IO Interactive, too much Async work can even make it a penalty, and then there’s also the fact that PC has lots of different configurations that need tuning.

Do tego pobór prądu należy wzdrożyć testy na to, bo dx12 'rozwala' system

A sam cpu jest niedożyłowany

Nie wiem co palą w mikroka$ie i AMD, ale coś to cienko wygląda z tym dx12.

Przecież to oczywiste, że GPU generując większą ilość fps będzie zużywać większą ilość energii, więc ten test jest zbędny
FuudimitzuZobacz profil
Poziom ostrzeżenia: 0%
Fuudimitzu2016.03.28, 10:53
-8#40
Mcix @ 2016.03.28 10:21  Post: 960835
petertech @ 2016.03.28 10:01  Post: 960829

Jedna gra działa lepiej na karcie zielonych, druga na czerwonych, jedna szybciej na karcie X bo odpowiadają za to producenci itd. itp.


To jest nieuniknione. W czasach DX11 grę pisało się ogólnie i każdy z producentów miał taką samą możliwość optymalizacji. Najczęściej drivery lepiej optymalizowała Nvidia. W czasach DX12 za optymalizację gier odpowiada producent gry. Czyli jeżeli producent gry współpracuje z Nvidia to gra lepiej działa na Nvidia a jak współpracuje z AMD to lepiej wypadają karty AMD. Aktualnie mamy kilka gier DX12 oraz kilka innych ujawniło niedawno AMD. Rozkład wygląda następująco:

Nvidia:
- Rise of Tomb Raider
- Gears of War Ultimate

AMD:
- Hitman
- Watch Dogs 2
- Total War Warhammer
- Deus Ex Mankind Divided
- Ashes of Singularity

Na tą chwilę lepszy kontakt z deweloperami ma AMD. Dużo mogą zyskać na współpracy z Ubisoftem nad Watch Dogs 2. Na 99% Ubisoft ten sam silnik zastosuje w innych grach. Jeżeli Nvidia nie chce mieć kłopotów to szybko musi nawiązać współpracę z EA by zachować jakąś równowagę. Byłoby dla nich nieciekawie jeżeli AMD podpisałoby partnerstwo zarówno z Ubisoftem jak i EA


Gdzie czytałeś o współpracy AMD w WD2?

motiff @ 2016.03.28 10:50  Post: 960842

Nie wiem co palą w mikroka$ie i AMD, ale coś to cienko wygląda z tym dx12.


Wow, wzrost poboru prądu na radkach dość radykalny, temperatura też pewnie skacze do góry. Nie warte tych 5-10%.
R4zenZobacz profil
Poziom ostrzeżenia: 0%
R4zen2016.03.28, 10:52
michasu2 @ 2016.03.28 09:15  Post: 960812
Nie sądziłem, że taki portal jak Pclab może na tak wczesnym etapie wysnuwać wnioski na temat dx12. To nie jest Onet
Nie sądziłem, że można być takim ignorantem by to stwierdzić bez zapoznania się z całym artykułem:
'Dalsze testy różnych konfiguracji w DirectX 12 prawdopodobnie pozwolą wyciągnąć dokładniejsze wnioski, ale obecny zbiór wyników w trzech grach nie daje podstaw, by stwierdzić, że DirectX 12 zda egzamin lub nie.'
motiffZobacz profil
Poziom ostrzeżenia: 0%
motiff2016.03.28, 10:50
-18#38
Na kartach Nvidii dx12 może nic nie dać, a z pewnością pojawią się czasem spadki wydajności.
Słowa dewelopera gry są oczywiste, dla 5-10% async computing wzrost niewielki wydajności u AMD, Nvidii żadne zyski i powoduje ogromne problemy optymalizacyjne.
It’s not surprising, then, to find out from Jonas Meyer’s (Lead Render Programmer at IO Interactive) GDC 2016 presentation Advanced Graphics Techniques Tutorial Day: Rendering ‘Hitman’ with DirectX 12 that NVIDIA cards gained no benefit from Async Compute, though IO Interactive claimed to be working with NVIDIA to fix this.

On the other hand, it’s quite surprising to read that even AMD cards merely got a 5-10% performance boost, especially after AMD endorsed HITMAN’s implementation as the best one yet. Async Compute, which has been used for SSAA (Screen Space Anti Aliasing), SSAO (Screen Space Ambient Occlusion) and the calculation of light tiles in HITMAN, was also “super hard” to tune; according to IO Interactive, too much Async work can even make it a penalty, and then there’s also the fact that PC has lots of different configurations that need tuning.

Do tego pobór prądu należy wzdrożyć testy na to, bo dx12 'rozwala' system

A sam cpu jest niedożyłowany

Nie wiem co palą w mikroka$ie i AMD, ale coś to cienko wygląda z tym dx12.
michasu2Zobacz profil
Poziom ostrzeżenia: 0%
michasu22016.03.28, 10:31
-7#37
Kaiseroo @ 2016.03.28 09:18  Post: 960814
michasu2 @ 2016.03.28 09:15  Post: 960812
Nie sądziłem, że taki portal jak Pclab może na tak wczesnym etapie wysnuwać wnioski na temat dx12. To nie jest Onet
Koleś problem polega na tym że microsoft sam sobie bata na tyłka ukręcił chwaląc jaki to DX12 jest wspaniały, więc trudno żeby portale i ludzie ich nie krytykowali że nie jest wspaniale.

dobrze kolesiu
McixZobacz profil
Poziom ostrzeżenia: 0%
Mcix2016.03.28, 10:30
-15#36
Nolonzo @ 2016.03.28 10:27  Post: 960836
Mcix @ 2016.03.28 10:21  Post: 960835
(...)


To jest nieuniknione. W czasach DX11 grę pisało się ogólnie i każdy z producentów miał taką samą możliwość optymalizacji. Najczęściej drivery lepiej optymalizowała Nvidia. W czasach DX12 za optymalizację gier odpowiada producent gry. Czyli jeżeli producent gry współpracuje z Nvidia to gra lepiej działa na Nvidia a jak współpracuje z AMD to lepiej wypadają karty AMD. Aktualnie mamy kilka gier DX12 oraz kilka innych ujawniło niedawno AMD. Rozkład wygląda następująco:

Nvidia:
- Rise of Tomb Raider
- Gears of War Ultimate

AMD:
- Hitman
- Watch Dogs 2
- Total War Warhammer
- Deus Ex Mankind Divided
- Ashes of Singularity

Na tą chwilę lepszy kontakt z deweloperami ma AMD. Dużo mogą zyskać na współpracy z Ubisoftem nad Watch Dogs 2. Na 99% Ubisoft ten sam silnik zastosuje w innych grach. Jeżeli Nvidia nie chce mieć kłopotów to szybko musi nawiązać współpracę z EA by zachować jakąś równowagę. Byłoby dla nich nieciekawie jeżeli AMD podpisałoby partnerstwo zarówno z Ubisoftem jak i EA

Mało to razy widziałeś że gra sponsorowana przez AMD działała lepiej na Nvidii? Nie sugerowałbym się więc tą listą


Ale w DX12 jest mniej miejsca na optymalizację w sterownikach a więcej zależy od tego z kim współpracowali programiści. Niskopoziomowe programowanie w Vulkan, DX12 zawsze będzie optymalizowane pod jedno GPU.
*Konto usunięte*2016.03.28, 10:27
Świetny artykuł, dobrze że nie poszliście na łatwiznę. Widzę, że pracujecie również w święta :( Niestety takie uroki wielkich korpo.
Dodacie jakaś 1 kartę grafiki GTX7XX oraz HD7XXX/2X0?
I może w końcu cos zrobicie z tym agitatorem MS?
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.