Toście wybrali dwie gry... żadne porównanie. Jeszcze ktoś wyciągnie błędne wnioski. Już kilku widzę takich się znalazło i zapewne na forach będą rozpowszechniać tezy, że CF od AMD 'przycina'. Ten test pokazuje że jest słabo jedynie w dwóch grach - komentujący: ogarnijcie się!
W każdej grze CF czy SLI może działać inaczej, gdzie Battlefield 4/3? Gdzie inne gry? Wybraliście te gry na który karty od Nvidii dobrze wypadają.
Sam tekst dobry jako ciekawostka, ale test zakrzywia rzeczywistość - przy błędnej interpretacji(co jak wiemy będzie i jest nagminne), a raczej nadinterpretacji.
Toście wybrali dwie gry... żadne porównanie. Jeszcze ktoś wyciągnie błędne wnioski. Już kilku widzę takich się znalazło i zapewne na forach będą rozpowszechniać tezy, że CF od AMD 'przycina'. Ten test pokazuje że jest słabo jedynie w dwóch grach - komentujący: ogarnijcie się!
W każdej grze CF czy SLI może działać inaczej, gdzie Battlefield 4/3? Gdzie inne gry? Wybraliście te gry na który karty od Nvidii dobrze wypadają.
Sam tekst dobry jako ciekawostka, ale test zakrzywia rzeczywistość - przy błędnej interpretacji(co jak wiemy będzie i jest nagminne), a raczej nadinterpretacji.
Ja piernicze. Napisałem dokładnie taki sam wpis (wraz z wykresami) na tym forum jakieś 3 lata temu (jeszcze przed zmianą forum) i nikt mi tam nie dał odpowiedzi. A najlepsze w tym wszystkim jest to, że użyłem do tego właśnie frapsa bez żadnego drogiego sprzętu. Dlaczego? Ponieważ fraps również mierzy czas generowania kolejnych klatek i tutaj nie ma nic do rzeczy, w którym miejscu potoku dokonuje on pomiaru, ponieważ silniki (większości gier) nie zaczną tworzyć kolejnych klatek do póki nie dostanie odpowiedzi z bufora gpu, którą ten wyśle dopiero gdy wyświetli klatkę. W pomiarze tym może np. przeszkadzać motion blur (szczególnie hdr), który jest pewną metodą aproksymacji kolejnych wyników. Ale ten często da się wyłączyć, więc ogólnie nie ma dużego problemu.
Pozdrawiam
@up mocny blur częściowo eliminuje problem plynnosci obrazu. Szybka scena = rozmyty obraz. Każdy klatka naswietlana jest przecież przez pelne 40 ms. Druga sprawa to algorytmy kompresji z kompensacja ruchu, które sprawiają ze niezbyt plynny obraz staje się przyjemniejszy w odbiorze. Każdy sposób podejścia do tematu sprowadza się do jednego - zanim zobaczysz klatkowanie obraz będzie już rozmyty.
Wydaje mi się, ze w dobie odpoiednich narzedzi testy powinny przeprowadzane z wlaczonym v sync, wtedy najlepiej będzie widać na ile klatek trzeba czekac ponad 16 ms, albo co gorsza ponad 33 ms. Wszystko byłoby jak na dloni. Chyba większość osob wlasnie tak gra. Ja np. zawsze i we wszystkie gry gram z v sync i staram się tak ustawiac ustawienia aby mieć stale 60 fps (nawet c3 i assassins 4), bo bardzo mocno odczuam zgubione klatki. Pod tym względem tez AMD mocno mnie zawiodło, ale nie wiem czy to skutek większego obciążenia cpu, przez co trudniej utrzymać 60 fps czy problem w mocnym szarpaniu obrazem pomimo 3x buforowania lezy w sterownikach.
Podpinam się pod prośbę, fajnie by było zobaczyć wykresy z v-sync włączonym. Osobiście gram tylko z włączonym, tearing jest dla mnie zbyt uciążliwy, po prostu nie da się patrzeć na rozerwany obraz
Interesująca kwestia to też, czy micro-scuttering może być spowodowany procesorem, a nie kartą graficzną? Co jeśli na jednym procesorze klatek będzie więcej, ale przez szarpanie obrazu realny komfort znika?
Ciekawi mnie jeszcze jedna kwestia, zarówno w przypadku testów cpu, jak i gpu znajdywane jest najbardziej wymagające miejsce testowe w grze. Jest to dla mnie oczywiste, pytanie jakie rodzi się to jak się gra w pozostałych momentach/na innych mapach itd. Czy można ogarnąć temat komfortu grania w grę jako całościowo?
Powiedzmy że w najgorszym miejscu procesor x ma 30 fps a procesor y 50 fps, co jeśli to jest powiedzmy jedyne pięć minut gry w których będzie widoczna taka różnica? Czy warto sobie czymś takim zawracać głowę?
Pozwolę sobie na komentarz - ciekawie napisany artykuł. Tak przy okazji, wreszcie chyba ludzie, dla których 'szarpanka' na multi-gpu nie istneje, bądź jest pomijalna, będa mieli żywy dowód...
Ja się nieskromnie podpisuję pod petycją o testowanie gier na nowych konsolach przy użyciu tego sprzęciora. Tam też będzie niezły cyrk
O ile da się zainstalować FCATa na konsolach, a to mało prawdopodobne.
Czemu mało prawdopodobne ? Z tego co ja zrozumiałem wystarczy materiał z rozgrywki, który przepuszczany jest przez komputer do nagrywania i obróbki materiału (ten z kartą), a wszystko idzie przez splitter obrazu, który omija HDCP i pozwala jednocześnie obserwować rozgrywkę w czasie rzeczywistym na drugim ekranie. Zamiast PC, który podaje sygnał do splittera będzie tutaj konsola - nie widzę za bardzo konfliktu, bo to takie same urządzenia. Karty przecież do konsoli nie wpinamy, a jest ona w tym dodatkowym PC.
Poza zobaczeniem samego wykresu z suchymi danymi warto też przeczytać o odczuciach osoby testującej:
Quite honestly it still is nothing to worry about as the overall plot is very smooth and the same spikes are noticeable with GTX 780 SLI as well.
Two such small incidents over almost 30 seconds honestly, is nothing much at all. The plotted charts make it looks worse then it in reality visually is.
O ile da się zainstalować FCATa na konsolach, a to mało prawdopodobne.
Czemu mało prawdopodobne ? Z tego co ja zrozumiałem wystarczy materiał z rozgrywki, który przepuszczany jest przez komputer do nagrywania i obróbki materiału (ten z kartą), a wszystko idzie przez splitter obrazu, który omija HDCP i pozwala jednocześnie obserwować rozgrywkę w czasie rzeczywistym na drugim ekranie. Zamiast PC, który podaje sygnał do splittera będzie tutaj konsola - nie widzę za bardzo konfliktu, bo to takie same urządzenia. Karty przecież do konsoli nie wpinamy, a jest ona w tym dodatkowym PC.
Właśnie że nie wystarczy, bo przed wysłaniem klatki obrazu na wyjście trzeba jej domalować pasek i trzeba to zrobić na samym gpu.
W jaki inny sposób niby sprawdzisz np ile w danym momencie klatek zostało pominiętych?
W sumie takich wyników się spodziewałem Co to by było gdyby oprogramowanie od zielonych pokazało że ich produkty są gorsze od produktów czerwonych To byłby strzał w stopę Szkoda że to oprogramowanie nie jest produkcji neutralnej
Chyba nie potrzeba nam użytkowników, którzy nie potrafią czytać tekstu ze zrozumieniem.
Jest to system do bezpośredniego mierzenia liczby klatek na sekundę wyświetlanych na ekranie monitora (czyli już na samym końcu potoku renderującego), a został zbudowany z [...] otwartych skryptów do analizy materiału, które napisano w interpretowanym języku oprogramowania, Perl. Takie podejście uniemożliwia Nvidii wykorzystanie FCAT-a do „brudnych sztuczek” przez zaniżanie lub zmianę wyników konkurencyjnych rozwiązań. [...] wszystkie skrypty do analizy wyników są dostępne w formie open source.
Chyba człekowi chodziło o to, że gdyby FCAT miał pokazać wyższość konkurencji to nV by do tego ręki nie przyłożyła. Nie chodziło o żadne brudy.
Chociaż z drugiej strony... doklejanie pasków w pearlu nie jest napisane więc potencjalny obszar do manipulacji by się znalazł.
Podobnie hurra-optymistycznie opinie o tym narzędziu wyrażały redakcje zachodnie rok temu. W praktyce wychodzi, że żadna z redakcji nie porzuciła testowania FRAPS-like. Testowanie single GPU tym narzędziem dokłada jedynie pracy, bo w kwestii szukania różnic w płynności nie wiele się zobaczy (zresztą sam chaostheory napisał, że single GPU są praktycznie pozbawione problemu stutteringu). Jedynych różnic można się doszukiwać w działaniu rozwiązań mulit GPU. A kiedy już to zrobimy wychodzi na to, że SLI z kart opartych na Keplerze radzi sobie względnie dobrze. Zostaje więc do testowania właściwie jak działa CrossFire i to czasu aż AMD naprawi Frame Pacing. Zachodnie testy pokazują, że na Thaiti nie jest już źle (ale napewno gorzej niż na NV), natomiast na Hawaii z XDMA wykresy wyglądają podobnie jak na NV. Wychodzi z tego tyle, że FCAT pozostanie raczej ciekawostką, bo już nie ma gdzie szukać sensacji. Poza tym w moim odczuciu zamiast zarzucać czytelnika dziesiątkami wykresów wystarczyłoby pare zdań o tym jakie wrażenie w kwestii płynności ma recenzent na kartach obu producentów (tym bardziej, że chaosthoery ma wyczulone oko ), a dopiero w razie wątpliwości na poparcie tezy posiłkować się wynikami z FCAT.
Przede wszystkim - dlaczego nie można zrobić tego najprostszą metodą, czyli GPU w momencie wysyłania gotowej klatki (czyli ostatniej fazie przed pojawieniem się obrazu na monitorze) nie wysyła informacji zwrotnej do kompa że wygenerował gotową, ostateczną klatkę? Wtedy kolejno zliczając te 'impulsy' wiedzielibyśmy odrazu jaki jest rzeczywisty framerate.
Druga sprawa (jeśli powyższe byłoby niemożliwe). Zamiast używać skomplikowanych, drogich narzędzi (mogących jeszcze wprowadzać dodatkowe opóźnienia) możnaby zrobić inaczej. Przed monitorem postawić kamerę rejestrującą obraz z dużą częstotliwością np. 500 razy na sekundę. Ona by nagrywała obraz bezpośrednio z monitora. Po podłączeniu jej do komputera 'kontrolnego' ten by zliczał z tego obrazu jak często zmieniał się on na monitorze. I automatycznie podawał framerate. Dodatkowa zaleta to to, że jeśli mamy wątpliwości (bo wyszły jakieś nietypowe wartości) lub chcemy sprawdzić wynik to wystarczy ten materiał spowolnić i przeliczyć 'własnym okiem'.
został zbudowany z karty przechwytującej nieskompresowany obraz
Jak już wyżej napisano - nie ma potrzeby unikania kompresji. Przecież tu zliczamy tylko te paski, właściwie można nagrywać tylko je. To znacząco zmniejsza zapotrzebowanie na szybkość zapisu strumienia video.
Karta do nagrywania obrazu została wyprodukowana przez zewnętrzną firmę
Nieoficjalnie zależną od Nvidii? (Dobra, żartowałem).
Samo nagrywanie obrazu z monitora nic nie da ani nie będzie dało się z niego w żaden sposób „wyciągnąć” liczby klatek
Dlaczego? Załóżmy że wydajność spadła do 2-3 fps (to oczywiście niegrywalny poziom, ale chodzi mi o coś innego). Tak niskie framrate można policzyć gołym okiem (i bez znaczenia czy vsync jest czy nie, bo zliczamy gotowe screeny z monitora). Więc framerate rzędu 50 czy 100 fps tak samo można zliczyć, tyle że jak wyżej pisałem kamerą wysokiej częstotliwości.
Już na etapie renderowania klatek do każdej z nich trzeba dodać kolorowy pasek, po lewej stronie ekranu
Dla oka te paski są bez znaczenia, zbyt szybko się zmieniają. Więc równie dobrze to mogła być informacja liczbowa (cyferki wyświetlane na tle obrazu).
Obraz przy wyłączonej synchronizacji pionowej tak naprawdę składa się z kilku różnych klatek
Tyle ze z punktu widzenia wizualnej płynności to bez znaczenia. Na monitorze pojawia się cały obraz, bez względu czy stanowi go jedna klatka czy kilka zmiksowanych (tearing). Więc czy będziemy mieli 60 fps z vsync czy 60 fps bez vsync to obraz jest tak samo płynny (tyle że lekko opóźniony przy włączonym vsync i tearowany przy wyłączonym).
Nagrywanie nieskompresowanego obrazu w rozdzielczościach rzędu 2560 × 1440 w 60 Hz to nie przelewki. Nie bez powodu na rynku panuje swoisty monopol firmy Datapath, która oferuje wspomnianą kartę zdolną nagrywać nieskompresowany obraz ze złącza DVI, ale kosztuje ona... 7 tys. zł (!).
Co jak wyżej pisałem (i nie tylko ja) mogło by być zupełnie zbędne.
a skoro Vision DVI-DL spełnia swoje zadanie znakomicie, to znaczy, że jest warta każdej wydanej na nią złotówki
Owszem, ale tam gdzie rzeczywiście jest potrzebna kopia obrazu 1:1 (bez kompresji).
Oprócz samego rozdzielacza sygnału oraz karty do nagrywania obrazu potrzebujemy całkowicie osobnego peceta, który obraz zapisze na dyskach oraz przeanalizuje materiał pod kątem liczby klatek na sekundę.
Jak wyżej - powinno być zbędne.
Okazuje się, że wymagania są dosyć duże, mowa bowiem między innymi o zainstalowaniu karty Datapath Vision DVI-DL w porcie PCI Express, który ma połączenie bezpośrednio z procesorem. Wykorzystanie portu PCI Express wyprowadzonego z układu logiki na płycie głównej skutkuje zbyt dużym opóźnieniem, powodującym gubienie klatek przez kartę do nagrywania, co dyskwalifikuje pomiar.
No właśnie, nie dość że sprzęt drogi to jeszcze sam może zafałszowywać pomiary. Dlatego najlepiej użyć kamery i nagrywać obraz bezpośrednio z monitora. Wystarczy kamera rejestrująca obraz z 60 lub 120 Hz (tyle co monitor), ale dla 'bezpieczeństwa' można użyć kamery z wyższą częstotliwością.
Zapisywanie 350–550 MB/s wymaga potężnego podsystemu dyskowego
No tak, nagrywanie pasków konkurujących swoją szczegółowością z obrazem z ZX Spectrum (lub z grafiką z pecetów sprzed 30 lat) wymaga dysków o prędkości pół terabajta na sekundę...
więc testowanie FCAT-em będzie też świetną okazją do sprawdzenia realnych możliwości nośników SSD!
Akurat szerokopasmowy zapis video jest sekwencyjny a nie losowy (czyli czas dostępu ma marginalne znaczenie, co za tym idzie nie trzeba SSD), żeby osiągnąć 0.5 TB/s wystarczyłby RAID 0 z HDD.
Klatki odrzucone. O klatce odrzuconej mówimy wtedy, gdy gra wyrenderowała ramkę obrazu, ale w obrębie całego potoku renderującego nastąpiło coś, co sprawiło, że ramka ta nigdy nie została wyświetlona na ekranie.
Tu (choć nie jest to tematem testu) moglibyście napisać co jest przyczyną odrzucania klatek. Z reguły gracze narzekają na deficyt a nie nadmiar klatek, a tu GPU sobie je odrzuca.
FCAT z kolei radzi sobie z tego typu sytuacją doskonale i wyłapuje wszystkie odrzucone ramki na podstawie analizy kolorowych pasków z lewej strony ekranu, co przedstawiamy na zrzucie ekranu:
Tyle że z punktu widzenia płynności nie ma to znaczenia (dlatego przy jednym GPU Fraps podaje wyniki podobne co FCAT).
Szkopuł w tym, że pojawiły się one na ekranie na mniej niż jedną milisekundę (!!!)
Chyba czegoś nie rozumiem. Przecież monitor (nawet 120 Hz) wyświetla każdą klatkę znacznie dłużej niż 1 ms.
...firma AMD w ogóle nie wiedziała, że ma problem z mikrozacięciami. Trochę rozjaśnimy: inżynierowie AMD wiedzieli, że klatki na sekundę nie są wyświetlane przez ich GPU w odpowiednich odstępach czasu, ale jednocześnie błędnie założyli, że konkurencja ma ten sam problem
Myślę że firma która potrafiła stworzyć HD7970 ma odpowiedni sprzęt diagnostyczny żeby zbadać przepływ klatek na poziomie elektronów (no dobra, lekko przesadziłem).
sideband @ 2014.01.25 15:41
Ps. Widziałem działanie crysis 3 na 3xtitan w 4k myślałem , że opluje monitor. Fps powyżej 60fps , a gra całkowicie niegrywalna.
Właśnie, możnaby jeszcze przetestować Triple / Quad SLI i CF.
Przede wszystkim - dlaczego nie można zrobić tego najprostszą metodą, czyli GPU w momencie wysyłania gotowej klatki (czyli ostatniej fazie przed pojawieniem się obrazu na monitorze) nie wysyła informacji zwrotnej do kompa że wygenerował gotową, ostateczną klatkę?
Ograniczenia DXa, nie da się. Jedynie w trybie windowed.... ale
.... do nagrywania klatek na danym kompie musisz użyć zasoby nawet shadowplay obniża wydajność trochę.
Druga sprawa (jeśli powyższe byłoby niemożliwe). Zamiast używać skomplikowanych, drogich narzędzi (mogących jeszcze wprowadzać dodatkowe opóźnienia) możnaby zrobić inaczej.
Nie masz tutaj żadnych opóźnień właśnie. Wszystko co generuje karta jest nagrywane na innym kompie. Każda inna metoda w praktyce może dać większe opóźnienia/
Przed monitorem postawić kamerę rejestrującą obraz z dużą częstotliwością np. 500 razy na sekundę.
To nic nie da. Nie da obiektywnego pomiaru, bo monitor nie wyświetla wszystkich wygenerowanych klatek dokładnie tak jak GPU posyła bez V-Sync-a, a z V-Sync też nie będzie działać, bo GPU nie będzie obciążone w 100%
Przed monitorem postawić kamerę rejestrującą obraz z dużą częstotliwością np. 500 razy na sekundę.
To nic nie da. Nie da obiektywnego pomiaru, bo monitor nie wyświetla wszystkich wygenerowanych klatek dokładnie tak jak GPU posyła bez V-Sync-a, a z V-Sync też nie będzie działać, bo GPU nie będzie obciążone w 100%
Zaraz, czyli metoda z kamerą jest lepsza od metody z kartą zapisującą obraz.
Ponieważ nie chodzi tu o obraz wygenerowany czy nawet wysłany na monitor, a o obraz wyświetlany.
Dlatego jeżeli monitor ma 60hz a karta generuje 120fps, to generuje klatkę co 8ms a monitor każdą wyświetla co 16ms, czyli z połową klatek stanie się... no właśnie co? Poza tym, jak już wcześniej było wspomniane, gpu zapisujące obraz pokazuje, że klatka pojawia się na 1ms, co nie ma na monitorze miejsca, gdyż klatka musi być wyświetlana przez 16ms (jedna lub kilka na raz). Różnica między tymi pomiarami sprowadza się do tego, że zapisanie obrazu przez DVI pokaże rzeczywistą ilość klatek wygenerowanych i wysłanych, a kamera pokaże rzeczywistą ilość klatek wyświetlonych, która nie może być większa od 60 lub 120 (zależnie od monitora), ale na jednym zdjęciu może być kilka klatek.
Tak czy inaczej sprawa jest do zbadania. Jeżeli redakcja podchodzi do tej metody testowania bardzo poważnie, to powinni sprawdzić jak będzie wyglądał obraz zapisany i z kamery. Bo ten z kamery będzie tym który naprawę widzimy. Zapisany nie uwzględnia monitora. I może da się tą metodą zmierzyć input lag. Ale to już zupełnie inny temat.
Powiedzcie mi droga redakcjo w ilu fps i jakiej rozdzielczości nagrywacie filmy do mierzenia na tym waszym komputerze za 10k+
Bardzo mnie to ciekawi
Dobre pytanie...
Przy sprzęcie do nagrywania mamy podane 2560 × 1440, a platformie testowej 3840 × 2160
Natomiast FPS leci taki jaki jest czyli każda klatka posłana jest zapisywana...
Też dziwne jest to, że sprzęt do nagrywania jest jakby trochę mocniejszy od sprzętu do testowania...
.... i7 3820 vs 2600k
O tyle się zastanawiam tutaj, bo 2600k powinien być lepszy do nagrywania jako, że ma zintegrowany kontroler PCI-E
Relativy @ 2014.01.26 09:59
SunTzu @ 2014.01.26 08:46
@up
(...)
To nic nie da. Nie da obiektywnego pomiaru, bo monitor nie wyświetla wszystkich wygenerowanych klatek dokładnie tak jak GPU posyła bez V-Sync-a, a z V-Sync też nie będzie działać, bo GPU nie będzie obciążone w 100%
Zaraz, czyli metoda z kamerą jest lepsza od metody z kartą zapisującą obraz.
Nie wiem skąd Ci przyszło do głowy, na pewno nie z mojej wypowiedzi
Relativy @ 2014.01.26 09:59
Ponieważ nie chodzi tu o obraz wygenerowany czy nawet wysłany na monitor, a o obraz wyświetlany.
Dokładnie, a ja pisałem, że obraz wyświetlany przez monitor nie nadaje się do analizy.
Relativy @ 2014.01.26 09:59
Dlatego jeżeli monitor ma 60hz a karta generuje 120fps, to generuje klatkę co 8ms a monitor każdą wyświetla co 16ms, czyli z połową klatek stanie się... no właśnie co? Poza tym, jak już wcześniej było wspomniane, gpu zapisujące obraz pokazuje, że klatka pojawia się na 1ms, co nie ma na monitorze miejsca, gdyż klatka musi być wyświetlana przez 16ms (jedna lub kilka na raz). Różnica między tymi pomiarami sprowadza się do tego, że zapisanie obrazu przez DVI pokaże rzeczywistą ilość klatek wygenerowanych i wysłanych, a kamera pokaże rzeczywistą ilość klatek wyświetlonych, która nie może być większa od 60 lub 120 (zależnie od monitora), ale na jednym zdjęciu może być kilka klatek.
Tak czy inaczej sprawa jest do zbadania. Jeżeli redakcja podchodzi do tej metody testowania bardzo poważnie, to powinni sprawdzić jak będzie wyglądał obraz zapisany i z kamery. Bo ten z kamery będzie tym który naprawę widzimy. Zapisany nie uwzględnia monitora. I może da się tą metodą zmierzyć input lag. Ale to już zupełnie inny temat.
Dlatego się nie nadaje. Bo monitor bez v-synca wyświetli Ci z dużym prawdopodobieństwiem 60 różnych klatek/s, ale nie będą to pełne klatki, ale tearing....
możesz właczyć v-synca, ale wtedy GPU nie będzie obciążone w 100% i wprowadza losowość, bo niepewność pomiarowa będzie na poziomie 1FPS-a co przy np. 25 FPSów jest dużo.
Dlatego jeżeli monitor ma 60hz a karta generuje 120fps, to generuje klatkę co 8ms a monitor każdą wyświetla co 16ms, czyli z połową klatek stanie się... no właśnie co?
W tym samym czasie zostanie wyświetlona więcej niż 1 klatka. To jest właśnie źródło zjawiska tearingu. O tym, że na monitorze wyświetlane są więcej niż 1 klatka informują te kolorowe paski po lewej.
W każdej grze CF czy SLI może działać inaczej, gdzie Battlefield 4/3? Gdzie inne gry? Wybraliście te gry na który karty od Nvidii dobrze wypadają.
Sam tekst dobry jako ciekawostka, ale test zakrzywia rzeczywistość - przy błędnej interpretacji(co jak wiemy będzie i jest nagminne), a raczej nadinterpretacji.
W każdej grze CF czy SLI może działać inaczej, gdzie Battlefield 4/3? Gdzie inne gry? Wybraliście te gry na który karty od Nvidii dobrze wypadają.
Sam tekst dobry jako ciekawostka, ale test zakrzywia rzeczywistość - przy błędnej interpretacji(co jak wiemy będzie i jest nagminne), a raczej nadinterpretacji.
Myślałem że FC3 i C3 to gry AMD
Pozdrawiam
Wydaje mi się, ze w dobie odpoiednich narzedzi testy powinny przeprowadzane z wlaczonym v sync, wtedy najlepiej będzie widać na ile klatek trzeba czekac ponad 16 ms, albo co gorsza ponad 33 ms. Wszystko byłoby jak na dloni. Chyba większość osob wlasnie tak gra. Ja np. zawsze i we wszystkie gry gram z v sync i staram się tak ustawiac ustawienia aby mieć stale 60 fps (nawet c3 i assassins 4), bo bardzo mocno odczuam zgubione klatki. Pod tym względem tez AMD mocno mnie zawiodło, ale nie wiem czy to skutek większego obciążenia cpu, przez co trudniej utrzymać 60 fps czy problem w mocnym szarpaniu obrazem pomimo 3x buforowania lezy w sterownikach.
Podpinam się pod prośbę, fajnie by było zobaczyć wykresy z v-sync włączonym. Osobiście gram tylko z włączonym, tearing jest dla mnie zbyt uciążliwy, po prostu nie da się patrzeć na rozerwany obraz
Interesująca kwestia to też, czy micro-scuttering może być spowodowany procesorem, a nie kartą graficzną? Co jeśli na jednym procesorze klatek będzie więcej, ale przez szarpanie obrazu realny komfort znika?
Ciekawi mnie jeszcze jedna kwestia, zarówno w przypadku testów cpu, jak i gpu znajdywane jest najbardziej wymagające miejsce testowe w grze. Jest to dla mnie oczywiste, pytanie jakie rodzi się to jak się gra w pozostałych momentach/na innych mapach itd. Czy można ogarnąć temat komfortu grania w grę jako całościowo?
Powiedzmy że w najgorszym miejscu procesor x ma 30 fps a procesor y 50 fps, co jeśli to jest powiedzmy jedyne pięć minut gry w których będzie widoczna taka różnica? Czy warto sobie czymś takim zawracać głowę?
O ile da się zainstalować FCATa na konsolach, a to mało prawdopodobne.
Czemu mało prawdopodobne ? Z tego co ja zrozumiałem wystarczy materiał z rozgrywki, który przepuszczany jest przez komputer do nagrywania i obróbki materiału (ten z kartą), a wszystko idzie przez splitter obrazu, który omija HDCP i pozwala jednocześnie obserwować rozgrywkę w czasie rzeczywistym na drugim ekranie. Zamiast PC, który podaje sygnał do splittera będzie tutaj konsola - nie widzę za bardzo konfliktu, bo to takie same urządzenia. Karty przecież do konsoli nie wpinamy, a jest ona w tym dodatkowym PC.
Warto też spojrzeć na test: http://www.pcper.com/reviews/Graphics-Card...inite-CrossFire ze względu na większą ilość testowanych gier i bogatsze komentarze odnośnie wykresów.
O ile da się zainstalować FCATa na konsolach, a to mało prawdopodobne.
Czemu mało prawdopodobne ? Z tego co ja zrozumiałem wystarczy materiał z rozgrywki, który przepuszczany jest przez komputer do nagrywania i obróbki materiału (ten z kartą), a wszystko idzie przez splitter obrazu, który omija HDCP i pozwala jednocześnie obserwować rozgrywkę w czasie rzeczywistym na drugim ekranie. Zamiast PC, który podaje sygnał do splittera będzie tutaj konsola - nie widzę za bardzo konfliktu, bo to takie same urządzenia. Karty przecież do konsoli nie wpinamy, a jest ona w tym dodatkowym PC.
Właśnie że nie wystarczy, bo przed wysłaniem klatki obrazu na wyjście trzeba jej domalować pasek i trzeba to zrobić na samym gpu.
W jaki inny sposób niby sprawdzisz np ile w danym momencie klatek zostało pominiętych?
Chyba nie potrzeba nam użytkowników, którzy nie potrafią czytać tekstu ze zrozumieniem.
Jest to system do bezpośredniego mierzenia liczby klatek na sekundę wyświetlanych na ekranie monitora (czyli już na samym końcu potoku renderującego), a został zbudowany z [...] otwartych skryptów do analizy materiału, które napisano w interpretowanym języku oprogramowania, Perl. Takie podejście uniemożliwia Nvidii wykorzystanie FCAT-a do „brudnych sztuczek” przez zaniżanie lub zmianę wyników konkurencyjnych rozwiązań. [...] wszystkie skrypty do analizy wyników są dostępne w formie open source.
Wszystkie skrypty są dostępne w linku poniżej.
http://www.geforce.com/hardware/technology/fcat/downloads
Chyba człekowi chodziło o to, że gdyby FCAT miał pokazać wyższość konkurencji to nV by do tego ręki nie przyłożyła. Nie chodziło o żadne brudy.
Chociaż z drugiej strony... doklejanie pasków w pearlu nie jest napisane więc potencjalny obszar do manipulacji by się znalazł.
BTW. Warto przeczytać: http://www.overclockers.com/nvidias-fcat-g...sting-pursuing/
Ale mierzenie odstępów między wyświetlanymi klatkami nie jest ciekawostką jeżeli zastosuje się to do testowania CPU w grach.
Druga sprawa (jeśli powyższe byłoby niemożliwe). Zamiast używać skomplikowanych, drogich narzędzi (mogących jeszcze wprowadzać dodatkowe opóźnienia) możnaby zrobić inaczej. Przed monitorem postawić kamerę rejestrującą obraz z dużą częstotliwością np. 500 razy na sekundę. Ona by nagrywała obraz bezpośrednio z monitora. Po podłączeniu jej do komputera 'kontrolnego' ten by zliczał z tego obrazu jak często zmieniał się on na monitorze. I automatycznie podawał framerate. Dodatkowa zaleta to to, że jeśli mamy wątpliwości (bo wyszły jakieś nietypowe wartości) lub chcemy sprawdzić wynik to wystarczy ten materiał spowolnić i przeliczyć 'własnym okiem'.
Jak już wyżej napisano - nie ma potrzeby unikania kompresji. Przecież tu zliczamy tylko te paski, właściwie można nagrywać tylko je. To znacząco zmniejsza zapotrzebowanie na szybkość zapisu strumienia video.
Nieoficjalnie zależną od Nvidii? (Dobra, żartowałem).
Dlaczego? Załóżmy że wydajność spadła do 2-3 fps (to oczywiście niegrywalny poziom, ale chodzi mi o coś innego). Tak niskie framrate można policzyć gołym okiem (i bez znaczenia czy vsync jest czy nie, bo zliczamy gotowe screeny z monitora). Więc framerate rzędu 50 czy 100 fps tak samo można zliczyć, tyle że jak wyżej pisałem kamerą wysokiej częstotliwości.
Dla oka te paski są bez znaczenia, zbyt szybko się zmieniają. Więc równie dobrze to mogła być informacja liczbowa (cyferki wyświetlane na tle obrazu).
Tyle ze z punktu widzenia wizualnej płynności to bez znaczenia. Na monitorze pojawia się cały obraz, bez względu czy stanowi go jedna klatka czy kilka zmiksowanych (tearing). Więc czy będziemy mieli 60 fps z vsync czy 60 fps bez vsync to obraz jest tak samo płynny (tyle że lekko opóźniony przy włączonym vsync i tearowany przy wyłączonym).
Co jak wyżej pisałem (i nie tylko ja) mogło by być zupełnie zbędne.
Owszem, ale tam gdzie rzeczywiście jest potrzebna kopia obrazu 1:1 (bez kompresji).
Jak wyżej - powinno być zbędne.
No właśnie, nie dość że sprzęt drogi to jeszcze sam może zafałszowywać pomiary. Dlatego najlepiej użyć kamery i nagrywać obraz bezpośrednio z monitora. Wystarczy kamera rejestrująca obraz z 60 lub 120 Hz (tyle co monitor), ale dla 'bezpieczeństwa' można użyć kamery z wyższą częstotliwością.
No tak, nagrywanie pasków konkurujących swoją szczegółowością z obrazem z ZX Spectrum (lub z grafiką z pecetów sprzed 30 lat) wymaga dysków o prędkości pół terabajta na sekundę...
Akurat szerokopasmowy zapis video jest sekwencyjny a nie losowy (czyli czas dostępu ma marginalne znaczenie, co za tym idzie nie trzeba SSD), żeby osiągnąć 0.5 TB/s wystarczyłby RAID 0 z HDD.
Tu (choć nie jest to tematem testu) moglibyście napisać co jest przyczyną odrzucania klatek. Z reguły gracze narzekają na deficyt a nie nadmiar klatek, a tu GPU sobie je odrzuca.
Tyle że z punktu widzenia płynności nie ma to znaczenia (dlatego przy jednym GPU Fraps podaje wyniki podobne co FCAT).
Chyba czegoś nie rozumiem. Przecież monitor (nawet 120 Hz) wyświetla każdą klatkę znacznie dłużej niż 1 ms.
Myślę że firma która potrafiła stworzyć HD7970 ma odpowiedni sprzęt diagnostyczny żeby zbadać przepływ klatek na poziomie elektronów (no dobra, lekko przesadziłem).
Ps. Widziałem działanie crysis 3 na 3xtitan w 4k myślałem , że opluje monitor. Fps powyżej 60fps , a gra całkowicie niegrywalna.
Właśnie, możnaby jeszcze przetestować Triple / Quad SLI i CF.
Ograniczenia DXa, nie da się. Jedynie w trybie windowed.... ale
.... do nagrywania klatek na danym kompie musisz użyć zasoby nawet shadowplay obniża wydajność trochę.
Nie masz tutaj żadnych opóźnień właśnie. Wszystko co generuje karta jest nagrywane na innym kompie. Każda inna metoda w praktyce może dać większe opóźnienia/
To nic nie da. Nie da obiektywnego pomiaru, bo monitor nie wyświetla wszystkich wygenerowanych klatek dokładnie tak jak GPU posyła bez V-Sync-a, a z V-Sync też nie będzie działać, bo GPU nie będzie obciążone w 100%
Bardzo mnie to ciekawi
To nic nie da. Nie da obiektywnego pomiaru, bo monitor nie wyświetla wszystkich wygenerowanych klatek dokładnie tak jak GPU posyła bez V-Sync-a, a z V-Sync też nie będzie działać, bo GPU nie będzie obciążone w 100%
Zaraz, czyli metoda z kamerą jest lepsza od metody z kartą zapisującą obraz.
Ponieważ nie chodzi tu o obraz wygenerowany czy nawet wysłany na monitor, a o obraz wyświetlany.
Dlatego jeżeli monitor ma 60hz a karta generuje 120fps, to generuje klatkę co 8ms a monitor każdą wyświetla co 16ms, czyli z połową klatek stanie się... no właśnie co? Poza tym, jak już wcześniej było wspomniane, gpu zapisujące obraz pokazuje, że klatka pojawia się na 1ms, co nie ma na monitorze miejsca, gdyż klatka musi być wyświetlana przez 16ms (jedna lub kilka na raz). Różnica między tymi pomiarami sprowadza się do tego, że zapisanie obrazu przez DVI pokaże rzeczywistą ilość klatek wygenerowanych i wysłanych, a kamera pokaże rzeczywistą ilość klatek wyświetlonych, która nie może być większa od 60 lub 120 (zależnie od monitora), ale na jednym zdjęciu może być kilka klatek.
Tak czy inaczej sprawa jest do zbadania. Jeżeli redakcja podchodzi do tej metody testowania bardzo poważnie, to powinni sprawdzić jak będzie wyglądał obraz zapisany i z kamery. Bo ten z kamery będzie tym który naprawę widzimy. Zapisany nie uwzględnia monitora. I może da się tą metodą zmierzyć input lag. Ale to już zupełnie inny temat.
Bardzo mnie to ciekawi
Dobre pytanie...
Przy sprzęcie do nagrywania mamy podane 2560 × 1440, a platformie testowej 3840 × 2160
Natomiast FPS leci taki jaki jest czyli każda klatka posłana jest zapisywana...
Też dziwne jest to, że sprzęt do nagrywania jest jakby trochę mocniejszy od sprzętu do testowania...
.... i7 3820 vs 2600k
O tyle się zastanawiam tutaj, bo 2600k powinien być lepszy do nagrywania jako, że ma zintegrowany kontroler PCI-E
To nic nie da. Nie da obiektywnego pomiaru, bo monitor nie wyświetla wszystkich wygenerowanych klatek dokładnie tak jak GPU posyła bez V-Sync-a, a z V-Sync też nie będzie działać, bo GPU nie będzie obciążone w 100%
Zaraz, czyli metoda z kamerą jest lepsza od metody z kartą zapisującą obraz.
Nie wiem skąd Ci przyszło do głowy, na pewno nie z mojej wypowiedzi
Ponieważ nie chodzi tu o obraz wygenerowany czy nawet wysłany na monitor, a o obraz wyświetlany.
Dokładnie, a ja pisałem, że obraz wyświetlany przez monitor nie nadaje się do analizy.
Dlatego jeżeli monitor ma 60hz a karta generuje 120fps, to generuje klatkę co 8ms a monitor każdą wyświetla co 16ms, czyli z połową klatek stanie się... no właśnie co? Poza tym, jak już wcześniej było wspomniane, gpu zapisujące obraz pokazuje, że klatka pojawia się na 1ms, co nie ma na monitorze miejsca, gdyż klatka musi być wyświetlana przez 16ms (jedna lub kilka na raz). Różnica między tymi pomiarami sprowadza się do tego, że zapisanie obrazu przez DVI pokaże rzeczywistą ilość klatek wygenerowanych i wysłanych, a kamera pokaże rzeczywistą ilość klatek wyświetlonych, która nie może być większa od 60 lub 120 (zależnie od monitora), ale na jednym zdjęciu może być kilka klatek.
Tak czy inaczej sprawa jest do zbadania. Jeżeli redakcja podchodzi do tej metody testowania bardzo poważnie, to powinni sprawdzić jak będzie wyglądał obraz zapisany i z kamery. Bo ten z kamery będzie tym który naprawę widzimy. Zapisany nie uwzględnia monitora. I może da się tą metodą zmierzyć input lag. Ale to już zupełnie inny temat.
Dlatego się nie nadaje. Bo monitor bez v-synca wyświetli Ci z dużym prawdopodobieństwiem 60 różnych klatek/s, ale nie będą to pełne klatki, ale tearing....
możesz właczyć v-synca, ale wtedy GPU nie będzie obciążone w 100% i wprowadza losowość, bo niepewność pomiarowa będzie na poziomie 1FPS-a co przy np. 25 FPSów jest dużo.
Dlatego jeżeli monitor ma 60hz a karta generuje 120fps, to generuje klatkę co 8ms a monitor każdą wyświetla co 16ms, czyli z połową klatek stanie się... no właśnie co?
W tym samym czasie zostanie wyświetlona więcej niż 1 klatka. To jest właśnie źródło zjawiska tearingu. O tym, że na monitorze wyświetlane są więcej niż 1 klatka informują te kolorowe paski po lewej.