Czesc osob chcialoby powiedzmy sobie namiastke takiego urzadzenia w domu. Pewna nie dokladnosc pomiaru jest wtedy do zaakceptowania. Nie jestesmy zainteresowani (az tak mocno) tym ile dokladnie ms karcie zajelo przygotowanie klatki albo ile bylo klatek zgubionych. Ale pokolorowane klatki + v sync + zrzut 120 klatek na s i mozna cos tam powiedziec w warunkach domowych czy gpu wyrabia sie w 8 ms, 16 ms, 33 ms, a przede wszystkim jakie sa ekstrema i jak czesto wystepuja. Kazdy chcialby miec mozliwosc sprawdzenia tego w domu mozliwie najmniejszym kosztem.
Panowie, bez obrazy, ale widzę, że tu więcej ogarniętych inżynierów niż w Nvidii
Wszyscy wiedzą, że nagranego filmu wcale nie trzeba mieć nieskompresowanego, karta do nagrywania za 1400f jest zbędna, bo wystarczy jakieś byle co za kilkaset złotych, a skrypty do analizy każdy z osobna pisze lepiej niż cały zespół zielonych
Odrobina logiki podpowiada mi jedno: wątpie, żeby w firmie, która potrafi stworzyć od początku do końca rdzeń graficzny, nie było ani jednego człowieka, który nie zaproponowałby tańszego rozwiązania niż prezentowane w artykule - gdyby się dało
Z drugiej strony nie można być naiwnym by sądzić, że NV nie ma takich urządzeń specjalistycznych Ale nie może się nimi dzielić
NV nie ukrywa, że do SWOICH GPU mają narzędzie typu FRAPS, które zgłasza wyniki porawne jak FCAT, ale jednocześnie nie da się tym zmierzyć kart konkurencji.
A nawet gdyby taka możliwość była to to oprogramowanie i tak nigdy nie ujrzałoby światła dziennego
Z drugiej strony nie można być naiwnym by sądzić, że NV nie ma takich urządzeń specjalistycznych Ale nie może się nimi dzielić
NV nie ukrywa, że do SWOICH GPU mają narzędzie typu FRAPS, które zgłasza wyniki porawne jak FCAT, ale jednocześnie nie da się tym zmierzyć kart konkurencji.
A nawet gdyby taka możliwość była to to oprogramowanie i tak nigdy nie ujrzałoby światła dziennego
I dlatego mnie zastanawia to ździwienie u AMD, że jest problem. Może wreszcie zabiorą się za dual graphics, bo dla AMD widać najważniejsze jest to by pokazać słupki....
... liczą , że każdy uwierzy, że 4670k jest tak wydajny jak 7850k. Widać, że AMD trzeba trzymać krótko i jechać po nich jak po burej suce, bo inaczej będą wypuszczać buble.
unknown_solider @ 2014.01.26 12:32
up^
Czesc osob chcialoby powiedzmy sobie namiastke takiego urzadzenia w domu. Pewna nie dokladnosc pomiaru jest wtedy do zaakceptowania. Nie jestesmy zainteresowani (az tak mocno) tym ile dokladnie ms karcie zajelo przygotowanie klatki albo ile bylo klatek zgubionych. Ale pokolorowane klatki + v sync + zrzut 120 klatek na s i mozna cos tam powiedziec w warunkach domowych czy gpu wyrabia sie w 8 ms, 16 ms, 33 ms, a przede wszystkim jakie sa ekstrema i jak czesto wystepuja. Kazdy chcialby miec mozliwosc sprawdzenia tego w domu mozliwie najmniejszym kosztem.
ale jak urządzenie będzie kosztować 3tys zł to dalej nie zmieni sprawy.... jakby kosztowało nawet 500zł to dalej krążyłoby pewnie w kręgach portali/recenzentów.
Takie zabawki są drogie i mogą być tanie dopiero przy masowej produkcji liczonej w wielu tysiącach, a pomijam fakt, że AMD/NV/Intel, ale te urządzenia są pilnie chronione, AMD ma sporo takich zabawek, przy samej produkcji CPU masz tego sporo.
Rok czasu próbowali naprawić pojedynczy problem: mikrozacięcia CrossFire i nie potrafili.
No dobrze, znalazłem chwile czasu i odświeżyłem sobie artykuł Techreporta na bazie Fcat oraz tego samego sterownika 13,8 z funkcją frame pacing dla Crossfire.
Link: http://techreport.com/review/25167/frame-p...adeon-hd-7990/5
Cytat z podsumowania: 'If you have any sort of graphics setup that relies of AMD's CrossFire technology, you'll want to download the Catalyst 13.8 beta and install it right away. Since AMD has wisely decided to enable frame pacing by default, gamers should see the benefits of that feature in any DirectX 10/11 games immediately. Based on our benchmark results, the slow-mo videos we've captured, and our own seat-of-the-pants impressions, I think we can say with confidence that AMD's frame pacing solution appears to work just as well as Nvidia's SLI frame metering. The Radeon HD 7990's frame production and delivery results look much more like what you'd get from a single fast GPU—and that's exactly the behavior you'd want.'
Tłumaczenie: 'Jeśli posiadasz zestaw opierający się na technologii AMD Crossfire, powinieneś pobrać sterowniki Catalyst 13,8 beta i je zainstalować. Ponieważ AMD podjęło mądrą decyzje i włączyło frame pacing domyślnie, gracze powinni od razu dostrzec korzyści z tej funkcji w każdej grze Dx10/11. Bazując na wynikach naszych benchmarków i filmów nagranych w zwolnionym tempie oraz naszych odczuciach, myślę że z przekonaniem możemy powiedzieć że rozwiązanie AMD frame pacing działa tak samo dobrze jak Nvidii SLI frame metering. Reprodukcja klatek Radeona HD 7990 oraz ich wyświetlanie na ekranie wygląda o wiele bardziej jak wyniki generowanie przez jedno GPU - i to jest dokładnie efekt, którego byśmy chcieli.'
Natomiast przetestowany też na PClabie - Crysis 3:
cytat: 'Frame pacing makes everything better. The 7990 trades blows with the GeForce GTX 690 for the top spot in each of our latency-focused performance metrics.'
Tłumaczenie: 'Frame pacing sprawia, że wszystko działa lepiej. 7990 wymienia ciosy z GeForce GTX 690 w przypadku walki o topowe miejsce w testach koncentrujących się na opóźnieniach'
Dlatego do tematu zestawów high-end multi-gpu wrócimy wraz z redakcją jak tylko będzie to możliwe także z Radeonami 290x/290 o których rozmawiałem z Łukaszem.
SunTzu: napisałem już. Uważam, że jeśli udałoby się zdobyć soft, to można równie dobrze kompresować materiał czy wręcz zgrywać tylko mały kawałek klatki. I nawet splitter nie jest potrzebny, bo - dziwnym trafem na wszystkich konfiguracjach oprócz tych na których problem jest największy (AMD CF) - możesz zrobić klonowanie na 2 monitory. Szanowna Redakcja się na ten temat nie wypowiedziała, no ale weekend jest. W każdym razie jeśli mam rację, to soft.... i najzwyklejszy PC z jakąś kartą DVI In (są płyty ASRocka z HDMI In, tylko tam niby nie można było zgrywać - obszedł to ktoś programowo?).
SunTzu: napisałem już. Uważam, że jeśli udałoby się zdobyć soft, to można równie dobrze kompresować materiał czy wręcz zgrywać tylko mały kawałek klatki. I nawet splitter nie jest potrzebny, bo - dziwnym trafem na wszystkich konfiguracjach oprócz tych na których problem jest największy (AMD CF) - możesz zrobić klonowanie na 2 monitory. Szanowna Redakcja się na ten temat nie wypowiedziała, no ale weekend jest. W każdym razie jeśli mam rację, to soft.... i najzwyklejszy PC z jakąś kartą DVI In (są płyty ASRocka z HDMI In, tylko tam niby nie można było zgrywać - obszedł to ktoś programowo?).
Wejście z HDMI jest sprzętowe, działą nawet jak komp jest wyłączony i przekierowywuje z wejścia-> wyjścia, dzięki temu nie musisz przepinać kabli/przełączać na monitorze.
Bruno@Home @ 2014.01.26 12:51
SunTzu @ 2014.01.26 12:48
@up
Pokaż mi lepiej test eyefinity
Najlepiej progres pokazuje chyba to:
Przed:
Po:
Dobry pomysł nad którym też popracujemy!
No i na Twoim przykładzie doskonale widać jak pracuje frame pacing (on/off) w konfiguracji Crossfire.
No i dual graphics, gdyby to działało przynajmniej tak samo dobrze jak rozwiązanie w Xbox 360 to na rynku mobilnym Intel i NV nie mialiby szans w segmencie gdzie by to było.
I dlatego mnie zastanawia to ździwienie u AMD, że jest problem. Może wreszcie zabiorą się za dual graphics, bo dla AMD widać najważniejsze jest to by pokazać słupki....
... liczą , że każdy uwierzy, że 4670k jest tak wydajny jak 7850k. Widać, że AMD trzeba trzymać krótko i jechać po nich jak po burej suce, bo inaczej będą wypuszczać buble.
No właśnie. Wydaje mi się, że AMD nie tyle było nieświadome problemu, co było pewne swojej bezkarności, braku możliwości jego obiektywnej analizy. Gdy jednak Nvidia stworzyła FCAT, z dwojga złego woleli wyjść na głupka niż oszusta
Przecież nie trzeba specjalnie spostrzegawczym, żeby organoleptycznie stwierdzić przycięcia przy czymś takim: http://cdn.pcper.com/files/news/2013-05-07/fr-2.png
Powiem szczerze, zdziwiło mnie to o tyle, że jeszcze do niedawna AMD chwaliło się strategią małych rdzeni, które przeciwstawiało kolosom Nvidii dzięki multi-GPU. Tak na logikę to właśnie ze strony AMD należałoby się spodziewać usprawnień trybów multi-GPU, a w praktyce okazało się, że jest dokładnie na odwrót.
Chyba jednak 3DFX, choć ATI też wcześnie weszło do tego wozu (Rage Fury MAXX). W każdym razie oczywiście nie miałem na myśli tak archaicznych czasów, ale czasy Radeonów serii HD 3000 - 6000.
@up
No właśnie. HD 2900 okazał się porażką i to wtedy AMD wdrożyło wspomnianą strategię małych rdzeni. HD 3870 znacznie ustępował 8800 Ultra czy 9800 GTX. HD 4870 nawet nie miał startu do GTX 280. Dzięki jednak względnej energoefektywności i niskim kosztom produkcji AMD mogło wystawić przeciw Nvidii karty dwuprocesorowe. Dopiero HD 6970 był małym krokiem w stronę silnych monolitycznych GPU, a ostatecznie strategię małych rdzeni AMD porzuciło dopiero wraz z premierą R9 290.
Dobrym przykładem błędnego podejścia AMD do multi-GPU jest kwestia tzw. Sideporta obecnego w kartach HD 4870 X2 i HD 5970. Dodatkowa przepustowość pozwalała na ograniczenie problemu mikroprzycięć, przynajmniej tych widzianych z poziomu frapsa (funkcja frame-time). Jako że jednak Sideport ponosił pobór prądu i nie zwiększał średniego fps-a, AMD po prostu go wyłączyło w sterownikach...
@Bruno
Jako posiadacz CF z 7970 powiem tylko tyle przestań pierniczyć od rzeczy.
Crysis3 jak i FC3 w CF to nadal porażka jak na tych co lab testował i obecnych sterach.
Aż wstyd że przez tyle miesięcy sterów AMD nie może naprawić.
labowe stery
FC3
Obecne stery
Gdybym nie grał tylko w BFa to bym dawno już te CF pognał.
Jestem zielony i nie za bardzo ogarniam. Czyli program nagrywa np. 1 sek. 70 fps a w 2 sek. 100 fps? Zależnie od ilości? Czy np. ustawiacie stale fps na 200 i tyle nagrywa?
Mniej więcej tak... ale trochę inaczej to wygląda
Jedną klatkę wygeneruje GPU w 24ms, drugą w 25ms, trzecią w 33ms, czwartą w 8ms....wszystko jest zapisywane i składa się na to, że w jednej sekundzie takich klatek masz xyz.
Dobra. Teraz rozumiem ale mam jeszcze pytanie. Robię test na jakiejś tam grze używając do pomiarów FRAPSa. W panelu nVidia ustawiam synchronizację na adaptacyjną (30 FPS) i FRAPS mi również w grze pokazuje 30. Dokładnie to samo się dzieję gdy ustawiam synchronizację adaptacyjną (60 fps) to FRAPS też ma 60. Czyli FRAPS mnie oszukuję i mam nie 30fps tylko 25fps? Mi się wydaję że pokazuję dobrze i mam 30 Robiłem jeszcze testy tylko z Asus GPU Tweak i jak tam ustawiłem maksymalny fps 100,110,120 itp. to zawsze FRAPS mi pokazywał tyle samo klatek co ustawiłem w programie. Chyba za bardzo zjechaliście FRAPSa
Przeczytaj artykuł tam wszystko wyjaśnione. Jak nie było Fcat wykresy powstawały na bazie odstępu między klatkami i już tutaj się nie pokrywało z fps gdzie oba pomiary były z frapsa.
Ludzie nadal mają problem ze zrozumieniem tego jak widać.
PCmarcinPC
to ze ustawiasz 30 fps to oznacza trylko jedno. ze w ciagu 1 sekundy ma sie wyswietlnic 30 klatek. moze byc tak ze 25 kaltek bedzie pojawialo sie w pierwsze 10ms a 5 ostatnich w ciagu 990 ms i wtedy bedziesz widzial to okiem jako przyciecie mimo ze masz 30 kaltek w ciagu 1s (1000ms). wlasnie o to chodzi ze kaltki nie sa wyswietlane rownomiernie czyli dla 30 kaltek na sekunde wychodzi ze jedna klatka powinna sie wyswietlac co 33ms. jakby tak bylo bys odczuwal idealna plynnosc. a widac za pomoca tego programu ze tak nie jest i mimo nawet 60 klatek i wiecej bedziesz mial przyciecia widoczne golym okiem bo nie w kazdej kolejnej 33ms jest nowa klatka.
Powiem szczerze, zdziwiło mnie to o tyle, że jeszcze do niedawna AMD chwaliło się strategią małych rdzeni, które przeciwstawiało kolosom Nvidii dzięki multi-GPU. Tak na logikę to właśnie ze strony AMD należałoby się spodziewać usprawnień trybów multi-GPU, a w praktyce okazało się, że jest dokładnie na odwrót.
Oj te małe rdzenie to chyba nie pod dual gpu, ale ograniczenie w wydzielaniu energii. Architektury, które wybierają wyraźnie nie lubią dużej powierzchni i wysokich zegarów, bo ciasno wpakowują tranzystory. Najwyraźniej przy takim napakowaniu można dużo rzeczy przeoczyć i niedopracowanie od strony sprzętowo-programistycznej to jest efekt.
PCmarcinPC
to ze ustawiasz 30 fps to oznacza trylko jedno. ze w ciagu 1 sekundy ma sie wyswietlnic 30 klatek. moze byc tak ze 25 kaltek bedzie pojawialo sie w pierwsze 10ms a 5 ostatnich w ciagu 990 ms i wtedy bedziesz widzial to okiem jako przyciecie mimo ze masz 30 kaltek w ciagu 1s (1000ms). wlasnie o to chodzi ze kaltki nie sa wyswietlane rownomiernie czyli dla 30 kaltek na sekunde wychodzi ze jedna klatka powinna sie wyswietlac co 33ms. jakby tak bylo bys odczuwal idealna plynnosc. a widac za pomoca tego programu ze tak nie jest i mimo nawet 60 klatek i wiecej bedziesz mial przyciecia widoczne golym okiem bo nie w kazdej kolejnej 33ms jest nowa klatka.
Nie, bo adaptacyjny vsync to mniej więcej to samo co zwykły vsync, czyli wyświetlane fps pokryje się z fps frapsa, co zresztą łatwo sprawdzić wizualnie. Nie oznacza to, że może być 25 klatek w pierwszych 10 ms, wręcz przeciwnie - jest gwarancja, że nie będzie ich więcej niż ustawiono w vsync i nie będą zliczone we frapsie.
Jest możliwość, że za każdym razem będzie upuszczona klatka, bo np. naprzemiennie będzie się renderować szybko i wolno, wytwarzając maksymalną różnicę (1 fps) pomiędzy kolejnymi synchronizacjami, ale to również obniża realny fps widoczny we frapsie. Więc jeśli jest vsync i zostało wyświetlone 30 fps, to nie ma możliwości, żeby było więcej wyrenderowanych klatek w każdej 1/30s niż 1-2, a co dopiero w każdych 10 ms.
W prostszych słowach - nie będzie takiej sytuacji, że karta raz robi, raz nie robi 10 klatek w przód przy vsync i zaburza średnie fps.
Ja widzę różnicę między 30 FPS a 60 FPS i dla mnie różnica też jest kolosalna. Gwoli ścisłości - różnica jest kolosalna gdy obracam kamerę w grze. Wtedy przy 30 FPS wyraźnie widać klatkowanie. Natomiast jeżeli kamera jest ustawiona w pewnym miejscu i jedyny ruch to ruszająca się trawa i względnie jakieś inne małe obiekty to 30 FPS już daje poczucie dużej płynności. Identyczna sprawa jest z filmami - 24 FPS wystarcza do płynnego obrazu jeśli na obrazie np jest gadająca głowa, ale już jeśli na ekranie jest dynamiczna scena z wieloma zwrotami kamery to widać klatkowanie i/ lub rozmazywanie obrazu.
Dlatego próg płynności dla mnie zależy w dużej mierze od szybkości ruchów kamery. W grach FPP szybkości ruchów kamerą są bardzo szybkie, więc wolę przyciąć bajery, żeby utrzymać przynajmniej około 60 FPS, natomiast jeżeli kamera jest zawieszona wysoko nad sterowaną postacią/ postaciami i przez to jej ruch jest powolny i płynny to wystarczy i 30 FPS do komfortowego grania.
Klatkowanie w filmach to głównie zasługa Telecine (konwersji do innego standardu), a główną przyczyną tego stanu jest fakt, że w kamerze pracuje klisza góra-dół, więc jak są ruchy na boki kamery to siłą rzeczy powstaje blur na kliszy. Z resztą się zgadzam w 100%. Przy 30fps spokojnie wystarcza by obraz się nie sypał tak mocno bo przy 60fps tego nie ma (w Uncharted 2 np potrójne buforowanie sprawia ze nawet jak się kręci kamerą na max - wisząc np w studnii na mapie Sanctuary - to obraz jedynie 'gubi piksele' ale nie klatkuje ani trochę). Inną kwestią jest właśnie dynamika i filmowość. Filmy 24p mają ten specyficzny filmowy klimat właśnie dzięki powoli ruszającej się kamerze. W 60fps obraz robi się teatralny, podobnie w grach samochodowych przy 60fps jest ekstra ale brak jest rozmyć które nadają dynamiki jeździe (motion blur itp). Temat rzeka. Najgorszy jest screen-tearing.
Nie mow ze 60 fps wystarcza bo cie zaminusuja na smierc!! Shhhh ciichhoooo ;>
PCmarcinPC
to ze ustawiasz 30 fps to oznacza trylko jedno. ze w ciagu 1 sekundy ma sie wyswietlnic 30 klatek. moze byc tak ze 25 kaltek bedzie pojawialo sie w pierwsze 10ms a 5 ostatnich w ciagu 990 ms i wtedy bedziesz widzial to okiem jako przyciecie mimo ze masz 30 kaltek w ciagu 1s (1000ms). wlasnie o to chodzi ze kaltki nie sa wyswietlane rownomiernie czyli dla 30 kaltek na sekunde wychodzi ze jedna klatka powinna sie wyswietlac co 33ms. jakby tak bylo bys odczuwal idealna plynnosc. a widac za pomoca tego programu ze tak nie jest i mimo nawet 60 klatek i wiecej bedziesz mial przyciecia widoczne golym okiem bo nie w kazdej kolejnej 33ms jest nowa klatka.
Nie, bo adaptacyjny vsync to mniej więcej to samo co zwykły vsync, czyli wyświetlane fps pokryje się z fps frapsa, co zresztą łatwo sprawdzić wizualnie. Nie oznacza to, że może być 25 klatek w pierwszych 10 ms, wręcz przeciwnie - jest gwarancja, że nie będzie ich więcej niż ustawiono w vsync i nie będą zliczone we frapsie.
Jest możliwość, że za każdym razem będzie upuszczona klatka, bo np. naprzemiennie będzie się renderować szybko i wolno, wytwarzając maksymalną różnicę (1 fps) pomiędzy kolejnymi synchronizacjami, ale to również obniża realny fps widoczny we frapsie. Więc jeśli jest vsync i zostało wyświetlone 30 fps, to nie ma możliwości, żeby było więcej wyrenderowanych klatek w każdej 1/30s niż 1-2, a co dopiero w każdych 10 ms.
W prostszych słowach - nie będzie takiej sytuacji, że karta raz robi, raz nie robi 10 klatek w przód przy vsync i zaburza średnie fps.
Nawiązując do tego i powracając do potrójnego buforowania w Uncharted 2 (@30fps). Tam mi się wydaje [na podstawie tego co czytałem] pomimo potrzebnych 33ms na każdą klatkę to przy potrójnym buforowaniu klatka może trwać dokładnie 33ms. Po porostu jak gracz ruszy postacią następuje buffor kilkudziesięciu milisekund, a potem rendering. W U2 cały praktycznie rendering sceny (geometria/trójkąty) trwa 8ms, więc zakładając potrójny buffor daje to 24ms + post-processing. Więc po wstępnym np 33ms (input-lag), następne 3 klatki powstają w około 33ms (24+post-processing jak wyżej), czyli np przy lagu 66ms można uzyskać pełną płynność, bo mamy buffor 3 klatek w przód.
Opieram się na tym co pisze tu programista ND. http://filmicgames.com/archives/534
Dlatego gra od ND jest pozbawiona całkowicie screen-teraingu i pomimo 30fps jest 2-3x bardziej płynna np od Crysis1 na PS3 (właśnie ją ogrywam). Niewiele osób wie ale rendering sceny w U2 (geo/trójkąty) jest liczony w ~120Hz.
Czesc osob chcialoby powiedzmy sobie namiastke takiego urzadzenia w domu. Pewna nie dokladnosc pomiaru jest wtedy do zaakceptowania. Nie jestesmy zainteresowani (az tak mocno) tym ile dokladnie ms karcie zajelo przygotowanie klatki albo ile bylo klatek zgubionych. Ale pokolorowane klatki + v sync + zrzut 120 klatek na s i mozna cos tam powiedziec w warunkach domowych czy gpu wyrabia sie w 8 ms, 16 ms, 33 ms, a przede wszystkim jakie sa ekstrema i jak czesto wystepuja. Kazdy chcialby miec mozliwosc sprawdzenia tego w domu mozliwie najmniejszym kosztem.
Wszyscy wiedzą, że nagranego filmu wcale nie trzeba mieć nieskompresowanego, karta do nagrywania za 1400f jest zbędna, bo wystarczy jakieś byle co za kilkaset złotych, a skrypty do analizy każdy z osobna pisze lepiej niż cały zespół zielonych
Odrobina logiki podpowiada mi jedno: wątpie, żeby w firmie, która potrafi stworzyć od początku do końca rdzeń graficzny, nie było ani jednego człowieka, który nie zaproponowałby tańszego rozwiązania niż prezentowane w artykule - gdyby się dało
Z drugiej strony nie można być naiwnym by sądzić, że NV nie ma takich urządzeń specjalistycznych
NV nie ukrywa, że do SWOICH GPU mają narzędzie typu FRAPS, które zgłasza wyniki porawne jak FCAT, ale jednocześnie nie da się tym zmierzyć kart konkurencji.
A nawet gdyby taka możliwość była to to oprogramowanie i tak nigdy nie ujrzałoby światła dziennego
Z drugiej strony nie można być naiwnym by sądzić, że NV nie ma takich urządzeń specjalistycznych
NV nie ukrywa, że do SWOICH GPU mają narzędzie typu FRAPS, które zgłasza wyniki porawne jak FCAT, ale jednocześnie nie da się tym zmierzyć kart konkurencji.
A nawet gdyby taka możliwość była to to oprogramowanie i tak nigdy nie ujrzałoby światła dziennego
I dlatego mnie zastanawia to ździwienie u AMD, że jest problem. Może wreszcie zabiorą się za dual graphics, bo dla AMD widać najważniejsze jest to by pokazać słupki....
... liczą , że każdy uwierzy, że 4670k jest tak wydajny jak 7850k. Widać, że AMD trzeba trzymać krótko i jechać po nich jak po burej suce, bo inaczej będą wypuszczać buble.
Czesc osob chcialoby powiedzmy sobie namiastke takiego urzadzenia w domu. Pewna nie dokladnosc pomiaru jest wtedy do zaakceptowania. Nie jestesmy zainteresowani (az tak mocno) tym ile dokladnie ms karcie zajelo przygotowanie klatki albo ile bylo klatek zgubionych. Ale pokolorowane klatki + v sync + zrzut 120 klatek na s i mozna cos tam powiedziec w warunkach domowych czy gpu wyrabia sie w 8 ms, 16 ms, 33 ms, a przede wszystkim jakie sa ekstrema i jak czesto wystepuja. Kazdy chcialby miec mozliwosc sprawdzenia tego w domu mozliwie najmniejszym kosztem.
ale jak urządzenie będzie kosztować 3tys zł to dalej nie zmieni sprawy.... jakby kosztowało nawet 500zł to dalej krążyłoby pewnie w kręgach portali/recenzentów.
Takie zabawki są drogie i mogą być tanie dopiero przy masowej produkcji liczonej w wielu tysiącach, a pomijam fakt, że AMD/NV/Intel, ale te urządzenia są pilnie chronione, AMD ma sporo takich zabawek, przy samej produkcji CPU masz tego sporo.
AMD ...
Rok czasu próbowali naprawić pojedynczy problem: mikrozacięcia CrossFire i nie potrafili.
No dobrze, znalazłem chwile czasu i odświeżyłem sobie artykuł Techreporta na bazie Fcat oraz tego samego sterownika 13,8 z funkcją frame pacing dla Crossfire.
Link: http://techreport.com/review/25167/frame-p...adeon-hd-7990/5
Cytat z podsumowania: 'If you have any sort of graphics setup that relies of AMD's CrossFire technology, you'll want to download the Catalyst 13.8 beta and install it right away. Since AMD has wisely decided to enable frame pacing by default, gamers should see the benefits of that feature in any DirectX 10/11 games immediately. Based on our benchmark results, the slow-mo videos we've captured, and our own seat-of-the-pants impressions, I think we can say with confidence that AMD's frame pacing solution appears to work just as well as Nvidia's SLI frame metering. The Radeon HD 7990's frame production and delivery results look much more like what you'd get from a single fast GPU—and that's exactly the behavior you'd want.'
Tłumaczenie: 'Jeśli posiadasz zestaw opierający się na technologii AMD Crossfire, powinieneś pobrać sterowniki Catalyst 13,8 beta i je zainstalować. Ponieważ AMD podjęło mądrą decyzje i włączyło frame pacing domyślnie, gracze powinni od razu dostrzec korzyści z tej funkcji w każdej grze Dx10/11. Bazując na wynikach naszych benchmarków i filmów nagranych w zwolnionym tempie oraz naszych odczuciach, myślę że z przekonaniem możemy powiedzieć że rozwiązanie AMD frame pacing działa tak samo dobrze jak Nvidii SLI frame metering. Reprodukcja klatek Radeona HD 7990 oraz ich wyświetlanie na ekranie wygląda o wiele bardziej jak wyniki generowanie przez jedno GPU - i to jest dokładnie efekt, którego byśmy chcieli.'
Natomiast przetestowany też na PClabie - Crysis 3:
cytat: 'Frame pacing makes everything better. The 7990 trades blows with the GeForce GTX 690 for the top spot in each of our latency-focused performance metrics.'
Tłumaczenie: 'Frame pacing sprawia, że wszystko działa lepiej. 7990 wymienia ciosy z GeForce GTX 690 w przypadku walki o topowe miejsce w testach koncentrujących się na opóźnieniach'
Dlatego do tematu zestawów high-end multi-gpu wrócimy wraz z redakcją jak tylko będzie to możliwe także z Radeonami 290x/290 o których rozmawiałem z Łukaszem.
Pozdrawiam,
Bruno
Pokaż mi lepiej test eyefinity
Najlepiej progres pokazuje chyba to:
Przed:
Po:
Pokaż mi lepiej test eyefinity
Najlepiej progres pokazuje chyba to:
Przed:
Po:
Dobry pomysł nad którym też popracujemy!
No i na Twoim przykładzie doskonale widać jak pracuje frame pacing (on/off) w konfiguracji Crossfire.
Wejście z HDMI jest sprzętowe, działą nawet jak komp jest wyłączony i przekierowywuje z wejścia-> wyjścia, dzięki temu nie musisz przepinać kabli/przełączać na monitorze.
Pokaż mi lepiej test eyefinity
Najlepiej progres pokazuje chyba to:
Przed:
Po:
Dobry pomysł nad którym też popracujemy!
No i na Twoim przykładzie doskonale widać jak pracuje frame pacing (on/off) w konfiguracji Crossfire.
No i dual graphics, gdyby to działało przynajmniej tak samo dobrze jak rozwiązanie w Xbox 360 to na rynku mobilnym Intel i NV nie mialiby szans w segmencie gdzie by to było.
I dlatego mnie zastanawia to ździwienie u AMD, że jest problem. Może wreszcie zabiorą się za dual graphics, bo dla AMD widać najważniejsze jest to by pokazać słupki....
... liczą , że każdy uwierzy, że 4670k jest tak wydajny jak 7850k. Widać, że AMD trzeba trzymać krótko i jechać po nich jak po burej suce, bo inaczej będą wypuszczać buble.
No właśnie. Wydaje mi się, że AMD nie tyle było nieświadome problemu, co było pewne swojej bezkarności, braku możliwości jego obiektywnej analizy. Gdy jednak Nvidia stworzyła FCAT, z dwojga złego woleli wyjść na głupka niż oszusta
Przecież nie trzeba specjalnie spostrzegawczym, żeby organoleptycznie stwierdzić przycięcia przy czymś takim:
http://cdn.pcper.com/files/news/2013-05-07/fr-2.png
Powiem szczerze, zdziwiło mnie to o tyle, że jeszcze do niedawna AMD chwaliło się strategią małych rdzeni, które przeciwstawiało kolosom Nvidii dzięki multi-GPU. Tak na logikę to właśnie ze strony AMD należałoby się spodziewać usprawnień trybów multi-GPU, a w praktyce okazało się, że jest dokładnie na odwrót.
Jak dobrze pamiętam to ATI wymyśliło multi-GPU...
Radeon HD 2900 -> 420mm^2, 8800 Ultra -> 480mm^2
2900 80nm 8800GTX Ultra 90nm
2900 700mln tranzystorów 8800GTX Ultra 680mln
Kto był kolosem?
@up
No właśnie. HD 2900 okazał się porażką i to wtedy AMD wdrożyło wspomnianą strategię małych rdzeni. HD 3870 znacznie ustępował 8800 Ultra czy 9800 GTX. HD 4870 nawet nie miał startu do GTX 280. Dzięki jednak względnej energoefektywności i niskim kosztom produkcji AMD mogło wystawić przeciw Nvidii karty dwuprocesorowe. Dopiero HD 6970 był małym krokiem w stronę silnych monolitycznych GPU, a ostatecznie strategię małych rdzeni AMD porzuciło dopiero wraz z premierą R9 290.
Dobrym przykładem błędnego podejścia AMD do multi-GPU jest kwestia tzw. Sideporta obecnego w kartach HD 4870 X2 i HD 5970. Dodatkowa przepustowość pozwalała na ograniczenie problemu mikroprzycięć, przynajmniej tych widzianych z poziomu frapsa (funkcja frame-time). Jako że jednak Sideport ponosił pobór prądu i nie zwiększał średniego fps-a, AMD po prostu go wyłączyło w sterownikach...
Jako posiadacz CF z 7970 powiem tylko tyle przestań pierniczyć od rzeczy.
Crysis3 jak i FC3 w CF to nadal porażka jak na tych co lab testował i obecnych sterach.
Aż wstyd że przez tyle miesięcy sterów AMD nie może naprawić.
labowe stery
FC3
Obecne stery
Gdybym nie grał tylko w BFa to bym dawno już te CF pognał.
Jestem zielony i nie za bardzo ogarniam. Czyli program nagrywa np. 1 sek. 70 fps a w 2 sek. 100 fps? Zależnie od ilości? Czy np. ustawiacie stale fps na 200 i tyle nagrywa?
Mniej więcej tak... ale trochę inaczej to wygląda
Jedną klatkę wygeneruje GPU w 24ms, drugą w 25ms, trzecią w 33ms, czwartą w 8ms....wszystko jest zapisywane i składa się na to, że w jednej sekundzie takich klatek masz xyz.
Dobra. Teraz rozumiem ale mam jeszcze pytanie. Robię test na jakiejś tam grze używając do pomiarów FRAPSa. W panelu nVidia ustawiam synchronizację na adaptacyjną (30 FPS) i FRAPS mi również w grze pokazuje 30. Dokładnie to samo się dzieję gdy ustawiam synchronizację adaptacyjną (60 fps) to FRAPS też ma 60. Czyli FRAPS mnie oszukuję i mam nie 30fps tylko 25fps? Mi się wydaję że pokazuję dobrze i mam 30
Ludzie nadal mają problem ze zrozumieniem tego jak widać.
to ze ustawiasz 30 fps to oznacza trylko jedno. ze w ciagu 1 sekundy ma sie wyswietlnic 30 klatek. moze byc tak ze 25 kaltek bedzie pojawialo sie w pierwsze 10ms a 5 ostatnich w ciagu 990 ms i wtedy bedziesz widzial to okiem jako przyciecie mimo ze masz 30 kaltek w ciagu 1s (1000ms). wlasnie o to chodzi ze kaltki nie sa wyswietlane rownomiernie czyli dla 30 kaltek na sekunde wychodzi ze jedna klatka powinna sie wyswietlac co 33ms. jakby tak bylo bys odczuwal idealna plynnosc. a widac za pomoca tego programu ze tak nie jest i mimo nawet 60 klatek i wiecej bedziesz mial przyciecia widoczne golym okiem bo nie w kazdej kolejnej 33ms jest nowa klatka.
Powiem szczerze, zdziwiło mnie to o tyle, że jeszcze do niedawna AMD chwaliło się strategią małych rdzeni, które przeciwstawiało kolosom Nvidii dzięki multi-GPU. Tak na logikę to właśnie ze strony AMD należałoby się spodziewać usprawnień trybów multi-GPU, a w praktyce okazało się, że jest dokładnie na odwrót.
Oj te małe rdzenie to chyba nie pod dual gpu, ale ograniczenie w wydzielaniu energii. Architektury, które wybierają wyraźnie nie lubią dużej powierzchni i wysokich zegarów, bo ciasno wpakowują tranzystory. Najwyraźniej przy takim napakowaniu można dużo rzeczy przeoczyć i niedopracowanie od strony sprzętowo-programistycznej to jest efekt.
to ze ustawiasz 30 fps to oznacza trylko jedno. ze w ciagu 1 sekundy ma sie wyswietlnic 30 klatek. moze byc tak ze 25 kaltek bedzie pojawialo sie w pierwsze 10ms a 5 ostatnich w ciagu 990 ms i wtedy bedziesz widzial to okiem jako przyciecie mimo ze masz 30 kaltek w ciagu 1s (1000ms). wlasnie o to chodzi ze kaltki nie sa wyswietlane rownomiernie czyli dla 30 kaltek na sekunde wychodzi ze jedna klatka powinna sie wyswietlac co 33ms. jakby tak bylo bys odczuwal idealna plynnosc. a widac za pomoca tego programu ze tak nie jest i mimo nawet 60 klatek i wiecej bedziesz mial przyciecia widoczne golym okiem bo nie w kazdej kolejnej 33ms jest nowa klatka.
Nie, bo adaptacyjny vsync to mniej więcej to samo co zwykły vsync, czyli wyświetlane fps pokryje się z fps frapsa, co zresztą łatwo sprawdzić wizualnie. Nie oznacza to, że może być 25 klatek w pierwszych 10 ms, wręcz przeciwnie - jest gwarancja, że nie będzie ich więcej niż ustawiono w vsync i nie będą zliczone we frapsie.
Jest możliwość, że za każdym razem będzie upuszczona klatka, bo np. naprzemiennie będzie się renderować szybko i wolno, wytwarzając maksymalną różnicę (1 fps) pomiędzy kolejnymi synchronizacjami, ale to również obniża realny fps widoczny we frapsie. Więc jeśli jest vsync i zostało wyświetlone 30 fps, to nie ma możliwości, żeby było więcej wyrenderowanych klatek w każdej 1/30s niż 1-2, a co dopiero w każdych 10 ms.
W prostszych słowach - nie będzie takiej sytuacji, że karta raz robi, raz nie robi 10 klatek w przód przy vsync i zaburza średnie fps.
Dlatego próg płynności dla mnie zależy w dużej mierze od szybkości ruchów kamery. W grach FPP szybkości ruchów kamerą są bardzo szybkie, więc wolę przyciąć bajery, żeby utrzymać przynajmniej około 60 FPS, natomiast jeżeli kamera jest zawieszona wysoko nad sterowaną postacią/ postaciami i przez to jej ruch jest powolny i płynny to wystarczy i 30 FPS do komfortowego grania.
Klatkowanie w filmach to głównie zasługa Telecine (konwersji do innego standardu), a główną przyczyną tego stanu jest fakt, że w kamerze pracuje klisza góra-dół, więc jak są ruchy na boki kamery to siłą rzeczy powstaje blur na kliszy. Z resztą się zgadzam w 100%. Przy 30fps spokojnie wystarcza by obraz się nie sypał tak mocno bo przy 60fps tego nie ma (w Uncharted 2 np potrójne buforowanie sprawia ze nawet jak się kręci kamerą na max - wisząc np w studnii na mapie Sanctuary - to obraz jedynie 'gubi piksele' ale nie klatkuje ani trochę). Inną kwestią jest właśnie dynamika i filmowość. Filmy 24p mają ten specyficzny filmowy klimat właśnie dzięki powoli ruszającej się kamerze. W 60fps obraz robi się teatralny, podobnie w grach samochodowych przy 60fps jest ekstra ale brak jest rozmyć które nadają dynamiki jeździe (motion blur itp). Temat rzeka. Najgorszy jest screen-tearing.
Nie mow ze 60 fps wystarcza bo cie zaminusuja na smierc!! Shhhh ciichhoooo ;>
Aż wstyd że przez tyle miesięcy sterów AMD nie może naprawić.
A może sterów AMD nie da się poprawić bo architektura GCN jest zwalona jak modułowość w FX i Kaveri?
to ze ustawiasz 30 fps to oznacza trylko jedno. ze w ciagu 1 sekundy ma sie wyswietlnic 30 klatek. moze byc tak ze 25 kaltek bedzie pojawialo sie w pierwsze 10ms a 5 ostatnich w ciagu 990 ms i wtedy bedziesz widzial to okiem jako przyciecie mimo ze masz 30 kaltek w ciagu 1s (1000ms). wlasnie o to chodzi ze kaltki nie sa wyswietlane rownomiernie czyli dla 30 kaltek na sekunde wychodzi ze jedna klatka powinna sie wyswietlac co 33ms. jakby tak bylo bys odczuwal idealna plynnosc. a widac za pomoca tego programu ze tak nie jest i mimo nawet 60 klatek i wiecej bedziesz mial przyciecia widoczne golym okiem bo nie w kazdej kolejnej 33ms jest nowa klatka.
Nie, bo adaptacyjny vsync to mniej więcej to samo co zwykły vsync, czyli wyświetlane fps pokryje się z fps frapsa, co zresztą łatwo sprawdzić wizualnie. Nie oznacza to, że może być 25 klatek w pierwszych 10 ms, wręcz przeciwnie - jest gwarancja, że nie będzie ich więcej niż ustawiono w vsync i nie będą zliczone we frapsie.
Jest możliwość, że za każdym razem będzie upuszczona klatka, bo np. naprzemiennie będzie się renderować szybko i wolno, wytwarzając maksymalną różnicę (1 fps) pomiędzy kolejnymi synchronizacjami, ale to również obniża realny fps widoczny we frapsie. Więc jeśli jest vsync i zostało wyświetlone 30 fps, to nie ma możliwości, żeby było więcej wyrenderowanych klatek w każdej 1/30s niż 1-2, a co dopiero w każdych 10 ms.
W prostszych słowach - nie będzie takiej sytuacji, że karta raz robi, raz nie robi 10 klatek w przód przy vsync i zaburza średnie fps.
Nawiązując do tego i powracając do potrójnego buforowania w Uncharted 2 (@30fps). Tam mi się wydaje [na podstawie tego co czytałem] pomimo potrzebnych 33ms na każdą klatkę to przy potrójnym buforowaniu klatka może trwać dokładnie 33ms. Po porostu jak gracz ruszy postacią następuje buffor kilkudziesięciu milisekund, a potem rendering. W U2 cały praktycznie rendering sceny (geometria/trójkąty) trwa 8ms, więc zakładając potrójny buffor daje to 24ms + post-processing. Więc po wstępnym np 33ms (input-lag), następne 3 klatki powstają w około 33ms (24+post-processing jak wyżej), czyli np przy lagu 66ms można uzyskać pełną płynność, bo mamy buffor 3 klatek w przód.
Opieram się na tym co pisze tu programista ND.
http://filmicgames.com/archives/534
Dlatego gra od ND jest pozbawiona całkowicie screen-teraingu i pomimo 30fps jest 2-3x bardziej płynna np od Crysis1 na PS3 (właśnie ją ogrywam). Niewiele osób wie ale rendering sceny w U2 (geo/trójkąty) jest liczony w ~120Hz.