Karty graficzne
Artykuł
Łukasz Marek, Czwartek, 26 marca 2015, 21:12

AMD FreeSync to technika konkurencyjna wobec G-Sync, opracowanej przez Nvidię. Obydwa rozwiązania mają eliminować rozrywanie obrazu (tearing) i zacięcia (stuttering), a także zmniejszać do minimum opóźnienie sygnału (input lag). Technikę Nvidia G-Sync mieliśmy okazję już kilkukrotnie sprawdzić w działaniu i możemy potwierdzić, że obietnice producenta zostały spełnione. Teraz nadszedł czas na rywala: AMD FreeSync. Czy nowość ma szansę odnieść sukces, mimo że na rynku pojawiła się później? Oto nasz test.

Nieco historii 

Zanim Nvidia po raz pierwszy pokazała technikę G-Sync, w październiku 2013 roku, utrzymywała wszystko w ogromnej tajemnicy. Dziennikarze zaproszeni na konferencję dla kilkudziesięciu osób z całego świata nie wiedzieli, czy lecą zobaczyć nową kartę graficzną czy jakieś rewolucyjne rozwiązanie. Ostatecznie okazało się, że na konferencji, za zamkniętymi drzwiami, przedstawiono nie tylko kartę GeForce GTX 780 Ti, ale też monitory z modułem, który Nvidia nazwała G-Sync. Zebrani naprzeciwko nowych monitorów z nową techniką synchronizacji obrazu, początkowo sceptyczni, już po kilkudziesięciu sekundach przekonali się, że to, o czym przed chwilą szeptem mówiono: „Nic interesującego”, to tak naprawdę game changer.

Nieprzypadkowo utrzymywano G-Sync w tajemnicy: Nvidia na pewno chciała złapać w swoją sieć nowych klientów przez zaoferowanie im nowej możliwości na wyłączność, podczas gdy AMD zupełnie nie miało czym odpowiedzieć.

FreeSync – początki

Pierwsze pogłoski o podobnie działającym rozwiązaniu AMD pojawiły się podczas targów CES 2014. Wtedy to firma przedstawiła technikę FreeSync. Nazwa była w oczywisty sposób wymierzona w dodatkowo płatną G-Sync. W pierwszej prezentacji użyto pary laptopów Toshiba Satellite. Dobór sprzętu był nieprzypadkowy, a wręcz wymuszony. Laptopy te mają nieco inną budowę niż większość: karta graficzna jest w nich podłączona bezpośrednio do wyświetlacza za pomocą interfejsu eDP (Embedded DisplayPort), który pozwolił użyć polecenia VBLANK, opóźniającego kolejne odświeżenia ekranu w celu redukcji poboru energii w urządzeniach przenośnych. Okazało się jednak, że opóźnienie odświeżenia ekranu przez manipulowanie czasem VBLANK może mieć też zastosowanie w grach.

Z naszego testu rozwiązania Nvidii wynika, że właśnie tak działa moduł G-Sync: częstotliwość odświeżania ekranu jest kontrolowana za pomocą parametru VBLANK i ten sam trik zastosowało AMD w laptopach Toshiby, aby pokazać FreeSync w akcji. W tamtym czasie nie dało się zaprezentować działania nowej techniki na samodzielnych monitorach, bo tylko Nvidia miała w swoich rękach zbudowany od podstaw moduł tego typu, który tak naprawdę jest zaawansowanym skalerem (obsługującym między innymi technikę zmiennego odświeżania obrazu), zastępującym standardowy skaler w monitorze. AMD, aby przedstawić FreeSync na targach CES w 2014 roku (2 miesiące po pierwszej prezentacji G-Sync), musiało wykorzystać właśnie laptopy z interfejsem eDP.


źrodło Anandtech

Sytuacja zmieniła się dopiero sześć miesięcy później, w czerwcu 2014 roku, na targach Computex. Tam AMD w końcu pokazało prototyp zewnętrznego wyświetlacza, który obsługiwał funkcję AMD FreeSync, czyli pozwalał wyeliminować rozrywanie obrazu (tearing) i zacięcia (stuttering). Wszelkie logo czy tabliczki znamionowe zostały przez pracowników firmy zaklejone, aby nie było wiadomo, z jakim monitorem dziennikarze mają do czynienia na stoisku, ale zapewniano, że jest to model dostępny w sprzedaży (wyposażony w odpowiednie podzespoły) i aby wymusić działanie FreeSync, wystarczyłoby przeprowadzić aktualizację oprogramowania mikroukładu. Jednocześnie pracownicy AMD przyznawali, że choć na rynku jest kilka monitorów zdolnych sprzętowo do obsługi FreeSync (nie podano jakich), nie należy się spodziewać aktualizacji oprogramowania, która udostępniłaby FreeSync w istniejących wyświetlaczach.

Kilkanaście dni po targach Computex w amerykańskiej redakcji „PCPer” pojawił się znany większości Richard Huddy, w AMD pełniący funkcję Chief Gaming Scientist, co w wolnym tłumaczeniu oznacza specjalistę od technik związanych z grafiką 3D w komputerach i konsolach. Podczas prawie 1,5-godzinnej dyskusji Huddy mówił o wielu rzeczach, między innymi o monitorach z techniką FreeSync. W pewnym momencie przedstawiciel AMD stwierdził, że testerzy powinni dostać monitory z FreeSync na przełomie września i października 2014 roku. AMD stało już pod ścianą, bo na rynku pojawił się rozchwytywany wówczas przez zapaleńców 144-hercowy Asus ROG Swift PG278Q o rozdzielczości WQHD (2560 × 1440), wyposażony w moduł G-Sync. Odpowiedź AMD była więc bardzo wyczekiwana, ale nic takiego nie nastąpiło. Monitorów FreeSync w czwartym kwartale 2014 roku nadal nie było ani w redakcyjnych laboratoriach, ani tym bardziej w sprzedaży.


źrodło Anandtech

Stało się jasne, że bez produktów na półkach sklepowych strategia marketingowa AMD dotycząca FreeSync nie polegała na promocji własnego rozwiązania, a raczej na próbach zahamowania sprzedaży monitorów z G-Sync. A było co hamować: ROG Swift znikał z półek w tempie 100 sztuk dziennie. Na rynku było zapotrzebowanie na taki sprzęt i Asus wraz z Nvidią zdołali to wykorzystać.

Platforma testowa do porównań

W niniejszym artykule porównamy działanie G-Sync oraz FreeSync. I już na początku pojawia się mały problem. Dema technologiczne obu tych rozwiązań znacznie się różnią. Uznaliśmy, że nie możemy wykorzystywać materiałów jednej lub drugiej firmy (Nvidia udostępniła demo z wahadłem, a AMD – z wiatrakiem), więc sami stworzyliśmy sobie pole do porównań.

Aby to zrobić, przeanalizowaliśmy, jaki ruch obiektu jest najlepszy do zaprezentowania różnic pomiędzy trybami G-Sync i FreeSync z włączoną i wyłączoną synchronizacją pionową, i postanowiliśmy go odtworzyć przy użyciu jednego z silników gry. Silnik Source, na którym jest oparta najpopularniejsza strzelanka sieciowa, Counter-Strike: Global Offensive, okazał się idealnym narzędziem. W edytorze map Hammer zbudowaliśmy przestrzeń do testów FreeSync i G-Sync. Przedstawia ją poniższy film. 

Plusy? Testujemy obie techniki na neutralnym gruncie: nie w demie technologicznym, ale w realnej grze, a do tego żadna z firm nie mogła przygotować swojego sprzętu pod kątem tego testu, ponieważ mapka o jakże wymyślnej nazwie de_tearing znajduje się w pilnie strzeżonym laboratorium PCLab ;)

Ocena artykułu:
Ocen: 31
Zaloguj się, by móc oceniać
storm84 (2015.03.26, 21:19)
Ocena: 48

0%
Oj, czekałem niepotrzebnie na FreeSync :( Taki błąd jest dla mnie niedopuszczalny
Obsesion (2015.03.26, 21:23)
Ocena: 38

0%
AMD: od 9 Hz
Rzeczywistość: od 40 a nawet 40 Hz

'Obietnice AMD'
ghs (2015.03.26, 21:25)
Ocena: -1

0%
kolejny gwoźdź do trumny a zarząd minimalnych, jak orkiestra w titanicu... grają skocznie i wesoło... bo tylko w skocznym i wesołym rytmie da się jeszcze coś wydoić ze spółki w stanie agonalnym
jaskól (2015.03.26, 21:25)
Ocena: 25

0%
Dobrze że AMD próbuje walczyć z nvidią, ale freesync to już kolejna nieudana próba podjęcia rzuconej rękawicy. Szkoda :(
storm84 (2015.03.26, 21:26)
Ocena: 26

0%
Walther @ 2015.03.26 21:24  Post: 850655
Pytanie : Kto będzie grał poniżej 30 fps ?

W 25 nie, ale 35 już tak
edek20 (2015.03.26, 21:30)
Ocena: 31

0%
Kiepski 'standard' z tego freesync. Już wiadomo dlaczego jest to opcjonalne
Zajcc (2015.03.26, 21:31)
Ocena: 64

0%

powiedzcie, że to żart :(
FarCry3 (2015.03.26, 21:33)
Ocena: 29

0%
Czyli jak rozumiem gdy gram np. w Far Cry 4 i mam między 35 a 50 fps to raz mam freesync a raz nie, zgadza się?
Zaloguj się, by móc komentować
Artykuły spokrewnione
Facebook
Ostatnio komentowane