Monitor dla graczy – od czego się zaczęło?

Pierwszym 120-hercowym wyświetlaczem na rynku, który nieśmiało rozpychał się w umysłach graczy, był model Samsunga, a dokładnie: 2233RZ, wprowadzony w 2009 roku. Ten 22-calowy monitor zapewniał przyzwoitą, jak na tamte czasy, rozdzielczość, która dzisiaj zanikła już niemal całkowicie: 1680 × 1050 pikseli. Przez następnych 5 lat, aż do lipca tego roku, w sklepach pojawiały się wyświetlacze 120- lub 144-hercowe: 22-, 24- i 27-calowe, ale niemalże wszystkie miały rozdzielczość Full HD. O ile przy krótszej przekątnej jest to jak najbardziej do przyjęcia, o tyle 1920 × 1080 pikseli w połączeniu z 27-calowym ekranem może już być problemem, bo po prostu widoczne stają się schodki na czcionkach i w grach uruchamianych przy wyłączonej funkcji wygładzania krawędzi.

Powstałą niszę, czyli urządzenia o rozdzielczości 2560 × 1440 i odświeżaniu szybszym niż 60 Hz, postanowiło wykorzystać kilka mniejszych firm, które zaoferowały, zdawałoby się idealne, monitory dla graczy: oparte na matrycy IPS modele 120-hercowe. W miarę czasu okazało się jednak, że „tanim koreańczykom” brakowało do ideału wiele: w niezależnych testach montowane w nich panele IPS odwzorowywały kolory gorzej niż wiele wyświetlaczy z matrycami TN, a 120-hercowe odświeżanie wcale nie było gwarantowane. Takie konstrukcje, jak: Yamakasi Catleap, Overlord, Qnix, były sprzedawane jako 60-hercowe, a producent zapewniał, że można je „podkręcić”, co polegało na tym, że użytkownicy ustawiali w sterownikach karty graficznej coraz wyższą i wyższą częstotliwość odświeżania. Okazało się, że wiele ekranów było zdolnych do działania wyłącznie z odświeżaniem na poziomie 90–100 Hz, a w dodatku cierpiały one na zjawisko frame skippingu, czyli przy odświeżaniu szybszym niż 60 Hz nowe obrazy wcale nie były wyświetlane, a klatki były odrzucane. Czarę goryczy przelało 30–40-milisekundowe opóźnienie sygnału (input lag).