Full HD to standard, Ultra HD 4K to luksusowa przyszłość

Jak doskonale wiemy, rozdzielczość ma kolosalny wpływ na obciążenie karty graficznej. Jeszcze nie tak dawno temu stwierdzenie „Crysis chodzi mi w Full HD na Ultra” było wręcz czymś niespotykanym. Na takie słowa mogli sobie pozwolić naprawdę wybrani. Jeszcze w 2011 roku komputer zdolny osiągnąć w tej grze akceptowalną wydajność musiał być wyposażony w kartę graficzną za przynajmniej 1,5 tys. zł i procesor za mniej więcej połowę tej kwoty. W 2013 roku do grania w wysokich ustawieniach w większości gier wystarczą karty za mniej więcej 500 zł, takie jak bardzo popularny GeForce GTX 650 Ti Boost czy Radeon R7 260X. Zadowalającą wydajność w maksymalnych ustawieniach w większości gier zapewniają już karty za 700–900 zł, czyli GeForce GTX 660, Radeon R9 270X czy GeForce GTX 760 (wymieniliśmy je w kolejności od najtańszej i najwolniejszej do najdroższej i najszybszej). Ale już dziś Full HD to dla wielu przeżytek. Od jakiegoś czasu najszybsze karty graficzne testowaliśmy także w rozdzielczości 2560 × 1440. Jednak technika nie stoi w miejscu i od kilku miesięcy wiele mówi się na temat ekranów Ultra HD 4K.

Ultra HD 4K to w pewnym sensie cztery ekrany Full HD. Liczba pikseli w pionie i poziomie została podwojona, a zatem jest ich aż czterokrotnie więcej niż w popularnym formacie 1920 × 1080. Oznacza to ni mniej, ni więcej, jak tylko czterokrotnie większą ilość danych do przerobienia. Nie brzmi to zbyt optymistycznie, jeśli weźmiemy pod uwagę wysokie wymagania wobec kart graficznych w rozdzielczości 2560 × 1440. Na dobrą sprawę nawet takie za 1300–1500 zł niespecjalnie sobie radzą w tej rozdzielczości. Ogrom danych, jakie trzeba przetworzyć, doskonale obrazują rozmiary filmów w jakości Ultra HD. Podczas gdy minuta przeciętnego materiału Full HD zajmuje 90–100 MB, tak w trybie 4K jest to już ponad 300 MB. Pomyślcie, że pełnometrażowy, skompresowany film w takiej rozdzielczości zajmuje blisko 40 GB! „Zaraz, gdzie ja zostawiłem swoje SSD 1 TB?”