Nie ma co się spieszyć, producenci kart/monitorów/telewizorów nawet nue planują jeszcze użycia HDMI 2.0 i DP 1.3
Bez tego będzie zabawa z 2 kablami i innymi aby ledwo dobić do 4k 60hz, co dopiero g-sync i podobne
do tego szybszy transfer = mniejszy input lag ponieważ czas przesłania pojedyńczej klatki jest krótszy
Powiem tak z perspektywy kogos kto juz ponad rok gra w 4k. 980Ti jest minimum potrzebnym do 4k. Fury pewnie tez starczy ale tu juz pewnosci nie mam ze wzgledu na pamiec ale tez i slaby OC. W moim przypadku planuje 2 albo i 3 way sli ale na razie mam 1 980ti g1 gaming. W wiedzminie 3, na max detalach gra byla dosc nieprzyjemna, i byl to chyba pierwszy raz kiedy OC naprawde pomogl (zawsze mialem wrazenie ze OC jakos tak nabija numerki ale nie przeklada sie to na jakosc rozgrywki). Po OC do mniej wiecej takich ilosci jak na labie (100mhz wiecej pamiec, 60 mhz mniej rdzen - na takich ustawieniach jak w testach labu karta przechodzila benchmarki spiewajaco, ale pojawialy sie artefakty w realnych grach) gra odzyla. Jasne to nadal jest 'cinematic experience' ale gra sie przyjemnie - i to z wszystkimi szykanami.
W kazdym razie bez 980ti albo 2x970 bym nie podchodzil do 4k.
Test fajny, wnioski skromne, można było napisać:
-w 4K oszczędza się na AA, można z tego zjechać prawie do zera
-z 4K trzeba zaczekać na 75-144Hz a to przyniesie nowe HDMI
-27' i więcej, bo mniej to overkill
-w tej generacji GPU nikogo nie powinno boleć wydać jeszcze trochę na SLI i mieć płynnie w high/ultra 4K
Marny troll, TN ma znacznie mniejszy input lag od IPS, przez co IPS jest gorszy od TN w grach multiplayer. Jedni wolą lepszy obraz, inni minimalne opóźnienia, dlaczego chcesz tym drugim zakazać ich wyboru?
Ale przeczytałeś test i linki się w nim znajdujące ?
Pomiar parametru input lag w grze wymaga, by wziąć pod uwagę jeszcze jedno, co wszyscy zdają się pomijać w testach: liczba klatek na sekundę ma wpływ na opóźnienie sygnału!
Drugą bardzo ważną kwestią jest odświeżanie ekranu: przy założeniu, że mamy dwa identyczne pod względem elektroniki monitory różniące się tylko szybkością odświeżania, jest oczywiste, że ten o szybszym odświeżaniu wcześniej pokaże nowy obraz niż jego odpowiednik o wolniejszym odświeżaniu. Zatem częstotliwość odświeżania ekranu również ma wpływ na opóźnienie sygnału!
i jeszcze jedno
Trudno w tym miejscu pominąć inną bardzo ważną cechę tego modelu, technikę Nvidia G-Sync. Pisaliśmy o niej już co najmniej kilkukrotnie, ale warto podkreślić raz jeszcze, że synchronizacja monitora z kartą graficzną sprawdza się doskonale. Wyeliminowanie rozrywania obrazu (tearing), zacięć (stuttering), zminimalizowanie opóźnienia sygnału (input lag) oraz połączenie tego z ekranem, który działa bez zarzutu w zakresie 30–144 Hz, sprawia, że gra jest tak komfortowa, jak to tylko możliwe.
Porównujesz tanie TNki do monitora za 3000zł ? Ja nie twierdzę, że się z testem nie zgadzam, wręcz przeciwnie. Pokazałem jakie trzeba spełniać warunki żeby osiągnąć ten efekt. Czyli liczba klatek, odświeżanie, Nvidia G-sync. To po stronie monitora, ale potrzeba też jest odpowiednia karta graficzna. I ten test, same cyferki i brak zdjęć jak kiedyś w dużym teście gdzie sami widzieliśmy faktyczne obraz monitora pod testowanymi kątami.
Karpaj @ 2015.08.02 13:44
Brakuje mi bardzo ważnej informacji.
Jak to 4k medium ma się do full hd ultra? Bo pod względem szczegłów to 4k nawet na średnich ustawieniach powinno oferować więcej niż ultra przy full hd.
Tego brakuje czasami w testach na PCLABie, monitor czy karta, testuje się, porównuje jakieś ustawienia, jakość obrazu, a tylko cyferki.
Pamiętajcie na PC można suwaki przesuwać albo pliki konfiguracyjne edytować...
'Korona króla narodu polskiego' nie spadnie temu kto zmieni 2-3 opcje jedno/dwa oczka w dół, a inne da na ULTRA. (sarkazm dla tych co płaczą, że nie chodzi na ultra i xPC nie nadaje się do gier w związku z tym, a odziwo argument poruszany przez wiadomą grupkęj)
Część opcji jak cienie/DoF/LoD/AA (choć nie w tym przypadku- lab użył FXAA) może mocno pojechać po GPU bez znacznego widocznego efektu.... część jak tekstury może przy niewielkim spadku wydajności drastycznie podnieść jakość obrazu.
Dlatego macie opcję ~Very High w zależności od gry, gdzie wystarczy wyłączenie/zmniejszenie ustawień paru opcji, by osiągnąć drastyczną poprawę FPS-a przy relatywnie małym pogorszeniu jakości ekranu.
Wiele zależy od gry, silnika, tego co się chce osiągnąć (np. SP vs Mutli).
Test pokazał, że w 4k trzeba iść na komrpomisy. LOW/Very HIGH ma pokazać, że potencjalnie wasz FPS będzie znajdował się gdzieś w tym przedziale w trudnych! warunkach.
Nie znaczy to, że będziecie mieć np. 17FPSów w wiedźminie. Znaczy to, że w zależności od tego z czego zrezygnujecie w Very HIGH możecie liczyć w trudnych warunkach na 17 (vhigh)-36FPS (low)
Jeśli dotrwaliście do końca to przepraszam za sarkazm i nie marudźcie, że 17FPSów czy ileś tam...
W wielu grach da się wyciągnąć te 30FPS< nawet w labowych warunkach.
Pclab bardzo dobrze podszedł do sprawy i test daje wiele odpowiedzi!
Byłem sceptyczny, a art naprawdę uzmysławia wiele ciekawych rzeczy.
Pamiętajcie na PC można suwaki przesuwać albo pliki konfiguracyjne edytować...
'Korona króla narodu polskiego' nie spadnie temu kto zmieni 2-3 opcje jedno/dwa oczka w dół, a inne da na ULTRA. (sarkazm dla tych co płaczą, że nie chodzi na ultra i xPC nie nadaje się do gier w związku z tym, a odziwo argument poruszany przez wiadomą grupkęj)
Część opcji jak cienie/DoF/LoD/AA (choć nie w tym przypadku- lab użył FXAA) może mocno pojechać po GPU bez znacznego widocznego efektu.... część jak tekstury może przy niewielkim spadku wydajności drastycznie podnieść jakość obrazu.
Dlatego macie opcję ~Very High w zależności od gry, gdzie wystarczy wyłączenie/zmniejszenie ustawień paru opcji, by osiągnąć drastyczną poprawę FPS-a przy relatywnie małym pogorszeniu jakości ekranu.
Wiele zależy od gry, silnika, tego co się chce osiągnąć (np. SP vs Mutli).
Test pokazał, że w 4k trzeba iść na komrpomisy. LOW/Very HIGH ma pokazać, że potencjalnie wasz FPS będzie znajdował się gdzieś w tym przedziale w trudnych! warunkach.
Nie znaczy to, że nie będziecie mieć np. 17FPSów w wiedźminie. Znaczy to, że w zależności od tego z czego zrezygnujecie w Very HIGH możecie liczyć w trudnych warunkach na 17 (vhigh)-36FPS (low)
Jeśli dotrwaliście do końca to przepraszam za sarkazm i nie marudźcie, że 17FPSów czy ileś tam...
W wielu grach da się wyciągnąć te 30FPS< nawet w labowych warunkach.
Bardzo dobrze napisane. W 4k niektórych wodotrysków nie potrzebujemy. Z tego co pamiętam jeden gtx 970 po OC miał w moim systemie około 20fps w Wiedzminie 3 na ultra i nViadia hairworks. Ale Wiedzmina 3 można porównać do Crysyis 3 czyt. zajedzie najlepsze konfigi. To gra która będzie wyznacznikiem mocy komputera przez dłuższy czas.
'Nie da się jednak ukryć, że dzisiejsze karty z bardzo popularnego segmentu konstrukcji za mniej więcej 1,5 tys. zł nie pozwalają spokojnie myśleć o zabawie w 3840 × 2160' Nie da się ukryć że te karty również nie dadzą rady w 1440p. No chyba, że ktoś zrezygnuje z płynności animacji i obniży ustawienia graficzne.
Test fajny, wnioski skromne, można było napisać:
-w 4K oszczędza się na AA, można z tego zjechać prawie do zera
-z 4K trzeba zaczekać na 75-144Hz a to przyniesie nowe HDMI
-27' i więcej, bo mniej to overkill
-w tej generacji GPU nikogo nie powinno boleć wydać jeszcze trochę na SLI i mieć płynnie w high/ultra 4K
Bdb test. Sam rozważam (choć już teraz w zasadzie rozważałem) zakup taniego 4K. Chyba jednak zdecyduję się na FHD z 144hz lub WQHD i IPS. Co polecacie?
Gdyby tak te 4K były na matrycy IPS, to by było warto. Wyrazisty obraz w 2D, a w grach najwyżej 1080p i skalowanie nie powinno źle wyglądać.
Tak z ciekawości możecie udostępnić pełniejsze dane rozdzielczości użytkowników? W wielkim szoku byłem, jak się dowiedziałem, że na jednym z innych popularnych portali do niedawna królowała rozdzielczość... 1024x768 Tak było chyba do 2013 roku. A jak jest u was?
Bez tego będzie zabawa z 2 kablami i innymi aby ledwo dobić do 4k 60hz, co dopiero g-sync i podobne
do tego szybszy transfer = mniejszy input lag ponieważ czas przesłania pojedyńczej klatki jest krótszy
W kazdym razie bez 980ti albo 2x970 bym nie podchodzil do 4k.
Szefie, mantle jest już martwe, oficjalnie.
Ale w battlefield 3 jest opcja mantle
Szefie, mantle jest już martwe, oficjalnie.
Ale w battlefield 3 jest opcja mantle
Ale ta technologia została porzucona i nie będzie dalej rozwijana.
Teraz jest DX12
Ale w battlefield 3 jest opcja mantle
Ale ta technologia została porzucona i nie będzie dalej rozwijana.
Teraz jest DX12
Ale dlaczego jeszcze nie ma gier na DX12 ?
-w 4K oszczędza się na AA, można z tego zjechać prawie do zera
-z 4K trzeba zaczekać na 75-144Hz a to przyniesie nowe HDMI
-27' i więcej, bo mniej to overkill
-w tej generacji GPU nikogo nie powinno boleć wydać jeszcze trochę na SLI i mieć płynnie w high/ultra 4K
Marny troll, TN ma znacznie mniejszy input lag od IPS, przez co IPS jest gorszy od TN w grach multiplayer. Jedni wolą lepszy obraz, inni minimalne opóźnienia, dlaczego chcesz tym drugim zakazać ich wyboru?
IPS nie ma większego input lag. Proszę: http://pclab.pl/art62420.html
Pomiar parametru input lag w grze wymaga, by wziąć pod uwagę jeszcze jedno, co wszyscy zdają się pomijać w testach: liczba klatek na sekundę ma wpływ na opóźnienie sygnału!
Drugą bardzo ważną kwestią jest odświeżanie ekranu: przy założeniu, że mamy dwa identyczne pod względem elektroniki monitory różniące się tylko szybkością odświeżania, jest oczywiste, że ten o szybszym odświeżaniu wcześniej pokaże nowy obraz niż jego odpowiednik o wolniejszym odświeżaniu. Zatem częstotliwość odświeżania ekranu również ma wpływ na opóźnienie sygnału!
i jeszcze jedno
Trudno w tym miejscu pominąć inną bardzo ważną cechę tego modelu, technikę Nvidia G-Sync. Pisaliśmy o niej już co najmniej kilkukrotnie, ale warto podkreślić raz jeszcze, że synchronizacja monitora z kartą graficzną sprawdza się doskonale. Wyeliminowanie rozrywania obrazu (tearing), zacięć (stuttering), zminimalizowanie opóźnienia sygnału (input lag) oraz połączenie tego z ekranem, który działa bez zarzutu w zakresie 30–144 Hz, sprawia, że gra jest tak komfortowa, jak to tylko możliwe.
Porównujesz tanie TNki do monitora za 3000zł ? Ja nie twierdzę, że się z testem nie zgadzam, wręcz przeciwnie. Pokazałem jakie trzeba spełniać warunki żeby osiągnąć ten efekt. Czyli liczba klatek, odświeżanie, Nvidia G-sync. To po stronie monitora, ale potrzeba też jest odpowiednia karta graficzna. I ten test, same cyferki i brak zdjęć jak kiedyś w dużym teście gdzie sami widzieliśmy faktyczne obraz monitora pod testowanymi kątami.
Jak to 4k medium ma się do full hd ultra? Bo pod względem szczegłów to 4k nawet na średnich ustawieniach powinno oferować więcej niż ultra przy full hd.
Tego brakuje czasami w testach na PCLABie, monitor czy karta, testuje się, porównuje jakieś ustawienia, jakość obrazu, a tylko cyferki.
Czytajcie sobie i marzcie jak by to było
'Korona króla narodu polskiego' nie spadnie temu kto zmieni 2-3 opcje jedno/dwa oczka w dół, a inne da na ULTRA. (sarkazm dla tych co płaczą, że nie chodzi na ultra i xPC nie nadaje się do gier w związku z tym, a odziwo argument poruszany przez wiadomą grupkęj)
Część opcji jak cienie/DoF/LoD/AA (choć nie w tym przypadku- lab użył FXAA) może mocno pojechać po GPU bez znacznego widocznego efektu.... część jak tekstury może przy niewielkim spadku wydajności drastycznie podnieść jakość obrazu.
Dlatego macie opcję ~Very High w zależności od gry, gdzie wystarczy wyłączenie/zmniejszenie ustawień paru opcji, by osiągnąć drastyczną poprawę FPS-a przy relatywnie małym pogorszeniu jakości ekranu.
Wiele zależy od gry, silnika, tego co się chce osiągnąć (np. SP vs Mutli).
Test pokazał, że w 4k trzeba iść na komrpomisy. LOW/Very HIGH ma pokazać, że potencjalnie wasz FPS będzie znajdował się gdzieś w tym przedziale w trudnych! warunkach.
Nie znaczy to, że będziecie mieć np. 17FPSów w wiedźminie. Znaczy to, że w zależności od tego z czego zrezygnujecie w Very HIGH możecie liczyć w trudnych warunkach na 17 (vhigh)-36FPS (low)
Jeśli dotrwaliście do końca to przepraszam za sarkazm i nie marudźcie, że 17FPSów czy ileś tam...
W wielu grach da się wyciągnąć te 30FPS< nawet w labowych warunkach.
Pclab bardzo dobrze podszedł do sprawy i test daje wiele odpowiedzi!
Byłem sceptyczny, a art naprawdę uzmysławia wiele ciekawych rzeczy.
szybciej nie da rady
Hie hie, to samo czytałem 5 lat temu, 3 lata temu, czytam i dzisiaj
Jedyne co sie zmieniło to dostępność modeli, ich ceny i nowe standardy podłączenia. Wydajność dalej w polu
jak masz monetę, łączysz 3 tytany x i grasz spoko, więc nie wiem w czym problem
za 2-3 lata pogra większość
'Korona króla narodu polskiego' nie spadnie temu kto zmieni 2-3 opcje jedno/dwa oczka w dół, a inne da na ULTRA. (sarkazm dla tych co płaczą, że nie chodzi na ultra i xPC nie nadaje się do gier w związku z tym, a odziwo argument poruszany przez wiadomą grupkęj)
Część opcji jak cienie/DoF/LoD/AA (choć nie w tym przypadku- lab użył FXAA) może mocno pojechać po GPU bez znacznego widocznego efektu.... część jak tekstury może przy niewielkim spadku wydajności drastycznie podnieść jakość obrazu.
Dlatego macie opcję ~Very High w zależności od gry, gdzie wystarczy wyłączenie/zmniejszenie ustawień paru opcji, by osiągnąć drastyczną poprawę FPS-a przy relatywnie małym pogorszeniu jakości ekranu.
Wiele zależy od gry, silnika, tego co się chce osiągnąć (np. SP vs Mutli).
Test pokazał, że w 4k trzeba iść na komrpomisy. LOW/Very HIGH ma pokazać, że potencjalnie wasz FPS będzie znajdował się gdzieś w tym przedziale w trudnych! warunkach.
Nie znaczy to, że nie będziecie mieć np. 17FPSów w wiedźminie. Znaczy to, że w zależności od tego z czego zrezygnujecie w Very HIGH możecie liczyć w trudnych warunkach na 17 (vhigh)-36FPS (low)
Jeśli dotrwaliście do końca to przepraszam za sarkazm i nie marudźcie, że 17FPSów czy ileś tam...
W wielu grach da się wyciągnąć te 30FPS< nawet w labowych warunkach.
Bardzo dobrze napisane. W 4k niektórych wodotrysków nie potrzebujemy. Z tego co pamiętam jeden gtx 970 po OC miał w moim systemie około 20fps w Wiedzminie 3 na ultra i nViadia hairworks. Ale Wiedzmina 3 można porównać do Crysyis 3 czyt. zajedzie najlepsze konfigi. To gra która będzie wyznacznikiem mocy komputera przez dłuższy czas.
-w 4K oszczędza się na AA, można z tego zjechać prawie do zera
-z 4K trzeba zaczekać na 75-144Hz a to przyniesie nowe HDMI
-27' i więcej, bo mniej to overkill
-w tej generacji GPU nikogo nie powinno boleć wydać jeszcze trochę na SLI i mieć płynnie w high/ultra 4K
Wydać jeszcze trochę? Czyli 2x 980Ti = 7k pln...
Gdyby tak te 4K były na matrycy IPS, to by było warto. Wyrazisty obraz w 2D, a w grach najwyżej 1080p i skalowanie nie powinno źle wyglądać.
'Gimnazjaliści na lekcjach informatyki'