komentarze
lukevipno1Zobacz profil
Poziom ostrzeżenia: 0%
lukevipno12015.08.02, 20:34
SunTzu @ 2015.08.02 20:10  Post: 893835
Pamiętajcie na PC można suwaki przesuwać albo pliki konfiguracyjne edytować...

'Korona króla narodu polskiego' nie spadnie temu kto zmieni 2-3 opcje jedno/dwa oczka w dół, a inne da na ULTRA. (sarkazm dla tych co płaczą, że nie chodzi na ultra i xPC nie nadaje się do gier w związku z tym, a odziwo argument poruszany przez wiadomą grupkęj)

Część opcji jak cienie/DoF/LoD/AA (choć nie w tym przypadku- lab użył FXAA) może mocno pojechać po GPU bez znacznego widocznego efektu.... część jak tekstury może przy niewielkim spadku wydajności drastycznie podnieść jakość obrazu.

Dlatego macie opcję ~Very High w zależności od gry, gdzie wystarczy wyłączenie/zmniejszenie ustawień paru opcji, by osiągnąć drastyczną poprawę FPS-a przy relatywnie małym pogorszeniu jakości ekranu.

Wiele zależy od gry, silnika, tego co się chce osiągnąć (np. SP vs Mutli).

Test pokazał, że w 4k trzeba iść na komrpomisy. LOW/Very HIGH ma pokazać, że potencjalnie wasz FPS będzie znajdował się gdzieś w tym przedziale w trudnych! warunkach.
Nie znaczy to, że nie będziecie mieć np. 17FPSów w wiedźminie. Znaczy to, że w zależności od tego z czego zrezygnujecie w Very HIGH możecie liczyć w trudnych warunkach na 17 (vhigh)-36FPS (low)

Jeśli dotrwaliście do końca to przepraszam za sarkazm i nie marudźcie, że 17FPSów czy ileś tam...
W wielu grach da się wyciągnąć te 30FPS< nawet w labowych warunkach.


Bardzo dobrze napisane. W 4k niektórych wodotrysków nie potrzebujemy. Z tego co pamiętam jeden gtx 970 po OC miał w moim systemie około 20fps w Wiedzminie 3 na ultra i nViadia hairworks. Ale Wiedzmina 3 można porównać do Crysyis 3 czyt. zajedzie najlepsze konfigi. To gra która będzie wyznacznikiem mocy komputera przez dłuższy czas.
golyZobacz profil
Poziom ostrzeżenia: 0%
goly2015.08.02, 20:27
-3#95
Kowal @ 2015.08.02 14:25  Post: 893746
mediaexpert @ 2015.08.02 14:09  Post: 893740
4K może za dwa lata. Dziś to sprzęt dla burżuazji..

goly @ 2015.08.02 14:10  Post: 893741
dla Kowalskiego za 2-3 lata
szybciej nie da rady

Hie hie, to samo czytałem 5 lat temu, 3 lata temu, czytam i dzisiaj :E

Jedyne co sie zmieniło to dostępność modeli, ich ceny i nowe standardy podłączenia. Wydajność dalej w polu :D

jak masz monetę, łączysz 3 tytany x i grasz spoko, więc nie wiem w czym problem
za 2-3 lata pogra większość
*Konto usunięte*2015.08.02, 20:10
Pamiętajcie na PC można suwaki przesuwać albo pliki konfiguracyjne edytować...

'Korona króla narodu polskiego' nie spadnie temu kto zmieni 2-3 opcje jedno/dwa oczka w dół, a inne da na ULTRA. (sarkazm dla tych co płaczą, że nie chodzi na ultra i xPC nie nadaje się do gier w związku z tym, a odziwo argument poruszany przez wiadomą grupkęj)

Część opcji jak cienie/DoF/LoD/AA (choć nie w tym przypadku- lab użył FXAA) może mocno pojechać po GPU bez znacznego widocznego efektu.... część jak tekstury może przy niewielkim spadku wydajności drastycznie podnieść jakość obrazu.

Dlatego macie opcję ~Very High w zależności od gry, gdzie wystarczy wyłączenie/zmniejszenie ustawień paru opcji, by osiągnąć drastyczną poprawę FPS-a przy relatywnie małym pogorszeniu jakości ekranu.

Wiele zależy od gry, silnika, tego co się chce osiągnąć (np. SP vs Mutli).

Test pokazał, że w 4k trzeba iść na komrpomisy. LOW/Very HIGH ma pokazać, że potencjalnie wasz FPS będzie znajdował się gdzieś w tym przedziale w trudnych! warunkach.
Nie znaczy to, że będziecie mieć np. 17FPSów w wiedźminie. Znaczy to, że w zależności od tego z czego zrezygnujecie w Very HIGH możecie liczyć w trudnych warunkach na 17 (vhigh)-36FPS (low)

Jeśli dotrwaliście do końca to przepraszam za sarkazm i nie marudźcie, że 17FPSów czy ileś tam...
W wielu grach da się wyciągnąć te 30FPS< nawet w labowych warunkach.

Pclab bardzo dobrze podszedł do sprawy i test daje wiele odpowiedzi!
Byłem sceptyczny, a art naprawdę uzmysławia wiele ciekawych rzeczy.
vibovitZobacz profil
Poziom ostrzeżenia: 0%
vibovit2015.08.02, 20:08
30 FPS na LOW i 15 Ultra ? chyba raczej po po jutrze, na razie to ostre parcie na szkło marketingowców :E
lukevipno1Zobacz profil
Poziom ostrzeżenia: 0%
lukevipno12015.08.02, 20:03
-5#92
Test o 4k a wszystkie odpowiedzi osób które grają w tej rozdziałce są na minusie :/
Czytajcie sobie i marzcie jak by to było :P
tybet2Zobacz profil
Poziom ostrzeżenia: 0%
tybet22015.08.02, 19:57
W multi low się przydaje jeśli więcej widać.
WildFire2Zobacz profil
Poziom ostrzeżenia: 0%
WildFire22015.08.02, 19:31
-2#90
Granie na Low? No sorry... Nie po to kupuję PC żeby grać na Low
petertechZobacz profil
Poziom ostrzeżenia: 0%
petertech2015.08.02, 18:49
-3#89
Yan @ 2015.08.02 13:32  Post: 893722
Mnożnikgrecki @ 2015.08.02 13:25  Post: 893716
(...)

Marny troll, TN ma znacznie mniejszy input lag od IPS, przez co IPS jest gorszy od TN w grach multiplayer. Jedni wolą lepszy obraz, inni minimalne opóźnienia, dlaczego chcesz tym drugim zakazać ich wyboru?

IPS nie ma większego input lag. Proszę: http://pclab.pl/art62420.html
Ale przeczytałeś test i linki się w nim znajdujące ?

Pomiar parametru input lag w grze wymaga, by wziąć pod uwagę jeszcze jedno, co wszyscy zdają się pomijać w testach: liczba klatek na sekundę ma wpływ na opóźnienie sygnału!

Drugą bardzo ważną kwestią jest odświeżanie ekranu: przy założeniu, że mamy dwa identyczne pod względem elektroniki monitory różniące się tylko szybkością odświeżania, jest oczywiste, że ten o szybszym odświeżaniu wcześniej pokaże nowy obraz niż jego odpowiednik o wolniejszym odświeżaniu. Zatem częstotliwość odświeżania ekranu również ma wpływ na opóźnienie sygnału!

i jeszcze jedno

Trudno w tym miejscu pominąć inną bardzo ważną cechę tego modelu, technikę Nvidia G-Sync. Pisaliśmy o niej już co najmniej kilkukrotnie, ale warto podkreślić raz jeszcze, że synchronizacja monitora z kartą graficzną sprawdza się doskonale. Wyeliminowanie rozrywania obrazu (tearing), zacięć (stuttering), zminimalizowanie opóźnienia sygnału (input lag) oraz połączenie tego z ekranem, który działa bez zarzutu w zakresie 30–144 Hz, sprawia, że gra jest tak komfortowa, jak to tylko możliwe.

Porównujesz tanie TNki do monitora za 3000zł ? Ja nie twierdzę, że się z testem nie zgadzam, wręcz przeciwnie. Pokazałem jakie trzeba spełniać warunki żeby osiągnąć ten efekt. Czyli liczba klatek, odświeżanie, Nvidia G-sync. To po stronie monitora, ale potrzeba też jest odpowiednia karta graficzna. I ten test, same cyferki i brak zdjęć jak kiedyś w dużym teście gdzie sami widzieliśmy faktyczne obraz monitora pod testowanymi kątami.


Karpaj @ 2015.08.02 13:44  Post: 893726
Brakuje mi bardzo ważnej informacji.
Jak to 4k medium ma się do full hd ultra? Bo pod względem szczegłów to 4k nawet na średnich ustawieniach powinno oferować więcej niż ultra przy full hd.


Tego brakuje czasami w testach na PCLABie, monitor czy karta, testuje się, porównuje jakieś ustawienia, jakość obrazu, a tylko cyferki.
HDR'oZobacz profil
Poziom ostrzeżenia: 0%
HDR'o2015.08.02, 18:28
-2#88
W 1080P czuł byś jeszcze większy komfort zabawy :)
raufZobacz profil
Poziom ostrzeżenia: 0%
rauf2015.08.02, 18:26
Test fajny, wnioski skromne, można było napisać:
-w 4K oszczędza się na AA, można z tego zjechać prawie do zera
-z 4K trzeba zaczekać na 75-144Hz a to przyniesie nowe HDMI
-27' i więcej, bo mniej to overkill
-w tej generacji GPU nikogo nie powinno boleć wydać jeszcze trochę na SLI i mieć płynnie w high/ultra 4K

SzwarcuZobacz profil
Poziom ostrzeżenia: 0%
Szwarcu2015.08.02, 18:16
Jestem ciekawy co by było jakby GTX970 również miał 8GB :)
darkowalZobacz profil
Poziom ostrzeżenia: 0%
darkowal2015.08.02, 18:02
-5#85
Triangullar @ 2015.08.02 17:53  Post: 893803
darkowal @ 2015.08.02 17:49  Post: 893800
(...)


Ale w battlefield 3 jest opcja mantle


Ale ta technologia została porzucona i nie będzie dalej rozwijana.
Teraz jest DX12 :D


Ale dlaczego jeszcze nie ma gier na DX12 ?
TriangullarZobacz profil
Poziom ostrzeżenia: 0%
Triangullar2015.08.02, 17:53
darkowal @ 2015.08.02 17:49  Post: 893800
bad-wolf @ 2015.08.02 16:27  Post: 893783
(...)

Szefie, mantle jest już martwe, oficjalnie.


Ale w battlefield 3 jest opcja mantle


Ale ta technologia została porzucona i nie będzie dalej rozwijana.
Teraz jest DX12 :D
darkowalZobacz profil
Poziom ostrzeżenia: 0%
darkowal2015.08.02, 17:49
-8#83
bad-wolf @ 2015.08.02 16:27  Post: 893783
darkowal @ 2015.08.02 16:16  Post: 893780
A kiedy przetestujemy Mantle API w 4 K? Proszę o jasne testy

Szefie, mantle jest już martwe, oficjalnie.


Ale w battlefield 3 jest opcja mantle
XvimZobacz profil
Poziom ostrzeżenia: 0%
Xvim2015.08.02, 17:38
Powiem tak z perspektywy kogos kto juz ponad rok gra w 4k. 980Ti jest minimum potrzebnym do 4k. Fury pewnie tez starczy ale tu juz pewnosci nie mam ze wzgledu na pamiec ale tez i slaby OC. W moim przypadku planuje 2 albo i 3 way sli ale na razie mam 1 980ti g1 gaming. W wiedzminie 3, na max detalach gra byla dosc nieprzyjemna, i byl to chyba pierwszy raz kiedy OC naprawde pomogl (zawsze mialem wrazenie ze OC jakos tak nabija numerki ale nie przeklada sie to na jakosc rozgrywki). Po OC do mniej wiecej takich ilosci jak na labie (100mhz wiecej pamiec, 60 mhz mniej rdzen - na takich ustawieniach jak w testach labu karta przechodzila benchmarki spiewajaco, ale pojawialy sie artefakty w realnych grach) gra odzyla. Jasne to nadal jest 'cinematic experience' ale gra sie przyjemnie - i to z wszystkimi szykanami.

W kazdym razie bez 980ti albo 2x970 bym nie podchodzil do 4k.
taithZobacz profil
Poziom ostrzeżenia: 0%
taith2015.08.02, 17:34
Nie ma co się spieszyć, producenci kart/monitorów/telewizorów nawet nue planują jeszcze użycia HDMI 2.0 i DP 1.3
Bez tego będzie zabawa z 2 kablami i innymi aby ledwo dobić do 4k 60hz, co dopiero g-sync i podobne
do tego szybszy transfer = mniejszy input lag ponieważ czas przesłania pojedyńczej klatki jest krótszy
unknown_soliderZobacz profil
Poziom ostrzeżenia: 0%
unknown_solider2015.08.02, 17:34
A ja uważam, że wystarczy high bez żadnego aa w 4k. Gram najczęściej na tv i większość mocy marnuje na wyglądzanie krawędzi nawet kosztem ustawień. Po prostu nic tak nie irytuje jak pikseloza, a lubię duże ekrany, ale żeby to miało sens potrzebne jest co najmniej 4k, bo wiadomo że najlepsze wrażenia kiedy siedzi się najdalej metr od takiego 40 calowego ekranu.

Szkoda, że w teście są tak przeciętne karty. Fajnie byłoby zobaczyć taki test dla fury i 980ti.
HDR'oZobacz profil
Poziom ostrzeżenia: 0%
HDR'o2015.08.02, 17:28
-8#79
1440p (DSRx1.78) starcza na 980Ti po OC do każdej istniejącej gry w 60 klatkach bez spadków wliczając w to Wieśka 3, GTA5, Armę 3, Crysisa 3 i każdy wymagający tytuł. Do 4K karta styknie jeśli wystarcza nam 30-35 fpsów w wyżej wymienionych grach ;) Oczywiście mówię o kompletnie wszystkim włączonym co się da WLICZAJĄC W TO HW W WIEŚKU :> OC karty niestety niezbędne, bo bez OC też są widoczne spadki nawet do 45 klatek, a po OC 50 to rzadkość i to tylko przy największej zadymie i w lesie w Wieśku (bo tak to mamy oraktycznie zawsze 60, a te 50 to odczujemy .... z włączonym frapsem) :) Recenzowane tu karty kierowane są do osób grających tylko w full HD i poobniżonych mało widocznych detalach.
ArturrooZobacz profil
Poziom ostrzeżenia: 0%
Arturroo2015.08.02, 17:23
Granie w 4K zacznie się wtedy gdy pojawi się karta graficzna z jednym GPU zwolna zapewnić +45 fps w ultra w tej rozdzielczości
BOLOYOOZobacz profil
Poziom ostrzeżenia: 0%
BOLOYOO2015.08.02, 17:02
b00 @ 2015.08.02 16:48  Post: 893788
- 1024x768 - 2,22% czyli jednak całkiem wysoka pozycja :D ale pewnie samych kineskopów/LCD z tą rozdzielczością jest garstka, a to rozdzielczość iPada 1st i 2nd gen, a pewnie wszystkie następne retiny podają taką samą w ramach wstecznej kompatybilności

2560x1600, 3440x1440 czy 4K jeszcze długo się pewnie nie zadomowią.



Kurde, gdyby w CRT nie padło mi podświetlenie (czy bóg jeden wie co) to pomimo niskiej rozdzielczości, dużych rozmiarów i poborze prądu, pewnie bym go wciąż używał.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.