Monitor LG UltraGear 38GL950G to model, który większość Czytelników głosujących na produkty z kategorii 'Monitory' w naszym ubiegłorocznym plebiscycie Tech Awards 2019 wskazała jako produkt godny miana najlepszego
Ja bym sobie darował takie stwierdzenia i w ogóle jakiekolwiek odnoszenie się do tego 'plebiscytu'...
Podaliście kontrast bez kalibracji(?) Jaki jest po skalibrowaniu do 6500K?
Widać, że wyższa temperatura barwowa bieli w ustawieniach fabrycznych to nie tyle kwestia dominanty niebieskiej, bo takiego problemu nie ma, lecz ograniczenia składowej czerwonej - to daje pewne wskazówki jak konfigurować ustawienie panelu pod własne potrzeby.
Nie bardzo wiem co tutaj miałeś na myśli, ale jeśli myślałeś o podbiciu składowej czerwonej ponad wartość natywną, to doprowadzisz do anomalii kolorystycznych (przepalony kanał czerwony w najjaśniejszych odcieniach). Jak byś go chciał skalibrować do 6500K, to pozostaw czerwony na natywnym 50, a pozostałe dwie składowe tak obniż, by uzyskać równe 6500K - tym sposobem uzyskasz maksymalny kontrast przy 6500K, bez przepalenia któregokolwiek kanału.
Bez wątpienia ciekawy monitor, ale w tej cenie brak lokalnego przyciemniania, niski współczynnik kontrastu jest nie do przyjęcia. Poza tym oznacza to, że rzeczywisty zakres dynamiczny tego monitora jest standardowy więc 'efektowny HDR' jest tutaj grubą przesadą. Jedynie sensownie wyceniony jest model 27GL850 i nie dziwi mnie jak chętnie jest kupowany
Shadow of the Tomb Raider, Forza Horizon 4, Gears 5, Red Dead Redemption 2 to właściwie jedyne gry z dobrze zrobionym HDR na PC. Reszta gier ma ten tryb na odwal się. Szczególnie Ubisoft niechlubnie tutaj króluje. Jedynie Assassin's Creed Odyssey jest wyjątkiem. HDR daje dużą różnice i nie chce się powracać do normalnego SDR
Kiedy będzie test na pclabie LG 27GL850? Chciałbym mieć porównanie do tftcentral. Kolejna rzecz to przydałby się test monitora Acer Nitro VG240YP 24” oraz Asus VG259Q. Ten drugi ma ponoć problem z niewyraźną czcionką oraz wysoką jasnością minimalną. Chciałbym aby ten temat poruszono.
W każdym teście monitora, powinien być wykres jasności, typu: https://naforum.zapodaj.net/images/f5a5062f6ed4.png
- dzięki niemu wiemy jaka jest jasność minimalna, maksymalna i orientacyjnie wiemy przy jakiej nastawie mamy ile cd.
PeterQ
Monitor kupuje się na lata i 24 cale to uwierz mi jest zbyt mało...chyba że grasz sportowo gdzie każdy fps się liczy. Zdecydowanie wolałbym 27 cali 1440p. LG 27GL850-B jest oficjalnie zweryfikowanym monitorem G-Sync Compatible. Wszędzie uzyskuje bardzo dobre oceny. Jeśli trafisz na sztukę bez bad pikseli lub paprochów to kupuj https://www.rtings.com/monitor/reviews/lg/27gl850-b
Shadow of the Tomb Raider, Forza Horizon 4, Gears 5, Red Dead Redemption 2 to właściwie jedyne gry z dobrze zrobionym HDR na PC. Reszta gier ma ten tryb na odwal się. Szczególnie Ubisoft niechlubnie tutaj króluje. Jedynie Assassin's Creed Odyssey jest wyjątkiem. HDR daje dużą różnice i nie chce się powracać do normalnego SDR
W Rdr2 to jest proteza i nie ma nic wspólnego z prawdziwym hdrem.
Zaraz, zaraz, Displayport 1.4 + HDR + G-Sync?
Czyżby NVidia w końcu przebudowała swój antyk z 2013 roku i zaoferowała nowy moduł który nie wprowadza ograniczeń?
Czy może jednak LG wsadził G-Sync Ultimate którego moduł FPGA kosztuje jakieś 2500 zł i stąd mamy kosmiczną cenę 9 tysięcy zł za ultra panoramiczny monitor 1600p
Ciekawi mnie to, redakcja mogła by wstawić screen z programu CRU pokazujący jak wygląda profil EDID tego sprzętu, przesłanie 3840x1600 przy 175Hz wymaga kosmicznie dużej przepustowości na kablu DP przekraczającej 1GHz pasma.
EDIT: Wedle moich informacji kodowanie CEA-861 nie dopuszcza wyższego pasma od 655MHz.
Wychodzi na to że musieli użyć DisplayID, ciekawy ten profil może być.
ODIN85
W Rdr2 chyba masz na myśli ustawienie kino bo owszem, to wygląda kiepsko. Na YouTube jest porównywana wersja z konsol. Zupełnie inaczej jest na ustawieniu zaawansowanym w wersji PC
DisconnecT
Być może jest to osiągane poprzez wspomniane ograniczenie palety barw i 8bit. Dopóki monitory będą miały tylko DP 1.4 to nie ma mowy o pełnym 10bit HDR 144Hz powyżej rozdzielczości 1440p
Trochę dziwne przy takiej cenie mogliby dać DP 2.0 i 175Hz byłoby w pełnej jakości barw. Oczywiści dopiero następna generacja kart będzie mieć DP 2.0 i HDMI 2.1. Byłoby to jednak bardziej przyszlościowe
DisconnecT
Być może jest to osiągane poprzez wspomniane ograniczenie palety barw i 8bit. Dopóki monitory będą miały tylko DP 1.4 to nie ma mowy o pełnym 10bit HDR 144Hz powyżej rozdzielczości 1440p
Ale co jest osiągane? Jeżeli mowa o G-Sync to nie ma możliwości, ten moduł ogranicza złącza do najstarszego DP 1.2 i HDMI 1.4, do tego nie obsługuje ani HDR, ani nic powyżej 8 Bit na kanał, albo NV zrobiła nowy moduł, albo dali G-sync ultimate co tłumaczyło by kosmiczną cenę.
Nie może mieć G-sync ultimate !!! bo musiałby spełniać wymagania co do jasności: 1000 cd/m2 w trybie HDR. LG i NVIDIA współpracują ze sobą i być może zastosowali jakieś usprawnienia. Skoro w najnowszych TV OLED masz certyfikat Kompatybilności z G-Sync zapewniony poprzez porty HDMI 2.1 a tego w monitorach PC nie masz. Poza tym ten monitor nie oferuje PRAWDZIWEGO HDR tylko tryb HDR, który dosyć dobrze się sprawdza i zapewnia różnice względem SDR
dz_64 Piękna cena i tylko dwa złącza i to nie wiem czy hdmi 1.4 czy 2.0b a DP to1.2 czy 1.4?Producent oszczędza?Kolejna wydmuszka którą rynek zweryfikuje.
Nie może mieć G-sync ultimate !!! bo musiałby spełniać wymagania co do jasności: 1000 cd/m2 w trybie HDR. LG i NVIDIA współpracują ze sobą i być może zastosowali jakieś usprawnienia. Skoro w najnowszych TV OLED masz certyfikat Kompatybilności z G-Sync zapewniony poprzez porty HDMI 2.1 a tego w monitorach PC nie masz. Poza tym ten monitor nie oferuje PRAWDZIWEGO HDR tylko tryb HDR, który dosyć dobrze się sprawdza i zapewnia różnice względem SDR
Teoretycznie, praktycznie to nie jest podyktowane względami technicznymi i spokojnie G-Sync Ultimate można wykorzystać w dowolnym sprzęcie.
Powiedz czy Ty odróżniasz od siebie dwie technologie? Telewizory to mają klasyczny VRR oparty o Freesync, NV jedynie certyfikuje to jako G-Sync Compatible. Freesync właściwie nie wprowadza żadnych ograniczeń od strony złącz i obsługiwanego sygnału.
Monitorze LG o którym mowa został zastosowany normalny autorski G-Sync NVidii, który generuje ograniczenia odnośnie zastosowanych złącz i sygnału, mało tego, 175Hz przy panoramicznym 1600p nawet po kompresji nie jest możliwe do osiągnięcia przy zwykłym G-Sync, bo ten blokuje pixel clock na poziomie 550-575 MHz
Opcje są dwie, skoro mamy natywny G-Sync, a nie Freesync z certyfikatem kompatybilności, to albo NV zrobiła nowszy moduł (w końcu!), albo zastosowali moduł od G-Sync Ultimate, ale z uwagi na obcięty HDR reklamują się jako zwykły G-Sync.
Ja bym sobie darował takie stwierdzenia i w ogóle jakiekolwiek odnoszenie się do tego 'plebiscytu'...
https://naforum.zapodaj.net/images/f5a5062f6ed4.png
- dzięki niemu wiemy jaka jest jasność minimalna, maksymalna i orientacyjnie wiemy przy jakiej nastawie mamy ile cd.
Monitor kupuje się na lata i 24 cale to uwierz mi jest zbyt mało...chyba że grasz sportowo gdzie każdy fps się liczy. Zdecydowanie wolałbym 27 cali 1440p. LG 27GL850-B jest oficjalnie zweryfikowanym monitorem G-Sync Compatible. Wszędzie uzyskuje bardzo dobre oceny. Jeśli trafisz na sztukę bez bad pikseli lub paprochów to kupuj https://www.rtings.com/monitor/reviews/lg/27gl850-b
W Rdr2 to jest proteza i nie ma nic wspólnego z prawdziwym hdrem.
Czyżby NVidia w końcu przebudowała swój antyk z 2013 roku i zaoferowała nowy moduł który nie wprowadza ograniczeń?
Czy może jednak LG wsadził G-Sync Ultimate którego moduł FPGA kosztuje jakieś 2500 zł i stąd mamy kosmiczną cenę 9 tysięcy zł za ultra panoramiczny monitor 1600p
Ciekawi mnie to, redakcja mogła by wstawić screen z programu CRU pokazujący jak wygląda profil EDID tego sprzętu, przesłanie 3840x1600 przy 175Hz wymaga kosmicznie dużej przepustowości na kablu DP przekraczającej 1GHz pasma.
EDIT: Wedle moich informacji kodowanie CEA-861 nie dopuszcza wyższego pasma od 655MHz.
Wychodzi na to że musieli użyć DisplayID, ciekawy ten profil może być.
W Rdr2 chyba masz na myśli ustawienie kino bo owszem, to wygląda kiepsko. Na YouTube jest porównywana wersja z konsol. Zupełnie inaczej jest na ustawieniu zaawansowanym w wersji PC
Być może jest to osiągane poprzez wspomniane ograniczenie palety barw i 8bit. Dopóki monitory będą miały tylko DP 1.4 to nie ma mowy o pełnym 10bit HDR 144Hz powyżej rozdzielczości 1440p
Być może jest to osiągane poprzez wspomniane ograniczenie palety barw i 8bit. Dopóki monitory będą miały tylko DP 1.4 to nie ma mowy o pełnym 10bit HDR 144Hz powyżej rozdzielczości 1440p
Ale co jest osiągane? Jeżeli mowa o G-Sync to nie ma możliwości, ten moduł ogranicza złącza do najstarszego DP 1.2 i HDMI 1.4, do tego nie obsługuje ani HDR, ani nic powyżej 8 Bit na kanał, albo NV zrobiła nowy moduł, albo dali G-sync ultimate co tłumaczyło by kosmiczną cenę.
Teoretycznie, praktycznie to nie jest podyktowane względami technicznymi i spokojnie G-Sync Ultimate można wykorzystać w dowolnym sprzęcie.
Powiedz czy Ty odróżniasz od siebie dwie technologie? Telewizory to mają klasyczny VRR oparty o Freesync, NV jedynie certyfikuje to jako G-Sync Compatible. Freesync właściwie nie wprowadza żadnych ograniczeń od strony złącz i obsługiwanego sygnału.
Monitorze LG o którym mowa został zastosowany normalny autorski G-Sync NVidii, który generuje ograniczenia odnośnie zastosowanych złącz i sygnału, mało tego, 175Hz przy panoramicznym 1600p nawet po kompresji nie jest możliwe do osiągnięcia przy zwykłym G-Sync, bo ten blokuje pixel clock na poziomie 550-575 MHz
Opcje są dwie, skoro mamy natywny G-Sync, a nie Freesync z certyfikatem kompatybilności, to albo NV zrobiła nowszy moduł (w końcu!), albo zastosowali moduł od G-Sync Ultimate, ale z uwagi na obcięty HDR reklamują się jako zwykły G-Sync.