komentarze
MariostiZobacz profil
Poziom ostrzeżenia: 0%
Mariosti2018.09.14, 15:45
Cmola @ 2018.09.12 17:13  Post: 1164236
Sebin @ 2018.09.06 19:02  Post: 1163456
Mam wrażenie ze ten cały HDR to głównie większa jasność i kontrast a LCD samo w sobie nie potrafi wyświetlić tylu detali. Niedługo zwykle gry będą wyprane z kolorów po to by sprzedać hdr


A ja jeszcze od siebie dodam swoje przemyślenia. z HDR to nie jest tak że jest to zwiększenie rozpiętości tonalnej obrazu ? Np. cienie są rozjaśnione i widzimy więcej detali tam gdzie jest bardzo ciemno, a z przepaleń(bardzo jasnych elementów obrazu) uzyskujemy więcej informacji i nie widzimy białej plamy a na przykład piękne niebo ze szczegółami i słońcem ?. Ja to tak rozumiem i jeśli się mylę proszę mnie poprawić, choć fotografią zajmuję się kilka lat to to pojęcie w dziedzinie elektroniki trochę mnie irytuje i jest dla mnie nadużyciem, gdyż przedstawia się je obraz jako bardziej kontrastowy , nasycony barwami a nie o to chodzi w HDR. I jeszcze jedna kwestia, jak sam monitor może stworzyć obraz HDR ? czy informacje idące po kablu zawierają aż tak dużo danych o jednym pixelu że jest w stanie na tyle go rozjaśnić bądź przyciemnić aby stworzyć prawdziwe HDR ?


Fotograficzny hdr to nieco inna implementacja tego samego co w monitorach hdr.
HDR na zdjęciach ma na celu skompresowanie zdjęcia o szerokiej rozpiętości tonalnej, do formatu który pozwala na wyświetlenie go na monitorze który takiej rozpiętości tonalnej nie posiada (czyli właśnie rozjaśnia miejsca ciemne, i przyciemnia miejsca jasne, dzięki czemu nie ma czarnych i białych plam na ekranie).
HDR w monitorach ma na celu rozszerzenie obsługiwanej przez nie rozpiętości tonalnej - jedną z metod którymi to można osiągnąć jest korzystanie z matryc 10 bitowych zamiast popularnych wciąż matryc 6 bitowych. Dodatkowo korzystanie z matryc oled, bądź lcd ale z aktrywnym sterowaniem podświetleniem pozwala na zwiększenie efektywnej rozpiętości tonalnej wyświetlanej przez monitor. Wspominana maksymalna jasność monitora w trybie hdr ma właśnie na celu umożliwienie poprawnego wyświetlania jasnego nieba, które to prześwietlone być nie powinno, ale powinno wymagać chwili na przyzwyczajenie się do niej wzroku (czyli tak jak w rzeczywistości).

Jeśli dobrze pójdzie to microLED matryce o jasności do ~2000cd powinny zaoferować na prawdę ogromny skok jakości i realizmu wyświetlanych na ekranie obrazów.

Co do ilości informacji przesyłanych na temat kolorów - hdmi 2.1 obsługuje do 16 bitów na kanał, obecne karty graficzne i hdmi 2.0 obsługuje do 12 bit na kanał, a jest to potencjalnie bardzo duża rozpiętość tonalna.

Uprzedzając komentarze - dla mnie wieczorem monitor z jasnością 300cd jest jasny nawet z podświetleniem ustawionym na 0%, ale nie o to chodzi w maksymalnej jasności monitora hdr. Super jasne mają być tam tylko np błyski słońca, laserów, eksplozje itd., czyli tylko fragmenty ekranu i zwykle tylko chwilowe. Ewentualnie jeśli ujęcie będzie polegało na patrzeniu się w słońce to obraz ma nam wypalać oczy tak jak patrzenie się na słońce w rzeczywistości :)
Edytowane przez autora (2018.09.14, 15:47)
CmolaZobacz profil
Poziom ostrzeżenia: 0%
Cmola2018.09.12, 17:13
Sebin @ 2018.09.06 19:02  Post: 1163456
Mam wrażenie ze ten cały HDR to głównie większa jasność i kontrast a LCD samo w sobie nie potrafi wyświetlić tylu detali. Niedługo zwykle gry będą wyprane z kolorów po to by sprzedać hdr


A ja jeszcze od siebie dodam swoje przemyślenia. z HDR to nie jest tak że jest to zwiększenie rozpiętości tonalnej obrazu ? Np. cienie są rozjaśnione i widzimy więcej detali tam gdzie jest bardzo ciemno, a z przepaleń(bardzo jasnych elementów obrazu) uzyskujemy więcej informacji i nie widzimy białej plamy a na przykład piękne niebo ze szczegółami i słońcem ?. Ja to tak rozumiem i jeśli się mylę proszę mnie poprawić, choć fotografią zajmuję się kilka lat to to pojęcie w dziedzinie elektroniki trochę mnie irytuje i jest dla mnie nadużyciem, gdyż przedstawia się je obraz jako bardziej kontrastowy , nasycony barwami a nie o to chodzi w HDR. I jeszcze jedna kwestia, jak sam monitor może stworzyć obraz HDR ? czy informacje idące po kablu zawierają aż tak dużo danych o jednym pixelu że jest w stanie na tyle go rozjaśnić bądź przyciemnić aby stworzyć prawdziwe HDR ?
KameleonnZobacz profil
Poziom ostrzeżenia: 0%
Kameleonn2018.09.08, 12:01
piotrecki @ 2018.09.08 02:24  Post: 1163698
ciężka decyzja, a jak zaraz wyjdzie freesync 3 ? i co maja do powiedzenia posiadacze frresync 1 ? nie sa pewnie zadowoleni

Jakbys przeczytal artykul to bys wiedzial ze FS2 to nie nastepca FS, tylko technologia ktora bedzie istniec obok.
piotreckiZobacz profil
Poziom ostrzeżenia: 0%
piotrecki2018.09.08, 02:24
-10#24
ciężka decyzja, a jak zaraz wyjdzie freesync 3 ? i co maja do powiedzenia posiadacze frresync 1 ? nie sa pewnie zadowoleni
SetnikZobacz profil
Poziom ostrzeżenia: 0%
Setnik2018.09.07, 21:43
-1#23
decorator12 @ 2018.09.07 11:13  Post: 1163563
vibovit @ 2018.09.06 22:44  Post: 1163501
(...)


Ale 1060 to obecnie kompletne minimum żeby pograć sensownie, chciał bym alternatywę dla 1070 czy 1080 i nie ma.

To ja dam cytat z HardOcp - The ASUS ROG STRIX RX Vega 56 O8G GAMING has a current MSRP of $549.99. However, it is currently selling at Newegg for $1000.
Test jest marca. Karta powinna kosztować jednak sporo mniej... A jest jak jest

malpigwaltZobacz profil
Poziom ostrzeżenia: 0%
malpigwalt2018.09.07, 20:32
-5#22
lukadd @ 2018.09.06 16:49  Post: 1163431
Jeszcze tylko jakieś sensowne GPU od AMD, bo jak na razie niestety nie ma wyboru.

DuchuZobacz profil
Poziom ostrzeżenia: 0%
Duchu2018.09.07, 20:22
-3#21
Amitoza @ 2018.09.07 18:42  Post: 1163624
Duchu @ 2018.09.07 11:33  Post: 1163566
Niestety Freesync 2 to certyfikacja sprzętowa i całe to cudo będzie miało teraz takie same ceny jak G-sync.

Monitorów G-Sync dalej jak na lekarstwo. A producenci zamiast się wysilać będą dalej stosować podwójne certyfikowanie np. dla HDR400 i Freesync zamiast Freesync2/G-sync bo po prostu będzie to tańsze i prostsze.

Pozdr.

Nie będzie, bo monitor gsync potrzebuje drogiego układu FPGA - arria V gx. Najtańsze płyty z takim układem na rynku detalicznym to koszt prawie 200euro, wiec pewnie w cenie monitora gsync blisko 100euro to koszt takiej płytki.

Nie zrozum mnie źle, ale przecież każdy monitor ma układ scalera, NV po prostu stwierdziło że za moduł g-sync musimy zapłacić słono...

Fizycznie różnic nie ma obie techniki mają podobną elektronikę i różnica w cenie nie jest po prostu uzasadniona. Poniżej link do zdjęć obu scalerów zarównoo w Freesync jak i g-sync.

https://www.computerbase.de/forum/threads/...9#post-20032826

Na IT hardware pisali, że ktoś rozebrał i zrobił śledztwo w najnowszych monitorach g-sync HDR i 'sugerowana różnica' w cenie może wynikać z tego że acer i ASUS wykożystali moduł ASIC Arria 10 GX 480 produkowany przez firmę-córkę intela.... I tu zjadane jest te 500$.
NV po prostu nie ma swojego dedykowanego chipa g-sync.

https://ithardware.pl/aktualnosci/nowy_mod...44_hz-6558.html

Pozdr.
Edytowane przez autora (2018.09.07, 20:23)
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2018.09.07, 18:42
Duchu @ 2018.09.07 11:33  Post: 1163566
Niestety Freesync 2 to certyfikacja sprzętowa i całe to cudo będzie miało teraz takie same ceny jak G-sync.

Monitorów G-Sync dalej jak na lekarstwo. A producenci zamiast się wysilać będą dalej stosować podwójne certyfikowanie np. dla HDR400 i Freesync zamiast Freesync2/G-sync bo po prostu będzie to tańsze i prostsze.

Pozdr.

Nie będzie, bo monitor gsync potrzebuje drogiego układu FPGA - arria V gx. Najtańsze płyty z takim układem na rynku detalicznym to koszt prawie 200euro, wiec pewnie w cenie monitora gsync blisko 100euro to koszt takiej płytki.
EclipseZobacz profil
Poziom ostrzeżenia: 0%
Eclipse2018.09.07, 11:58
Mistereco21 @ 2018.09.06 16:40  Post: 1163429
HΛЯPΛGŌN @ 2018.09.06 14:31  Post: 1163377
Na prawdę wszystko pięknie i jak zawsze duże brawa dla AMD za otwieranie standardów, ale dopóki nie wypuszczą kart na odpowiednim poziomie, dopóty będą to tylko ciekawostki.


Ciekawostką są zawsze techniki z czego będą okrojone nowe karty zielonych, a będzie to dostępne w następnej generacji. Przykładów jest sporo.
AMD od dawna ma karty na wysokim poziomie i nadchodzący Doom:Eternal z zaimplementowanym Vulcanem pokaże jak mocna np. jest architektura Polaris.
Czy 580 będzie górować nad 980 i 1060? Okaże się, że kto kupił kartę czerwonych za sugerowaną cenę w okolicach 1100 zł zrobił interes życia porównując 980 za 2400.

Pierdniecie jedna grą na rok nie zmieina układu sił
*Konto usunięte*2018.09.07, 11:33
-9#18
Kitu @ 2018.09.06 16:04  Post: 1163422
myszka91 @ 2018.09.06 15:53  Post: 1163415
Kurde przecież na monitorach + 30 cali nie da się grać skillowo w gry sieciowe jak np. CS to duży problem.

Ale jeśli chcesz biegać po jakimś otwartym świecie z naprawdę ładną grafiką, to więcej przyjemności dadzą 32 cale niż 'idealne do CSa' 24. Świat gier nie kończy się na kilku strzelankach na krzyż, tak samo jak zastosowanie PC to nie tylko gry.


Ale ja piszę o takich grach typu CS lub jakaś MOBA nie da się grać w dużej rozdzielczości i na tylu calach w gry tego typu aby coś osiągnąć kto tego nie rozumie jest głupi, a widać tych głupków i ciemnot jest dużo biorąc pod uwagę ile jest minusów.
DuchuZobacz profil
Poziom ostrzeżenia: 0%
Duchu2018.09.07, 11:33
-5#17
Niestety Freesync 2 to certyfikacja sprzętowa i całe to cudo będzie miało teraz takie same ceny jak G-sync.

Monitorów G-Sync dalej jak na lekarstwo. A producenci zamiast się wysilać będą dalej stosować podwójne certyfikowanie np. dla HDR400 i Freesync zamiast Freesync2/G-sync bo po prostu będzie to tańsze i prostsze.

Pozdr.
decorator12Zobacz profil
Poziom ostrzeżenia: 0%
decorator122018.09.07, 11:13
vibovit @ 2018.09.06 22:44  Post: 1163501
Putout @ 2018.09.06 19:55  Post: 1163465
(...)


przecież 570 i 580 to bardzo solidne karty które (przed boomem koparkowym) rywalizowały z 1060 3/6. podobnie było z 290/X 390/X czy 380.


Ale 1060 to obecnie kompletne minimum żeby pograć sensownie, chciał bym alternatywę dla 1070 czy 1080 i nie ma.

To ja dam cytat z HardOcp - The ASUS ROG STRIX RX Vega 56 O8G GAMING has a current MSRP of $549.99. However, it is currently selling at Newegg for $1000.
Test jest marca. Karta powinna kosztować jednak sporo mniej... A jest jak jest
p_liderZobacz profil
Poziom ostrzeżenia: 0%
p_lider2018.09.07, 11:08
deton24 @ 2018.09.07 02:00  Post: 1163524
@p_lider ale z tego co wiem iGPU Ryzena jest potrzebne...

Prawda, ale to zawsze jakieś info, że się faktycznie da. Myślę, że są ludzie, dla których nie jest to duże ograniczenie.
deton24Zobacz profil
Poziom ostrzeżenia: 0%
deton242018.09.07, 02:00
@p_lider ale z tego co wiem iGPU Ryzena jest potrzebne...
vibovitZobacz profil
Poziom ostrzeżenia: 0%
vibovit2018.09.06, 22:44
-5#13
Putout @ 2018.09.06 19:55  Post: 1163465
HΛЯPΛGŌN @ 2018.09.06 14:31  Post: 1163377
Na prawdę wszystko pięknie i jak zawsze duże brawa dla AMD za otwieranie standardów, ale dopóki nie wypuszczą kart na odpowiednim poziomie, dopóty będą to tylko ciekawostki.


przecież 570 i 580 to bardzo solidne karty które (przed boomem koparkowym) rywalizowały z 1060 3/6. podobnie było z 290/X 390/X czy 380.


Ale 1060 to obecnie kompletne minimum żeby pograć sensownie, chciał bym alternatywę dla 1070 czy 1080 i nie ma.
p_liderZobacz profil
Poziom ostrzeżenia: 0%
p_lider2018.09.06, 20:08
Szkoda, że nie dodaliście do artykułu, że za pomocą mechanizmu Multi GPU w Windows 10 da się obejść ograniczenie na kartach nVidii i tam też mieć Freesync działający.
PutoutZobacz profil
Poziom ostrzeżenia: 0%
Putout2018.09.06, 19:55
11#11
HΛЯPΛGŌN @ 2018.09.06 14:31  Post: 1163377
Na prawdę wszystko pięknie i jak zawsze duże brawa dla AMD za otwieranie standardów, ale dopóki nie wypuszczą kart na odpowiednim poziomie, dopóty będą to tylko ciekawostki.


przecież 570 i 580 to bardzo solidne karty które (przed boomem koparkowym) rywalizowały z 1060 3/6. podobnie było z 290/X 390/X czy 380.
vibovitZobacz profil
Poziom ostrzeżenia: 0%
vibovit2018.09.06, 19:05
-5#10
Szala @ 2018.09.06 15:43  Post: 1163411
ombre070 @ 2018.09.06 15:22  Post: 1163403
Dylemat naszych czasów.Kupic droga kartę graficzna która wygeneruje w każdym przypadku 60klatek,ale do tego tańszy monitor (ograniczony budżet) czy tańszą kartę i drogi monitor z G-sync.


Kupić tańszą kartę (AMD) i tańsze monitor (FreeSync) ;-)


Wybór jest nawet prostszy, nowożytnych kart do grania AMD po prostu nie ma.
SebinZobacz profil
Poziom ostrzeżenia: 0%
Sebin2018.09.06, 19:02
16#9
Mam wrażenie ze ten cały HDR to głównie większa jasność i kontrast a LCD samo w sobie nie potrafi wyświetlić tylu detali. Niedługo zwykle gry będą wyprane z kolorów po to by sprzedać hdr
Bono[UG]Zobacz profil
Poziom ostrzeżenia: 0%
Bono[UG]2018.09.06, 18:31
12#8
W bardzo dużym uproszczeniu, pomijając wiele technicznych szczegółów, można powiedzieć, że typowe współczesne monitory działają ze sztywno określoną częstotliwością odświeżania. Odświeżają cały ekran na przykład 60 razy na sekundę, z tym że takie odświeżenie nie następuje na całej płaszczyźnie ekranu na raz, lecz liniami od góry do dołu. Wynika to z dosyć oczywistego faktu, że przewód łączący monitor z kartą graficzną nie ma wewnątrz milionów przewodów, a co za tym idzie – odpowiedniej przepustowości, żeby za jednym zamachem przekazać cały obraz. Robi to porcjami.

Szkoda, że w bardzo dużym uproszczeniu, bo w tych szczegółach tkwi sedno sprawy z synchronizacją klatek.
Przy starych monitorach CRT sprawa jest jasna i wprost wynika z budowy ekranu, gdzie z pojedynczego źródła elektronów, wiązka jest kierowana sekwencyjnie na poszczególne punkty luminoforu. Luminofor ma swoje właściwości jak długo świeci po otrzymaniu porcji elektronów i ile ich potrzebuje do uzyskania zadanej jasności, dodając rozmiary ekranu (razem z rozdzielczością) i możliwe szybkości przełączania cewek sterujących wiązką można określić wymaganą szybkość odświeżania.
Wprowadzenie zmiennej szybkości skanowania ekranu byłoby trudne, a transmisja analogowa z pewnością tego nie ułatwiała.

Tak jak w crt bezwładność luminoforu dyktuje potrzebę odświeżenia, tak w LCD jest rozładowywanie się kondensatorów w układzie sterowania w poszczególnych komórkach. Tutaj w zasadzie jest już tylko problem minimalnej częstotliwości odświeżania i przyśpieszyć można praktycznie dowolnie (z uwzględnieniem bezwładności przełączenia się LC i sterowania). Nie jest też potrzebne szeregowe sterowanie pikselami, można cały ekran odświeżyć w jednej chwili, a nie sekwencyjnie jak w crt. Kwestia odpowiedniego podłączenia komórek do układów sterowania.

Kwestię transmisji danych chciałoby się przemilczeć. W czasach analogowych może takie tłumaczenie by przeszło ale jesteśmy w dobie sygnału cyfrowego, gdzie strumień danych spokojnie można zbuforować i wyświetlić całą klatkę na raz.

Jeśli karta graficzna nie może przekroczyć częstotliwości odświeżania wyświetlacza, włączenie V-Sync nie pomoże.

Chyba se jaja robisz. V-sync działa niezależnie ile klatek generuje karta graficzna. Jeżeli karta nie daje rady, to i tak czeka z przekazaniem kolejnej klatki na sygnał z monitora, że startuje z kolejnym odświeżeniem ekranu, dopóki nie dostanie, to przekazuje obecną. Jeżeli karta wygenerowała nową, to czeka ona w buforze na możliwość przełączenia.
Technika prosta jak drut i doskonale sprawdza się do zniwelowania efektu rwania obrazu ale kosztem innych niedogodności np. wydłużeniem czasu reakcji.

Tyle uwag do artykułu, który według mnie słabo wyszedł.
Kolejne strony mam wrażenie, że już gdzieś o tym było na Labie. Może był podobnej objętości opis w aktualnościach lub w którymś z artykułów o HDR.

Ogólnie o synchronizacji, to trochę się dziwię ile jest z tym problemu w obecnych czasach i co stoi na przeszkodzie, żeby wyeliminować potrzebę okresowego odświeżania. Można chyba zaadoptować SRAM na potrzeby sterowania komórkami, wtedy wystarczy zmieniać sterowanie jak przyjdzie nowa klatka.
Wtedy nie ma problemu z rwaniem, a opóźnienie sprowadzi się do czasu transmisji klatki, rozesłania sterowania w matrycy i bezwładności LC. Przy OLED to już chyba w ogóle problem znika.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.