komentarze
buggeerZobacz profil
Poziom ostrzeżenia: 0%
buggeer2020.01.15, 19:41
Nie tylko. Prawdziwy VRR po HDMI mają też PS4 i Xbox.
DisconnecTZobacz profil
Poziom ostrzeżenia: 0%
DisconnecT2020.01.15, 19:42
menel00 @ 2020.01.15 19:28  Post: 1230403
Minciu @ 2020.01.15 19:11  Post: 1230400
(...)


Prawdziwy VRR jest na porcie HDMI 2.1 którego na razie żadna karta nie posiada.

A VRR Ala HDMI 2.1 ograniczony jedynie do RTXow oraz jedynie do LG OLED.. jak nie wiadomo o co chodzi, to o co może chodzić? XD

czym się różni „prawdziwy vrr na porcie hdmi 2.1” od vrr na porcie hdmi 2.0 ?


Niczym HDMI 2.0 posiada obsługę VRR, tylko NV robi sobie whitelisty i pozwala po HDMI odpalić VRR tylko w kilku wyświetlaczach które akurat dziwnym zbiegiem okoliczności mają HDMI 2.1, same karty jednak mają tylko 2.0 co już pokazuje z jaką ściemą mamy do czynienia.

A co do certyfikatów G-Sync Compatible to oczywiście że pic na wodę, nie jeden certyfikowany model ma poważne problemy z migotaniem i tym samym nie jeden model z certyfikatem tylko dla AMD Freesync działa bez problemu.

Fakty są takie że liczy się jakość płyty głównej monitora na której VRR został zaimplementowany, a nie jakieś śmieciowe naklejki na obudowie. ;)
Edytowane przez autora (2020.01.15, 19:43)
BlindObserverZobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjiBlindObserver2020.01.15, 20:06
Minciu @ 2020.01.15 19:18  Post: 1230401

Artykuł jest trochę z tej części ciała, w której aktualnie są zieloni raczkujący w temacie synchronizacji. Kiedyś swoje kalectwo potrafili ogarnąć tylko z modułem :D


Artykuł nie jest o tym, o czym myślisz że jest (w sumie dobrze by było go przeczytać zanim mi tu zaczniesz więcej rzeczy wypisywać), czyli o przewadze jakości G-Sync Compatible nad FreeSync i odwrotnie (bo ten temat poruszasz, z niewiadomego powodu), a o tym, że producenci monitorów potrafią sobie zrezygnować z promocji swojego wyświetlacza certyfikatem AMD i biorą certyfikat Nvidii. I biorą ten drugi nawet wtedy, gdy teoretycznie mogliby się chwalić wyższym certyfikatem AMD. I AMD samo sobie to zrobiło, przez brak sensownej certyfikacji, przez którą znaczek FreeSync pojawiał się na właściwie każdym monitorze. Do tego FreeSync 2, a teraz FreeSync Premium Pro, może pojawić się na takim monitorze jak mój Samsung, który po podpięciu do dosłownie każdej karty i włączeniu Adaptive-Sync potrafi sobie od czasu do czasu mrugnąć, a najlepiej działa, gdy się mu ustawi maksymalnie 120 Hz zamiast niby natywnych 144 Hz. O badziewnym trybie HDR nie wspomnę, a jest to przecież cześć certyfikacji FreeSync 2/Premium Pro, więc też nie wiem, jak AMD mogło w ogóle przyznać ten certyfikat. O zakresie działania FreeSync jest tekście i też na premierę monitora był on zupełnie absurdalny.
buggeerZobacz profil
Poziom ostrzeżenia: 0%
buggeer2020.01.15, 20:27
-1#24
menel00 @ 2020.01.15 19:28  Post: 1230403

czym się różni „prawdziwy vrr na porcie hdmi 2.1” od vrr na porcie hdmi 2.0 ?


Prawdziwy VRR to globalny standard, będący częścią certyfikacji HDMI 2.1. Każdy sprzęt z HDMI 2.1 będzie go wspierać, nie ważne co zrobią producenci.

HDMI FreeSync to Vesa Adaptive-Sync przerobiony tak, by działał na HDMI.
MinciuZobacz profil
Poziom ostrzeżenia: 0%
Minciu2020.01.15, 20:35
@Blind
Twój Samsung miga na AMD z HDMI oraz DP? Na innym kablu DP też miga?

HDR400 badziewany jest wszedzie.. certyfikat tego nie zmieni. Jeżeli taki masz w swoim ekranie. Ogólnie certyfikaty są jak psu na budę, lepiej sprawdzać przed zakupem w manualu zakres i ogólne opcje używania. Nieraz HDR jest na HDMI a Synchronizacja na DP i robi się dziwnie.
Edytowane przez autora (2020.01.15, 20:38)
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2020.01.16, 08:27
Mnie tylko dziwi, dlaczego dopiero teraz producenci decydują się na taki marketingowy krok. G-Sync compatibile jest już na rynku od pewnego czasu, a jednak w przypadku monitorów debiutujacych w zeszłym roku raczej akcentowano wsparcie Freesync kosztem G-Sync compatible i VESA Adaptive-Sync. Chyba po prostu teraz Nvidia żwawiej zabrała się za certyfikację.

G-Sync to marka premium. Skorzystanie z niej bez konieczności płacenia za moduł to dla producenta podwójna korzyść. Freesync zaś kojarzy się średnio ze względu na 'liberalną' politykę AMD (która jednak według mnie niekoniecznie była błędem, w końcu główny cel - upowszechnienie się tej technologii - został dość sprawnie osiągnięty).
Edytowane przez autora (2020.01.17, 08:08)
Jacek1991Zobacz profil
Poziom ostrzeżenia: 0%
Jacek19912020.01.16, 11:15
moze to tylko u mnie ale czasem(rzadko) fsync wariuje jak man podlaczony monitor 60hz po hdmi i 144 po dp. dziala na pulpicie z 30hz :/
malpigwaltZobacz profil
Poziom ostrzeżenia: 0%
malpigwalt2020.01.16, 12:35
-2#28
Nvidia
AarghZobacz profil
Poziom ostrzeżenia: 0%
Aargh2020.01.16, 15:51
-1#29
buggeer @ 2020.01.15 19:41  Post: 1230404
Nie tylko. Prawdziwy VRR po HDMI mają też PS4 i Xbox.

PS4 nie ma VRR.
Rybaczek KoziołkaZobacz profil
Poziom ostrzeżenia: 0%
Rybaczek Koziołka2020.01.16, 16:04
-1#30
Assassin @ 2020.01.16 08:27  Post: 1230444
Mnie tylko dziwi, dlaczego dopiero teraz producenci decydują się na taki marketingowy krok. G-Sync compatibile jest już na rynku od pewnego czasu, a jednak w przypadku monitorów debiutujacych w zeszłym roku raczej akcentowana właśnie wsparcie Freesync kosztem G-Sync compatible i VESa Adaptive-Sync. Chyba po porstu teraz Nvidia żwawiej zabrała się za certyfikację.

G-Sync to marka premium. Skorzystanie z niej bez konieczności płacenia za moduł to dla producenta podwójna korzyść. Freesync zaś kojarzy się średnio ze względu na 'liberalną' politykę AMD (która jednak według mnie niekoniecznie była błędem, w końcu główny cel - upowszechnienie się tej technologii - został dość sprawnie osiągnięty).


dokładnie tak. G-Sync wymaga modułu Nvidia w monitorze. To znakomicie podnosi cenę tego monitora. czy to jest korzystne dla producenta? a co to za korzyść jak producent musi zejść z marżą bo rynek słabo akceptuje cenę?

Jak ktoś tu wcześniej napisał na forum, porównywalna cena za dwa monitory, gdzie jeden to 144MHz G-Sync na jakimś TN, a drugi z FreeSync na VA. Spora różnica.

nie poruszam tu problemów związanych z migotaniami itp, opisali je tutaj inni. nawet cert przed tym nie uchroni. pytanie czyja to wina? producenta monitora? producenta chipu graficznego, sterownika w windowsie czy jeszcze czegoś innego?
AdolphZobacz profil
Poziom ostrzeżenia: 0%
Adolph2020.01.16, 23:08
-4#31
Przynajmniej AMD się mogło się pochwalić na CESie, ze ma 1000 zgodnych wyświetlaczy z Freesync, czego NV powiedzieć nie może :)
DiamondBackZobacz profil
Poziom ostrzeżenia: 0%
DiamondBack2020.01.17, 08:41
buggeer @ 2020.01.15 14:36  Post: 1230349
FreeSync Premium i Premium Pro też pewnie będą mało warte. Już FreeSync 2 wymagał 'rzetelnej kontroli' AMD, a tylko jeden z monitorów FreeSync 2 spełnił również wymagania G-Sync Compatible, co sugeruje, że u AMD nadal będzie łatwiej i potencjalnie gorzej.


Inne kryteria. Nie wiesz o czym piszesz. 10 kryteriów jest bardziej wymagających przy freesync premium a jedno z gsync. Akurat to jedno nie podchodzi od gsync i to Freesync premium jest mało warte?
Edytowane przez autora (2020.01.17, 08:42)
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842020.01.19, 16:11
Nvidia ma to we krwi ;) ATI Truform? Eeee tam, po co, na co... Tu przypudrujemy, tam poprawimy i MS klepnie jak będzie wiadomo, że rywal nie ma nic lepszego. Close to metal? A walić AMD, zrobimy własne rozwiązanie bliskie sprzętu. CUDA. Ot i oprócz szumnych haseł jeszcze support by łatwiej się wdrażało, a co! Jakiś tam DX10.1? A co to daje... pierdzielić, nasze łatki i tak robią w zasadzie to samo. API 3D close to metal? A w dupę ich z tym mantle. W ramach Khronosa wymyślimy coś lepszego. Tani sync bez dedykowanego hw? Dostępny niezależnie od producenta? Ok... to AMD nas trochę wydymało, ale najważniejsze kto na końcu kogo będzie dymać. Ha!
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2020.01.23, 10:59
-4#34
Chyba trochę się zagalopowałeś. Close to Metal to było coś jak demo koncepcji GPGPU, z bardzo ograniczonymi możliwościami i trudne w programowaniu. Nvidia zachowała sie bardzo rozsądnie, że podchwyciła ten pomysł, ale zrealizowała go lepiej. Truform było jednak przedwczesne, w prymitywnych grach DX7/8 zaawansowana geometria nie była najpotrzebniejszą rzeczą. W DX10 już by to miało sens, widocznie AMD zabrakło siły przebicia. Wchodzenie Nvidii w Mantle to już jakaś totalna egzotyka i do tego niemożliwa do realizacji ze względów prawnych (a powrotu do osobnych API dla każdego producenta chyba nikt nie chce). Pomysł ze stworzeniem Vulkana był imho bardzo dobry.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842020.01.23, 19:36
Close to Metal to było coś jak demo koncepcji GPGPU

Zdefiniuj 'ograniczone możliwości' - close to metal dawało dostęp do niskopoziomowej funkcjonalności ówczesnych kart. Miało wszystkie możliwości tych kart, tylko że to był po prostu wyciągnięty na zewnątrz swoisty assembler. Kto by w tym chciał pisać? Dlatego powstał kompilator BrookGPU w projekcie Folding@Home. Ze względu na to, że był to okres zaraz po przejęciu ATI przez AMD pewne rzeczy zostały pozmieniane i tak CtM zastąpił CAL, którego z kolei zastąpił OpenCL. Niemniej pierwsze poważne aplikacje korzystające z GPGPU pracowały na kartach Radeon więc jak to zwykle w życiu bywa pionierem jest ten co przeciera szlak. Gdzie więc się niby zagalopowałem?

Nvidia zachowała sie bardzo rozsądnie, że podchwyciła ten pomysł, ale zrealizowała go lepiej.

To nvidia opanowała do perfekcji i również taką samą informację znajdziesz w moim komentarzu.

Truform było jednak przedwczesne, w prymitywnych grach DX7/8 zaawansowana geometria nie była najpotrzebniejszą rzeczą

No to trzeba było zobaczyć serious sama, ut czy neverwinter nights z truform i bez, a potem zabrać głos. W końcu kto nie lubi 6 kątnych kolumn, 12 ściennych 'kul' i kanciastych modeli postaci.
do tego niemożliwa do realizacji ze względów prawnych

Nie kolego, nie była niemożliwa do WEJŚCIA ze względów prawnych. AMD chętnie by nv dopuściło, tylko nie odpuściłoby kontroli nad tym jak kolejne rewizje by wyglądały. Na to nvidia nie mogłaby się zgodzić. Z tego samego względu AMD olało PhysX. Vulkan to Mantle darowane Khronos i rozwijane w ramach tej grupy. Zatem ewidentnie pomysł AMD był dobry.


AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2020.01.23, 23:23
-4#36
W GPGPU pionierem było ATI, ale to dopiero CUDA znalazło szersze zastosowanie. Nawet teraz, po wielu latach, CUDA znajduje szersze zastosowanie w poważnych aplikacjach od OpenCL, który ma niestety więcej wad obok jednej potężnej zalety (szeroka kompatybilność ze sprzętem).

Truforma w akcji widziałem. Niestety, kojarzy mi się przede wszystkim ze zdeformowanymi, 'napompowanymi' broniami w grach fps. Nie przeczę, że w starych grach geometria pozostawała wiele do życzenia, ale Truform nierzadko powodował artefakty (nie wnikam, czy problem leżał o stronie samej technologii, czy programistów piszących gry) i geometrie dało się poprawić i bez teselacji - ale na silę chciano zachować zgodność nowych, coraz bardziej zaawansowanych gier z procesorami rodzaju Pentium 200 MHz.

Porównanie do PhysX jest trafione, tu się zgadzam. Ale czy można mieć pretensje do AMD, że w to nie weszło?
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842020.01.24, 05:02
Nawet teraz, po wielu latach, CUDA znajduje szersze zastosowanie w poważnych aplikacjach od OpenCL

Niby tak, niemniej nawet w top10 z top500 już nvidia jest tylko w połowie gdy swego czasu miała bodajże 7 jeśli nie 8 miejsc. A i tak ich produkty były i są tylko akceleratorem obliczeniowym dla głównego dania czyli POWER, Xeonów itp. Chińczycy musieli po banie na knight's corner opracować własne rozwiązania, które okazały się całkiem skuteczne więc po co komuś proteza na gpu? W przypadku sieci neuronowych FPGA gniecie GPU, a są przecież już NPU - dedykowane do tych zadań. Znów kolejny rynek gdzie nv próbowała zdominować, ale ucieka między palcami. Trendy się odwracają, wszystkie chipy w smartfonach obsługują opencl, niektóre mają wbudowane NPU. Nvidia wykorzystała do granic możliwości nowy rynek i koniunkturę, ale to się zmienia.

Co do truform - no to widziałeś, w nwn też było podobnie, bo to po prostu prosta implementacja, która nie została oficjalnie wypuszczona, jest ukrytą opcją (bo łatwo jest załączyć, ale trzeba czasu by dobrze zaimplementować). W UT nie ma aż takiego problemu, bronie wyglądają świetnie, postacie wyglądają świetnie. Czy można by zagęścić siatkę by wyglądały tak samo bez truform? Jasne, tylko jakim kosztem fps.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2020.01.24, 07:27
-2#38
No i w sumie dobrze, że tak jest. GPU to jednak przede wszystkim GPU, lepiej że w superkomputerach są bardziej wyspecjalizowane układy. Ale w 'zwykłym komputerze', dla np. grafika CUDA znajdzie szerokie zastosowanie. Może faktycznie dzięki smartfonom i jeszcze grafikom Xe Intela ten trend się odwróci, byłbym jak najbardziej za. Ale sam OpenCL też musiałby się trochę zmienić, bo ciągle jest w nim wiele 'upierdliwości' (i od strony programisty, i użytkownika końcowego).
Edytowane przez autora (2020.01.24, 08:00)
PrimoGhostZobacz profil
Poziom ostrzeżenia: 0%
PrimoGhost2020.01.24, 20:33
Bardzo ciekawy felieton. Powinieneś częściej zamieszczać treści w takiej formie. Ehhh... Co dużo mówić. Nvidia zdecydowanie nie rozumie sloganu Don't be evil... Coraz bardziej przypomina mi Apple O_x
KasandratZobacz profil
Poziom ostrzeżenia: 0%
Kasandrat2020.01.26, 10:57
-2#40
Wpis usunięty przez moderatora
Edytowane przez moderatora (2020.01.28, 00:11)
Zaloguj się, by móc komentować