Komentarze
Komentarzy na stronę
1 2
cichy45 (2018.09.13, 15:40)
Ocena: 28
#1

0%
Ciekawe, kiedy będzie dostępne sprzętowe akcelerowanie. Nic po przełomowym formacie, jeśli będzie zarzynał procesor podczas odtwarzania. Sprzętu kompatybilnego z VP9 jest do tej pory stosunkowo mało, więc przed AV1 jeszcze pewnie długa droga do popularności.
aqvario (2018.09.13, 15:41)
Ocena: 16
#2

0%
Kiedyś PCLab miał ciekawy test 'który komputer poradzi sobie z VP9 4k' dekodowanym przez CPU. No, teraz czas na taki test AV1 :) Oczywiście, zanim YT wprowadzi to jako standard, to trochę minie i pewnie CPU będą mocniejsze, nawet te najtańsze. Ale dobrze wiedzieć, czy 'mój laptop wystarczy' ;)
barwniak (2018.09.13, 15:42)
Ocena: 9
#3

0%
Aby pokazywać takie obrazki, trzeba pokazać obciążenie GPU. Skąd mam wiedzieć jaką część obliczeń robi CPU, a jaką GPU.
Przydał by się wykres Video engine load z zakładki sensors z gpu-z, alternatywnie dla grafik z WDDM 2.0 z wydajności menadżera zadań Win 10. W tym menadżerze tego nie widać bo nawalili dysków.
Edytowane przez autora (2018.09.13, 15:43)
Kwant (2018.09.13, 15:58)
Ocena: 6
#4

0%
cichy45 @ 2018.09.13 15:40  Post: 1164444
Ciekawe, kiedy będzie dostępne sprzętowe akcelerowanie. Nic po przełomowym formacie, jeśli będzie zarzynał procesor podczas odtwarzania. Sprzętu kompatybilnego z VP9 jest do tej pory stosunkowo mało, więc przed AV1 jeszcze pewnie długa droga do popularności.


To nie jest tak, że wrzucasz skompresowany strumień wideo do GPU a ono w całości go dekoduje i przekształca na pixele. To wygląda tak, że części algorytmu są dekodowane przez CPU a części przez GPU. Dla przykładu w starszych kodekach była używana transformata kosinusowa (DCT) i była złożona obliczeniowo więc w pierwszej kolejności zaprzągnięto GPU do jej dekodowania. Wyglądało to tak, że dekoder wykonujący się na CPU zlecał GPU wykonanie DCT a wynik już dalej był obrabiany na CPU.

W GPU jest zaimplementowanych wiele algorytmów przyspieszających dekodowanie i można je użyć nawet jeżeli nie były projektowane do danego kodeka.

Innymi słowy AV1 może już teraz przetwarzać część informacji na GPU. Prawdopodobnie jak standard się ustabilizuje to producenci GPU dodadzą nowe algorytmy przez co jeszcze bardziej odciążą CPU.

Przynajmniej ja tak to widzę, jak się mylę to poprawcie :-)

AV1 jest bardzo ciekawy. Jest prosty (nie tak rozbudowany ja H265) ale podobno równie efektywny. Oglądałem kilka filmów w H265 i jakość mnie pozytywnie zaskoczyła.

Z H265 (HEVC) jest straszne bagno licencyjne. W praktyce na szeroką skalę jest nie do użycia przez googla (YT), Netflixa czy jakiegokolwiek liczącego się dostawcę treści wideo. Są zaporowe opłaty licencyjne za emitowanie materiałów skompresowanych H265.

Dlatego kodek o jakości H265 bez licencji (w szczególności bez licencji na emisję skompresowanej treści) jest bardzo oczekiwany przez rynek.
deton24 (2018.09.13, 16:40)
Ocena: 3
#5

0%
Na obecną chwilę żeby nawet w VP9 mieć zakodowany film, to trzeba ucinać go nieznacznie w YT Studio i zapisać, bo inaczej jest standardowo VC1 dla niepopularnych kanałów.
Warto przede wszystkim z filmami VP9 porównywać ten kodek (jest wszystko w statystykach).
Możliwe że jego czas kodowania jest krótszy od VP9, bo YT mówiło że w porównaniu do VC1 jest to sporo dłużej.
Może w końcu ten kodek pozostałby domyślnym standardem na stałe wypierając VC1 w przyszłości.
=-Mav-= (2018.09.13, 18:05)
Ocena: 10
#6

0%
Błagam, niech oni w końcu przestaną ucinać bitrate, bo na to nawet najlepszy kodek nie pomoże. Często na filmy na jutubie po prostu nie da się patrzeć bo straszą kwadratami, i nie ważne czy w h264 czy w vp9. I wątpię żeby ten kodek zmienił znacząco sytuację.


barwniak @ 2018.09.13 15:42  Post: 1164446
Aby pokazywać takie obrazki, trzeba pokazać obciążenie GPU. Skąd mam wiedzieć jaką część obliczeń robi CPU, a jaką GPU.

W tym przypadku nie ma to sensu, bo pewnie i tak wszystko robi procesor - kodek jest nowy i jeszcze nic nie obsługuje go do końca sprzętowo, więc gpu niezbyt będzie w czym miało się wykazać. Zresztą, sprawdzę niebawem to uaktualnię ten wpis.


Nawiasem mówiąc vp9 też nie jest sprzętowo obsługiwany pod win7, nad czym ubolewam.
Edytowane przez autora (2018.09.13, 18:08)
HΛЯPΛGŌN (2018.09.13, 19:33)
Ocena: 10
#7

0%
Zgadzam się z powyższym. Jeśli nie podniosą bitrate'u to żadne magiczne kodeki nie działają cudów. Jakość filmów na YouTube jest w najlepszym przypadku średnia. Większość jest zaśmiecona paskudnymi dużymi makro blokami. Szczególnie to widać na ciemniejszych scenach.
Kameleonn (2018.09.13, 19:50)
Ocena: 6
#8

0%
Jak zachowaja taki sam bitrate przy AV1 to bedzie lepsza jakosc o jakies 30-40%. Gorzej jak utna zeby dostowac jakosc do VP9, wtedy jedyny ktorym zyska bedzie google, a uzytkownicy odczuja jedynie zwiekszone zuzycie zasobow.

Bitrate poniekad da sie oszukac, nagrywajac film w 1080p, wystarczy go przeskalowac do 4k i wrzucic tak na YT. Osiagamy dzieki temu duzo wyzszy bitrate, filmy sa jak zyleta w 1080p.
Niestety malo uzytkownikow jest swiadoma ze tak mozna robic i dlatego YT wyglada jak wyglada.
Edytowane przez autora (2018.09.13, 19:51)
First Ever (2018.09.13, 19:55)
Ocena: 2
#9

0%
Prawdopodobnie Google chce zaoszczędzić na transferze danych w YouTube zmniejszając wielkość filmów - zasadnicze pytanie brzmi: czy kodek AV1 (na YouTube) rzeczywiście zapewnia lepszą jakość niż poprzednie?

Jeżeli tak to będzie warto się przesiąść jeżeli posiadacie nowy komputer, ale dopiero za jakiś czas - obecnie wszystkie odpowiedniki w AV1 mają maksymalnie rozdzielczość 1920x1080 przy 30FPS - dlatego jeżeli oglądacie filmy w 4K lub 60FPS to zalecam nie aktywować AV1!

Poniżej zamieszczam szybkie porównanie na najsłabszym sprzęcie jaki miałem pod ręką - ComputeStick z Atom x5-Z8300 i 4GB RAM na systemie Windows 10 (19H1 dzisiejszy build 18237.1000).

Testowałem na tym filmie: https://youtu.be/Fmdb-KmlzD8 :)

Google Chrome Dev v70
AV1 (1080p@30FPS) - gubi ponad 60% klatek i często zatrzymuje film (ok. 15FPS)
VP9 (1080p@60FPS) - gubi 50% klatek, ale bez zatrzymań (średnio 30FPS)

Microsoft Edge
AVC (1080p@60FPS) - brak zgubionych klatek

Edytowane przez autora (2018.09.13, 19:57)
Kwant (2018.09.13, 20:00)
Ocena: 8
#10

0%
HΛЯPΛGŌN @ 2018.09.13 19:33  Post: 1164507
Zgadzam się z powyższym. Jeśli nie podniosą bitrate'u to żadne magiczne kodeki nie działają cudów. Jakość filmów na YouTube jest w najlepszym przypadku średnia. Większość jest zaśmiecona paskudnymi dużymi makro blokami. Szczególnie to widać na ciemniejszych scenach.


Idea nowszych kodeków polega na tym, że przy tym samym (niskim) bitrate film wygląda lepiej (jak przy wyższym). Więc jeżeli nie obniżą bitrate dla VC1 to będzie wyglądać lepiej niż kodeki klasy h264.

Co do bitate to jest ich wybór... oni płacą ciężkie pieniądze za transfer danych więc niestety tną tak głęboko jak się da. Robią dokładne badania, kiedy jeszcze użytkownicy akceptują jakość i unoszą się zaraz nad tą granicą.
=-Mav-= (2018.09.13, 20:03)
Ocena: 5
#11

0%
Tak jak podejrzewałem, kodek ten jest obsługiwany wyłącznie przez procesor, podczas oglądania filmów w tym formacie gpu niemal natychmiast zjeżdża z zegarami do minimum i ogranicza się do wypluwania obrazu na ekran. Różnic w jakości obrazu pomiędzy nim a vp9 nie zauważyłem. Testowane pod win7. Pod 10 może być inaczej, choć nie sądzę.
HΛЯPΛGŌN (2018.09.13, 20:06)
Ocena: 0
#12

0%
Kwant @ 2018.09.13 20:00  Post: 1164513
HΛЯPΛGŌN @ 2018.09.13 19:33  Post: 1164507
Zgadzam się z powyższym. Jeśli nie podniosą bitrate'u to żadne magiczne kodeki nie działają cudów. Jakość filmów na YouTube jest w najlepszym przypadku średnia. Większość jest zaśmiecona paskudnymi dużymi makro blokami. Szczególnie to widać na ciemniejszych scenach.


Idea nowszych kodeków polega na tym, że przy tym samym (niskim) bitrate film wygląda lepiej (jak przy wyższym). Więc jeżeli nie obniżą bitrate dla VC1 to będzie wyglądać lepiej niż kodeki klasy h264.

Co do bitate to jest ich wybór... oni płacą ciężkie pieniądze za transfer danych więc niestety tną tak głęboko jak się da. Robią dokładne badania, kiedy jeszcze użytkownicy akceptują jakość i unoszą się zaraz nad tą granicą.

Ale obniżą na 100% bo o to im chodzi i jakość w najlepszym wypadku pozostanie ta sama (choć i tak podejrzewam, ze jakość moze być minimalnie gorsza). Zależy sporo od tego jaki typ materiału i w jakiej rozdzielczości będzie tym kodowany.
Kitu (2018.09.13, 20:11)
Ocena: 6
#13

0%
Kwant @ 2018.09.13 20:00  Post: 1164513
HΛЯPΛGŌN @ 2018.09.13 19:33  Post: 1164507
Zgadzam się z powyższym. Jeśli nie podniosą bitrate'u to żadne magiczne kodeki nie działają cudów. Jakość filmów na YouTube jest w najlepszym przypadku średnia. Większość jest zaśmiecona paskudnymi dużymi makro blokami. Szczególnie to widać na ciemniejszych scenach.


Idea nowszych kodeków polega na tym, że przy tym samym (niskim) bitrate film wygląda lepiej (jak przy wyższym). Więc jeżeli nie obniżą bitrate dla VC1 to będzie wyglądać lepiej niż kodeki klasy h264.

Co do bitate to jest ich wybór... oni płacą ciężkie pieniądze za transfer danych więc niestety tną tak głęboko jak się da. Robią dokładne badania, kiedy jeszcze użytkownicy akceptują jakość i unoszą się zaraz nad tą granicą.

Problem w tym, że większości użytkowników dosłownie lata w jakiej jakości to oglądają, bo najczęściej i tak nie widzą różnicy pomiędzy 480p a 1080p, a bitrate to dla nich ''niska rozdzielczość'. Oni po prostu chcą obejrzeć to, co kliknęli i tyle. Na potwierdzenie - spójrz chociażby na statystyki udostępnień i pobrań filmów na torrentach - xvid/divx mają kilka razy większe wzięcie niż 1080p czy choćby 720p - po części wielkość (czyt. na jedną płytę dvd zmieści się kilka filmów, a nie jeden, no i oczywiście szybciej się ściągnie), a po części obojętność na jakość obrazu.

Czyli, w skrócie, YT nie obchodzi jakość obrazu i zostaną przy obecnej jeszcze długo, bo narzekających użytkowników jest jakiś niewielki procent, a zagrożenia ze strony konkurencji nie ma, bo i o konkurencję ciężko. Sytuacja taka jak z Windowsem - ile by nie spieprzyli, ludzie dalej będą korzystać, bo realnej alternatywy brak.
=-Mav-= (2018.09.13, 22:27)
Ocena: 2
#14

0%
@Kitu Zerknąłem na statystyki jakiegoś torrenta i obecnie najczęściej ściągane filmy i jednak 1080p dominuje, ale faktycznie zadziwiająco dużo ludzi nadal ściąga content w 480p. Aż się wierzyć nie chce widząc atakujące człowieka z każdej strony krzykliwe reklamy 4k i hdr-u. Żeby nie zauważyć różnicy między 1080p a 480p trzeba być albo ślepym, albo oglądać to na urządzeniu z mikroskopijnym ekranikiem (smartwatch? da się w ogóle?), albo nie wiedzieć że można lepiej. Mnie osobiście obecnie irytują już nawet filmy w 720p, a na 1080p w 30fps na jutubie kręcę nosem.
deton24 (2018.09.14, 00:20)
Ocena: 0
#15

0%
@Kameleonn
Bardzo słuszna uwaga z przeskalowaniem do 4K i efektem - wyższy bitrate.

Zauważcie że to samo ostatnio zrobili twórcy Cyberpunk jak wrzucali do sieci swój gameplay.
Natywnie tam jest bodaj FHD.
Edytowane przez autora (2018.09.14, 00:20)
Avitr (2018.09.14, 00:57)
Ocena: 2
#16

0%
Jak youtube przejdzie całkiem na AV1 to pewnie powstanie nowa wersja h264ify, tym razem przełączająca kodek na VP9.

cichy45 @ 2018.09.13 15:40  Post: 1164444
Ciekawe, kiedy będzie dostępne sprzętowe akcelerowanie. Nic po przełomowym formacie, jeśli będzie zarzynał procesor podczas odtwarzania. Sprzętu kompatybilnego z VP9 jest do tej pory stosunkowo mało

VP9 akcelerują obecnie nawet integry (od G4560 wzwyż).

więc przed AV1 jeszcze pewnie długa droga do popularności.

Tym razem może być inaczej. VP9 opracawało samo Google, a AV1 całe konsorcjum (m.in. Netlix i Facebook). więc hardwarowa akceleracja AV1 może być szybciej dostępna.
Pozatym, podobnie jak kiedyś przy DVD / MPEG-2, mogą powstać oddzielne akceleratory AV1, wpinane do PCI-E x1. Najbardziej przydatne będą posiadaczom monitorów 4K, a tych jest już tyle że opłaca się zrobić dla nich taki sprzęt.

aqvario @ 2018.09.13 15:41  Post: 1164445
Kiedyś PCLab miał ciekawy test 'który komputer poradzi sobie z VP9 4k' dekodowanym przez CPU. No, teraz czas na taki test AV1 :) Oczywiście, zanim YT wprowadzi to jako standard, to trochę minie i pewnie CPU będą mocniejsze, nawet te najtańsze. Ale dobrze wiedzieć, czy 'mój laptop wystarczy' ;)

Wtedy topowe CPU były 4r/8w, dziś są 8r/16w (a dekodery video zwykle potrafią wykorzystać wszystkie dostępne rdzenie/wątki).

Kwant @ 2018.09.13 15:58  Post: 1164450

To nie jest tak, że wrzucasz skompresowany strumień wideo do GPU a ono w całości go dekoduje i przekształca na pixele. To wygląda tak, że części algorytmu są dekodowane przez CPU a części przez GPU.

Odróżnijmy pełną akcelerację hardwarową (wszystko liczy sam GPU) od hybrydowej (GPU+CPU).

Edytowane przez autora (2018.09.14, 01:03)
Kwant (2018.09.14, 01:17)
Ocena: -2
#17

0%
Kitu @ 2018.09.13 20:11  Post: 1164517
Kwant @ 2018.09.13 20:00  Post: 1164513
(...)


Idea nowszych kodeków polega na tym, że przy tym samym (niskim) bitrate film wygląda lepiej (jak przy wyższym). Więc jeżeli nie obniżą bitrate dla VC1 to będzie wyglądać lepiej niż kodeki klasy h264.

Co do bitate to jest ich wybór... oni płacą ciężkie pieniądze za transfer danych więc niestety tną tak głęboko jak się da. Robią dokładne badania, kiedy jeszcze użytkownicy akceptują jakość i unoszą się zaraz nad tą granicą.

Problem w tym, że większości użytkowników dosłownie lata w jakiej jakości to oglądają, bo najczęściej i tak nie widzą różnicy pomiędzy 480p a 1080p, a bitrate to dla nich ''niska rozdzielczość'. Oni po prostu chcą obejrzeć to, co kliknęli i tyle. Na potwierdzenie - spójrz chociażby na statystyki udostępnień i pobrań filmów na torrentach - xvid/divx mają kilka razy większe wzięcie niż 1080p czy choćby 720p - po części wielkość (czyt. na jedną płytę dvd zmieści się kilka filmów, a nie jeden, no i oczywiście szybciej się ściągnie), a po części obojętność na jakość obrazu.

Czyli, w skrócie, YT nie obchodzi jakość obrazu i zostaną przy obecnej jeszcze długo, bo narzekających użytkowników jest jakiś niewielki procent, a zagrożenia ze strony konkurencji nie ma, bo i o konkurencję ciężko. Sytuacja taka jak z Windowsem - ile by nie spieprzyli, ludzie dalej będą korzystać, bo realnej alternatywy brak.


W pierwszej części masz absolutną rację, z drugą częścią nie zgadzam się z przyczyn formalnych ;-)

No więc niestety jest tak jak piszesz - zdecydowana większość ludzi olewa jakość :( Jest na to wiele badań. Liczy się dla nich raczej content niż jakość. Grupa odbiorców dla których jakość grafiki czy dźwięku jest ważna to niestety mniejszość :(

Nie można powiedzieć, że googla nie obchodzi jakość YT oni dokładnie mierzą, jaką jakość muszą wyświetlić w danych warunkach, żeby 'średni' użytkownik ją akceptował. I to akceptuję większość odbiorców, niestety my jesteśmy w mniejszości :(

Z tego co wiem, póki co google nie robi personalizacji jakości per użytkownik a tylko optymalizuje per warunki. Czyli jak oglądasz na dużym TV to dostaniesz większą rozdzielczość a jak na smartfonie to mniejszą. W związku z tym oni każdy film mają prekompresowany na różne rozdzielczości i jakości. W zależności od warunków sieciowych i urządzenia przełączają dynamicznie strumień. Z tego powodu nie mogą trzymać zbyt dużej liczby różnych wersji (w szczególności high-quality) bo to ich kosztuje zbyt dużo miejsca.

Netflix robi dokładnie to samo ale oferują wyższą jakość bo mają profesjonalny content (YT to są głównie filmy mocno amatorskie ;-)). Netflix może też zaoferować wyższą jakość bo wprost płacisz za conent i masz nawet abonament dla różnego poziomu jakości.

Mam nadzieję, że coraz tańsze łącza i coraz lepsze kodeki doprowadzą wreszcie do lepszej jakości filmów na YT bo dojdziemy do sytuacji w której zysk z ograniczenia strumienia będzie minimalny więc będzie można zaoferować lepszą jakość :)
Bogie (2018.09.14, 09:08)
Ocena: 1
#18

0%
Jak dla mnie od kilku lat jedynym sensownym powodem zmiany procesora w komputerach 'do domu' jest właśnie sprzętowe dekodowanie video. 1080p w h.264 uciągnie nawet w miarę leciwy sprzęt, jeśli jest w min odpowiednio dużo pamięci i dysk SSD, to może działać latami. Jak Youtube przejdzie na AV1 w materiałach 1080p i niższych, to będzie oznaczało masową wymianę sprzętu - większość ludzi nie ogarnia wymuszania zmiany kodeka. Netflix certyfikuje sprzęt pod 1080p i 4k więc AV1 może być opcją, ale nie będzie wymogiem, co i tak nie zmienia faktu, że najszybciej implementacji standardu możemy oczekiwać w mobilnych GPU. Nieczęsto trzymam kciuki za nowymi standardami, ale tym razem tak jest - nie chwalą się super kompresją, tylko otwartością. Jeśli uda im sie przekonać Microsoft do projektu, to może się on udać.
cichy45 (2018.09.14, 11:41)
Ocena: 3
#19

0%
VP9 akcelerują obecnie nawet integry (od G4560 wzwyż).


Dobra, a sądzisz, że ile % osób ma komputery z generacją kaby lake i nowszą? 10%? 15%?
mat9v (2018.09.14, 11:54)
Ocena: 1
#20

0%
cichy45 @ 2018.09.14 11:41  Post: 1164599
VP9 akcelerują obecnie nawet integry (od G4560 wzwyż).


Dobra, a sądzisz, że ile % osób ma komputery z generacją kaby lake i nowszą? 10%? 15%?

Dokładnie, dodatkowo pełną akcelerację VP9 oferują dopiero Pascale.
Zaloguj się, by móc komentować
Aktualności
Firma może szykować jakieś niespodzianki. 5
Gotowe na 9. generację CPU. W serii płyt głównych z chipsetem Z390 znajdziemy nowe modele od MSI. 6
Jest bardzo źle, a może być jeszcze gorzej. 31
Dla serwisu to ogromna strata. Twitch został zablokowany w Chinach. 26
Przynajmniej na zachodzie. 34
Jest bardzo źle, a może być jeszcze gorzej. 31
Dobra gra zawsze się obroni. Monster Hunter: World to jeden z największych hitów na PC w tym roku. 21
Niewielki sprzęt o całkiem dużych możliwościach. 10
Smutna informacja dla fanów przygodówek. 14
Firma może szykować jakieś niespodzianki. 5
Dla serwisu to ogromna strata. Twitch został zablokowany w Chinach. 26
Firma w końcu zabiera się za toksycznych użytkowników. 8
Niestety na grę musimy poczekać jeszcze kilka miesięcy. 7
Niewielki sprzęt o całkiem dużych możliwościach. 10
Intel może mieć kolejnego poważnego konkurenta. 11
Przynajmniej na zachodzie. 34
Jest bardzo źle, a może być jeszcze gorzej. 31
Facebook
Ostatnio komentowane