Proszę wybaczyć, ale podejmowanie technicznych tematów nie daje automatycznej przepustki na pisanie bzdur. Autor nie opisał i nie pokazał przykładów wykorzystania upakowania operacji FP16 w grach - wspomniał tylko, że w jakiejś grze to zrobiono.
Zrobimy zatem od drugiej strony. Tak naprawdę każda gra na PS3 jest przykładem wykorzystania FP16. I dlatego też taki God of War 3 straszy artefaktami 'schodkowymi', a po przeniesieniu na PS4, jest od nich wolny. Idąc dalej, w Mario 64 na N64 pozycja bohatera zapisywana jest w FP16. Tak, poważnie. I dlatego idąc daleko w jedną stronę, w pewnym momencie zawiesimy się, bo występuje zbyt duża różnica między wartością obecną, a następną - dla kroku. Wystarczy sobie też przypomnieć, jak niegdyś wyglądały gry po wymuszeniu FP16.
Jeśli zaś o VSM chodzi - zwracam honor. Chciałem znaleźć dobry rzut porównawczy, bo w samej dokumentacji ich nie ma (są tylko pojedyncze dla nowej techniki), i masz wpadkę.
Też mam wrażenie że pogorszonie jakości względem wydajności to pewnego rodzaju oszustwo.
Grafika komputerowa generowana w czasie rzeczywistym to od zawsze było 'oszustwo' i cięcia, byleby tylko komputer/smartfon/konsola wygenerowały obraz w czasie 16,67/33,33 milisekund..
Nie ma czegoś takiego jak flop. Skrótowce też można odmieniać, ale trzeba wiedzieć jak.
Piioo @ 2018.01.03 14:18
No właśnie, grafika niemal stoi od 10 lat na jednym poziomie. Mimo wszystko ceny idą w górę i wymagania też. Komputery kosztują grube tysiące złotych, a my mamy nagle przejść na gorszą grafikę, żeby to wszystko lepiej teoretycznie chodziło? No chyba nie o taką przyszłość walczyliśmy ? Za wszystko odpowiadają Devi, nie dość, że gry w dzisiejszych czasach to w 90% totalne badziewia dla gimbazy + chore preordery + płatne DLC i patche w dniu premiery, to jeszcze bardziej nie chce im się optymalizować kodu, bo szkoda czasu i kasy, to lepiej zafundować graczom gorszą grafikę. Później oczywiście i tak do 60 fps wymagany będzie X080 Ti.
Też mam wrażenie że pogorszonie jakości względem wydajności to pewnego rodzaju oszustwo. Dużo będzie zależeć od samego algorytmu i ewentualnie możliwości jego wyłączenia. W idealne skalowanie i równo dwukrotne przyspieszenie również nie ma co wierzyć. Na tym etapie jeszcze za wcześnie żeby wieszać psy na tym rozwiązaniu. Czas pokaże co z tego wyjdzie, bo skoro nie widać różnicy, to po co przepłacać? Co do możliwości graficznych, to znacznie wzrosły. Od 10 lat jednak trochę się zmieniło i widać to wyraźnie. Niestety dzisiaj chcemy grać w coraz wyższych rozdzielczościach, więc często potrzeba nam o wiele mocniejszego sprzętu, żeby wyświetlić podpobne wizulanie efekty, ale z większą szczegółowością. Wcześniej też zdarzało się, że w dniu premiery gry były niedopracowane, choć należało to do rzadkości. Obecnie niestety jest gorzej. W ekstremalnych przypadkach kilka dni po premierze jest prawie drugie tyle danych do pobrania co w dniu premiery. No cóż, chęć zmieszczenia się z terminem nie może być usprawiedliwieniem do pozwalania sobie na tak wielkie niedociągnięcia. Producenci też korzystają z faktu że obecnie w zasadzie każdy ma połączenie z internetem pozwalające pobrać większe ilości danych. Kolejnym zaniżaczem jakości grafiki jest kompatybilność z konsolami. Jeśli poziom szczegółowości różniłby się diamterialnie pod każdym względem, to rynek konsol mógłby być zagrożony, a z nim również finanse producentów gier. Spędzenie dodatkowych godzin tylko po to, żeby na PC gry wyglądały lepiej to też dodatkowy narzut kosztów.
No właśnie, grafika niemal stoi od 10 lat na jednym poziomie. Mimo wszystko ceny idą w górę i wymagania też..
to że jesteś ślepy to wcale nie oznacza że postępu nie ma. idź do okulisty zamiast siać brednie.
Kitu @ 2018.01.03 16:10
Szkoda, że o takich rzeczach jak FP16/32 i ogólna architektura komputerów nie mówi się na lekcjach informatyki w szkołach - zamiast tego w nieskończoność tłucze się Worda, Excela i Powerpointa, co i tak kończy się tak, że większość ludzi tworzy potworki z jak największą ilością czcionek i kolorów. Żeby dowiedzieć się o formacie zmiennoprzecinkowym, działaniu, kodowaniu i różnicach dokładności musiałem iść na studia..
o rany. zejdź na ziemie. jaki byłby sens uczenia czegoś takiego w szkołach? żeby 1 uczeń na rok z tego skorzystał? i nie wyskakuj tutaj z chemiami i ifyzkami bo one są wykorzystywane znacznie częściej. natomiast z pakietów biurowych korzysta bardzo wielu absolwentów. dodatkowo weź pod uwagę to że tak naprawde niewielu nauczycieli informatyki w rzeczywistości jest związanych z informatyką jako taką. często są to wfiści, nauczyciele techniki lub matematyki. oni mają tylko krótki kurs z zakresu it a nie książkową wiedzę.
jeśli dopiero na studiach dowiedziałeś się o takich rzeczach to wpsółczuję. to nie jest żadna wiedza tajemna i jest bardoz łatwo dostępna w literaturze oraz internecie.
Proszę wybaczyć, ale podejmowanie technicznych tematów nie daje automatycznej przepustki na pisanie bzdur. Autor nie opisał i nie pokazał przykładów wykorzystania upakowania operacji FP16 w grach - wspomniał tylko, że w jakiejś grze to zrobiono.
Zamiast uczciwego porównania jakości (na którym ciężko byłoby wykryć różnicę algorytmicznie, a co dopiero okiem ludzkim) autor wkleja screenshot z... release note'ów do Blendera (https://wiki.blender.org/index.php/Dev:Ref...4/Game_Engine), który przedstawia zupełnie co innego - wcale nie różnicę między 16-bitową a 32-bitową mapą cieni!
A przecież tak łatwo znaleźć literaturę na ten temat. Przykładowe benchmarki były pokazane publicznie w prezentacjach AMD oraz developerów z GDC, i nie było w nich marketingowej przesady o 'rosnących dwukrotnie słupkach'. 5 minut w googlach i można znaleźć dokumenty, w których Microsoft wręcz rekomenduje używanie 16-bitowej precyzji do mapowania kolorów przy renderowaniu HDR: http://1drv.ms/1T8iew9
Bardzo dobrze, że PClab nie boi się technicznych tematów, ale na litość, piszcie fakty, a nie opinie! Gdybym chciał poziomu z tech-blogów albo youtuba, nie przyszedłbym na PClaba!
Jaki mit o słupkach rosnących o dwie długości? Z tego, że w teorii jakieś obliczenia da się zrobić zużywając dwa razy mniej zasobów nie znaczy, że wszystko można bez różnicy przerzucić na FP16 i nikt tak nie teoretyzował - więc obalacie teorię której nikt nie wysuwał. Pierwszy raz spotykam się ze stwierdzeniem, że to da 2x więcej fps.
_gunnar_ @ 2018.01.03 14:26
Można to nazwać optymalizacją. Tam gdzie nie trzeba dokładnych obliczeń, będzie zużywane mniej zasobów karty graficznej. Jest to dobre i logiczne posunięcie ale z drugiej strony każdy od razu widzi, że skala zysku będzie raczej niewielka. Zapewne kilka %. Uzysk będzie tyko tam gdzie precyzja nie ma tak istotnego znaczenia a takich rzeczy pewnie jest niewiele. Jednak nie bez przyczyny wszystko jest teraz liczone z wyższa precyzją. Pamiętam czasy jak się przechodziło z popularnej 16bitowej palety barw na 32 bity i jaka była różnica i w obrazie i niestety w wydajności. Nawet robiono testy na 2 paletach bo były czasy gdzie niewiele kart radziło sobie z płynnym przetwarzaniem grafiki w 32 bitowej palecie
Zyskuje się więcej zasobów dla zrobienia czegoś w FP16 jeżeli FP32 może policzyć równocześnie dwie FP16, ale też zamiast zużywać więcej FP32 zużywa się ich wtedy mniej, bo i tak musisz policzyć to co liczysz, więc i dla obliczeń FP32 zostaje więcej zasobów - tak naprawdę oba typy obliczeń na tym mogą zyskać.
Szkoda, że o takich rzeczach jak FP16/32 i ogólna architektura komputerów nie mówi się na lekcjach informatyki w szkołach - zamiast tego w nieskończoność tłucze się Worda, Excela i Powerpointa, co i tak kończy się tak, że większość ludzi tworzy potworki z jak największą ilością czcionek i kolorów. Żeby dowiedzieć się o formacie zmiennoprzecinkowym, działaniu, kodowaniu i różnicach dokładności musiałem iść na studia..
Jak dobrze, że zaczynają się na PCLabie pojawiać artykuły techniczne - niektóre mogą być 'zbyt płytkie' dla kogoś z większą wiedzą, ale świetnie tłumaczą zagadnienie. Aż chce się tutaj wchodzić
Niech złodziejskie korporacje przestaną zawyżać wymagania gier produkując sterowniki które wymuszają na producentach gier słabo zoptymalizowane produkty, mogę wam podać dziesiątki tytułów które ukazały się w ostatnich latach, a które wyglądają pod każdym względem dużo gorzej niż ten już ikoniczny Crysis, a wymagania kilkunastokrotnie większe.
Te dzisiejsze gry mają taką samą fizykę jak Half-Life 2 z 2004 roku, a grafika od czasów Crysisa z 2007 nie zmieniła się tak bardzo aby dzisiejsze gry wymagały 50 razy mocniejszego sprzętu niż 10 lat temu, nie wspominając już o tym, że sztuczna inteligencja przeciwników jest dzisiaj dużo gorsza niż w takim F.E.A.R z 2005 roku.
Dzięki za minusy Januszowi eksperci, rozumiem, że waszym zdaniem to, że np. taki PUBG ma wymagania kilkanaście razy wyższe niż gry sprzed 10 lat, a niektóre tekstury jak w grach z lat 90 to wszystko jest w porządku?
Nie tylko w przypadku bloom-a FP16 aż nadto wystarczające, ale sęk w tym stricte bloom jest nisko obciążającym efektem. Do tego Vega ma wąskie gardło ze strony Ropów, więc pomogło to tyle co umarłemu kadzidło. Realne korzyści FP16 przyniesie w momencie kiedy będą obliczane w obniżonej precyzji efekty znacznie bardziej obciążające. W przypadku TressFX w FP16 wzrost wydajności jest dwukrotny.
Chyba tak to można ująć. Sprzęt - szczególnie w konsolach - nie domaga, więc obniżmy precyzję, a co za tym idzie jakość grafiki, żeby było płynniej. Zamiast postępu - cofanie się ;/
Niech złodziejskie korporacje przestaną zawyżać wymagania gier produkując sterowniki które wymuszają na producentach gier słabo zoptymalizowane produkty, mogę wam podać dziesiątki tytułów które ukazały się w ostatnich latach, a które wyglądają pod każdym względem dużo gorzej niż ten już ikoniczny Crysis, a wymagania kilkunastokrotnie większe.
Te dzisiejsze gry mają taką samą fizykę jak Half-Life 2 z 2004 roku, a grafika od czasów Crysisa z 2007 nie zmieniła się tak bardzo aby dzisiejsze gry wymagały 50 razy mocniejszego sprzętu niż 10 lat temu, nie wspominając już o tym, że sztuczna inteligencja przeciwników jest dzisiaj dużo gorsza niż w takim F.E.A.R z 2005 roku.
Gratuluję panie Piotrze. Poziom artykułu dawno nie spotykany na tym portalu.
Szkoda że taki krótki. W 2003r. podczas premiery Doom 3 mój guru J. Carmack wyjaśniał potencjał FP16 i podejście ATi i nV w DX9. Wtedy to były czary a teraz powrót do przeszłości...
Można to nazwać optymalizacją. Tam gdzie nie trzeba dokładnych obliczeń, będzie zużywane mniej zasobów karty graficznej. Jest to dobre i logiczne posunięcie ale z drugiej strony każdy od razu widzi, że skala zysku będzie raczej niewielka. Zapewne kilka %. Uzysk będzie tyko tam gdzie precyzja nie ma tak istotnego znaczenia a takich rzeczy pewnie jest niewiele. Jednak nie bez przyczyny wszystko jest teraz liczone z wyższa precyzją. Pamiętam czasy jak się przechodziło z popularnej 16bitowej palety barw na 32 bity i jaka była różnica i w obrazie i niestety w wydajności. Nawet robiono testy na 2 paletach bo były czasy gdzie niewiele kart radziło sobie z płynnym przetwarzaniem grafiki w 32 bitowej palecie
No właśnie, grafika niemal stoi od 10 lat na jednym poziomie. Mimo wszystko ceny idą w górę i wymagania też. Komputery kosztują grube tysiące złotych, a my mamy nagle przejść na gorszą grafikę, żeby to wszystko lepiej teoretycznie chodziło? No chyba nie o taką przyszłość walczyliśmy ? Za wszystko odpowiadają Devi, nie dość, że gry w dzisiejszych czasach to w 90% totalne badziewia dla gimbazy + chore preordery + płatne DLC i patche w dniu premiery, to jeszcze bardziej nie chce im się optymalizować kodu, bo szkoda czasu i kasy, to lepiej zafundować graczom gorszą grafikę. Później oczywiście i tak do 60 fps wymagany będzie X080 Ti.
Zrobimy zatem od drugiej strony. Tak naprawdę każda gra na PS3 jest przykładem wykorzystania FP16. I dlatego też taki God of War 3 straszy artefaktami 'schodkowymi', a po przeniesieniu na PS4, jest od nich wolny. Idąc dalej, w Mario 64 na N64 pozycja bohatera zapisywana jest w FP16. Tak, poważnie. I dlatego idąc daleko w jedną stronę, w pewnym momencie zawiesimy się, bo występuje zbyt duża różnica między wartością obecną, a następną - dla kroku. Wystarczy sobie też przypomnieć, jak niegdyś wyglądały gry po wymuszeniu FP16.
https://s13.postimg.org/e5y1okzbb/fp16.png
https://s13.postimg.org/n0yvz43jb/fp32.png
Taki pierwszy przykład z brzegu.
Jeśli zaś o VSM chodzi - zwracam honor. Chciałem znaleźć dobry rzut porównawczy, bo w samej dokumentacji ich nie ma (są tylko pojedyncze dla nowej techniki), i masz wpadkę.
W razie czego http://slideplayer.com/slide/677793/1/imag...shadow+maps.jpg
Też mam wrażenie że pogorszonie jakości względem wydajności to pewnego rodzaju oszustwo.
Grafika komputerowa generowana w czasie rzeczywistym to od zawsze było 'oszustwo' i cięcia, byleby tylko komputer/smartfon/konsola wygenerowały obraz w czasie 16,67/33,33 milisekund..
Też mam wrażenie że pogorszonie jakości względem wydajności to pewnego rodzaju oszustwo. Dużo będzie zależeć od samego algorytmu i ewentualnie możliwości jego wyłączenia. W idealne skalowanie i równo dwukrotne przyspieszenie również nie ma co wierzyć. Na tym etapie jeszcze za wcześnie żeby wieszać psy na tym rozwiązaniu. Czas pokaże co z tego wyjdzie, bo skoro nie widać różnicy, to po co przepłacać? Co do możliwości graficznych, to znacznie wzrosły. Od 10 lat jednak trochę się zmieniło i widać to wyraźnie. Niestety dzisiaj chcemy grać w coraz wyższych rozdzielczościach, więc często potrzeba nam o wiele mocniejszego sprzętu, żeby wyświetlić podpobne wizulanie efekty, ale z większą szczegółowością. Wcześniej też zdarzało się, że w dniu premiery gry były niedopracowane, choć należało to do rzadkości. Obecnie niestety jest gorzej. W ekstremalnych przypadkach kilka dni po premierze jest prawie drugie tyle danych do pobrania co w dniu premiery. No cóż, chęć zmieszczenia się z terminem nie może być usprawiedliwieniem do pozwalania sobie na tak wielkie niedociągnięcia. Producenci też korzystają z faktu że obecnie w zasadzie każdy ma połączenie z internetem pozwalające pobrać większe ilości danych. Kolejnym zaniżaczem jakości grafiki jest kompatybilność z konsolami. Jeśli poziom szczegółowości różniłby się diamterialnie pod każdym względem, to rynek konsol mógłby być zagrożony, a z nim również finanse producentów gier. Spędzenie dodatkowych godzin tylko po to, żeby na PC gry wyglądały lepiej to też dodatkowy narzut kosztów.
to że jesteś ślepy to wcale nie oznacza że postępu nie ma. idź do okulisty zamiast siać brednie.
o rany. zejdź na ziemie. jaki byłby sens uczenia czegoś takiego w szkołach? żeby 1 uczeń na rok z tego skorzystał? i nie wyskakuj tutaj z chemiami i ifyzkami bo one są wykorzystywane znacznie częściej. natomiast z pakietów biurowych korzysta bardzo wielu absolwentów. dodatkowo weź pod uwagę to że tak naprawde niewielu nauczycieli informatyki w rzeczywistości jest związanych z informatyką jako taką. często są to wfiści, nauczyciele techniki lub matematyki. oni mają tylko krótki kurs z zakresu it a nie książkową wiedzę.
jeśli dopiero na studiach dowiedziałeś się o takich rzeczach to wpsółczuję. to nie jest żadna wiedza tajemna i jest bardoz łatwo dostępna w literaturze oraz internecie.
Zamiast uczciwego porównania jakości (na którym ciężko byłoby wykryć różnicę algorytmicznie, a co dopiero okiem ludzkim) autor wkleja screenshot z... release note'ów do Blendera (https://wiki.blender.org/index.php/Dev:Ref...4/Game_Engine), który przedstawia zupełnie co innego - wcale nie różnicę między 16-bitową a 32-bitową mapą cieni!
A przecież tak łatwo znaleźć literaturę na ten temat. Przykładowe benchmarki były pokazane publicznie w prezentacjach AMD oraz developerów z GDC, i nie było w nich marketingowej przesady o 'rosnących dwukrotnie słupkach'. 5 minut w googlach i można znaleźć dokumenty, w których Microsoft wręcz rekomenduje używanie 16-bitowej precyzji do mapowania kolorów przy renderowaniu HDR: http://1drv.ms/1T8iew9
Bardzo dobrze, że PClab nie boi się technicznych tematów, ale na litość, piszcie fakty, a nie opinie! Gdybym chciał poziomu z tech-blogów albo youtuba, nie przyszedłbym na PClaba!
Zyskuje się więcej zasobów dla zrobienia czegoś w FP16 jeżeli FP32 może policzyć równocześnie dwie FP16, ale też zamiast zużywać więcej FP32 zużywa się ich wtedy mniej, bo i tak musisz policzyć to co liczysz, więc i dla obliczeń FP32 zostaje więcej zasobów - tak naprawdę oba typy obliczeń na tym mogą zyskać.
Jak dobrze, że zaczynają się na PCLabie pojawiać artykuły techniczne - niektóre mogą być 'zbyt płytkie' dla kogoś z większą wiedzą, ale świetnie tłumaczą zagadnienie. Aż chce się tutaj wchodzić
Te dzisiejsze gry mają taką samą fizykę jak Half-Life 2 z 2004 roku, a grafika od czasów Crysisa z 2007 nie zmieniła się tak bardzo aby dzisiejsze gry wymagały 50 razy mocniejszego sprzętu niż 10 lat temu, nie wspominając już o tym, że sztuczna inteligencja przeciwników jest dzisiaj dużo gorsza niż w takim F.E.A.R z 2005 roku.
Dzięki za minusy Januszowi eksperci, rozumiem, że waszym zdaniem to, że np. taki PUBG ma wymagania kilkanaście razy wyższe niż gry sprzed 10 lat, a niektóre tekstury jak w grach z lat 90 to wszystko jest w porządku?
Te dzisiejsze gry mają taką samą fizykę jak Half-Life 2 z 2004 roku, a grafika od czasów Crysisa z 2007 nie zmieniła się tak bardzo aby dzisiejsze gry wymagały 50 razy mocniejszego sprzętu niż 10 lat temu, nie wspominając już o tym, że sztuczna inteligencja przeciwników jest dzisiaj dużo gorsza niż w takim F.E.A.R z 2005 roku.
Szkoda że taki krótki. W 2003r. podczas premiery Doom 3 mój guru J. Carmack wyjaśniał potencjał FP16 i podejście ATi i nV w DX9. Wtedy to były czary a teraz powrót do przeszłości...
Pozdr.