komentarze
gtxxorZobacz profil
Poziom ostrzeżenia: 0%
gtxxor2018.01.03, 17:49
-3#15
Industry Insider @ 2018.01.03 16:17  Post: 1117174
Proszę wybaczyć, ale podejmowanie technicznych tematów nie daje automatycznej przepustki na pisanie bzdur. Autor nie opisał i nie pokazał przykładów wykorzystania upakowania operacji FP16 w grach - wspomniał tylko, że w jakiejś grze to zrobiono.


Zrobimy zatem od drugiej strony. Tak naprawdę każda gra na PS3 jest przykładem wykorzystania FP16. I dlatego też taki God of War 3 straszy artefaktami 'schodkowymi', a po przeniesieniu na PS4, jest od nich wolny. Idąc dalej, w Mario 64 na N64 pozycja bohatera zapisywana jest w FP16. Tak, poważnie. I dlatego idąc daleko w jedną stronę, w pewnym momencie zawiesimy się, bo występuje zbyt duża różnica między wartością obecną, a następną - dla kroku. Wystarczy sobie też przypomnieć, jak niegdyś wyglądały gry po wymuszeniu FP16.

https://s13.postimg.org/e5y1okzbb/fp16.png
https://s13.postimg.org/n0yvz43jb/fp32.png
Taki pierwszy przykład z brzegu.

Jeśli zaś o VSM chodzi - zwracam honor. Chciałem znaleźć dobry rzut porównawczy, bo w samej dokumentacji ich nie ma (są tylko pojedyncze dla nowej techniki), i masz wpadkę.

W razie czego http://slideplayer.com/slide/677793/1/imag...shadow+maps.jpg
AarghZobacz profil
Poziom ostrzeżenia: 0%
Aargh2018.01.03, 17:17
szmon @ 2018.01.03 16:49  Post: 1117181

Też mam wrażenie że pogorszonie jakości względem wydajności to pewnego rodzaju oszustwo.

Grafika komputerowa generowana w czasie rzeczywistym to od zawsze było 'oszustwo' i cięcia, byleby tylko komputer/smartfon/konsola wygenerowały obraz w czasie 16,67/33,33 milisekund..
szmonZobacz profil
Poziom ostrzeżenia: 0%
szmon2018.01.03, 16:49
Nie ma czegoś takiego jak flop. Skrótowce też można odmieniać, ale trzeba wiedzieć jak.

Piioo @ 2018.01.03 14:18  Post: 1117113
No właśnie, grafika niemal stoi od 10 lat na jednym poziomie. Mimo wszystko ceny idą w górę i wymagania też. Komputery kosztują grube tysiące złotych, a my mamy nagle przejść na gorszą grafikę, żeby to wszystko lepiej teoretycznie chodziło? No chyba nie o taką przyszłość walczyliśmy :) ? Za wszystko odpowiadają Devi, nie dość, że gry w dzisiejszych czasach to w 90% totalne badziewia dla gimbazy + chore preordery + płatne DLC i patche w dniu premiery, to jeszcze bardziej nie chce im się optymalizować kodu, bo szkoda czasu i kasy, to lepiej zafundować graczom gorszą grafikę. Później oczywiście i tak do 60 fps wymagany będzie X080 Ti.


Też mam wrażenie że pogorszonie jakości względem wydajności to pewnego rodzaju oszustwo. Dużo będzie zależeć od samego algorytmu i ewentualnie możliwości jego wyłączenia. W idealne skalowanie i równo dwukrotne przyspieszenie również nie ma co wierzyć. Na tym etapie jeszcze za wcześnie żeby wieszać psy na tym rozwiązaniu. Czas pokaże co z tego wyjdzie, bo skoro nie widać różnicy, to po co przepłacać? Co do możliwości graficznych, to znacznie wzrosły. Od 10 lat jednak trochę się zmieniło i widać to wyraźnie. Niestety dzisiaj chcemy grać w coraz wyższych rozdzielczościach, więc często potrzeba nam o wiele mocniejszego sprzętu, żeby wyświetlić podpobne wizulanie efekty, ale z większą szczegółowością. Wcześniej też zdarzało się, że w dniu premiery gry były niedopracowane, choć należało to do rzadkości. Obecnie niestety jest gorzej. W ekstremalnych przypadkach kilka dni po premierze jest prawie drugie tyle danych do pobrania co w dniu premiery. No cóż, chęć zmieszczenia się z terminem nie może być usprawiedliwieniem do pozwalania sobie na tak wielkie niedociągnięcia. Producenci też korzystają z faktu że obecnie w zasadzie każdy ma połączenie z internetem pozwalające pobrać większe ilości danych. Kolejnym zaniżaczem jakości grafiki jest kompatybilność z konsolami. Jeśli poziom szczegółowości różniłby się diamterialnie pod każdym względem, to rynek konsol mógłby być zagrożony, a z nim również finanse producentów gier. Spędzenie dodatkowych godzin tylko po to, żeby na PC gry wyglądały lepiej to też dodatkowy narzut kosztów.

PutoutZobacz profil
Poziom ostrzeżenia: 0%
Putout2018.01.03, 16:30
Piioo @ 2018.01.03 14:18  Post: 1117113
No właśnie, grafika niemal stoi od 10 lat na jednym poziomie. Mimo wszystko ceny idą w górę i wymagania też..


to że jesteś ślepy to wcale nie oznacza że postępu nie ma. idź do okulisty zamiast siać brednie.

Kitu @ 2018.01.03 16:10  Post: 1117169
Szkoda, że o takich rzeczach jak FP16/32 i ogólna architektura komputerów nie mówi się na lekcjach informatyki w szkołach - zamiast tego w nieskończoność tłucze się Worda, Excela i Powerpointa, co i tak kończy się tak, że większość ludzi tworzy potworki z jak największą ilością czcionek i kolorów. Żeby dowiedzieć się o formacie zmiennoprzecinkowym, działaniu, kodowaniu i różnicach dokładności musiałem iść na studia..


o rany. zejdź na ziemie. jaki byłby sens uczenia czegoś takiego w szkołach? żeby 1 uczeń na rok z tego skorzystał? i nie wyskakuj tutaj z chemiami i ifyzkami bo one są wykorzystywane znacznie częściej. natomiast z pakietów biurowych korzysta bardzo wielu absolwentów. dodatkowo weź pod uwagę to że tak naprawde niewielu nauczycieli informatyki w rzeczywistości jest związanych z informatyką jako taką. często są to wfiści, nauczyciele techniki lub matematyki. oni mają tylko krótki kurs z zakresu it a nie książkową wiedzę.
jeśli dopiero na studiach dowiedziałeś się o takich rzeczach to wpsółczuję. to nie jest żadna wiedza tajemna i jest bardoz łatwo dostępna w literaturze oraz internecie.
Industry InsiderZobacz profil
Poziom ostrzeżenia: 0%
Industry Insider2018.01.03, 16:17
16#11
Proszę wybaczyć, ale podejmowanie technicznych tematów nie daje automatycznej przepustki na pisanie bzdur. Autor nie opisał i nie pokazał przykładów wykorzystania upakowania operacji FP16 w grach - wspomniał tylko, że w jakiejś grze to zrobiono.

Zamiast uczciwego porównania jakości (na którym ciężko byłoby wykryć różnicę algorytmicznie, a co dopiero okiem ludzkim) autor wkleja screenshot z... release note'ów do Blendera (https://wiki.blender.org/index.php/Dev:Ref...4/Game_Engine), który przedstawia zupełnie co innego - wcale nie różnicę między 16-bitową a 32-bitową mapą cieni!

A przecież tak łatwo znaleźć literaturę na ten temat. Przykładowe benchmarki były pokazane publicznie w prezentacjach AMD oraz developerów z GDC, i nie było w nich marketingowej przesady o 'rosnących dwukrotnie słupkach'. 5 minut w googlach i można znaleźć dokumenty, w których Microsoft wręcz rekomenduje używanie 16-bitowej precyzji do mapowania kolorów przy renderowaniu HDR: http://1drv.ms/1T8iew9
Bardzo dobrze, że PClab nie boi się technicznych tematów, ale na litość, piszcie fakty, a nie opinie! Gdybym chciał poziomu z tech-blogów albo youtuba, nie przyszedłbym na PClaba!
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2018.01.03, 16:11
Jaki mit o słupkach rosnących o dwie długości? Z tego, że w teorii jakieś obliczenia da się zrobić zużywając dwa razy mniej zasobów nie znaczy, że wszystko można bez różnicy przerzucić na FP16 i nikt tak nie teoretyzował - więc obalacie teorię której nikt nie wysuwał. Pierwszy raz spotykam się ze stwierdzeniem, że to da 2x więcej fps.

_gunnar_ @ 2018.01.03 14:26  Post: 1117120
Można to nazwać optymalizacją. Tam gdzie nie trzeba dokładnych obliczeń, będzie zużywane mniej zasobów karty graficznej. Jest to dobre i logiczne posunięcie ale z drugiej strony każdy od razu widzi, że skala zysku będzie raczej niewielka. Zapewne kilka %. Uzysk będzie tyko tam gdzie precyzja nie ma tak istotnego znaczenia a takich rzeczy pewnie jest niewiele. Jednak nie bez przyczyny wszystko jest teraz liczone z wyższa precyzją. Pamiętam czasy jak się przechodziło z popularnej 16bitowej palety barw na 32 bity i jaka była różnica i w obrazie i niestety w wydajności. Nawet robiono testy na 2 paletach bo były czasy gdzie niewiele kart radziło sobie z płynnym przetwarzaniem grafiki w 32 bitowej palecie :D

Zyskuje się więcej zasobów dla zrobienia czegoś w FP16 jeżeli FP32 może policzyć równocześnie dwie FP16, ale też zamiast zużywać więcej FP32 zużywa się ich wtedy mniej, bo i tak musisz policzyć to co liczysz, więc i dla obliczeń FP32 zostaje więcej zasobów - tak naprawdę oba typy obliczeń na tym mogą zyskać.
KituZobacz profil
Poziom ostrzeżenia: 0%
Kitu2018.01.03, 16:10
-1#9
Szkoda, że o takich rzeczach jak FP16/32 i ogólna architektura komputerów nie mówi się na lekcjach informatyki w szkołach - zamiast tego w nieskończoność tłucze się Worda, Excela i Powerpointa, co i tak kończy się tak, że większość ludzi tworzy potworki z jak największą ilością czcionek i kolorów. Żeby dowiedzieć się o formacie zmiennoprzecinkowym, działaniu, kodowaniu i różnicach dokładności musiałem iść na studia..

Jak dobrze, że zaczynają się na PCLabie pojawiać artykuły techniczne - niektóre mogą być 'zbyt płytkie' dla kogoś z większą wiedzą, ale świetnie tłumaczą zagadnienie. Aż chce się tutaj wchodzić :)
*Konto usunięte*2018.01.03, 15:43
-12#8
myszka91 @ 2018.01.03 14:28  Post: 1117124
Niech złodziejskie korporacje przestaną zawyżać wymagania gier produkując sterowniki które wymuszają na producentach gier słabo zoptymalizowane produkty, mogę wam podać dziesiątki tytułów które ukazały się w ostatnich latach, a które wyglądają pod każdym względem dużo gorzej niż ten już ikoniczny Crysis, a wymagania kilkunastokrotnie większe.


Te dzisiejsze gry mają taką samą fizykę jak Half-Life 2 z 2004 roku, a grafika od czasów Crysisa z 2007 nie zmieniła się tak bardzo aby dzisiejsze gry wymagały 50 razy mocniejszego sprzętu niż 10 lat temu, nie wspominając już o tym, że sztuczna inteligencja przeciwników jest dzisiaj dużo gorsza niż w takim F.E.A.R z 2005 roku.


Dzięki za minusy Januszowi eksperci, rozumiem, że waszym zdaniem to, że np. taki PUBG ma wymagania kilkanaście razy wyższe niż gry sprzed 10 lat, a niektóre tekstury jak w grach z lat 90 to wszystko jest w porządku?
sidebandZobacz profil
Poziom ostrzeżenia: 0%
sideband2018.01.03, 15:18
10#7
Nie tylko w przypadku bloom-a FP16 aż nadto wystarczające, ale sęk w tym stricte bloom jest nisko obciążającym efektem. Do tego Vega ma wąskie gardło ze strony Ropów, więc pomogło to tyle co umarłemu kadzidło. Realne korzyści FP16 przyniesie w momencie kiedy będą obliczane w obniżonej precyzji efekty znacznie bardziej obciążające. W przypadku TressFX w FP16 wzrost wydajności jest dwukrotny.
mati_zlotaZobacz profil
Poziom ostrzeżenia: 0%
mati_zlota2018.01.03, 14:53
Teraflopsa a nie teraflopa k***a ile można powtarzać
jf196Zobacz profil
Poziom ostrzeżenia: 0%
jf1962018.01.03, 14:48
Chyba tak to można ująć. Sprzęt - szczególnie w konsolach - nie domaga, więc obniżmy precyzję, a co za tym idzie jakość grafiki, żeby było płynniej. Zamiast postępu - cofanie się ;/
*Konto usunięte*2018.01.03, 14:28
12#4
Niech złodziejskie korporacje przestaną zawyżać wymagania gier produkując sterowniki które wymuszają na producentach gier słabo zoptymalizowane produkty, mogę wam podać dziesiątki tytułów które ukazały się w ostatnich latach, a które wyglądają pod każdym względem dużo gorzej niż ten już ikoniczny Crysis, a wymagania kilkunastokrotnie większe.


Te dzisiejsze gry mają taką samą fizykę jak Half-Life 2 z 2004 roku, a grafika od czasów Crysisa z 2007 nie zmieniła się tak bardzo aby dzisiejsze gry wymagały 50 razy mocniejszego sprzętu niż 10 lat temu, nie wspominając już o tym, że sztuczna inteligencja przeciwników jest dzisiaj dużo gorsza niż w takim F.E.A.R z 2005 roku.
DuchuZobacz profil
Poziom ostrzeżenia: 0%
Duchu2018.01.03, 14:27
21#3
Gratuluję panie Piotrze. Poziom artykułu dawno nie spotykany na tym portalu.

Szkoda że taki krótki. W 2003r. podczas premiery Doom 3 mój guru J. Carmack wyjaśniał potencjał FP16 i podejście ATi i nV w DX9. Wtedy to były czary a teraz powrót do przeszłości... :)

Pozdr.
_gunnar_Zobacz profil
Poziom ostrzeżenia: 0%
_gunnar_2018.01.03, 14:26
Można to nazwać optymalizacją. Tam gdzie nie trzeba dokładnych obliczeń, będzie zużywane mniej zasobów karty graficznej. Jest to dobre i logiczne posunięcie ale z drugiej strony każdy od razu widzi, że skala zysku będzie raczej niewielka. Zapewne kilka %. Uzysk będzie tyko tam gdzie precyzja nie ma tak istotnego znaczenia a takich rzeczy pewnie jest niewiele. Jednak nie bez przyczyny wszystko jest teraz liczone z wyższa precyzją. Pamiętam czasy jak się przechodziło z popularnej 16bitowej palety barw na 32 bity i jaka była różnica i w obrazie i niestety w wydajności. Nawet robiono testy na 2 paletach bo były czasy gdzie niewiele kart radziło sobie z płynnym przetwarzaniem grafiki w 32 bitowej palecie :D
PiiooZobacz profil
Poziom ostrzeżenia: 0%
Piioo2018.01.03, 14:18
20#1
No właśnie, grafika niemal stoi od 10 lat na jednym poziomie. Mimo wszystko ceny idą w górę i wymagania też. Komputery kosztują grube tysiące złotych, a my mamy nagle przejść na gorszą grafikę, żeby to wszystko lepiej teoretycznie chodziło? No chyba nie o taką przyszłość walczyliśmy :) ? Za wszystko odpowiadają Devi, nie dość, że gry w dzisiejszych czasach to w 90% totalne badziewia dla gimbazy + chore preordery + płatne DLC i patche w dniu premiery, to jeszcze bardziej nie chce im się optymalizować kodu, bo szkoda czasu i kasy, to lepiej zafundować graczom gorszą grafikę. Później oczywiście i tak do 60 fps wymagany będzie X080 Ti.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.