komentarze
PiiooZobacz profil
Poziom ostrzeżenia: 0%
Piioo2018.01.03, 14:18
20#1
No właśnie, grafika niemal stoi od 10 lat na jednym poziomie. Mimo wszystko ceny idą w górę i wymagania też. Komputery kosztują grube tysiące złotych, a my mamy nagle przejść na gorszą grafikę, żeby to wszystko lepiej teoretycznie chodziło? No chyba nie o taką przyszłość walczyliśmy :) ? Za wszystko odpowiadają Devi, nie dość, że gry w dzisiejszych czasach to w 90% totalne badziewia dla gimbazy + chore preordery + płatne DLC i patche w dniu premiery, to jeszcze bardziej nie chce im się optymalizować kodu, bo szkoda czasu i kasy, to lepiej zafundować graczom gorszą grafikę. Później oczywiście i tak do 60 fps wymagany będzie X080 Ti.
_gunnar_Zobacz profil
Poziom ostrzeżenia: 0%
_gunnar_2018.01.03, 14:26
Można to nazwać optymalizacją. Tam gdzie nie trzeba dokładnych obliczeń, będzie zużywane mniej zasobów karty graficznej. Jest to dobre i logiczne posunięcie ale z drugiej strony każdy od razu widzi, że skala zysku będzie raczej niewielka. Zapewne kilka %. Uzysk będzie tyko tam gdzie precyzja nie ma tak istotnego znaczenia a takich rzeczy pewnie jest niewiele. Jednak nie bez przyczyny wszystko jest teraz liczone z wyższa precyzją. Pamiętam czasy jak się przechodziło z popularnej 16bitowej palety barw na 32 bity i jaka była różnica i w obrazie i niestety w wydajności. Nawet robiono testy na 2 paletach bo były czasy gdzie niewiele kart radziło sobie z płynnym przetwarzaniem grafiki w 32 bitowej palecie :D
DuchuZobacz profil
Poziom ostrzeżenia: 0%
Duchu2018.01.03, 14:27
21#3
Gratuluję panie Piotrze. Poziom artykułu dawno nie spotykany na tym portalu.

Szkoda że taki krótki. W 2003r. podczas premiery Doom 3 mój guru J. Carmack wyjaśniał potencjał FP16 i podejście ATi i nV w DX9. Wtedy to były czary a teraz powrót do przeszłości... :)

Pozdr.
myszka91Zobacz profil
Poziom ostrzeżenia: 0%
myszka912018.01.03, 14:28
12#4
Niech złodziejskie korporacje przestaną zawyżać wymagania gier produkując sterowniki które wymuszają na producentach gier słabo zoptymalizowane produkty, mogę wam podać dziesiątki tytułów które ukazały się w ostatnich latach, a które wyglądają pod każdym względem dużo gorzej niż ten już ikoniczny Crysis, a wymagania kilkunastokrotnie większe.


Te dzisiejsze gry mają taką samą fizykę jak Half-Life 2 z 2004 roku, a grafika od czasów Crysisa z 2007 nie zmieniła się tak bardzo aby dzisiejsze gry wymagały 50 razy mocniejszego sprzętu niż 10 lat temu, nie wspominając już o tym, że sztuczna inteligencja przeciwników jest dzisiaj dużo gorsza niż w takim F.E.A.R z 2005 roku.
jf196Zobacz profil
Poziom ostrzeżenia: 0%
jf1962018.01.03, 14:48
Chyba tak to można ująć. Sprzęt - szczególnie w konsolach - nie domaga, więc obniżmy precyzję, a co za tym idzie jakość grafiki, żeby było płynniej. Zamiast postępu - cofanie się ;/
mati_zlotaZobacz profil
Poziom ostrzeżenia: 0%
mati_zlota2018.01.03, 14:53
Teraflopsa a nie teraflopa k***a ile można powtarzać
sidebandZobacz profil
Poziom ostrzeżenia: 0%
sideband2018.01.03, 15:18
10#7
Nie tylko w przypadku bloom-a FP16 aż nadto wystarczające, ale sęk w tym stricte bloom jest nisko obciążającym efektem. Do tego Vega ma wąskie gardło ze strony Ropów, więc pomogło to tyle co umarłemu kadzidło. Realne korzyści FP16 przyniesie w momencie kiedy będą obliczane w obniżonej precyzji efekty znacznie bardziej obciążające. W przypadku TressFX w FP16 wzrost wydajności jest dwukrotny.
myszka91Zobacz profil
Poziom ostrzeżenia: 0%
myszka912018.01.03, 15:43
-12#8
myszka91 @ 2018.01.03 14:28  Post: 1117124
Niech złodziejskie korporacje przestaną zawyżać wymagania gier produkując sterowniki które wymuszają na producentach gier słabo zoptymalizowane produkty, mogę wam podać dziesiątki tytułów które ukazały się w ostatnich latach, a które wyglądają pod każdym względem dużo gorzej niż ten już ikoniczny Crysis, a wymagania kilkunastokrotnie większe.


Te dzisiejsze gry mają taką samą fizykę jak Half-Life 2 z 2004 roku, a grafika od czasów Crysisa z 2007 nie zmieniła się tak bardzo aby dzisiejsze gry wymagały 50 razy mocniejszego sprzętu niż 10 lat temu, nie wspominając już o tym, że sztuczna inteligencja przeciwników jest dzisiaj dużo gorsza niż w takim F.E.A.R z 2005 roku.


Dzięki za minusy Januszowi eksperci, rozumiem, że waszym zdaniem to, że np. taki PUBG ma wymagania kilkanaście razy wyższe niż gry sprzed 10 lat, a niektóre tekstury jak w grach z lat 90 to wszystko jest w porządku?
KituZobacz profil
Poziom ostrzeżenia: 0%
Kitu2018.01.03, 16:10
-1#9
Szkoda, że o takich rzeczach jak FP16/32 i ogólna architektura komputerów nie mówi się na lekcjach informatyki w szkołach - zamiast tego w nieskończoność tłucze się Worda, Excela i Powerpointa, co i tak kończy się tak, że większość ludzi tworzy potworki z jak największą ilością czcionek i kolorów. Żeby dowiedzieć się o formacie zmiennoprzecinkowym, działaniu, kodowaniu i różnicach dokładności musiałem iść na studia..

Jak dobrze, że zaczynają się na PCLabie pojawiać artykuły techniczne - niektóre mogą być 'zbyt płytkie' dla kogoś z większą wiedzą, ale świetnie tłumaczą zagadnienie. Aż chce się tutaj wchodzić :)
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2018.01.03, 16:11
Jaki mit o słupkach rosnących o dwie długości? Z tego, że w teorii jakieś obliczenia da się zrobić zużywając dwa razy mniej zasobów nie znaczy, że wszystko można bez różnicy przerzucić na FP16 i nikt tak nie teoretyzował - więc obalacie teorię której nikt nie wysuwał. Pierwszy raz spotykam się ze stwierdzeniem, że to da 2x więcej fps.

_gunnar_ @ 2018.01.03 14:26  Post: 1117120
Można to nazwać optymalizacją. Tam gdzie nie trzeba dokładnych obliczeń, będzie zużywane mniej zasobów karty graficznej. Jest to dobre i logiczne posunięcie ale z drugiej strony każdy od razu widzi, że skala zysku będzie raczej niewielka. Zapewne kilka %. Uzysk będzie tyko tam gdzie precyzja nie ma tak istotnego znaczenia a takich rzeczy pewnie jest niewiele. Jednak nie bez przyczyny wszystko jest teraz liczone z wyższa precyzją. Pamiętam czasy jak się przechodziło z popularnej 16bitowej palety barw na 32 bity i jaka była różnica i w obrazie i niestety w wydajności. Nawet robiono testy na 2 paletach bo były czasy gdzie niewiele kart radziło sobie z płynnym przetwarzaniem grafiki w 32 bitowej palecie :D

Zyskuje się więcej zasobów dla zrobienia czegoś w FP16 jeżeli FP32 może policzyć równocześnie dwie FP16, ale też zamiast zużywać więcej FP32 zużywa się ich wtedy mniej, bo i tak musisz policzyć to co liczysz, więc i dla obliczeń FP32 zostaje więcej zasobów - tak naprawdę oba typy obliczeń na tym mogą zyskać.
Industry InsiderZobacz profil
Poziom ostrzeżenia: 0%
Industry Insider2018.01.03, 16:17
16#11
Proszę wybaczyć, ale podejmowanie technicznych tematów nie daje automatycznej przepustki na pisanie bzdur. Autor nie opisał i nie pokazał przykładów wykorzystania upakowania operacji FP16 w grach - wspomniał tylko, że w jakiejś grze to zrobiono.

Zamiast uczciwego porównania jakości (na którym ciężko byłoby wykryć różnicę algorytmicznie, a co dopiero okiem ludzkim) autor wkleja screenshot z... release note'ów do Blendera (https://wiki.blender.org/index.php/Dev:Ref...4/Game_Engine), który przedstawia zupełnie co innego - wcale nie różnicę między 16-bitową a 32-bitową mapą cieni!

A przecież tak łatwo znaleźć literaturę na ten temat. Przykładowe benchmarki były pokazane publicznie w prezentacjach AMD oraz developerów z GDC, i nie było w nich marketingowej przesady o 'rosnących dwukrotnie słupkach'. 5 minut w googlach i można znaleźć dokumenty, w których Microsoft wręcz rekomenduje używanie 16-bitowej precyzji do mapowania kolorów przy renderowaniu HDR: http://1drv.ms/1T8iew9
Bardzo dobrze, że PClab nie boi się technicznych tematów, ale na litość, piszcie fakty, a nie opinie! Gdybym chciał poziomu z tech-blogów albo youtuba, nie przyszedłbym na PClaba!
PutoutZobacz profil
Poziom ostrzeżenia: 0%
Putout2018.01.03, 16:30
Piioo @ 2018.01.03 14:18  Post: 1117113
No właśnie, grafika niemal stoi od 10 lat na jednym poziomie. Mimo wszystko ceny idą w górę i wymagania też..


to że jesteś ślepy to wcale nie oznacza że postępu nie ma. idź do okulisty zamiast siać brednie.

Kitu @ 2018.01.03 16:10  Post: 1117169
Szkoda, że o takich rzeczach jak FP16/32 i ogólna architektura komputerów nie mówi się na lekcjach informatyki w szkołach - zamiast tego w nieskończoność tłucze się Worda, Excela i Powerpointa, co i tak kończy się tak, że większość ludzi tworzy potworki z jak największą ilością czcionek i kolorów. Żeby dowiedzieć się o formacie zmiennoprzecinkowym, działaniu, kodowaniu i różnicach dokładności musiałem iść na studia..


o rany. zejdź na ziemie. jaki byłby sens uczenia czegoś takiego w szkołach? żeby 1 uczeń na rok z tego skorzystał? i nie wyskakuj tutaj z chemiami i ifyzkami bo one są wykorzystywane znacznie częściej. natomiast z pakietów biurowych korzysta bardzo wielu absolwentów. dodatkowo weź pod uwagę to że tak naprawde niewielu nauczycieli informatyki w rzeczywistości jest związanych z informatyką jako taką. często są to wfiści, nauczyciele techniki lub matematyki. oni mają tylko krótki kurs z zakresu it a nie książkową wiedzę.
jeśli dopiero na studiach dowiedziałeś się o takich rzeczach to wpsółczuję. to nie jest żadna wiedza tajemna i jest bardoz łatwo dostępna w literaturze oraz internecie.
szmonZobacz profil
Poziom ostrzeżenia: 0%
szmon2018.01.03, 16:49
Nie ma czegoś takiego jak flop. Skrótowce też można odmieniać, ale trzeba wiedzieć jak.

Piioo @ 2018.01.03 14:18  Post: 1117113
No właśnie, grafika niemal stoi od 10 lat na jednym poziomie. Mimo wszystko ceny idą w górę i wymagania też. Komputery kosztują grube tysiące złotych, a my mamy nagle przejść na gorszą grafikę, żeby to wszystko lepiej teoretycznie chodziło? No chyba nie o taką przyszłość walczyliśmy :) ? Za wszystko odpowiadają Devi, nie dość, że gry w dzisiejszych czasach to w 90% totalne badziewia dla gimbazy + chore preordery + płatne DLC i patche w dniu premiery, to jeszcze bardziej nie chce im się optymalizować kodu, bo szkoda czasu i kasy, to lepiej zafundować graczom gorszą grafikę. Później oczywiście i tak do 60 fps wymagany będzie X080 Ti.


Też mam wrażenie że pogorszonie jakości względem wydajności to pewnego rodzaju oszustwo. Dużo będzie zależeć od samego algorytmu i ewentualnie możliwości jego wyłączenia. W idealne skalowanie i równo dwukrotne przyspieszenie również nie ma co wierzyć. Na tym etapie jeszcze za wcześnie żeby wieszać psy na tym rozwiązaniu. Czas pokaże co z tego wyjdzie, bo skoro nie widać różnicy, to po co przepłacać? Co do możliwości graficznych, to znacznie wzrosły. Od 10 lat jednak trochę się zmieniło i widać to wyraźnie. Niestety dzisiaj chcemy grać w coraz wyższych rozdzielczościach, więc często potrzeba nam o wiele mocniejszego sprzętu, żeby wyświetlić podpobne wizulanie efekty, ale z większą szczegółowością. Wcześniej też zdarzało się, że w dniu premiery gry były niedopracowane, choć należało to do rzadkości. Obecnie niestety jest gorzej. W ekstremalnych przypadkach kilka dni po premierze jest prawie drugie tyle danych do pobrania co w dniu premiery. No cóż, chęć zmieszczenia się z terminem nie może być usprawiedliwieniem do pozwalania sobie na tak wielkie niedociągnięcia. Producenci też korzystają z faktu że obecnie w zasadzie każdy ma połączenie z internetem pozwalające pobrać większe ilości danych. Kolejnym zaniżaczem jakości grafiki jest kompatybilność z konsolami. Jeśli poziom szczegółowości różniłby się diamterialnie pod każdym względem, to rynek konsol mógłby być zagrożony, a z nim również finanse producentów gier. Spędzenie dodatkowych godzin tylko po to, żeby na PC gry wyglądały lepiej to też dodatkowy narzut kosztów.

AarghZobacz profil
Poziom ostrzeżenia: 0%
Aargh2018.01.03, 17:17
szmon @ 2018.01.03 16:49  Post: 1117181

Też mam wrażenie że pogorszonie jakości względem wydajności to pewnego rodzaju oszustwo.

Grafika komputerowa generowana w czasie rzeczywistym to od zawsze było 'oszustwo' i cięcia, byleby tylko komputer/smartfon/konsola wygenerowały obraz w czasie 16,67/33,33 milisekund..
gtxxorZobacz profil
Poziom ostrzeżenia: 0%
gtxxor2018.01.03, 17:49
-3#15
Industry Insider @ 2018.01.03 16:17  Post: 1117174
Proszę wybaczyć, ale podejmowanie technicznych tematów nie daje automatycznej przepustki na pisanie bzdur. Autor nie opisał i nie pokazał przykładów wykorzystania upakowania operacji FP16 w grach - wspomniał tylko, że w jakiejś grze to zrobiono.


Zrobimy zatem od drugiej strony. Tak naprawdę każda gra na PS3 jest przykładem wykorzystania FP16. I dlatego też taki God of War 3 straszy artefaktami 'schodkowymi', a po przeniesieniu na PS4, jest od nich wolny. Idąc dalej, w Mario 64 na N64 pozycja bohatera zapisywana jest w FP16. Tak, poważnie. I dlatego idąc daleko w jedną stronę, w pewnym momencie zawiesimy się, bo występuje zbyt duża różnica między wartością obecną, a następną - dla kroku. Wystarczy sobie też przypomnieć, jak niegdyś wyglądały gry po wymuszeniu FP16.

https://s13.postimg.org/e5y1okzbb/fp16.png
https://s13.postimg.org/n0yvz43jb/fp32.png
Taki pierwszy przykład z brzegu.

Jeśli zaś o VSM chodzi - zwracam honor. Chciałem znaleźć dobry rzut porównawczy, bo w samej dokumentacji ich nie ma (są tylko pojedyncze dla nowej techniki), i masz wpadkę.

W razie czego http://slideplayer.com/slide/677793/1/imag...shadow+maps.jpg
AdolphZobacz profil
Poziom ostrzeżenia: 0%
Adolph2018.01.03, 18:08
Industry Insider @ 2018.01.03 16:17  Post: 1117174
Autor nie opisał i nie pokazał przykładów wykorzystania upakowania operacji FP16 w grach

jak jesteś w stanie takowe wskazać. Dajesz ;)
Na moje nie bez powodu, to nie przeszło.

Industry Insider @ 2018.01.03 16:17  Post: 1117174
wspomniał tylko, że w jakiejś grze to zrobiono.

Ja pamiętam, właśnie HL2, czy jajca z 3dMark03. Chyba jeszcze FarCry miał taką opcję. Wszędzie były straty jakości.

Industry Insider @ 2018.01.03 16:17  Post: 1117174
Zamiast uczciwego porównania jakości (na którym ciężko byłoby wykryć różnicę algorytmicznie, a co dopiero okiem ludzkim) autor wkleja screenshot z... release note'ów do Blendera

To zamiast blendera. Proponuję w google wpisać 'Variance Shadow Buffer fp16'.
Wyników jest odpowiednia ilość, z których wynika, że taka precyzja jest za niska i wyskakują artefakty.
Industry Insider @ 2018.01.03 16:17  Post: 1117174

A przecież tak łatwo znaleźć literaturę na ten temat. Przykładowe benchmarki były pokazane publicznie w prezentacjach AMD oraz developerów z GDC, i nie było w nich marketingowej przesady o 'rosnących dwukrotnie słupkach'.

Dokładnie jak przy samej Tegrze X1. Która odpowiednią wydajność może uzyskać tylko dzięki niższej precyzji.

Industry Insider @ 2018.01.03 16:17  Post: 1117174
5 minut w googlach i można znaleźć dokumenty, w których Microsoft wręcz rekomenduje używanie 16-bitowej precyzji do mapowania kolorów przy renderowaniu HDR: http://1drv.ms/1T8iew9
W którym miejscu? Nie widzę. Nawet starutki przykład 3dmark03 temu by przeczył xd

Industry Insider @ 2018.01.03 16:17  Post: 1117174

Bardzo dobrze, że PClab nie boi się technicznych tematów, ale na litość, piszcie fakty, a nie opinie! Gdybym chciał poziomu z tech-blogów albo youtuba, nie przyszedłbym na PClaba!

Proponuję się samemu do tego zastosować.
KituZobacz profil
Poziom ostrzeżenia: 0%
Kitu2018.01.03, 18:11
Putout @ 2018.01.03 16:30  Post: 1117179
Kitu @ 2018.01.03 16:10  Post: 1117169
Szkoda, że o takich rzeczach jak FP16/32 i ogólna architektura komputerów nie mówi się na lekcjach informatyki w szkołach - zamiast tego w nieskończoność tłucze się Worda, Excela i Powerpointa, co i tak kończy się tak, że większość ludzi tworzy potworki z jak największą ilością czcionek i kolorów. Żeby dowiedzieć się o formacie zmiennoprzecinkowym, działaniu, kodowaniu i różnicach dokładności musiałem iść na studia..


o rany. zejdź na ziemie. jaki byłby sens uczenia czegoś takiego w szkołach? żeby 1 uczeń na rok z tego skorzystał? i nie wyskakuj tutaj z chemiami i ifyzkami bo one są wykorzystywane znacznie częściej. natomiast z pakietów biurowych korzysta bardzo wielu absolwentów. dodatkowo weź pod uwagę to że tak naprawde niewielu nauczycieli informatyki w rzeczywistości jest związanych z informatyką jako taką. często są to wfiści, nauczyciele techniki lub matematyki. oni mają tylko krótki kurs z zakresu it a nie książkową wiedzę.
jeśli dopiero na studiach dowiedziałeś się o takich rzeczach to wpsółczuję. to nie jest żadna wiedza tajemna i jest bardoz łatwo dostępna w literaturze oraz internecie.

Żeby dzieciaki w ogóle zainteresować czymkolwiek - bo w tym momencie większość na informatykę przychodzi z myślą, że poprzeglądają sobie fb na 'stuletnich' kompach, a nie telefonach. Pakiet biurowy ogranicza się do formatowania tekstu w Wordzie, podstawowych funkcji Excela (tworzenie wykresu to maksimum, ale formatowanie wykresu czy wklejanie go do Worda to ponad siły nauczyciela, o tabelach przestawnych nikt nie słyszał), Powerpoint - jak wstawić milion efektów. No nie powiesz mi chyba, że to wiedza, którą ciężej znaleźć niż drugi wynik wyszukiwania. Z chemią i fizyką wyskoczyłeś akurat ty, bo to akurat coś, na co też powinno zwrócić się większą uwagę w szkołach - tak samo jak biologia i matematyka - później człowiek płacze, że kredytu we frankach nie ma za co spłacić, że szczepionki spowodowały autyzm u jego dziecka albo że samochód 'sam' mu się z góry stoczył lub 'wtoczył pod górę, grawitacja w drugą stronę działa!', a o złudzeniu optycznym nie słyszał.

I pamiętaj, że to, że wiedza (jak FP, idealnie opisana budowa komputera ze schematami działania itp.) jest dostępna w internecie nie oznacza, że po nią sięgniesz - bo najczęściej nawet nie wiesz, że istnieje. A szkoły w Polsce działają tak, że przekazują suchą wiedzę, z której skorzystasz lub nie, zamiast przekazać i wiedzę, i ciekawostki z praktycznym wykorzystaniem (wyznaczenie liczby pi za pomocą patyka? obliczenie dowolnej całki za pomocą monety? że Mickiewicz to nie tylko 'Dziady' i 'Pan Tadeusz', a także całkiem śmieszne i ciekawe 'Księgi pielgrzymstwa i narodu polskiego'?), i gdzie można coś więcej na ten temat znaleźć.

Jeżeli informatyczne kształcenie dzieciaków nic nie daje (i dalej żółty Comic sans do białego/pomarańczowego tła slajdów, CV z 5 kolorami i zdjęciem z dzióbkiem), to może warto zrobić coś, żeby nie tylko wyuczyli się teorii, ale zapamiętali to na dłużej niż tydzień? A taka lekcja jak sposób, w jaki liczy komputer, dlaczego w Excelu, przy automatycznym wypełnianiu komórek liczbami od 5 do -5 co 0.1, w którymś momencie będzie nie, na przykład, 0.1, a 0.099999998, będzie na pewno znacznie ciekawsza niż 'macie tu wzorcowy dokument, starajcie się odwzorować go jak najwierniej', po czym dzieciak wyrównuje tekst do prawej używając spacji. A takie wyrównywanie było w szablonie strony tytułowej pracy dyplomowej na mojej uczelni.
kristoflampartZobacz profil
Poziom ostrzeżenia: 0%
kristoflampart2018.01.03, 20:17
-11#18
mati_zlota @ 2018.01.03 14:53  Post: 1117134
Teraflopsa a nie teraflopa k***a ile można powtarzać

Kilometra, czy kilometersa? Kilobajta, czy kilobytesa? A moze kilobajtesa?
gtxxorZobacz profil
Poziom ostrzeżenia: 0%
gtxxor2018.01.03, 20:35
kristoflampart @ 2018.01.03 20:17  Post: 1117249
mati_zlota @ 2018.01.03 14:53  Post: 1117134
Teraflopsa a nie teraflopa k***a ile można powtarzać

Kilometra, czy kilometersa? Kilobajta, czy kilobytesa? A moze kilobajtesa?


Panowie, cytując speca ds. korekty artykułów w PCLabie, wszystkie serwisy grupy Onet przyjęły, iż stosujemy spolszczenie jednostki 'flops'. Była na ten temat długa debata. I tyle :)
NomadDemonZobacz profil
Poziom ostrzeżenia: 0%
NomadDemon2018.01.03, 21:25
-2#20
Jeden wieki minus sa 'flopa' ta jednostka to 'FLOPS' a wiec FLOPS'A

FLoat Operations Per Second

poza tym genialny temat do poruszenia, moze jakies wykresiki czy cos takiego?
Zaloguj się, by móc komentować