No właśnie, grafika niemal stoi od 10 lat na jednym poziomie. Mimo wszystko ceny idą w górę i wymagania też. Komputery kosztują grube tysiące złotych, a my mamy nagle przejść na gorszą grafikę, żeby to wszystko lepiej teoretycznie chodziło? No chyba nie o taką przyszłość walczyliśmy ? Za wszystko odpowiadają Devi, nie dość, że gry w dzisiejszych czasach to w 90% totalne badziewia dla gimbazy + chore preordery + płatne DLC i patche w dniu premiery, to jeszcze bardziej nie chce im się optymalizować kodu, bo szkoda czasu i kasy, to lepiej zafundować graczom gorszą grafikę. Później oczywiście i tak do 60 fps wymagany będzie X080 Ti.
Można to nazwać optymalizacją. Tam gdzie nie trzeba dokładnych obliczeń, będzie zużywane mniej zasobów karty graficznej. Jest to dobre i logiczne posunięcie ale z drugiej strony każdy od razu widzi, że skala zysku będzie raczej niewielka. Zapewne kilka %. Uzysk będzie tyko tam gdzie precyzja nie ma tak istotnego znaczenia a takich rzeczy pewnie jest niewiele. Jednak nie bez przyczyny wszystko jest teraz liczone z wyższa precyzją. Pamiętam czasy jak się przechodziło z popularnej 16bitowej palety barw na 32 bity i jaka była różnica i w obrazie i niestety w wydajności. Nawet robiono testy na 2 paletach bo były czasy gdzie niewiele kart radziło sobie z płynnym przetwarzaniem grafiki w 32 bitowej palecie
Gratuluję panie Piotrze. Poziom artykułu dawno nie spotykany na tym portalu.
Szkoda że taki krótki. W 2003r. podczas premiery Doom 3 mój guru J. Carmack wyjaśniał potencjał FP16 i podejście ATi i nV w DX9. Wtedy to były czary a teraz powrót do przeszłości...
Niech złodziejskie korporacje przestaną zawyżać wymagania gier produkując sterowniki które wymuszają na producentach gier słabo zoptymalizowane produkty, mogę wam podać dziesiątki tytułów które ukazały się w ostatnich latach, a które wyglądają pod każdym względem dużo gorzej niż ten już ikoniczny Crysis, a wymagania kilkunastokrotnie większe.
Te dzisiejsze gry mają taką samą fizykę jak Half-Life 2 z 2004 roku, a grafika od czasów Crysisa z 2007 nie zmieniła się tak bardzo aby dzisiejsze gry wymagały 50 razy mocniejszego sprzętu niż 10 lat temu, nie wspominając już o tym, że sztuczna inteligencja przeciwników jest dzisiaj dużo gorsza niż w takim F.E.A.R z 2005 roku.
Chyba tak to można ująć. Sprzęt - szczególnie w konsolach - nie domaga, więc obniżmy precyzję, a co za tym idzie jakość grafiki, żeby było płynniej. Zamiast postępu - cofanie się ;/
Nie tylko w przypadku bloom-a FP16 aż nadto wystarczające, ale sęk w tym stricte bloom jest nisko obciążającym efektem. Do tego Vega ma wąskie gardło ze strony Ropów, więc pomogło to tyle co umarłemu kadzidło. Realne korzyści FP16 przyniesie w momencie kiedy będą obliczane w obniżonej precyzji efekty znacznie bardziej obciążające. W przypadku TressFX w FP16 wzrost wydajności jest dwukrotny.
Niech złodziejskie korporacje przestaną zawyżać wymagania gier produkując sterowniki które wymuszają na producentach gier słabo zoptymalizowane produkty, mogę wam podać dziesiątki tytułów które ukazały się w ostatnich latach, a które wyglądają pod każdym względem dużo gorzej niż ten już ikoniczny Crysis, a wymagania kilkunastokrotnie większe.
Te dzisiejsze gry mają taką samą fizykę jak Half-Life 2 z 2004 roku, a grafika od czasów Crysisa z 2007 nie zmieniła się tak bardzo aby dzisiejsze gry wymagały 50 razy mocniejszego sprzętu niż 10 lat temu, nie wspominając już o tym, że sztuczna inteligencja przeciwników jest dzisiaj dużo gorsza niż w takim F.E.A.R z 2005 roku.
Dzięki za minusy Januszowi eksperci, rozumiem, że waszym zdaniem to, że np. taki PUBG ma wymagania kilkanaście razy wyższe niż gry sprzed 10 lat, a niektóre tekstury jak w grach z lat 90 to wszystko jest w porządku?
Szkoda, że o takich rzeczach jak FP16/32 i ogólna architektura komputerów nie mówi się na lekcjach informatyki w szkołach - zamiast tego w nieskończoność tłucze się Worda, Excela i Powerpointa, co i tak kończy się tak, że większość ludzi tworzy potworki z jak największą ilością czcionek i kolorów. Żeby dowiedzieć się o formacie zmiennoprzecinkowym, działaniu, kodowaniu i różnicach dokładności musiałem iść na studia..
Jak dobrze, że zaczynają się na PCLabie pojawiać artykuły techniczne - niektóre mogą być 'zbyt płytkie' dla kogoś z większą wiedzą, ale świetnie tłumaczą zagadnienie. Aż chce się tutaj wchodzić
Jaki mit o słupkach rosnących o dwie długości? Z tego, że w teorii jakieś obliczenia da się zrobić zużywając dwa razy mniej zasobów nie znaczy, że wszystko można bez różnicy przerzucić na FP16 i nikt tak nie teoretyzował - więc obalacie teorię której nikt nie wysuwał. Pierwszy raz spotykam się ze stwierdzeniem, że to da 2x więcej fps.
_gunnar_ @ 2018.01.03 14:26
Można to nazwać optymalizacją. Tam gdzie nie trzeba dokładnych obliczeń, będzie zużywane mniej zasobów karty graficznej. Jest to dobre i logiczne posunięcie ale z drugiej strony każdy od razu widzi, że skala zysku będzie raczej niewielka. Zapewne kilka %. Uzysk będzie tyko tam gdzie precyzja nie ma tak istotnego znaczenia a takich rzeczy pewnie jest niewiele. Jednak nie bez przyczyny wszystko jest teraz liczone z wyższa precyzją. Pamiętam czasy jak się przechodziło z popularnej 16bitowej palety barw na 32 bity i jaka była różnica i w obrazie i niestety w wydajności. Nawet robiono testy na 2 paletach bo były czasy gdzie niewiele kart radziło sobie z płynnym przetwarzaniem grafiki w 32 bitowej palecie
Zyskuje się więcej zasobów dla zrobienia czegoś w FP16 jeżeli FP32 może policzyć równocześnie dwie FP16, ale też zamiast zużywać więcej FP32 zużywa się ich wtedy mniej, bo i tak musisz policzyć to co liczysz, więc i dla obliczeń FP32 zostaje więcej zasobów - tak naprawdę oba typy obliczeń na tym mogą zyskać.
Proszę wybaczyć, ale podejmowanie technicznych tematów nie daje automatycznej przepustki na pisanie bzdur. Autor nie opisał i nie pokazał przykładów wykorzystania upakowania operacji FP16 w grach - wspomniał tylko, że w jakiejś grze to zrobiono.
Zamiast uczciwego porównania jakości (na którym ciężko byłoby wykryć różnicę algorytmicznie, a co dopiero okiem ludzkim) autor wkleja screenshot z... release note'ów do Blendera (https://wiki.blender.org/index.php/Dev:Ref...4/Game_Engine), który przedstawia zupełnie co innego - wcale nie różnicę między 16-bitową a 32-bitową mapą cieni!
A przecież tak łatwo znaleźć literaturę na ten temat. Przykładowe benchmarki były pokazane publicznie w prezentacjach AMD oraz developerów z GDC, i nie było w nich marketingowej przesady o 'rosnących dwukrotnie słupkach'. 5 minut w googlach i można znaleźć dokumenty, w których Microsoft wręcz rekomenduje używanie 16-bitowej precyzji do mapowania kolorów przy renderowaniu HDR: http://1drv.ms/1T8iew9
Bardzo dobrze, że PClab nie boi się technicznych tematów, ale na litość, piszcie fakty, a nie opinie! Gdybym chciał poziomu z tech-blogów albo youtuba, nie przyszedłbym na PClaba!
No właśnie, grafika niemal stoi od 10 lat na jednym poziomie. Mimo wszystko ceny idą w górę i wymagania też..
to że jesteś ślepy to wcale nie oznacza że postępu nie ma. idź do okulisty zamiast siać brednie.
Kitu @ 2018.01.03 16:10
Szkoda, że o takich rzeczach jak FP16/32 i ogólna architektura komputerów nie mówi się na lekcjach informatyki w szkołach - zamiast tego w nieskończoność tłucze się Worda, Excela i Powerpointa, co i tak kończy się tak, że większość ludzi tworzy potworki z jak największą ilością czcionek i kolorów. Żeby dowiedzieć się o formacie zmiennoprzecinkowym, działaniu, kodowaniu i różnicach dokładności musiałem iść na studia..
o rany. zejdź na ziemie. jaki byłby sens uczenia czegoś takiego w szkołach? żeby 1 uczeń na rok z tego skorzystał? i nie wyskakuj tutaj z chemiami i ifyzkami bo one są wykorzystywane znacznie częściej. natomiast z pakietów biurowych korzysta bardzo wielu absolwentów. dodatkowo weź pod uwagę to że tak naprawde niewielu nauczycieli informatyki w rzeczywistości jest związanych z informatyką jako taką. często są to wfiści, nauczyciele techniki lub matematyki. oni mają tylko krótki kurs z zakresu it a nie książkową wiedzę.
jeśli dopiero na studiach dowiedziałeś się o takich rzeczach to wpsółczuję. to nie jest żadna wiedza tajemna i jest bardoz łatwo dostępna w literaturze oraz internecie.
Nie ma czegoś takiego jak flop. Skrótowce też można odmieniać, ale trzeba wiedzieć jak.
Piioo @ 2018.01.03 14:18
No właśnie, grafika niemal stoi od 10 lat na jednym poziomie. Mimo wszystko ceny idą w górę i wymagania też. Komputery kosztują grube tysiące złotych, a my mamy nagle przejść na gorszą grafikę, żeby to wszystko lepiej teoretycznie chodziło? No chyba nie o taką przyszłość walczyliśmy ? Za wszystko odpowiadają Devi, nie dość, że gry w dzisiejszych czasach to w 90% totalne badziewia dla gimbazy + chore preordery + płatne DLC i patche w dniu premiery, to jeszcze bardziej nie chce im się optymalizować kodu, bo szkoda czasu i kasy, to lepiej zafundować graczom gorszą grafikę. Później oczywiście i tak do 60 fps wymagany będzie X080 Ti.
Też mam wrażenie że pogorszonie jakości względem wydajności to pewnego rodzaju oszustwo. Dużo będzie zależeć od samego algorytmu i ewentualnie możliwości jego wyłączenia. W idealne skalowanie i równo dwukrotne przyspieszenie również nie ma co wierzyć. Na tym etapie jeszcze za wcześnie żeby wieszać psy na tym rozwiązaniu. Czas pokaże co z tego wyjdzie, bo skoro nie widać różnicy, to po co przepłacać? Co do możliwości graficznych, to znacznie wzrosły. Od 10 lat jednak trochę się zmieniło i widać to wyraźnie. Niestety dzisiaj chcemy grać w coraz wyższych rozdzielczościach, więc często potrzeba nam o wiele mocniejszego sprzętu, żeby wyświetlić podpobne wizulanie efekty, ale z większą szczegółowością. Wcześniej też zdarzało się, że w dniu premiery gry były niedopracowane, choć należało to do rzadkości. Obecnie niestety jest gorzej. W ekstremalnych przypadkach kilka dni po premierze jest prawie drugie tyle danych do pobrania co w dniu premiery. No cóż, chęć zmieszczenia się z terminem nie może być usprawiedliwieniem do pozwalania sobie na tak wielkie niedociągnięcia. Producenci też korzystają z faktu że obecnie w zasadzie każdy ma połączenie z internetem pozwalające pobrać większe ilości danych. Kolejnym zaniżaczem jakości grafiki jest kompatybilność z konsolami. Jeśli poziom szczegółowości różniłby się diamterialnie pod każdym względem, to rynek konsol mógłby być zagrożony, a z nim również finanse producentów gier. Spędzenie dodatkowych godzin tylko po to, żeby na PC gry wyglądały lepiej to też dodatkowy narzut kosztów.
Też mam wrażenie że pogorszonie jakości względem wydajności to pewnego rodzaju oszustwo.
Grafika komputerowa generowana w czasie rzeczywistym to od zawsze było 'oszustwo' i cięcia, byleby tylko komputer/smartfon/konsola wygenerowały obraz w czasie 16,67/33,33 milisekund..
Proszę wybaczyć, ale podejmowanie technicznych tematów nie daje automatycznej przepustki na pisanie bzdur. Autor nie opisał i nie pokazał przykładów wykorzystania upakowania operacji FP16 w grach - wspomniał tylko, że w jakiejś grze to zrobiono.
Zrobimy zatem od drugiej strony. Tak naprawdę każda gra na PS3 jest przykładem wykorzystania FP16. I dlatego też taki God of War 3 straszy artefaktami 'schodkowymi', a po przeniesieniu na PS4, jest od nich wolny. Idąc dalej, w Mario 64 na N64 pozycja bohatera zapisywana jest w FP16. Tak, poważnie. I dlatego idąc daleko w jedną stronę, w pewnym momencie zawiesimy się, bo występuje zbyt duża różnica między wartością obecną, a następną - dla kroku. Wystarczy sobie też przypomnieć, jak niegdyś wyglądały gry po wymuszeniu FP16.
Jeśli zaś o VSM chodzi - zwracam honor. Chciałem znaleźć dobry rzut porównawczy, bo w samej dokumentacji ich nie ma (są tylko pojedyncze dla nowej techniki), i masz wpadkę.
Autor nie opisał i nie pokazał przykładów wykorzystania upakowania operacji FP16 w grach
jak jesteś w stanie takowe wskazać. Dajesz
Na moje nie bez powodu, to nie przeszło.
Industry Insider @ 2018.01.03 16:17
wspomniał tylko, że w jakiejś grze to zrobiono.
Ja pamiętam, właśnie HL2, czy jajca z 3dMark03. Chyba jeszcze FarCry miał taką opcję. Wszędzie były straty jakości.
Industry Insider @ 2018.01.03 16:17
Zamiast uczciwego porównania jakości (na którym ciężko byłoby wykryć różnicę algorytmicznie, a co dopiero okiem ludzkim) autor wkleja screenshot z... release note'ów do Blendera
To zamiast blendera. Proponuję w google wpisać 'Variance Shadow Buffer fp16'.
Wyników jest odpowiednia ilość, z których wynika, że taka precyzja jest za niska i wyskakują artefakty.
Industry Insider @ 2018.01.03 16:17
A przecież tak łatwo znaleźć literaturę na ten temat. Przykładowe benchmarki były pokazane publicznie w prezentacjach AMD oraz developerów z GDC, i nie było w nich marketingowej przesady o 'rosnących dwukrotnie słupkach'.
Dokładnie jak przy samej Tegrze X1. Która odpowiednią wydajność może uzyskać tylko dzięki niższej precyzji.
Industry Insider @ 2018.01.03 16:17
5 minut w googlach i można znaleźć dokumenty, w których Microsoft wręcz rekomenduje używanie 16-bitowej precyzji do mapowania kolorów przy renderowaniu HDR: http://1drv.ms/1T8iew9
W którym miejscu? Nie widzę. Nawet starutki przykład 3dmark03 temu by przeczył xd
Industry Insider @ 2018.01.03 16:17
Bardzo dobrze, że PClab nie boi się technicznych tematów, ale na litość, piszcie fakty, a nie opinie! Gdybym chciał poziomu z tech-blogów albo youtuba, nie przyszedłbym na PClaba!
Szkoda, że o takich rzeczach jak FP16/32 i ogólna architektura komputerów nie mówi się na lekcjach informatyki w szkołach - zamiast tego w nieskończoność tłucze się Worda, Excela i Powerpointa, co i tak kończy się tak, że większość ludzi tworzy potworki z jak największą ilością czcionek i kolorów. Żeby dowiedzieć się o formacie zmiennoprzecinkowym, działaniu, kodowaniu i różnicach dokładności musiałem iść na studia..
o rany. zejdź na ziemie. jaki byłby sens uczenia czegoś takiego w szkołach? żeby 1 uczeń na rok z tego skorzystał? i nie wyskakuj tutaj z chemiami i ifyzkami bo one są wykorzystywane znacznie częściej. natomiast z pakietów biurowych korzysta bardzo wielu absolwentów. dodatkowo weź pod uwagę to że tak naprawde niewielu nauczycieli informatyki w rzeczywistości jest związanych z informatyką jako taką. często są to wfiści, nauczyciele techniki lub matematyki. oni mają tylko krótki kurs z zakresu it a nie książkową wiedzę.
jeśli dopiero na studiach dowiedziałeś się o takich rzeczach to wpsółczuję. to nie jest żadna wiedza tajemna i jest bardoz łatwo dostępna w literaturze oraz internecie.
Żeby dzieciaki w ogóle zainteresować czymkolwiek - bo w tym momencie większość na informatykę przychodzi z myślą, że poprzeglądają sobie fb na 'stuletnich' kompach, a nie telefonach. Pakiet biurowy ogranicza się do formatowania tekstu w Wordzie, podstawowych funkcji Excela (tworzenie wykresu to maksimum, ale formatowanie wykresu czy wklejanie go do Worda to ponad siły nauczyciela, o tabelach przestawnych nikt nie słyszał), Powerpoint - jak wstawić milion efektów. No nie powiesz mi chyba, że to wiedza, którą ciężej znaleźć niż drugi wynik wyszukiwania. Z chemią i fizyką wyskoczyłeś akurat ty, bo to akurat coś, na co też powinno zwrócić się większą uwagę w szkołach - tak samo jak biologia i matematyka - później człowiek płacze, że kredytu we frankach nie ma za co spłacić, że szczepionki spowodowały autyzm u jego dziecka albo że samochód 'sam' mu się z góry stoczył lub 'wtoczył pod górę, grawitacja w drugą stronę działa!', a o złudzeniu optycznym nie słyszał.
I pamiętaj, że to, że wiedza (jak FP, idealnie opisana budowa komputera ze schematami działania itp.) jest dostępna w internecie nie oznacza, że po nią sięgniesz - bo najczęściej nawet nie wiesz, że istnieje. A szkoły w Polsce działają tak, że przekazują suchą wiedzę, z której skorzystasz lub nie, zamiast przekazać i wiedzę, i ciekawostki z praktycznym wykorzystaniem (wyznaczenie liczby pi za pomocą patyka? obliczenie dowolnej całki za pomocą monety? że Mickiewicz to nie tylko 'Dziady' i 'Pan Tadeusz', a także całkiem śmieszne i ciekawe 'Księgi pielgrzymstwa i narodu polskiego'?), i gdzie można coś więcej na ten temat znaleźć.
Jeżeli informatyczne kształcenie dzieciaków nic nie daje (i dalej żółty Comic sans do białego/pomarańczowego tła slajdów, CV z 5 kolorami i zdjęciem z dzióbkiem), to może warto zrobić coś, żeby nie tylko wyuczyli się teorii, ale zapamiętali to na dłużej niż tydzień? A taka lekcja jak sposób, w jaki liczy komputer, dlaczego w Excelu, przy automatycznym wypełnianiu komórek liczbami od 5 do -5 co 0.1, w którymś momencie będzie nie, na przykład, 0.1, a 0.099999998, będzie na pewno znacznie ciekawsza niż 'macie tu wzorcowy dokument, starajcie się odwzorować go jak najwierniej', po czym dzieciak wyrównuje tekst do prawej używając spacji. A takie wyrównywanie było w szablonie strony tytułowej pracy dyplomowej na mojej uczelni.
Teraflopsa a nie teraflopa k***a ile można powtarzać
Kilometra, czy kilometersa? Kilobajta, czy kilobytesa? A moze kilobajtesa?
Panowie, cytując speca ds. korekty artykułów w PCLabie, wszystkie serwisy grupy Onet przyjęły, iż stosujemy spolszczenie jednostki 'flops'. Była na ten temat długa debata. I tyle
Szkoda że taki krótki. W 2003r. podczas premiery Doom 3 mój guru J. Carmack wyjaśniał potencjał FP16 i podejście ATi i nV w DX9. Wtedy to były czary a teraz powrót do przeszłości...
Pozdr.
Te dzisiejsze gry mają taką samą fizykę jak Half-Life 2 z 2004 roku, a grafika od czasów Crysisa z 2007 nie zmieniła się tak bardzo aby dzisiejsze gry wymagały 50 razy mocniejszego sprzętu niż 10 lat temu, nie wspominając już o tym, że sztuczna inteligencja przeciwników jest dzisiaj dużo gorsza niż w takim F.E.A.R z 2005 roku.
Te dzisiejsze gry mają taką samą fizykę jak Half-Life 2 z 2004 roku, a grafika od czasów Crysisa z 2007 nie zmieniła się tak bardzo aby dzisiejsze gry wymagały 50 razy mocniejszego sprzętu niż 10 lat temu, nie wspominając już o tym, że sztuczna inteligencja przeciwników jest dzisiaj dużo gorsza niż w takim F.E.A.R z 2005 roku.
Dzięki za minusy Januszowi eksperci, rozumiem, że waszym zdaniem to, że np. taki PUBG ma wymagania kilkanaście razy wyższe niż gry sprzed 10 lat, a niektóre tekstury jak w grach z lat 90 to wszystko jest w porządku?
Jak dobrze, że zaczynają się na PCLabie pojawiać artykuły techniczne - niektóre mogą być 'zbyt płytkie' dla kogoś z większą wiedzą, ale świetnie tłumaczą zagadnienie. Aż chce się tutaj wchodzić
Zyskuje się więcej zasobów dla zrobienia czegoś w FP16 jeżeli FP32 może policzyć równocześnie dwie FP16, ale też zamiast zużywać więcej FP32 zużywa się ich wtedy mniej, bo i tak musisz policzyć to co liczysz, więc i dla obliczeń FP32 zostaje więcej zasobów - tak naprawdę oba typy obliczeń na tym mogą zyskać.
Zamiast uczciwego porównania jakości (na którym ciężko byłoby wykryć różnicę algorytmicznie, a co dopiero okiem ludzkim) autor wkleja screenshot z... release note'ów do Blendera (https://wiki.blender.org/index.php/Dev:Ref...4/Game_Engine), który przedstawia zupełnie co innego - wcale nie różnicę między 16-bitową a 32-bitową mapą cieni!
A przecież tak łatwo znaleźć literaturę na ten temat. Przykładowe benchmarki były pokazane publicznie w prezentacjach AMD oraz developerów z GDC, i nie było w nich marketingowej przesady o 'rosnących dwukrotnie słupkach'. 5 minut w googlach i można znaleźć dokumenty, w których Microsoft wręcz rekomenduje używanie 16-bitowej precyzji do mapowania kolorów przy renderowaniu HDR: http://1drv.ms/1T8iew9
Bardzo dobrze, że PClab nie boi się technicznych tematów, ale na litość, piszcie fakty, a nie opinie! Gdybym chciał poziomu z tech-blogów albo youtuba, nie przyszedłbym na PClaba!
to że jesteś ślepy to wcale nie oznacza że postępu nie ma. idź do okulisty zamiast siać brednie.
o rany. zejdź na ziemie. jaki byłby sens uczenia czegoś takiego w szkołach? żeby 1 uczeń na rok z tego skorzystał? i nie wyskakuj tutaj z chemiami i ifyzkami bo one są wykorzystywane znacznie częściej. natomiast z pakietów biurowych korzysta bardzo wielu absolwentów. dodatkowo weź pod uwagę to że tak naprawde niewielu nauczycieli informatyki w rzeczywistości jest związanych z informatyką jako taką. często są to wfiści, nauczyciele techniki lub matematyki. oni mają tylko krótki kurs z zakresu it a nie książkową wiedzę.
jeśli dopiero na studiach dowiedziałeś się o takich rzeczach to wpsółczuję. to nie jest żadna wiedza tajemna i jest bardoz łatwo dostępna w literaturze oraz internecie.
Też mam wrażenie że pogorszonie jakości względem wydajności to pewnego rodzaju oszustwo. Dużo będzie zależeć od samego algorytmu i ewentualnie możliwości jego wyłączenia. W idealne skalowanie i równo dwukrotne przyspieszenie również nie ma co wierzyć. Na tym etapie jeszcze za wcześnie żeby wieszać psy na tym rozwiązaniu. Czas pokaże co z tego wyjdzie, bo skoro nie widać różnicy, to po co przepłacać? Co do możliwości graficznych, to znacznie wzrosły. Od 10 lat jednak trochę się zmieniło i widać to wyraźnie. Niestety dzisiaj chcemy grać w coraz wyższych rozdzielczościach, więc często potrzeba nam o wiele mocniejszego sprzętu, żeby wyświetlić podpobne wizulanie efekty, ale z większą szczegółowością. Wcześniej też zdarzało się, że w dniu premiery gry były niedopracowane, choć należało to do rzadkości. Obecnie niestety jest gorzej. W ekstremalnych przypadkach kilka dni po premierze jest prawie drugie tyle danych do pobrania co w dniu premiery. No cóż, chęć zmieszczenia się z terminem nie może być usprawiedliwieniem do pozwalania sobie na tak wielkie niedociągnięcia. Producenci też korzystają z faktu że obecnie w zasadzie każdy ma połączenie z internetem pozwalające pobrać większe ilości danych. Kolejnym zaniżaczem jakości grafiki jest kompatybilność z konsolami. Jeśli poziom szczegółowości różniłby się diamterialnie pod każdym względem, to rynek konsol mógłby być zagrożony, a z nim również finanse producentów gier. Spędzenie dodatkowych godzin tylko po to, żeby na PC gry wyglądały lepiej to też dodatkowy narzut kosztów.
Też mam wrażenie że pogorszonie jakości względem wydajności to pewnego rodzaju oszustwo.
Grafika komputerowa generowana w czasie rzeczywistym to od zawsze było 'oszustwo' i cięcia, byleby tylko komputer/smartfon/konsola wygenerowały obraz w czasie 16,67/33,33 milisekund..
Zrobimy zatem od drugiej strony. Tak naprawdę każda gra na PS3 jest przykładem wykorzystania FP16. I dlatego też taki God of War 3 straszy artefaktami 'schodkowymi', a po przeniesieniu na PS4, jest od nich wolny. Idąc dalej, w Mario 64 na N64 pozycja bohatera zapisywana jest w FP16. Tak, poważnie. I dlatego idąc daleko w jedną stronę, w pewnym momencie zawiesimy się, bo występuje zbyt duża różnica między wartością obecną, a następną - dla kroku. Wystarczy sobie też przypomnieć, jak niegdyś wyglądały gry po wymuszeniu FP16.
https://s13.postimg.org/e5y1okzbb/fp16.png
https://s13.postimg.org/n0yvz43jb/fp32.png
Taki pierwszy przykład z brzegu.
Jeśli zaś o VSM chodzi - zwracam honor. Chciałem znaleźć dobry rzut porównawczy, bo w samej dokumentacji ich nie ma (są tylko pojedyncze dla nowej techniki), i masz wpadkę.
W razie czego http://slideplayer.com/slide/677793/1/imag...shadow+maps.jpg
jak jesteś w stanie takowe wskazać. Dajesz
Na moje nie bez powodu, to nie przeszło.
Ja pamiętam, właśnie HL2, czy jajca z 3dMark03. Chyba jeszcze FarCry miał taką opcję. Wszędzie były straty jakości.
To zamiast blendera. Proponuję w google wpisać 'Variance Shadow Buffer fp16'.
Wyników jest odpowiednia ilość, z których wynika, że taka precyzja jest za niska i wyskakują artefakty.
A przecież tak łatwo znaleźć literaturę na ten temat. Przykładowe benchmarki były pokazane publicznie w prezentacjach AMD oraz developerów z GDC, i nie było w nich marketingowej przesady o 'rosnących dwukrotnie słupkach'.
Dokładnie jak przy samej Tegrze X1. Która odpowiednią wydajność może uzyskać tylko dzięki niższej precyzji.
Bardzo dobrze, że PClab nie boi się technicznych tematów, ale na litość, piszcie fakty, a nie opinie! Gdybym chciał poziomu z tech-blogów albo youtuba, nie przyszedłbym na PClaba!
Proponuję się samemu do tego zastosować.
o rany. zejdź na ziemie. jaki byłby sens uczenia czegoś takiego w szkołach? żeby 1 uczeń na rok z tego skorzystał? i nie wyskakuj tutaj z chemiami i ifyzkami bo one są wykorzystywane znacznie częściej. natomiast z pakietów biurowych korzysta bardzo wielu absolwentów. dodatkowo weź pod uwagę to że tak naprawde niewielu nauczycieli informatyki w rzeczywistości jest związanych z informatyką jako taką. często są to wfiści, nauczyciele techniki lub matematyki. oni mają tylko krótki kurs z zakresu it a nie książkową wiedzę.
jeśli dopiero na studiach dowiedziałeś się o takich rzeczach to wpsółczuję. to nie jest żadna wiedza tajemna i jest bardoz łatwo dostępna w literaturze oraz internecie.
Żeby dzieciaki w ogóle zainteresować czymkolwiek - bo w tym momencie większość na informatykę przychodzi z myślą, że poprzeglądają sobie fb na 'stuletnich' kompach, a nie telefonach. Pakiet biurowy ogranicza się do formatowania tekstu w Wordzie, podstawowych funkcji Excela (tworzenie wykresu to maksimum, ale formatowanie wykresu czy wklejanie go do Worda to ponad siły nauczyciela, o tabelach przestawnych nikt nie słyszał), Powerpoint - jak wstawić milion efektów. No nie powiesz mi chyba, że to wiedza, którą ciężej znaleźć niż drugi wynik wyszukiwania. Z chemią i fizyką wyskoczyłeś akurat ty, bo to akurat coś, na co też powinno zwrócić się większą uwagę w szkołach - tak samo jak biologia i matematyka - później człowiek płacze, że kredytu we frankach nie ma za co spłacić, że szczepionki spowodowały autyzm u jego dziecka albo że samochód 'sam' mu się z góry stoczył lub 'wtoczył pod górę, grawitacja w drugą stronę działa!', a o złudzeniu optycznym nie słyszał.
I pamiętaj, że to, że wiedza (jak FP, idealnie opisana budowa komputera ze schematami działania itp.) jest dostępna w internecie nie oznacza, że po nią sięgniesz - bo najczęściej nawet nie wiesz, że istnieje. A szkoły w Polsce działają tak, że przekazują suchą wiedzę, z której skorzystasz lub nie, zamiast przekazać i wiedzę, i ciekawostki z praktycznym wykorzystaniem (wyznaczenie liczby pi za pomocą patyka? obliczenie dowolnej całki za pomocą monety? że Mickiewicz to nie tylko 'Dziady' i 'Pan Tadeusz', a także całkiem śmieszne i ciekawe 'Księgi pielgrzymstwa i narodu polskiego'?), i gdzie można coś więcej na ten temat znaleźć.
Jeżeli informatyczne kształcenie dzieciaków nic nie daje (i dalej żółty Comic sans do białego/pomarańczowego tła slajdów, CV z 5 kolorami i zdjęciem z dzióbkiem), to może warto zrobić coś, żeby nie tylko wyuczyli się teorii, ale zapamiętali to na dłużej niż tydzień? A taka lekcja jak sposób, w jaki liczy komputer, dlaczego w Excelu, przy automatycznym wypełnianiu komórek liczbami od 5 do -5 co 0.1, w którymś momencie będzie nie, na przykład, 0.1, a 0.099999998, będzie na pewno znacznie ciekawsza niż 'macie tu wzorcowy dokument, starajcie się odwzorować go jak najwierniej', po czym dzieciak wyrównuje tekst do prawej używając spacji. A takie wyrównywanie było w szablonie strony tytułowej pracy dyplomowej na mojej uczelni.
Kilometra, czy kilometersa? Kilobajta, czy kilobytesa? A moze kilobajtesa?
Kilometra, czy kilometersa? Kilobajta, czy kilobytesa? A moze kilobajtesa?
Panowie, cytując speca ds. korekty artykułów w PCLabie, wszystkie serwisy grupy Onet przyjęły, iż stosujemy spolszczenie jednostki 'flops'. Była na ten temat długa debata. I tyle
FLoat Operations Per Second
poza tym genialny temat do poruszenia, moze jakies wykresiki czy cos takiego?