Wrzuciłeś jakieś zwykłe shadery, podczas gdy do Minecrafta już dawno jest zrobiony raytracing oparty na wokselach.
Ale właśnie o to chodzi, ze starymi sztuczkami, można nadal osiągnąć świetne rezultaty z o wiele lepszą wydajnością, tu jest pies pogrzebany ;D
Być może odbicia i cienie nie zawsze są realistyczne, ale nie znaczy, że brzydkie, a chodzi o dobry finalny efekt, komu po fizycznie prawidłowych cieniach czy odbiciach skoro wydajność lipna i trzeba poświecić wiele innych efektów lub rozdzielczość aby komputer nie umarł.
https://www.youtube.com/watch?v=lnMqog6SGq8
Nie mówię, że robi TO SAMO co RT, ale kurka przecież tą grę też się da na shaderach zrobić ładną bez uciekania się do RT, a boleć FPSy będzie to mniej.
Wrzuciłeś jakieś zwykłe shadery, podczas gdy do Minecrafta już dawno jest zrobiony raytracing oparty na wokselach.
Chłyt z Minecraftem jest taki jak chłyt z Quake II. Tylko zapomnieli, że do Minecrafta pojawiały się już wcześniej różne 'enhanced graphic mod' i tu już takiej porażającej różnicy się nie zauważy. https://www.youtube.com/watch?v=lnMqog6SGq8
Nie mówię, że robi TO SAMO co RT, ale kurka przecież tą grę też się da na shaderach zrobić ładną bez uciekania się do RT, a boleć FPSy będzie to mniej.
Pamiętajcie, że to pierwsza generacja RTX tak więc jest pole do popisu przy prezentacjach kolejnych architektur. Później pewnie będzie jak z CUDA - będzie można spodziewać się stałego wzrostu wydajności z generacji na generację, który nie będzie już tak spektakularny. Myślę że 5nm będzie pierwszym etapem gdzie będzie już widać sporą różnicę w RTX ON/OFF. Przy 3nm będzie już można mówić o standardzie, a w przypadku 2nm nikt nie będzie grał bez jakieś formy Ray-Tracingu, nawet w mobile.
Czy autor artykułu mógłby udostępnić użyty w teście świat do pobrania?
Zastanawia mnie jak to się stało, że wyniki 2080 Super przy najwyższych nastawach są znacznie gorsze od mojej 2070-tki
Te testy wydajności to z paczką tekstur PBR, czy zwyczajną i w jakiej rozdzielczości były tekstury ?
Dla porównania, używając SEUS PTGI w 1920x1080, oczywiście bez DLSS, z paczką tekstur 1K PBR, na RTX 2070 Super mam spokojnie 60 klatek (12 chunks), a tu w teście ta sama karta, utylizująca te słynne rdzenie RTX, w grze składającej się z sześcianów wyciąga całe 24 klatki.
No i ta woda, w wersji RTX, przypominająca zastygłą galaretą, jest fatalna.
A gdzie porównanie do takiego SEUSa czy Continuum? Z ciekawości nawet warto byłoby przetestować różnice w jakości obrazu i wydajności między nimi a Nvidiowym demem.
To porównanie jest o tyle problematyczne, że na wersji napisanej w Javie masz dobre wsparcie modów i pełno paczek z ładnymi teksturami, a w wersji Win10 resource packów zrobionych pod RTX jest bardzo mało i obejmują jedynie kilka klocków.
Zawsze można użyć tej samej mapy do różnych wersji.
Java to potęga, może chodzić na tosterze lub rzucić tytana na kolana.
Mechanika gry jest inna pomiędzy wersjami, ale 99% bloków jest takie samo.
PS. I jeśli wspominasz, że używanie paczek i modów jest nie fair.
To pisanie od 0 silnika do renderowania RTX też się do tego zalicza. Jeśli można uzyskać fenomenalny wygląd bez znacznych spadków wydajności, to uczciwe porównanie.
Żenujące jest to jak bardzo nVidia oszukała klientów.
Kupujesz sobie 2060 czy 2070 z nadzieją, że będziesz mógł wykorzystać raytracing i już po 1.5 roku od premiery dowiadujesz się, że klocki Minecrafta ledwo ciągną w FullHD, a o wyższej rozdzielczości można zapomnieć.
Posłuchaj devów pracujących nad rtx minecrafta to się dowiesz czemu materiały wyglądają tak, a nie inaczej.
Nadali każdemu materiałowi prawdziwe cechy; metaliczność, chropowatość, promieniowanie które określają jak dany materiał odbija światło i czy w ogóle odbija.
Nie muszę, bo wiem co i jak działa i jest tak jak napisałem, a ze stylu w jakim piszesz jasno widać, że nie masz za bardzo pojęcia co i jak i te trywialne podstawy, które tłumaczą twórcy w filmie są dla ciebie czymś nowym.
Otóż to co ja napisałem to inna kwestia i ja idę dalej, dowiedz się od czego zależy jak będzie już dany materiał wyglądał w grze i dlaczego akurat minecraft to kiepska pokazówka, ale świetna do manipulacji.
Minecraft to największa ściema z RTX jaka istnieje, ta gra podstawowo nie ma cieni i źródeł światła, które inne gry po prostu mają, nic więc dziwnego, że różnicę się fajnie pokazuje skoro w podstawce brakuje najzwyklejszych cieni czy świateł, lol.
Do tego takie manipulacje NV jak ta fotka https://pclab.pl/zdjecia/artykuly/stilgaru...en/mrtx/pbr.JPG
Gdzie porównują zwykłe materiały vs pbr, ale pbr z dodatkowo włączonym RT, bo bez RT już tak by nie odstawało właśnie dlatego, że gra ma nikłe oświetlenie, a to ono wpływa najbardziej na efekt finalny parametrów PBR, tymczasem po zrzutach wykonanych przez pclab gdzie nie wpycha się rzecz jasna świecidełek typu szkła, lustra itp. byle pokazać RT, różnica nie jest już tak spektakularna.
Posłuchaj devów pracujących nad rtx minecrafta to się dowiesz czemu materiały wyglądają tak, a nie inaczej.
Nadali każdemu materiałowi prawdziwe cechy; metaliczność, chropowatość, promieniowanie które określają jak dany materiał odbija światło i czy w ogóle odbija.
Trzeba poczekać na sprzętowy ray tracing w kartach AMD, bo na razie w komentarzach dominuje odgłos pękających Adrianów.
Zabawa w klocki też mnie nie interesuje, ale rozwijanie się tych naprawdę ciekawych technik cieszy każdego, kto nie ma religijnych uprzedzeń w stosunku do konkurenta czerwonego korpo-mesjasza. Jak świat światem, religijni fanatycy zawsze wrogami wszelkiego postępu nieusankcjonowanego przez ich sektę...
Uważam że ceny kart RTX to wręcz promocja w stosunku do tego jak kosmiczną wręcz oprawę graficzną są w stanie zapewnić w grach wykorzystujących ray tracing. Cóz za fotorealistyczne odbicia, normalnie jak to zobaczyłem to od razu dwa Rtx 2080Ti kupiłem żeby też móc zagrać w takiego Minecrafta xD.
Kupować 2080 żeby pograć w durnowate klocki XD. Chyba tylko kilku maniaków z forów komputerowych to wykorzysta, dzieci grające w Minecraft chyba rzadko kiedy mają 2070 i wyżej. Bezsens .
A gdzie porównanie do takiego SEUSa czy Continuum? Z ciekawości nawet warto byłoby przetestować różnice w jakości obrazu i wydajności między nimi a Nvidiowym demem.
To porównanie jest o tyle problematyczne, że na wersji napisanej w Javie masz dobre wsparcie modów i pełno paczek z ładnymi teksturami, a w wersji Win10 resource packów zrobionych pod RTX jest bardzo mało i obejmują jedynie kilka klocków.
A gdzie porównanie do takiego SEUSa czy Continuum? Z ciekawości nawet warto byłoby przetestować różnice w jakości obrazu i wydajności między nimi a Nvidiowym demem.
Minecraft to największa ściema z RTX jaka istnieje, ta gra podstawowo nie ma cieni i źródeł światła, które inne gry po prostu mają, nic więc dziwnego, że różnicę się fajnie pokazuje skoro w podstawce brakuje najzwyklejszych cieni czy świateł, lol.
Do tego takie manipulacje NV jak ta fotka https://pclab.pl/zdjecia/artykuly/stilgaru...en/mrtx/pbr.JPG
Gdzie porównują zwykłe materiały vs pbr, ale pbr z dodatkowo włączonym RT, bo bez RT już tak by nie odstawało właśnie dlatego, że gra ma nikłe oświetlenie, a to ono wpływa najbardziej na efekt finalny parametrów PBR, tymczasem po zrzutach wykonanych przez pclab gdzie nie wpycha się rzecz jasna świecidełek typu szkła, lustra itp. byle pokazać RT, różnica nie jest już tak spektakularna.
Ściema to może za dużo powiedziane, ale rzeczywiście w porównaniach często stosują manipulacje, RTX fajna rzecz, ale nikt nie chce przyznać, że za wcześnie jak na tak nędzna wydajność. Do raytracingu z prawdziwego zdarzenia brakuje z 5 generacji i to do zwykłego FHD, do 4k to pewnie z 10 generacji.
DLSS wydaje się najlepszą wprowadzoną technologią w turingach, bo tego najbardziej brakowało do 4k/60fps.
Za to w aplikacjach RTX to już nie taka 'ściema', na tym polu RTX błyszczy, tutaj nikt o real time nie marzy, za to o 20-150% wydajności w zależności od renderowanej sceny nie da się pominąć, to nie to co gierki.
Wrzuciłeś jakieś zwykłe shadery, podczas gdy do Minecrafta już dawno jest zrobiony raytracing oparty na wokselach.
Ale właśnie o to chodzi, ze starymi sztuczkami, można nadal osiągnąć świetne rezultaty z o wiele lepszą wydajnością, tu jest pies pogrzebany ;D
Być może odbicia i cienie nie zawsze są realistyczne, ale nie znaczy, że brzydkie, a chodzi o dobry finalny efekt, komu po fizycznie prawidłowych cieniach czy odbiciach skoro wydajność lipna i trzeba poświecić wiele innych efektów lub rozdzielczość aby komputer nie umarł.
https://www.youtube.com/watch?v=lnMqog6SGq8
Nie mówię, że robi TO SAMO co RT, ale kurka przecież tą grę też się da na shaderach zrobić ładną bez uciekania się do RT, a boleć FPSy będzie to mniej.
Wrzuciłeś jakieś zwykłe shadery, podczas gdy do Minecrafta już dawno jest zrobiony raytracing oparty na wokselach.
https://www.youtube.com/watch?v=lnMqog6SGq8
Nie mówię, że robi TO SAMO co RT, ale kurka przecież tą grę też się da na shaderach zrobić ładną bez uciekania się do RT, a boleć FPSy będzie to mniej.
Zastanawia mnie jak to się stało, że wyniki 2080 Super przy najwyższych nastawach są znacznie gorsze od mojej 2070-tki
Dla porównania, używając SEUS PTGI w 1920x1080, oczywiście bez DLSS, z paczką tekstur 1K PBR, na RTX 2070 Super mam spokojnie 60 klatek (12 chunks), a tu w teście ta sama karta, utylizująca te słynne rdzenie RTX, w grze składającej się z sześcianów wyciąga całe 24 klatki.
No i ta woda, w wersji RTX, przypominająca zastygłą galaretą, jest fatalna.
Jak to wygląda w SEUS PTGI:
https://youtu.be/mfo2l2L2UHg
https://youtu.be/lrAcairggOY
To porównanie jest o tyle problematyczne, że na wersji napisanej w Javie masz dobre wsparcie modów i pełno paczek z ładnymi teksturami, a w wersji Win10 resource packów zrobionych pod RTX jest bardzo mało i obejmują jedynie kilka klocków.
Zawsze można użyć tej samej mapy do różnych wersji.
Java to potęga, może chodzić na tosterze lub rzucić tytana na kolana.
Mechanika gry jest inna pomiędzy wersjami, ale 99% bloków jest takie samo.
PS. I jeśli wspominasz, że używanie paczek i modów jest nie fair.
To pisanie od 0 silnika do renderowania RTX też się do tego zalicza. Jeśli można uzyskać fenomenalny wygląd bez znacznych spadków wydajności, to uczciwe porównanie.
Serio? Minecraft?
Kupujesz sobie 2060 czy 2070 z nadzieją, że będziesz mógł wykorzystać raytracing i już po 1.5 roku od premiery dowiadujesz się, że klocki Minecrafta ledwo ciągną w FullHD, a o wyższej rozdzielczości można zapomnieć.
Posłuchaj devów pracujących nad rtx minecrafta to się dowiesz czemu materiały wyglądają tak, a nie inaczej.
Nadali każdemu materiałowi prawdziwe cechy; metaliczność, chropowatość, promieniowanie które określają jak dany materiał odbija światło i czy w ogóle odbija.
https://youtu.be/zhJ0hNJ3hkA
Otóż to co ja napisałem to inna kwestia i ja idę dalej, dowiedz się od czego zależy jak będzie już dany materiał wyglądał w grze i dlaczego akurat minecraft to kiepska pokazówka, ale świetna do manipulacji.
Do tego takie manipulacje NV jak ta fotka https://pclab.pl/zdjecia/artykuly/stilgaru...en/mrtx/pbr.JPG
Gdzie porównują zwykłe materiały vs pbr, ale pbr z dodatkowo włączonym RT, bo bez RT już tak by nie odstawało właśnie dlatego, że gra ma nikłe oświetlenie, a to ono wpływa najbardziej na efekt finalny parametrów PBR, tymczasem po zrzutach wykonanych przez pclab gdzie nie wpycha się rzecz jasna świecidełek typu szkła, lustra itp. byle pokazać RT, różnica nie jest już tak spektakularna.
Posłuchaj devów pracujących nad rtx minecrafta to się dowiesz czemu materiały wyglądają tak, a nie inaczej.
Nadali każdemu materiałowi prawdziwe cechy; metaliczność, chropowatość, promieniowanie które określają jak dany materiał odbija światło i czy w ogóle odbija.
https://youtu.be/zhJ0hNJ3hkA
Zabawa w klocki też mnie nie interesuje, ale rozwijanie się tych naprawdę ciekawych technik cieszy każdego, kto nie ma religijnych uprzedzeń w stosunku do konkurenta czerwonego korpo-mesjasza. Jak świat światem, religijni fanatycy zawsze wrogami wszelkiego postępu nieusankcjonowanego przez ich sektę...
To porównanie jest o tyle problematyczne, że na wersji napisanej w Javie masz dobre wsparcie modów i pełno paczek z ładnymi teksturami, a w wersji Win10 resource packów zrobionych pod RTX jest bardzo mało i obejmują jedynie kilka klocków.
No i występują te samo artefakty co na SEUSie
Do tego takie manipulacje NV jak ta fotka https://pclab.pl/zdjecia/artykuly/stilgaru...en/mrtx/pbr.JPG
Gdzie porównują zwykłe materiały vs pbr, ale pbr z dodatkowo włączonym RT, bo bez RT już tak by nie odstawało właśnie dlatego, że gra ma nikłe oświetlenie, a to ono wpływa najbardziej na efekt finalny parametrów PBR, tymczasem po zrzutach wykonanych przez pclab gdzie nie wpycha się rzecz jasna świecidełek typu szkła, lustra itp. byle pokazać RT, różnica nie jest już tak spektakularna.
Ściema to może za dużo powiedziane, ale rzeczywiście w porównaniach często stosują manipulacje, RTX fajna rzecz, ale nikt nie chce przyznać, że za wcześnie jak na tak nędzna wydajność. Do raytracingu z prawdziwego zdarzenia brakuje z 5 generacji i to do zwykłego FHD, do 4k to pewnie z 10 generacji.
DLSS wydaje się najlepszą wprowadzoną technologią w turingach, bo tego najbardziej brakowało do 4k/60fps.
Za to w aplikacjach RTX to już nie taka 'ściema', na tym polu RTX błyszczy, tutaj nikt o real time nie marzy, za to o 20-150% wydajności w zależności od renderowanej sceny nie da się pominąć, to nie to co gierki.