Kompresja zjadła pikseloze ze screena na oryginalnym screenie widać zdecydowanie bardziej kwadraciki.
Odbicia płomieni w wodzie to lekka pikseloza widać za bardzo przycięli ustawienia nawet na ultra. W ruchu pewnie mniej się to w oczy rzuca, ale na screenie dosyć mocno.
Ta, bo przecież każdy na monitorze 4k robi podczas gry zoom 200%...
Ja te piksel widzę na 12' tablecie... Bez zoomu tylko na fullscreenie oryginalnego zrzutu. Wrzuciłem tylko wycinek obrazu bez zooma.
RTX chyba trochę minęli się z nazwą, a wobec tego co nam chcą zaprezentować powinno to być UAM - ultra advanced mirroring
No a co do samej technologi, mi się wydaje że umrze, mimo tego że to właściwy kierunek dla całej branży - tylko nie teraz.
A zdechnie dla tego że:
- koszta i tylko w najdroższych kartach
- pomimo wydania już tej kupy zielonych otrzymujemy obraz niewiele lepszy - przy uwaga statycznym obrazku gdzie doszukujemy się różnic, gry są dynamiczne i nikt nie będzie przyglądał się temu
- wydajność mega mocno w dół - FPS OFF techology jak ktoś już wspomniał
- AMD tego nie ma
- skoro AMD tego nie ma to ne gen konsole na kolejne 6 lat zamrożą tą technologie - nie oznacza to że jej od czasu do czasu nie uświadczymy, ale NV będzie musiało mocno sypać kasą aby zrobić girkę dla garstki ludzi
Kompresja zjadła pikseloze ze screena na oryginalnym screenie widać zdecydowanie bardziej kwadraciki.
Odbicia płomieni w wodzie to lekka pikseloza widać za bardzo przycięli ustawienia nawet na ultra. W ruchu pewnie mniej się to w oczy rzuca, ale na screenie dosyć mocno.
Ta, bo przecież każdy na monitorze 4k robi podczas gry zoom 200%...
Sparafrazuje ... Ta, bo każdy podczas dynamicznej gry zwraca uwagę na trochę lepiej wyglądająca kałużę
Sparafrazuje ... Ta, bo każdy podczas dynamicznej gry zwraca uwagę na trochę lepiej wyglądająca kałużę
Kałuże, no i podłogi, bronie, rzeki, samochody, okna i wszystkie inne refleksyjne powierzchnie w tej grze, rzeczywiście, kogo to obchodzi.
Madawi @ 2018.11.21 23:17
RTX chyba trochę minęli się z nazwą, a wobec tego co nam chcą zaprezentować powinno to być UAM - ultra advanced mirroring
No a co do samej technologi, mi się wydaje że umrze, mimo tego że to właściwy kierunek dla całej branży - tylko nie teraz.
A zdechnie dla tego że:
- koszta i tylko w najdroższych kartach
- pomimo wydania już tej kupy zielonych otrzymujemy obraz niewiele lepszy - przy uwaga statycznym obrazku gdzie doszukujemy się różnic, gry są dynamiczne i nikt nie będzie przyglądał się temu
- wydajność mega mocno w dół - FPS OFF techology jak ktoś już wspomniał
- AMD tego nie ma
- skoro AMD tego nie ma to ne gen konsole na kolejne 6 lat zamrożą tą technologie - nie oznacza to że jej od czasu do czasu nie uświadczymy, ale NV będzie musiało mocno sypać kasą aby zrobić girkę dla garstki ludzi
To od devów zależy do czego użyją RT, np. w Metro będzie to global illumination.
Technologia nie zdechnie, bo:
- tylko w tej generacji jest w najdroższych kartach(o ile 2300 zł to w dzisiejszych czasach droga karta), w 7nm raczej będzie to mieć też odpowiednik GTXa 1060, czyli najpopularniejszej karty na rynku
- odbicia wyglądają o wiele lepiej, nie oszukuj się typie https://youtu.be/2eX1DxaioaE?t=80
- 1. AMD się nie bardzo liczy na rynku PC https://store.steampowered.com/hwsurvey/videocard/ -> RX 480 + 580 + 470 = 1.34%, GTX 1060 = 14.8%, przebicie 11:1 w najkorzystniejszym segmencie AMD
2. AMD planuje to mieć -> niedawno zapowiedziane Radeon Rays 2.0 https://pro.radeon.com/en/software/radeon-rays/
3. AMD nie obsługuje PhysX a jakoś w Unity i UE4 zostało podstawowym silnikiem fizycznym.
- konsole nie mają też HBAO+, a sporo gier na PC od 2013 roku tego używa
Możecie mnie uznać za fanboya ale jak dla mnie to najlepsze nowa technologia w grach od czasu Crysisa i wykorzystania zunifikowanych shaderów, w końcu coś co wygląda kozacko i jest przyszłością grafiki, a nie tylko lepsze tekstury czy więcej trawy.
AMD musi mieć w przyszłości jakąś formę RT, jeżeli GTX 3060 będzie miał RT a RX 680 nie, to mogą się zwijać z rynku gier PC.
Dobrze, że przynajmniej jedna firma idzie do przodu. Na razie trudno o jakiś hurraoptymizm, ale zawsze to lepsze niż uparte klepanie kotletów ze średniej półki i udawanie, że to przełom.
Nie jest źle. Przypomina pierwsze testy kart z AAx4 te zjazd byl duży. Malkontenci zawsze byli. Ja nigdy nie skorzystam z tak drogiej karty ale za rok będziemy mieli RTX 3060 który to obsłuży z wydajnością obecnej 2070. Nie od razu Rzym zbudowano.
Nie jest źle. Przypomina pierwsze testy kart z AAx4 te zjazd byl duży. Malkontenci zawsze byli. Ja nigdy nie skorzystam z tak drogiej karty ale za rok będziemy mieli RTX 3060 który to obsłuży z wydajnością obecnej 2070. Nie od razu Rzym zbudowano.
... tylko, czy nie można uzyskać praktycznie tych samych efektów, przy użyciu tradycyjnych technik, jednak przy znacznie mniejszym spadku wydajności?
Z jednej strony wyniki są żenujace, że GPU za 5500zł ma tylko ~60 klatek w FHD z RT.
Z drugiej, w czasach Crysisa wyniki były znacznie gorsze i ludzie jakoś nie narzekali
Jak dla mnie:
1. Scena jest matowa jak Wolfenstein sprzed nastu lat
2. Różnicę między RTXON i RTXOFF widzę, ale nie wiedziałem który obrazek ma lepszą jakość obrazu.
3. Chyba póki co szkoda sensu.
A szkoda, bo myślałem że to w końcu będzie przełom. A tu dalej Crysis na sterydach wygląda lepiej...
EDIT: Czemu żadna redakcja nie testuje użycia CPU z RTX ON/OFF?
Z jednej strony wyniki są żenujace, że GPU za 5500zł ma tylko ~60 klatek w FHD z RT.
Z drugiej, w czasach Crysisa wyniki były znacznie gorsze i ludzie jakoś nie narzekali
Postęp kosztuje. Gracze zostali przyzwyczajeni do tego, że teraz GPU starcza do płynnego grania w dobrych ustawieniach na te 3 lata . Dawniej top wymieniało się co rok i co chwila pojawiała się gra która ten top zajeżdżała (a Crysis zajeżdżał jeszcze z dwie generacje do przodu ).
Nie jest źle. Przypomina pierwsze testy kart z AAx4 te zjazd byl duży. Malkontenci zawsze byli. Ja nigdy nie skorzystam z tak drogiej karty ale za rok będziemy mieli RTX 3060 który to obsłuży z wydajnością obecnej 2070. Nie od razu Rzym zbudowano.
... tylko, czy nie można uzyskać praktycznie tych samych efektów, przy użyciu tradycyjnych technik, jednak przy znacznie mniejszym spadku wydajności?
Być może statyczne screeny tego nie oddają i w grze jest dużo lepszy odbiór tego efektu. Bo wg screenów to dupy nie urywa. Ja tam ledwo co widzę. W dynamicznych grach takie efekty tak na prawdę są mało istotne bo nie ma czasu przyglądać się odbiciom płomienia w lufie karabinu jak do ciebie strzelają .
No szkoda że nie ma porównania do topowych Pascali - jako ciekawostka
'RTX 2080 Ti, osiąga wydajność na poziomie 10 GRays/s. Dla porównania: GTX 1080 Ti w przeliczeniu na zaproponowaną przez Nvidię jednostkę osiąga zaledwie 1,1 GRays/s'
Widać że wielu młodych nie pamięta czasów 20lat wstecz jak wychodził np. UNREAL lub później CRYSIS i zarzynał topowe karty znacznie poniżej 20-25FPS.
Obecnie NVIDIA robi krok do przodu, bo śledzenie promieni to krok na przód ku realizmowi (wielu się wypowiada o efektach pomimo tego że nie widzieli na żywo), ale jest jeden duży problem bo wydajność powinna być 2 razy wyższa, a ceny kart dużo niższe !!!
Natomiast AMD przyzwyczaja nas do odświeżonych kotletów....
Taki spadek wydajności kosztem iluzorycznego, niedostrzegalnego praktycznie efektu graficznego jest jakąś kpiną. Raytracing jest przyszłościową technologią, pokazują to m.in. filmy, ale na pewno w grafice komputerowej nie jest możliwa do zaimplementowania już teraz. Prawdziwy raytacing powinien śledzić promienie dla całej sceny, a tutaj jest to wersja mieszana gdzie tylko niektóre tekstury otrzymują ten efekt i wygląda to nijak...
Taki spadek wydajności kosztem iluzorycznego, niedostrzegalnego praktycznie efektu graficznego jest jakąś kpiną. Raytracing jest przyszłościową technologią, pokazują to m.in. filmy, ale na pewno w grafice komputerowej nie jest możliwa do zaimplementowania już teraz. Prawdziwy raytacing powinien śledzić promienie dla całej sceny, a tutaj jest to wersja mieszana gdzie tylko niektóre tekstury otrzymują ten efekt i wygląda to nijak...
Piszesz, ze nie są gotowi, jednocześnie wymagasz pełnego RT, gdzie potrzeba ze 3 razy większej wydajności.
Taki spadek wydajności kosztem iluzorycznego, niedostrzegalnego praktycznie efektu graficznego jest jakąś kpiną. Raytracing jest przyszłościową technologią, pokazują to m.in. filmy, ale na pewno jeszcze nie teraz.
Problem w tym że współczesne karty graficzne są... za szybkie. Jeśli monitor może wyświetlić max. 60 klatek/sek. , to kupno karty graficznej zdolnej renderować np. 200 klatek/sek. (w rozdzielczości tego monitora) nie ma ekonomicznego sensu! Oczywiście są gracze, którym 60 kl./sek. nie wystarcza, ale to niewielki ułamek, dla których przeznaczone są karty high-end. Całej reszcie wystarcza karta mid-range.
Tak więc producenci kart graficznych muszą wprowadzić nowe efekty, takie jak ray-tracing wymagający ogromnej mocy obliczeniowej, aby płynne granie znowu było zarezerwowane dla najbogatszych. Będzie to połączone z rezygnacją producentów gier z pracochłonnych technik artystycznych symulujących odbicia i grę świateł, przez co gry z wyłączonym RT będą wyglądać znacznie gorzej, co zachęci graczy do sięgnięcia do portfeli.
Taki spadek wydajności kosztem iluzorycznego, niedostrzegalnego praktycznie efektu graficznego jest jakąś kpiną. Raytracing jest przyszłościową technologią, pokazują to m.in. filmy, ale na pewno w grafice komputerowej nie jest możliwa do zaimplementowania już teraz. Prawdziwy raytacing powinien śledzić promienie dla całej sceny, a tutaj jest to wersja mieszana gdzie tylko niektóre tekstury otrzymują ten efekt i wygląda to nijak...
Piszesz, ze nie są gotowi, jednocześnie wymagasz pełnego RT, gdzie potrzeba ze 3 razy większej wydajności.
Chyba 300 razy większej. Wszystkie dzisiejsze efekty w filmach w finalnej wersji tworzone są za pomocą RT. Jeśli renderowanie tych scen trwa miesiącami to tylko pokazuje że do sceny z pełnym RT liczonej w przynajmniej 30 fps brakuje nam jeszcze bardzo bardzo bardzo dużo. Osobiście nie liczyłbym na coś takiego nawet za 15 lat. Aktualne wykorzystanie RT w dobrej wydajności zajmie nam pewnie jakieś 5 lat jeśli oczywiście się to przyjmie. Jeśli AMD w to nie wejdzie to RT będzie niszowy w grach.
Kompresja zjadła pikseloze ze screena
Odbicia płomieni w wodzie to lekka pikseloza
Ta, bo przecież każdy na monitorze 4k robi podczas gry zoom 200%...
Ja te piksel widzę na 12' tablecie... Bez zoomu tylko na fullscreenie oryginalnego zrzutu. Wrzuciłem tylko wycinek obrazu bez zooma.
https://ibb.co/mwFz4q tutaj lepiej widać bo nie ma mocnej kompresji.
No a co do samej technologi, mi się wydaje że umrze, mimo tego że to właściwy kierunek dla całej branży - tylko nie teraz.
A zdechnie dla tego że:
- koszta i tylko w najdroższych kartach
- pomimo wydania już tej kupy zielonych otrzymujemy obraz niewiele lepszy - przy uwaga statycznym obrazku gdzie doszukujemy się różnic, gry są dynamiczne i nikt nie będzie przyglądał się temu
- wydajność mega mocno w dół - FPS OFF techology jak ktoś już wspomniał
- AMD tego nie ma
- skoro AMD tego nie ma to ne gen konsole na kolejne 6 lat zamrożą tą technologie - nie oznacza to że jej od czasu do czasu nie uświadczymy, ale NV będzie musiało mocno sypać kasą aby zrobić girkę dla garstki ludzi
Kompresja zjadła pikseloze ze screena
Odbicia płomieni w wodzie to lekka pikseloza
Ta, bo przecież każdy na monitorze 4k robi podczas gry zoom 200%...
Sparafrazuje ... Ta, bo każdy podczas dynamicznej gry zwraca uwagę na trochę lepiej wyglądająca kałużę
Kałuże, no i podłogi, bronie, rzeki, samochody, okna i wszystkie inne refleksyjne powierzchnie w tej grze, rzeczywiście, kogo to obchodzi.
No a co do samej technologi, mi się wydaje że umrze, mimo tego że to właściwy kierunek dla całej branży - tylko nie teraz.
A zdechnie dla tego że:
- koszta i tylko w najdroższych kartach
- pomimo wydania już tej kupy zielonych otrzymujemy obraz niewiele lepszy - przy uwaga statycznym obrazku gdzie doszukujemy się różnic, gry są dynamiczne i nikt nie będzie przyglądał się temu
- wydajność mega mocno w dół - FPS OFF techology jak ktoś już wspomniał
- AMD tego nie ma
- skoro AMD tego nie ma to ne gen konsole na kolejne 6 lat zamrożą tą technologie - nie oznacza to że jej od czasu do czasu nie uświadczymy, ale NV będzie musiało mocno sypać kasą aby zrobić girkę dla garstki ludzi
To od devów zależy do czego użyją RT, np. w Metro będzie to global illumination.
Technologia nie zdechnie, bo:
- tylko w tej generacji jest w najdroższych kartach(o ile 2300 zł to w dzisiejszych czasach droga karta), w 7nm raczej będzie to mieć też odpowiednik GTXa 1060, czyli najpopularniejszej karty na rynku
- odbicia wyglądają o wiele lepiej, nie oszukuj się typie
- 1. AMD się nie bardzo liczy na rynku PC https://store.steampowered.com/hwsurvey/videocard/ -> RX 480 + 580 + 470 = 1.34%, GTX 1060 = 14.8%, przebicie 11:1 w najkorzystniejszym segmencie AMD
2. AMD planuje to mieć -> niedawno zapowiedziane Radeon Rays 2.0 https://pro.radeon.com/en/software/radeon-rays/
3. AMD nie obsługuje PhysX a jakoś w Unity i UE4 zostało podstawowym silnikiem fizycznym.
- konsole nie mają też HBAO+, a sporo gier na PC od 2013 roku tego używa
Możecie mnie uznać za fanboya ale jak dla mnie to najlepsze nowa technologia w grach od czasu Crysisa i wykorzystania zunifikowanych shaderów, w końcu coś co wygląda kozacko i jest przyszłością grafiki, a nie tylko lepsze tekstury czy więcej trawy.
AMD musi mieć w przyszłości jakąś formę RT, jeżeli GTX 3060 będzie miał RT a RX 680 nie, to mogą się zwijać z rynku gier PC.
Ale zaleciało rokiem 2000.
Weźcie może w końcu dajcie normalne zrzuty albo porównywarkę gdzie można sobie kliknąć i robić porównania fullscreen, a nie jakiś bezsensowny zoom...
... tylko, czy nie można uzyskać praktycznie tych samych efektów, przy użyciu tradycyjnych technik, jednak przy znacznie mniejszym spadku wydajności?
Z drugiej, w czasach Crysisa wyniki były znacznie gorsze i ludzie jakoś nie narzekali
{
FPS/=2
}
Jak dla mnie:
1. Scena jest matowa jak Wolfenstein sprzed nastu lat
2. Różnicę między RTXON i RTXOFF widzę, ale nie wiedziałem który obrazek ma lepszą jakość obrazu.
3. Chyba póki co szkoda sensu.
A szkoda, bo myślałem że to w końcu będzie przełom. A tu dalej Crysis na sterydach wygląda lepiej...
EDIT: Czemu żadna redakcja nie testuje użycia CPU z RTX ON/OFF?
Z drugiej, w czasach Crysisa wyniki były znacznie gorsze i ludzie jakoś nie narzekali
Postęp kosztuje. Gracze zostali przyzwyczajeni do tego, że teraz GPU starcza do płynnego grania w dobrych ustawieniach na te 3 lata
... tylko, czy nie można uzyskać praktycznie tych samych efektów, przy użyciu tradycyjnych technik, jednak przy znacznie mniejszym spadku wydajności?
Nie bardzo.
'RTX 2080 Ti, osiąga wydajność na poziomie 10 GRays/s. Dla porównania: GTX 1080 Ti w przeliczeniu na zaproponowaną przez Nvidię jednostkę osiąga zaledwie 1,1 GRays/s'
a więc fps /10 i masz wynik dla pascali
Obecnie NVIDIA robi krok do przodu, bo śledzenie promieni to krok na przód ku realizmowi (wielu się wypowiada o efektach pomimo tego że nie widzieli na żywo), ale jest jeden duży problem bo wydajność powinna być 2 razy wyższa, a ceny kart dużo niższe !!!
Natomiast AMD przyzwyczaja nas do odświeżonych kotletów....
Piszesz, ze nie są gotowi, jednocześnie wymagasz pełnego RT, gdzie potrzeba ze 3 razy większej wydajności.
Problem w tym że współczesne karty graficzne są... za szybkie. Jeśli monitor może wyświetlić max. 60 klatek/sek. , to kupno karty graficznej zdolnej renderować np. 200 klatek/sek. (w rozdzielczości tego monitora) nie ma ekonomicznego sensu! Oczywiście są gracze, którym 60 kl./sek. nie wystarcza, ale to niewielki ułamek, dla których przeznaczone są karty high-end. Całej reszcie wystarcza karta mid-range.
Tak więc producenci kart graficznych muszą wprowadzić nowe efekty, takie jak ray-tracing wymagający ogromnej mocy obliczeniowej, aby płynne granie znowu było zarezerwowane dla najbogatszych. Będzie to połączone z rezygnacją producentów gier z pracochłonnych technik artystycznych symulujących odbicia i grę świateł, przez co gry z wyłączonym RT będą wyglądać znacznie gorzej, co zachęci graczy do sięgnięcia do portfeli.
Piszesz, ze nie są gotowi, jednocześnie wymagasz pełnego RT, gdzie potrzeba ze 3 razy większej wydajności.
Chyba 300 razy większej. Wszystkie dzisiejsze efekty w filmach w finalnej wersji tworzone są za pomocą RT. Jeśli renderowanie tych scen trwa miesiącami to tylko pokazuje że do sceny z pełnym RT liczonej w przynajmniej 30 fps brakuje nam jeszcze bardzo bardzo bardzo dużo. Osobiście nie liczyłbym na coś takiego nawet za 15 lat. Aktualne wykorzystanie RT w dobrej wydajności zajmie nam pewnie jakieś 5 lat jeśli oczywiście się to przyjmie. Jeśli AMD w to nie wejdzie to RT będzie niszowy w grach.