To jest namiastka renderowania całej sceny w technice śledzenia promieni. I tylko o to chodzi. Na to RTX są zwyczajnie za słabe, a jak widać nawet jeśli ograniczy się technikę tylko do określonych obiektów (czy materiałów) to i tak wydajność bardzo, bardzo widocznie maleje. Zatem NV zrobiła krok, nawet można uznać, że w dobrą stronę, ale nijak nie ma wystarczająco dobrego wsparcia by to można uznać za popularyzację. Brakuje programistów zdolnych to ogarnąć bez drastycznego spadku wydajności, brakuje samych mocy przerobowych topowej karty graficznej. Pod względem sprzętu zatem jest zwyczajnie ZA WCZEŚNIE.
Przeczytaj mój edytowany komentarz i przestań nazywać to namiastką. RTX'y są w stanie obliczyć w ciągu sekundy kilka miliardów promieni i jest to prawdziwe śledzenie promieni. To jak to zostanie wykorzystane w grze zależy tylko od deweloperów.
As GPUs offer ever more computing power, video games are the next frontier for this technology. On Monday, NVIDIA announced NVIDIA RTX, a ray-tracing technology that brings real-time, movie-quality rendering to game developers. It’s the result of a decade of work in computer graphics algorithms and GPU architectures.
It consists of a ray-tracing engine running on NVIDIA Volta architecture GPUs. It’s designed to support ray tracing through a variety of interfaces. NVIDIA partnered with Microsoft to enable full RTX support via Microsoft’s new DirectX Raytracing (DXR) API.
And to help game developers take advantage of these capabilities, NVIDIA also announced the GameWorks SDK will add a ray tracing denoiser module. The updated GameWorks SDK, coming soon, includes ray-traced area shadows and ray-traced glossy reflections.
All of this will give game developers, and others, the ability to bring ray-tracing techniques to their work to create more realistic reflections, shadows and refractions. As a result, the games you enjoy at home will get more of the cinematic qualities of a Hollywood blockbuster
Po pierwsze, technologia Nvidii to hybryda - łączy rasteryzacje z generowaniem grafiki z śledzeniem promieni- czyli proteza prawdziwego, pełnego silnika renderującego. opartego tylko na śledzeniu promieni. Do tego dochodzi odszumianie sceny na bazie 'AI'.
Nvidia ze swoim marketingowym bełkotem jest śmieszna - Renderowanie w czasie rzeczywistym w jakości jak w przemyśle filmowym. Chciałbym żeby Nvidia podpisała partnerstwo z jakaś wytwórnią filmową na łamach, której mieli by wygenerować odbicia, zniekształcenia, glebie ostrości, miękkie cienie, przezroczystość, przenikające światło przez obiekty, załamania światła czy globalne oświetlenie na scenach na pojedynczym GPU w czasie rzeczywistym jak to NV ładnie reklamuje. Trwało by to wieki, a i tak by było szybsze niż na GPU bez RT cores i tensorów.
W chwili obecnej RTX Nvidii maksymalnie pozwala na zastosowanie jednego, góra dwóch efektów.
Przejście z rasteryzacji na pełen Path/Ray Tracing będzie największym przeskokiem w dziedzinie generowania grafiki w czasie rzeczywistym, narazie to możesz sobie tego użyć żeby za symulować wygląd pożądanego efektu i uzyskać go przy użyciu wydajniejszej rasteryzacji.
Przykłady Mcrosoftu nie korzystają z hybrydowego renderowania, wszystko jest liczone za pomocą promieni kierowanych od kamery. Logiczne, że skoro rasteryzacja jest szybsza niż śledzenie promieni to zostanie ona użyta zamiast obliczana pierwotnych promieni a RT do odbić i innych efektów. Nie prawdą jest, że wydajność RTX'ów pozwala tylko na obliczanie jednego promienia na piksel. Przykład Microsoft'u na obliczanie okluzji otoczenia za pomocą śledzenia promieni przy 4 próbkach na piksel osiąga na RTX 2070 w FullHD osiąga ponad 300 FPS. Dodatkowo cała scena jest renderowana bez użycia rasteryzacji, tylko śledzeniem promieni.
RTX'y mają ogromne możliwości w liczeniu śledzenia promieni, tylko nikt nie bierze tego pod uwagę, że przy liczeniu odbić GPU musi wykonać dodatkowe obliczenia, ponieważ oprócz koloru piksela trzeba obliczyć dodatkowo kolor miejsca, w kyórym promień przecina się z geometrią.
No tak, nikt nie bierze pod uwagę, że RT w rozsądnej rozdzielczości, rozsądnej precyzji i rozsądnej ilości klatek na sekundę to proces bardzo, bardzo zasobożerny.
Coś jeszcze ciekawego masz do dodania?
RTX'y są w stanie obliczyć w ciągu sekundy kilka miliardów promieni i jest to prawdziwe śledzenie promieni
Ale jakie ma znaczenie ile jest w stanie miliardów promieni liczyć skoro liczy ZA MAŁO?
RTX'y mają ogromne możliwości w liczeniu śledzenia promieni, tylko nikt nie bierze tego pod uwagę, że przy liczeniu odbić GPU musi wykonać dodatkowe obliczenia, ponieważ oprócz koloru piksela trzeba obliczyć dodatkowo kolor miejsca, w kyórym promień przecina się z geometrią.
No tak, nikt nie bierze pod uwagę, że RT w rozsądnej rozdzielczości, rozsądnej precyzji i rozsądnej ilości klatek na sekundę to proces bardzo, bardzo zasobożerny.
Coś jeszcze ciekawego masz do dodania?
RTX'y są w stanie obliczyć w ciągu sekundy kilka miliardów promieni i jest to prawdziwe śledzenie promieni
Ale jakie ma znaczenie ile jest w stanie miliardów promieni liczyć skoro liczy ZA MAŁO?
To jest namiastka renderowania całej sceny w technice śledzenia promieni. I tylko o to chodzi. Na to RTX są zwyczajnie za słabe, a jak widać nawet jeśli ograniczy się technikę tylko do określonych obiektów (czy materiałów) to i tak wydajność bardzo, bardzo widocznie maleje. Zatem NV zrobiła krok, nawet można uznać, że w dobrą stronę, ale nijak nie ma wystarczająco dobrego wsparcia by to można uznać za popularyzację. Brakuje programistów zdolnych to ogarnąć bez drastycznego spadku wydajności, brakuje samych mocy przerobowych topowej karty graficznej. Pod względem sprzętu zatem jest zwyczajnie ZA WCZEŚNIE.
Przeczytaj mój edytowany komentarz i przestań nazywać to namiastką. RTX'y są w stanie obliczyć w ciągu sekundy kilka miliardów promieni i jest to prawdziwe śledzenie promieni. To jak to zostanie wykorzystane w grze zależy tylko od deweloperów.
Chodzi o to, że cała scena nie jest robiona przy użyciu RT więc jest to namiastka. Przy użyciu RT da się zrezygnować z rasteryzacji, ale mógłbyś iść zaparzyć herbatę w czasie renderowania jednej klatki na RTX2080Ti. Poza tym sam RT nie jest techniką 'realistyczną', bo jak ktoś tu (albo w innym miejscu) napisał pomija całkowicie zjawiska falowe. A do tego nie jest liczony (przynajmniej w wykonaniu NV) od źródła światła.
Ani Ty, ani NV nie udowodniliście, że jest inaczej. Jeśli wydajność jest wystarczająca to pokaż prawdziwe RT w fullhd w 60fps na pojedynczym RTX2080. Bez artefaktów.
Przeczytaj mój edytowany komentarz i przestań nazywać to namiastką. RTX'y są w stanie obliczyć w ciągu sekundy kilka miliardów promieni i jest to prawdziwe śledzenie promieni. To jak to zostanie wykorzystane w grze zależy tylko od deweloperów.
Chodzi o to, że cała scena nie jest robiona przy użyciu RT więc jest to namiastka. Poza tym sam RT nie jest techniką 'realistyczną', bo jak ktoś tu (albo w innym miejscu) napisał pomija całkowicie zjawiska falowe. A do tego nie jest liczony (przynajmniej w wykonaniu NV) od źródła światła.
Ja nie zgadzam się z tobą. NVidia udostępniła sprzętowe śledzenie promieni, o ogromnej, do niedawna wręcz niewyobrażalnej wydajności. Jest to tak uniwersalne, że może być wykorzystane na 1000 różnych sposobów. Nowe funkcje dostępne w shaderach nie narzucają w żaden sposób jak RT ma być wykorzystane ani nie mają właściwie ograniczeń. Nic nie stoi na przeszkodzie, żeby promienie liczyć od światła do kamery. Po prostu liczenie promieni na każdy piksel jest szybsze. Wiadomo, że deweloperzy wybiorą te rozwiązania, które pozwolą na osiągnięcie wyższej liczby klatek.
Chodzi o to, że cała scena nie jest robiona przy użyciu RT więc jest to namiastka. Poza tym sam RT nie jest techniką 'realistyczną', bo jak ktoś tu (albo w innym miejscu) napisał pomija całkowicie zjawiska falowe. A do tego nie jest liczony (przynajmniej w wykonaniu NV) od źródła światła.
Ja nie zgadzam się z tobą. NVidia udostępniła sprzętowe śledzenie promieni, o ogromnej, do niedawna wręcz niewyobrażalnej wydajności. Jest to tak uniwersalne, że może być wykorzystane na 1000 różnych sposobów. Nowe funkcje dostępne w shaderach nie narzucają w żaden sposób jak RT ma być wykorzystane ani nie mają właściwie ograniczeń. Nic nie stoi na przeszkodzie, żeby promienie liczyć od światła do kamery. Po prostu liczenie promieni na każdy piksel jest szybsze. Wiadomo, że deweloperzy wybiorą te rozwiązania, które pozwolą na osiągnięcie wyższej liczby klatek.
To w którym miejscu zaczynają to detal, faktycznie rozsądniej jest dla sceny w czasie rzeczywistym zacząć od kamery, tego się nie czepiam, ale wymieniłem z uwagi na to, że jest to pewna różnica.
Ale to, że wciąż korzystasz z rasteryzacji to nie jest szczegół. Tak jak poprzednicy pisali, jest to krok w dobrą stronę tylko, że brak jest mocy dla 'nieoszukanego' RT. Parę detali do tego odszumionych i tyle, dla całej sceny brak baaaaaaaaaardzo dużo mocy i to by efekt wyszedł na poziomie Quake 1.
Edit: Gdybyś nie zaczął atakować zwrotu 'udawane RT' to by to przechodziło bez echa z myślą, że będzie lepiej, a tak trzeba sprowadzać optymistyczne wizje do parteru...
To co robiłla NV i tak jest super dla odbić tam gdzie są niezbędne (lustra), zmniejsza to znacznie nakład pracy, będzie miało to jednak znaczenie jak większość GPU to umożliwi i to może być ta najbliższa przyszłość.
Ani Ty, ani NV nie udowodniliście, że jest inaczej. Jeśli wydajność jest wystarczająca to pokaż prawdziwe RT w fullhd w 60fps na pojedynczym RTX2080. Bez artefaktów.
Wystarczy, że poczekasz na nowe gry tworzone z myślą o wykorzystaniu śledzenia promieni a nie będziesz oceniał technologii na podstawie jednej gry, w której deweloperzy się uparli, że każdy sufit ma się błyszczeć, jakby pół godziny wcześniej został pomalowany farbą olejną.
A tak w ogóle to ty nie oczekujesz zbyt wiele? Naprawdę myślałeś, że gry nagle zaczną wyglądać jak filmowe rendery? NVidia sugerowała, do czego może zostać użyte RT przy tworzeniu grafiki w czasie rzeczywistym.
Ja nie zgadzam się z tobą. NVidia udostępniła sprzętowe śledzenie promieni, o ogromnej, do niedawna wręcz niewyobrażalnej wydajności. Jest to tak uniwersalne, że może być wykorzystane na 1000 różnych sposobów. Nowe funkcje dostępne w shaderach nie narzucają w żaden sposób jak RT ma być wykorzystane ani nie mają właściwie ograniczeń. Nic nie stoi na przeszkodzie, żeby promienie liczyć od światła do kamery. Po prostu liczenie promieni na każdy piksel jest szybsze. Wiadomo, że deweloperzy wybiorą te rozwiązania, które pozwolą na osiągnięcie wyższej liczby klatek.
To w którym miejscu zaczynają to detal, faktycznie rozsądniej jest dla sceny w czasie rzeczywistym zacząć od kamery, tego się nie czepiam, ale wymieniłem z uwagi na to, że jest to pewna różnica.
Ale to, że wciąż korzystasz z rasteryzacji to nie jest szczegół. Tak jak poprzednicy pisali, jest to krok w dobrą stronę tylko, że brak jest mocy dla 'nieoszukanego' RT. Parę detali do tego odszumionych i tyle, dla całej sceny brak baaaaaaaaaardzo dużo mocy i to by efekt wyszedł na poziomie Quake 1.
Ty teoretyzujesz i niestety bardzo się mylisz. Jak najbardziej można całą scenę obliczać za pomocą RT, jednak w przypadku promieni liczonych na piksel, rzucanych od kamery efekt jest identyczny jak rasteryzacja, dlatego RT lepiej używać dopiero licząc promienie odbite.
To w którym miejscu zaczynają to detal, faktycznie rozsądniej jest dla sceny w czasie rzeczywistym zacząć od kamery, tego się nie czepiam, ale wymieniłem z uwagi na to, że jest to pewna różnica.
Ale to, że wciąż korzystasz z rasteryzacji to nie jest szczegół. Tak jak poprzednicy pisali, jest to krok w dobrą stronę tylko, że brak jest mocy dla 'nieoszukanego' RT. Parę detali do tego odszumionych i tyle, dla całej sceny brak baaaaaaaaaardzo dużo mocy i to by efekt wyszedł na poziomie Quake 1.
Ty teoretyzujesz i niestety bardzo się mylisz. Jak najbardziej można całą scenę obliczać za pomocą RT, jednak w przypadku promieni liczonych na piksel, rzucanych od kamery efekt jest identyczny jak rasteryzacja, dlatego RT lepiej używać dopiero licząc promienie odbite.
WSZYSTKIE promienie są odbite, chyba, że obiekty fizyczne są źródłem światła spolaryzowanego.
Ty teoretyzujesz i niestety bardzo się mylisz. Jak najbardziej można całą scenę obliczać za pomocą RT, jednak w przypadku promieni liczonych na piksel, rzucanych od kamery efekt jest identyczny jak rasteryzacja, dlatego RT lepiej używać dopiero licząc promienie odbite.
WSZYSTKIE promienie są odbite, chyba, że obiekty fizyczne są źródłem światła spolaryzowanego.
No nie. Te początkowe (pierwotne), które generuje się z pozycji kamery w odpowiednich kierunkach to nie są odbite. I można je zastąpić rasteryzacją.
No nie. Te początkowe (pierwotne), które generuje się z pozycji kamery w odpowiednich kierunkach to nie są odbite. I można je zastąpić rasteryzacją.
Obiekt nie oświetlony (odbijający światło), nie będący źródłem światła jest niewidoczny (jest czarną dziurą z kreskówki).
Przejrzyj ten kod, który zamieściłem. Pierwsze promienie są puszczane, aby określić co widzi kamera i to można zastąpić rasteryzacją dla każdego piksela zapisując w buforach pozycję i wektor normalny.
Wystarczy, że poczekasz na nowe gry tworzone z myślą o wykorzystaniu śledzenia promieni a nie będziesz oceniał technologii na podstawie jednej gry, w której deweloperzy się uparli, że każdy sufit ma się błyszczeć, jakby pół godziny wcześniej został pomalowany farbą olejną.
A tak w ogóle to ty nie oczekujesz zbyt wiele? Naprawdę myślałeś, że gry nagle zaczną wyglądać jak filmowe rendery? NVidia sugerowała, do czego może zostać użyte RT przy tworzeniu grafiki w czasie rzeczywistym.
Czemu mi wciskasz coś czego w żaden sposób nie wyraziłem? Czego dotyczyły moje wypowiedzi?
1. Hybrid DXR to nie jest RT - PRAWDA. To nie jest RT. Tylko pewien element obliczeń to stricte raytracing, cała reszta jest od tego zupełnie niezależna. Czy to udawane RT? Ja tego nie napisałem. Nie rozumiem problemu
2. Wydajność RTX2080 nie wystarcza do realtime RT dla 1080p z rozsądną ilością klatek na sekundę. PRAWDA. Nie wystarcza.
3. Wydajność po włączeniu hybrydowego renderingu spada - PRAWDA, SPADA, w każdym tytule, który już techniką się pochwalił na filmikach. Nie ma i nie będzie ANI JEDNEGO tytułu, który po włączeniu raytracingu będzie oferował TYLE SAMO klatek.
Wyraziłem swoją opinię na temat tego czy obecne rozwiązanie nvidii jest na tyle wydajne by udźwignąć pełne RT - nie jest. Masz kontrargument to pokaż. Wyraziłem opinię na temat tego czy obecne rozwiązanie nvidii jest na tyle wydajne by hybrydowe RT zapewniało odpowiednią płynność w rozdzielczościach, którymi zainteresowani są gracze nabywający takie karty. I tu również odpowiedź jest NIE. W żaden sposób nie podkopuję technologii samej w sobie, w żaden sposób nie podważam wydajności RT Cores, w żaden sposób nie twierdzę, że nvidia postępuje niewłaściwie rozwijając produkty pod tą technikę.
To o czym pisałem to słuszne (jak widać) obawy o zakres stosowania tej technologii, koszt jej wdrożenia oraz wydajność końcową względem wzrostu aspektów wizualnych. Już teraz są w niektórych tytułach zarzuty, że w pewnych sytuacjach porównuje się screeny z RT do screenów bez jakiejkolwiek innej techniki, która w danym miejscu mogłaby być wykorzystana do poprawy grafiki (a nie kosztowałaby tyle wydajności co RT). Innymi słowy NV wyszła przed szereg i zbiera baty. Nie ona pierwsza i wcale też nie największe. Ale argumenty są słuszne więc nie rozumiem czemu się tak pieklisz!?
Masz rację że bez litografii EUV, za pomocą tradycyjnych maszyn naświetlających światłem UV 193 nm, można uzyskać jedynie podwojenie ilości tranzystorów przy przejściu z 14nm na 7nm. Po prostu dlatego że te wymiary technologiczne nie mają nic wspólnego z faktycznymi wielkościami bramek tranzystorów, są nazwami handlowymi.
Miałem jednak na myśli litografię EUV, która przyniesie dalsze zmniejszenie wielkości tranzystorów, tak że będą one faktycznie czterokrotnie mniejsze od wykonanych w technologii 14 nm. Wtedy będzie można odczuć znaczny postęp i RTX stanie się popularny wśród graczy.
Faktycznie, nie doceniłem marketingowych obietnic TSMC, które obiecuje, zdaje się, 70% redukcję powierzchni. Zobaczymy, jak to będzie wyglądać w praktyce dla większych układów, nie małych chipów mobilnych.
Jednak to i tak bez znaczenia. Nawet, jeśli litografia 7 nm może przynieść 4x większą wydajność, to i tak nie zobaczymy tego w następnej generacji - Nvidia nigdy nie robiła przeskoków większych niż 2x. Najwcześniej będzie to więc generacja RTX 4k możliwe, że z bardziej przemyślaną architekturą.
Po drugie, naiwne jest założenie, że RTX 2080 Ti zapewnia 60 fps w 1080p - póki co w Battlefieldzie V widujemy spadki w okolice 30 fps, a gra przeszła już jeden downgrade graficzny ray tracingu: https://m.pclab.pl/news78767.html
Teraz zanosi się na kolejny downgrade, bo na jednej mapie z bardziej widocznymi efektami spadki są ogromne. Zresztą podobnie było na pokazach Shadow of The Tomb Raider czy nawet tej chińskiej gierki Justice (nawet poniżej 30 fps). Tak więc na RT trzeba będzie czekać do RTX 5k w 5 nm, a i tak dość wydajny będzie tylko RTX 5080 Ti.
Jeszcze odnośnie 7 nm - wydaje mi się, że nieco przeceniasz jego wpływ na wydajność. Przy przejściu z 28 nm na 16 nm, przy 2x większym zagęszczeniu tranzystorów, liczba rdzeni CUDA wzrosła tylko o 25% (Titan X Maxwell vs Titan XP). Reszta wzrostu wzięła się ze znacznie wyższych zegarów (980 Ti boost ok. 1100 MHz, 1080 Ti boost ok. 1600 MHz - wzrost o ok. 50%). Wątpliwe, żeby udało się uzyskać taki wzrost zegarów tym razem - Vega w 7 nm każe przypuszczać, że nie będzie to łatwe. Nawet jeśli się uda, będzie wymagało zmniejszenia zagęszczenia pikseli i większego TDP, co niweluje część korzyści z 7 nm. Tak więc bardziej dopracowany RT może nastąpić nawet po RTX 5k - jest wprowadzony kilka generacji za wcześnie. I to wszystko przy założeniu, że RT pozostanie na obecnym, miernym poziomie. Do lepszej jakości będzie potrzeba jeszcze większej mocy - dalsze opóźnienia w nastaniu 'ery RT'.
Wystarczy, że poczekasz na nowe gry tworzone z myślą o wykorzystaniu śledzenia promieni a nie będziesz oceniał technologii na podstawie jednej gry, w której deweloperzy się uparli, że każdy sufit ma się błyszczeć, jakby pół godziny wcześniej został pomalowany farbą olejną.
A tak w ogóle to ty nie oczekujesz zbyt wiele? Naprawdę myślałeś, że gry nagle zaczną wyglądać jak filmowe rendery? NVidia sugerowała, do czego może zostać użyte RT przy tworzeniu grafiki w czasie rzeczywistym.
Czemu mi wciskasz coś czego w żaden sposób nie wyraziłem? Czego dotyczyły moje wypowiedzi?
1. Hybrid DXR to nie jest RT - PRAWDA. To nie jest RT. Tylko pewien element obliczeń to stricte raytracing, cała reszta jest od tego zupełnie niezależna. Czy to udawane RT? Ja tego nie napisałem. Nie rozumiem problemu
2. Wydajność RTX2080 nie wystarcza do realtime RT dla 1080p z rozsądną ilością klatek na sekundę. PRAWDA. Nie wystarcza.
3. Wydajność po włączeniu hybrydowego renderingu spada - PRAWDA, SPADA, w każdym tytule, który już techniką się pochwalił na filmikach. Nie ma i nie będzie ANI JEDNEGO tytułu, który po włączeniu raytracingu będzie oferował TYLE SAMO klatek.
Wyraziłem swoją opinię na temat tego czy obecne rozwiązanie nvidii jest na tyle wydajne by udźwignąć pełne RT - nie jest. Masz kontrargument to pokaż. Wyraziłem opinię na temat tego czy obecne rozwiązanie nvidii jest na tyle wydajne by hybrydowe RT zapewniało odpowiednią płynność w rozdzielczościach, którymi zainteresowani są gracze nabywający takie karty. I tu również odpowiedź jest NIE. W żaden sposób nie podkopuję technologii samej w sobie, w żaden sposób nie podważam wydajności RT Cores, w żaden sposób nie twierdzę, że nvidia postępuje niewłaściwie rozwijając produkty pod tą technikę.
To o czym pisałem to słuszne (jak widać) obawy o zakres stosowania tej technologii, koszt jej wdrożenia oraz wydajność końcową względem wzrostu aspektów wizualnych. Już teraz są w niektórych tytułach zarzuty, że w pewnych sytuacjach porównuje się screeny z RT do screenów bez jakiejkolwiek innej techniki, która w danym miejscu mogłaby być wykorzystana do poprawy grafiki (a nie kosztowałaby tyle wydajności co RT). Innymi słowy NV wyszła przed szereg i zbiera baty. Nie ona pierwsza i wcale też nie największe. Ale argumenty są słuszne więc nie rozumiem czemu się tak pieklisz!?
Twoje wypowiedzi dotyczyły tego, że wydajność śledzenia promieni w obecnej generacji kart jest niewystarczająca. Ja cały czas uważam, że masz błędne założenia, że RT musi być wykorzystywane od razu do wszystkiego.
1. Nie ma czegoś takiego jak Hybrid DXR. W ogóle mylisz pojęcia. DXR to jest API, które pozwala na korzystanie ze śledzenia promieni. Hybrid Rendering to określenie użyte przez NVidia na proces renderowania, w którym używa się rasteryzacji do pewnych elementów a do innych śledzenia promieni.
2. Oczywiście, że nawet RTX 2070 da radę renderować zaawansowaną scenę ze złożoną geometrią tylko z użyciem śledzenia promieni w FullHD 60 FPS. Tylko po co, skoro rasteryzacja jest szybsza a daje ten sam efekt?
3. Piszesz, że wydajność spada po włączeniu RT. No ale to chyba logiczne. Tak jak pisałem, jeżeli liczysz odbicia dla każdego piksela z użyciem śledzenia promieni, to musisz wykonać dwa razy więcej obliczeń ze względu na potrzebę obliczania koloru również odbicia.
Wcześniej twierdziłeś, że RT to tylko namiastka, co jest bzdurą.
Teraz z kolei piszesz, że rozwiązanie NVidia jest za słabe, by cały obraz renderować tylko z jego użyciem. Nie jest, jednak jak napisałem wyżej skoro rasteryzacja jest szybsza to ona będzie używana tam gdzie może. Poza tym NVidia nigdzie nie sugerowała, że wszystko ma być od razu obliczane z użyciem śledzenia promieni. Wręcz przeciwnie, podawała przykłady wykorzystania RT.
Ja się nie pieklę a twoje argumenty nie są słuszne. Ja uważam, że próbujesz się na siłę wymądrzać poprzez oczywiste i banalne stwierdzenia. Przypomnę ci jeszcze raz, że pisałeś o tej technologii jako namiastce. Zmienisz zdanie gdy zobaczysz, jak wygląda np. okluzja otoczenia liczona za pomocą śledzenia promieni w porównaniu do HBAO+.
Nie ma czegoś takiego jak Hybrid DXR. W ogóle mylisz pojęcia. DXR to jest API, które pozwala na korzystanie ze śledzenia promieni. Hybrid Rendering to określenie użyte przez NVidia na proces renderowania, w którym używa się rasteryzacji do pewnych elementów a do innych śledzenia promieni.
DXR to API pozwalające wykorzystać rt, a na ile to sam MS odpowiedział
DXR will initially be used to supplement current rendering techniques such as screen space reflections, for example, to fill in data from geometry that’s either occluded or off-screen. This will lead to a material increase in visual quality for these effects in the near future. Over the next several years, however, we expect an increase in utilization of DXR for techniques that are simply impractical for rasterization, such as true global illumination. Eventually, raytracing may completely replace rasterization as the standard algorithm for rendering 3D scenes.
Co za tym idzie obecnie tak czy siak mamy hybrydowy rendering i niczego innego się spodziewać nie można.
DXR do efektów RT nie jest potrzebne, można by to ogarnąć bibliotekami producenta (tak jak ATI pozwoliło wykorzystać Truform w grach DX8). Niemniej jest to jednak standard który można wykorzystać z SDK więc na dłuższą metę bardziej opłacalny. Gry będą korzystać z hybrydowego renderingu oferowanego przez DXR. Kiedyś DXR może będzie miało wystarczająco mocną platformę sprzętową by robić pełne RT, taki jest cel, zatem sformułowanie 'hybrydowe DXR' precyzyjne nie jest, ale też nie tak dalekie od prawdy jak sugerujesz.
Oczywiście, że nawet RTX 2070 da radę renderować zaawansowaną scenę ze złożoną geometrią tylko z użyciem śledzenia promieni w FullHD 60 FPS.
No zaraz, zaraz, wieszczą erę raytracingu, pokazują kartę wspierającą to sprzętowo, a nie mają nawet prostego interaktywnego demka pokazującego różnicę między full rt, a dxr, a klasyczną rasteryzacją? Tak, wiem że na pokazie były starwarsy na 4 quadro starszej generacji kontra jeden turing. Ale to nie było demo interaktywne... a to jest akurat cecha bardzo potrzebna w grach.
Wcześniej twierdziłeś, że RT to tylko namiastka, co jest bzdurą.
To może cytat z takiej wypowiedzi? Ach, nie ma... bo mowa była o implementacji w grach. Jeśli nie ma różnicy między pełnym RT, a rasteryzacją z elementami RT to po co w ogóle używać RT? A jeśli jest to jak nazwać rt do liczenia samych odbić dołożone do klasycznego potoku? Albo cała scena jest liczona w technice RT i jest to RT, albo jest tylko część i wtedy to RT nie jest. Nikt nie nazywa samochodu elektrycznego hybrydą, ale też nikt nie nazywa hybrydy samochodem elektrycznym. A do tego jest stworzony Turing. Do hybrydy. Czy do 10gigarays/s rzeczywiście potrzebny jest denoise na tensor cores? Przecież dla takiej ilości to już powinien pełny RT wyśmienicie działać bez dodatkowych zabiegów. Chyba, że są jakieś ograniczenia, o których nie ma mowy nawet małą czcionką.
Poza tym NVidia nigdzie nie sugerowała, że wszystko ma być od razu obliczane z użyciem śledzenia promieni. Wręcz przeciwnie, podawała przykłady wykorzystania RT.
Przecież nv reklamuje tę serię jako dedykowaną do realtime raytracing. Czy zaprzeczysz?
Przypomnę ci jeszcze raz, że pisałeś o tej technologii jako namiastce
To przypomnij, konkretnie jaka dyskusja, jaki konktekst, jaka treść, a nie takie sranie w banie.
Co za tym idzie obecnie tak czy siak mamy hybrydowy rendering i niczego innego się spodziewać nie można.
DXR do efektów RT nie jest potrzebne, można by to ogarnąć bibliotekami producenta (tak jak ATI pozwoliło wykorzystać Truform w grach DX8). Niemniej jest to jednak standard który można wykorzystać z SDK więc na dłuższą metę bardziej opłacalny. Gry będą korzystać z hybrydowego renderingu oferowanego przez DXR. Kiedyś DXR może będzie miało wystarczająco mocną platformę sprzętową by robić pełne RT, taki jest cel, zatem sformułowanie 'hybrydowe DXR' precyzyjne nie jest, ale też nie tak dalekie od prawdy jak sugerujesz.
Przestań się wreszcie mądrzyć. DXR nie ma nic wspólnego z hybrydowym renderingiem. To jest API, które pozwala uruchamiać specjalne shadery, w których można obliczać przecięcia promieni. Nawet nie potrafisz zrozumieć prostych kilku zdań po angielsku. Ja ci mam to przetłumaczyć?
I znowu twoje mądrości, że można by cośtam cośtam. Pytanie tylko po co, skoro Microsoft stworzył uniwersalne API rozszerzające po prostu DirectX 12?
Microsoft już udostępnił kod źródłowy do 6 przykładów. W żadnym z nich nie zastosowano hybrydowego renderingu. Najnowszy przykład renderuje scenę z AO wyłącznie za pomocą śledzenia promieni. Czy to jest dla ciebie wystarczający argument, że się mylisz?
Promilus1984 @ 2018.11.23 19:55
No zaraz, zaraz, wieszczą erę raytracingu, pokazują kartę wspierającą to sprzętowo, a nie mają nawet prostego interaktywnego demka pokazującego różnicę między full rt, a dxr, a klasyczną rasteryzacją? Tak, wiem że na pokazie były starwarsy na 4 quadro starszej generacji kontra jeden turing. Ale to nie było demo interaktywne... a to jest akurat cecha bardzo potrzebna w grach.
NVidia pokazała jakie możliwości daje śledzenie promieni. Poza tym wie to każdy, kto zajmuje się tworzeniem grafiki trójwymiarowej. Pokazane zostało jak wygląda globalne oświetlenie w nowym Metro. Czego jeszcze chcesz. A właśnie jak za pomocą śledzenia promieni renderujesz scenę, gdzie nie ma odbić, globalnego oświetlenia czy innych efektów to nie zobaczysz różnicy, nie ważne w jaki sposób jest generowany obraz.
Demo StarWars to nie jest film tylko rendering w czasie rzeczywistym więc nie wiem o co ci chodzi.
Promilus1984 @ 2018.11.23 19:55
To może cytat z takiej wypowiedzi? Ach, nie ma... bo mowa była o implementacji w grach. Jeśli nie ma różnicy między pełnym RT, a rasteryzacją z elementami RT to po co w ogóle używać RT? A jeśli jest to jak nazwać rt do liczenia samych odbić dołożone do klasycznego potoku? Albo cała scena jest liczona w technice RT i jest to RT, albo jest tylko część i wtedy to RT nie jest. Nikt nie nazywa samochodu elektrycznego hybrydą, ale też nikt nie nazywa hybrydy samochodem elektrycznym. A do tego jest stworzony Turing. Do hybrydy.
Czyli ty uważasz, że w grze nawet menu będzie musiało być rysowane za pomocą śledzenia promieni, inaczej nie będzie można powiedzieć, że obraz jest tworzony w ten sposób?
Promilus1984 @ 2018.11.23 19:55
Czy do 10gigarays/s rzeczywiście potrzebny jest denoise na tensor cores? Przecież dla takiej ilości to już powinien pełny RT wyśmienicie działać bez dodatkowych zabiegów. Chyba, że są jakieś ograniczenia, o których nie ma mowy nawet małą czcionką.
Nie ma ograniczeń. Odszumianie jest potrzebne. Przykład to globalne oświetlenie. Promień, który pada na matową powierchnię może się odbić w dowolnym kierunku. W związku z tym, żeby nie liczyć odbić w tysiącach różnych kierunków trzeba wybrać jeden, do tego używa się szumu. A później taki obraz trzeba odszumić. Jeżeli liczone jest AO lub GI to można je po prostu rozmyć inteligentnym filtrem uwzględniającym głębię i wektory normalne. Tak realizowane jest to w przykładzie Microsoft, o którym pisałem wcześniej.
Promilus1984 @ 2018.11.23 19:55
Przecież nv reklamuje tę serię jako dedykowaną do realtime raytracing. Czy zaprzeczysz?
To pokaż mi tą reklamę.
Promilus1984 @ 2018.11.23 19:55
To przypomnij, konkretnie jaka dyskusja, jaki konktekst, jaka treść, a nie takie sranie w banie.
Spokojnie.
Napisałeś, że to jest namiastka renderowania całej sceny w technice śledzenia promieni i że do tego RTX'y są za słabe. Czyli ten jeden programista z Microsoft'u, którego nieukończony przykład jednak potrafi renderować całą scenę (z okluzją otoczenia) za pomocą śledzenia promieni, dokonał niemożliwego?
To jest namiastka renderowania całej sceny w technice śledzenia promieni. I tylko o to chodzi. Na to RTX są zwyczajnie za słabe, a jak widać nawet jeśli ograniczy się technikę tylko do określonych obiektów (czy materiałów) to i tak wydajność bardzo, bardzo widocznie maleje. Zatem NV zrobiła krok, nawet można uznać, że w dobrą stronę, ale nijak nie ma wystarczająco dobrego wsparcia by to można uznać za popularyzację. Brakuje programistów zdolnych to ogarnąć bez drastycznego spadku wydajności, brakuje samych mocy przerobowych topowej karty graficznej. Pod względem sprzętu zatem jest zwyczajnie ZA WCZEŚNIE.
Przeczytaj mój edytowany komentarz i przestań nazywać to namiastką. RTX'y są w stanie obliczyć w ciągu sekundy kilka miliardów promieni i jest to prawdziwe śledzenie promieni. To jak to zostanie wykorzystane w grze zależy tylko od deweloperów.
https://blogs.nvidia.com/blog/2018/03/19/w...-rasterization/
https://developer.nvidia.com/rtx/raytracing
https://blogs.nvidia.com/blog/2018/03/19/w...-rasterization/
It consists of a ray-tracing engine running on NVIDIA Volta architecture GPUs. It’s designed to support ray tracing through a variety of interfaces. NVIDIA partnered with Microsoft to enable full RTX support via Microsoft’s new DirectX Raytracing (DXR) API.
And to help game developers take advantage of these capabilities, NVIDIA also announced the GameWorks SDK will add a ray tracing denoiser module. The updated GameWorks SDK, coming soon, includes ray-traced area shadows and ray-traced glossy reflections.
All of this will give game developers, and others, the ability to bring ray-tracing techniques to their work to create more realistic reflections, shadows and refractions. As a result, the games you enjoy at home will get more of the cinematic qualities of a Hollywood blockbuster
Po pierwsze, technologia Nvidii to hybryda - łączy rasteryzacje z generowaniem grafiki z śledzeniem promieni- czyli proteza prawdziwego, pełnego silnika renderującego. opartego tylko na śledzeniu promieni. Do tego dochodzi odszumianie sceny na bazie 'AI'.
Nvidia ze swoim marketingowym bełkotem jest śmieszna - Renderowanie w czasie rzeczywistym w jakości jak w przemyśle filmowym. Chciałbym żeby Nvidia podpisała partnerstwo z jakaś wytwórnią filmową na łamach, której mieli by wygenerować odbicia, zniekształcenia, glebie ostrości, miękkie cienie, przezroczystość, przenikające światło przez obiekty, załamania światła czy globalne oświetlenie na scenach na pojedynczym GPU w czasie rzeczywistym jak to NV ładnie reklamuje. Trwało by to wieki, a i tak by było szybsze niż na GPU bez RT cores i tensorów.
W chwili obecnej RTX Nvidii maksymalnie pozwala na zastosowanie jednego, góra dwóch efektów.
Przejście z rasteryzacji na pełen Path/Ray Tracing będzie największym przeskokiem w dziedzinie generowania grafiki w czasie rzeczywistym, narazie to możesz sobie tego użyć żeby za symulować wygląd pożądanego efektu i uzyskać go przy użyciu wydajniejszej rasteryzacji.
https://www.youtube.com/watch?v=SrF4k6wJ-do
'Beyond Turing - Ray Tracing and the Future of Computer Graphics'
1 próbka/promień na piksel na miękkie cienie... A co z resztą?
https://chunky.llbit.se/path_tracing.html
No tak, nikt nie bierze pod uwagę, że RT w rozsądnej rozdzielczości, rozsądnej precyzji i rozsądnej ilości klatek na sekundę to proces bardzo, bardzo zasobożerny.
Coś jeszcze ciekawego masz do dodania?
Ale jakie ma znaczenie ile jest w stanie miliardów promieni liczyć skoro liczy ZA MAŁO?
No tak, nikt nie bierze pod uwagę, że RT w rozsądnej rozdzielczości, rozsądnej precyzji i rozsądnej ilości klatek na sekundę to proces bardzo, bardzo zasobożerny.
Coś jeszcze ciekawego masz do dodania?
Ale jakie ma znaczenie ile jest w stanie miliardów promieni liczyć skoro liczy ZA MAŁO?
To ty tak uważasz.
To jest namiastka renderowania całej sceny w technice śledzenia promieni. I tylko o to chodzi. Na to RTX są zwyczajnie za słabe, a jak widać nawet jeśli ograniczy się technikę tylko do określonych obiektów (czy materiałów) to i tak wydajność bardzo, bardzo widocznie maleje. Zatem NV zrobiła krok, nawet można uznać, że w dobrą stronę, ale nijak nie ma wystarczająco dobrego wsparcia by to można uznać za popularyzację. Brakuje programistów zdolnych to ogarnąć bez drastycznego spadku wydajności, brakuje samych mocy przerobowych topowej karty graficznej. Pod względem sprzętu zatem jest zwyczajnie ZA WCZEŚNIE.
Przeczytaj mój edytowany komentarz i przestań nazywać to namiastką. RTX'y są w stanie obliczyć w ciągu sekundy kilka miliardów promieni i jest to prawdziwe śledzenie promieni. To jak to zostanie wykorzystane w grze zależy tylko od deweloperów.
Chodzi o to, że cała scena nie jest robiona przy użyciu RT więc jest to namiastka. Przy użyciu RT da się zrezygnować z rasteryzacji, ale mógłbyś iść zaparzyć herbatę w czasie renderowania jednej klatki na RTX2080Ti. Poza tym sam RT nie jest techniką 'realistyczną', bo jak ktoś tu (albo w innym miejscu) napisał pomija całkowicie zjawiska falowe. A do tego nie jest liczony (przynajmniej w wykonaniu NV) od źródła światła.
Ani Ty, ani NV nie udowodniliście, że jest inaczej. Jeśli wydajność jest wystarczająca to pokaż prawdziwe RT w fullhd w 60fps na pojedynczym RTX2080. Bez artefaktów.
Przeczytaj mój edytowany komentarz i przestań nazywać to namiastką. RTX'y są w stanie obliczyć w ciągu sekundy kilka miliardów promieni i jest to prawdziwe śledzenie promieni. To jak to zostanie wykorzystane w grze zależy tylko od deweloperów.
Chodzi o to, że cała scena nie jest robiona przy użyciu RT więc jest to namiastka. Poza tym sam RT nie jest techniką 'realistyczną', bo jak ktoś tu (albo w innym miejscu) napisał pomija całkowicie zjawiska falowe. A do tego nie jest liczony (przynajmniej w wykonaniu NV) od źródła światła.
Ja nie zgadzam się z tobą. NVidia udostępniła sprzętowe śledzenie promieni, o ogromnej, do niedawna wręcz niewyobrażalnej wydajności. Jest to tak uniwersalne, że może być wykorzystane na 1000 różnych sposobów. Nowe funkcje dostępne w shaderach nie narzucają w żaden sposób jak RT ma być wykorzystane ani nie mają właściwie ograniczeń. Nic nie stoi na przeszkodzie, żeby promienie liczyć od światła do kamery. Po prostu liczenie promieni na każdy piksel jest szybsze. Wiadomo, że deweloperzy wybiorą te rozwiązania, które pozwolą na osiągnięcie wyższej liczby klatek.
Chodzi o to, że cała scena nie jest robiona przy użyciu RT więc jest to namiastka. Poza tym sam RT nie jest techniką 'realistyczną', bo jak ktoś tu (albo w innym miejscu) napisał pomija całkowicie zjawiska falowe. A do tego nie jest liczony (przynajmniej w wykonaniu NV) od źródła światła.
Ja nie zgadzam się z tobą. NVidia udostępniła sprzętowe śledzenie promieni, o ogromnej, do niedawna wręcz niewyobrażalnej wydajności. Jest to tak uniwersalne, że może być wykorzystane na 1000 różnych sposobów. Nowe funkcje dostępne w shaderach nie narzucają w żaden sposób jak RT ma być wykorzystane ani nie mają właściwie ograniczeń. Nic nie stoi na przeszkodzie, żeby promienie liczyć od światła do kamery. Po prostu liczenie promieni na każdy piksel jest szybsze. Wiadomo, że deweloperzy wybiorą te rozwiązania, które pozwolą na osiągnięcie wyższej liczby klatek.
To w którym miejscu zaczynają to detal, faktycznie rozsądniej jest dla sceny w czasie rzeczywistym zacząć od kamery, tego się nie czepiam, ale wymieniłem z uwagi na to, że jest to pewna różnica.
Ale to, że wciąż korzystasz z rasteryzacji to nie jest szczegół. Tak jak poprzednicy pisali, jest to krok w dobrą stronę tylko, że brak jest mocy dla 'nieoszukanego' RT. Parę detali do tego odszumionych i tyle, dla całej sceny brak baaaaaaaaaardzo dużo mocy i to by efekt wyszedł na poziomie Quake 1.
Edit: Gdybyś nie zaczął atakować zwrotu 'udawane RT' to by to przechodziło bez echa z myślą, że będzie lepiej, a tak trzeba sprowadzać optymistyczne wizje do parteru...
To co robiłla NV i tak jest super dla odbić tam gdzie są niezbędne (lustra), zmniejsza to znacznie nakład pracy, będzie miało to jednak znaczenie jak większość GPU to umożliwi i to może być ta najbliższa przyszłość.
Ani Ty, ani NV nie udowodniliście, że jest inaczej. Jeśli wydajność jest wystarczająca to pokaż prawdziwe RT w fullhd w 60fps na pojedynczym RTX2080. Bez artefaktów.
Wystarczy, że poczekasz na nowe gry tworzone z myślą o wykorzystaniu śledzenia promieni a nie będziesz oceniał technologii na podstawie jednej gry, w której deweloperzy się uparli, że każdy sufit ma się błyszczeć, jakby pół godziny wcześniej został pomalowany farbą olejną.
A tak w ogóle to ty nie oczekujesz zbyt wiele? Naprawdę myślałeś, że gry nagle zaczną wyglądać jak filmowe rendery? NVidia sugerowała, do czego może zostać użyte RT przy tworzeniu grafiki w czasie rzeczywistym.
Ja nie zgadzam się z tobą. NVidia udostępniła sprzętowe śledzenie promieni, o ogromnej, do niedawna wręcz niewyobrażalnej wydajności. Jest to tak uniwersalne, że może być wykorzystane na 1000 różnych sposobów. Nowe funkcje dostępne w shaderach nie narzucają w żaden sposób jak RT ma być wykorzystane ani nie mają właściwie ograniczeń. Nic nie stoi na przeszkodzie, żeby promienie liczyć od światła do kamery. Po prostu liczenie promieni na każdy piksel jest szybsze. Wiadomo, że deweloperzy wybiorą te rozwiązania, które pozwolą na osiągnięcie wyższej liczby klatek.
To w którym miejscu zaczynają to detal, faktycznie rozsądniej jest dla sceny w czasie rzeczywistym zacząć od kamery, tego się nie czepiam, ale wymieniłem z uwagi na to, że jest to pewna różnica.
Ale to, że wciąż korzystasz z rasteryzacji to nie jest szczegół. Tak jak poprzednicy pisali, jest to krok w dobrą stronę tylko, że brak jest mocy dla 'nieoszukanego' RT. Parę detali do tego odszumionych i tyle, dla całej sceny brak baaaaaaaaaardzo dużo mocy i to by efekt wyszedł na poziomie Quake 1.
Ty teoretyzujesz i niestety bardzo się mylisz. Jak najbardziej można całą scenę obliczać za pomocą RT, jednak w przypadku promieni liczonych na piksel, rzucanych od kamery efekt jest identyczny jak rasteryzacja, dlatego RT lepiej używać dopiero licząc promienie odbite.
To w którym miejscu zaczynają to detal, faktycznie rozsądniej jest dla sceny w czasie rzeczywistym zacząć od kamery, tego się nie czepiam, ale wymieniłem z uwagi na to, że jest to pewna różnica.
Ale to, że wciąż korzystasz z rasteryzacji to nie jest szczegół. Tak jak poprzednicy pisali, jest to krok w dobrą stronę tylko, że brak jest mocy dla 'nieoszukanego' RT. Parę detali do tego odszumionych i tyle, dla całej sceny brak baaaaaaaaaardzo dużo mocy i to by efekt wyszedł na poziomie Quake 1.
Ty teoretyzujesz i niestety bardzo się mylisz. Jak najbardziej można całą scenę obliczać za pomocą RT, jednak w przypadku promieni liczonych na piksel, rzucanych od kamery efekt jest identyczny jak rasteryzacja, dlatego RT lepiej używać dopiero licząc promienie odbite.
WSZYSTKIE promienie są odbite, chyba, że obiekty fizyczne są źródłem światła spolaryzowanego.
Ty teoretyzujesz i niestety bardzo się mylisz. Jak najbardziej można całą scenę obliczać za pomocą RT, jednak w przypadku promieni liczonych na piksel, rzucanych od kamery efekt jest identyczny jak rasteryzacja, dlatego RT lepiej używać dopiero licząc promienie odbite.
WSZYSTKIE promienie są odbite, chyba, że obiekty fizyczne są źródłem światła spolaryzowanego.
No nie. Te początkowe (pierwotne), które generuje się z pozycji kamery w odpowiednich kierunkach to nie są odbite. I można je zastąpić rasteryzacją.
https://github.com/Microsoft/DirectX-Graph...Raytracing.hlsl
WSZYSTKIE promienie są odbite, chyba, że obiekty fizyczne są źródłem światła spolaryzowanego.
No nie. Te początkowe (pierwotne), które generuje się z pozycji kamery w odpowiednich kierunkach to nie są odbite. I można je zastąpić rasteryzacją.
Obiekt nie oświetlony (odbijający światło), nie będący źródłem światła jest niewidoczny (jest czarną dziurą z kreskówki).
No nie. Te początkowe (pierwotne), które generuje się z pozycji kamery w odpowiednich kierunkach to nie są odbite. I można je zastąpić rasteryzacją.
Obiekt nie oświetlony (odbijający światło), nie będący źródłem światła jest niewidoczny (jest czarną dziurą z kreskówki).
Przejrzyj ten kod, który zamieściłem. Pierwsze promienie są puszczane, aby określić co widzi kamera i to można zastąpić rasteryzacją dla każdego piksela zapisując w buforach pozycję i wektor normalny.
A tak w ogóle to ty nie oczekujesz zbyt wiele? Naprawdę myślałeś, że gry nagle zaczną wyglądać jak filmowe rendery? NVidia sugerowała, do czego może zostać użyte RT przy tworzeniu grafiki w czasie rzeczywistym.
Czemu mi wciskasz coś czego w żaden sposób nie wyraziłem? Czego dotyczyły moje wypowiedzi?
1. Hybrid DXR to nie jest RT - PRAWDA. To nie jest RT. Tylko pewien element obliczeń to stricte raytracing, cała reszta jest od tego zupełnie niezależna. Czy to udawane RT? Ja tego nie napisałem. Nie rozumiem problemu
2. Wydajność RTX2080 nie wystarcza do realtime RT dla 1080p z rozsądną ilością klatek na sekundę. PRAWDA. Nie wystarcza.
3. Wydajność po włączeniu hybrydowego renderingu spada - PRAWDA, SPADA, w każdym tytule, który już techniką się pochwalił na filmikach. Nie ma i nie będzie ANI JEDNEGO tytułu, który po włączeniu raytracingu będzie oferował TYLE SAMO klatek.
Wyraziłem swoją opinię na temat tego czy obecne rozwiązanie nvidii jest na tyle wydajne by udźwignąć pełne RT - nie jest. Masz kontrargument to pokaż. Wyraziłem opinię na temat tego czy obecne rozwiązanie nvidii jest na tyle wydajne by hybrydowe RT zapewniało odpowiednią płynność w rozdzielczościach, którymi zainteresowani są gracze nabywający takie karty. I tu również odpowiedź jest NIE. W żaden sposób nie podkopuję technologii samej w sobie, w żaden sposób nie podważam wydajności RT Cores, w żaden sposób nie twierdzę, że nvidia postępuje niewłaściwie rozwijając produkty pod tą technikę.
To o czym pisałem to słuszne (jak widać) obawy o zakres stosowania tej technologii, koszt jej wdrożenia oraz wydajność końcową względem wzrostu aspektów wizualnych. Już teraz są w niektórych tytułach zarzuty, że w pewnych sytuacjach porównuje się screeny z RT do screenów bez jakiejkolwiek innej techniki, która w danym miejscu mogłaby być wykorzystana do poprawy grafiki (a nie kosztowałaby tyle wydajności co RT). Innymi słowy NV wyszła przed szereg i zbiera baty. Nie ona pierwsza i wcale też nie największe. Ale argumenty są słuszne więc nie rozumiem czemu się tak pieklisz!?
Miałem jednak na myśli litografię EUV, która przyniesie dalsze zmniejszenie wielkości tranzystorów, tak że będą one faktycznie czterokrotnie mniejsze od wykonanych w technologii 14 nm. Wtedy będzie można odczuć znaczny postęp i RTX stanie się popularny wśród graczy.
Jednak to i tak bez znaczenia. Nawet, jeśli litografia 7 nm może przynieść 4x większą wydajność, to i tak nie zobaczymy tego w następnej generacji - Nvidia nigdy nie robiła przeskoków większych niż 2x. Najwcześniej będzie to więc generacja RTX 4k możliwe, że z bardziej przemyślaną architekturą.
Po drugie, naiwne jest założenie, że RTX 2080 Ti zapewnia 60 fps w 1080p - póki co w Battlefieldzie V widujemy spadki w okolice 30 fps, a gra przeszła już jeden downgrade graficzny ray tracingu:
https://m.pclab.pl/news78767.html
Teraz zanosi się na kolejny downgrade, bo na jednej mapie z bardziej widocznymi efektami spadki są ogromne. Zresztą podobnie było na pokazach Shadow of The Tomb Raider czy nawet tej chińskiej gierki Justice (nawet poniżej 30 fps). Tak więc na RT trzeba będzie czekać do RTX 5k w 5 nm, a i tak dość wydajny będzie tylko RTX 5080 Ti.
Jeszcze odnośnie 7 nm - wydaje mi się, że nieco przeceniasz jego wpływ na wydajność. Przy przejściu z 28 nm na 16 nm, przy 2x większym zagęszczeniu tranzystorów, liczba rdzeni CUDA wzrosła tylko o 25% (Titan X Maxwell vs Titan XP). Reszta wzrostu wzięła się ze znacznie wyższych zegarów (980 Ti boost ok. 1100 MHz, 1080 Ti boost ok. 1600 MHz - wzrost o ok. 50%). Wątpliwe, żeby udało się uzyskać taki wzrost zegarów tym razem - Vega w 7 nm każe przypuszczać, że nie będzie to łatwe. Nawet jeśli się uda, będzie wymagało zmniejszenia zagęszczenia pikseli i większego TDP, co niweluje część korzyści z 7 nm. Tak więc bardziej dopracowany RT może nastąpić nawet po RTX 5k - jest wprowadzony kilka generacji za wcześnie. I to wszystko przy założeniu, że RT pozostanie na obecnym, miernym poziomie. Do lepszej jakości będzie potrzeba jeszcze większej mocy - dalsze opóźnienia w nastaniu 'ery RT'.
A tak w ogóle to ty nie oczekujesz zbyt wiele? Naprawdę myślałeś, że gry nagle zaczną wyglądać jak filmowe rendery? NVidia sugerowała, do czego może zostać użyte RT przy tworzeniu grafiki w czasie rzeczywistym.
Czemu mi wciskasz coś czego w żaden sposób nie wyraziłem? Czego dotyczyły moje wypowiedzi?
1. Hybrid DXR to nie jest RT - PRAWDA. To nie jest RT. Tylko pewien element obliczeń to stricte raytracing, cała reszta jest od tego zupełnie niezależna. Czy to udawane RT? Ja tego nie napisałem. Nie rozumiem problemu
2. Wydajność RTX2080 nie wystarcza do realtime RT dla 1080p z rozsądną ilością klatek na sekundę. PRAWDA. Nie wystarcza.
3. Wydajność po włączeniu hybrydowego renderingu spada - PRAWDA, SPADA, w każdym tytule, który już techniką się pochwalił na filmikach. Nie ma i nie będzie ANI JEDNEGO tytułu, który po włączeniu raytracingu będzie oferował TYLE SAMO klatek.
Wyraziłem swoją opinię na temat tego czy obecne rozwiązanie nvidii jest na tyle wydajne by udźwignąć pełne RT - nie jest. Masz kontrargument to pokaż. Wyraziłem opinię na temat tego czy obecne rozwiązanie nvidii jest na tyle wydajne by hybrydowe RT zapewniało odpowiednią płynność w rozdzielczościach, którymi zainteresowani są gracze nabywający takie karty. I tu również odpowiedź jest NIE. W żaden sposób nie podkopuję technologii samej w sobie, w żaden sposób nie podważam wydajności RT Cores, w żaden sposób nie twierdzę, że nvidia postępuje niewłaściwie rozwijając produkty pod tą technikę.
To o czym pisałem to słuszne (jak widać) obawy o zakres stosowania tej technologii, koszt jej wdrożenia oraz wydajność końcową względem wzrostu aspektów wizualnych. Już teraz są w niektórych tytułach zarzuty, że w pewnych sytuacjach porównuje się screeny z RT do screenów bez jakiejkolwiek innej techniki, która w danym miejscu mogłaby być wykorzystana do poprawy grafiki (a nie kosztowałaby tyle wydajności co RT). Innymi słowy NV wyszła przed szereg i zbiera baty. Nie ona pierwsza i wcale też nie największe. Ale argumenty są słuszne więc nie rozumiem czemu się tak pieklisz!?
Twoje wypowiedzi dotyczyły tego, że wydajność śledzenia promieni w obecnej generacji kart jest niewystarczająca. Ja cały czas uważam, że masz błędne założenia, że RT musi być wykorzystywane od razu do wszystkiego.
1. Nie ma czegoś takiego jak Hybrid DXR. W ogóle mylisz pojęcia. DXR to jest API, które pozwala na korzystanie ze śledzenia promieni. Hybrid Rendering to określenie użyte przez NVidia na proces renderowania, w którym używa się rasteryzacji do pewnych elementów a do innych śledzenia promieni.
2. Oczywiście, że nawet RTX 2070 da radę renderować zaawansowaną scenę ze złożoną geometrią tylko z użyciem śledzenia promieni w FullHD 60 FPS. Tylko po co, skoro rasteryzacja jest szybsza a daje ten sam efekt?
3. Piszesz, że wydajność spada po włączeniu RT. No ale to chyba logiczne. Tak jak pisałem, jeżeli liczysz odbicia dla każdego piksela z użyciem śledzenia promieni, to musisz wykonać dwa razy więcej obliczeń ze względu na potrzebę obliczania koloru również odbicia.
Wcześniej twierdziłeś, że RT to tylko namiastka, co jest bzdurą.
Teraz z kolei piszesz, że rozwiązanie NVidia jest za słabe, by cały obraz renderować tylko z jego użyciem. Nie jest, jednak jak napisałem wyżej skoro rasteryzacja jest szybsza to ona będzie używana tam gdzie może. Poza tym NVidia nigdzie nie sugerowała, że wszystko ma być od razu obliczane z użyciem śledzenia promieni. Wręcz przeciwnie, podawała przykłady wykorzystania RT.
Ja się nie pieklę a twoje argumenty nie są słuszne. Ja uważam, że próbujesz się na siłę wymądrzać poprzez oczywiste i banalne stwierdzenia. Przypomnę ci jeszcze raz, że pisałeś o tej technologii jako namiastce. Zmienisz zdanie gdy zobaczysz, jak wygląda np. okluzja otoczenia liczona za pomocą śledzenia promieni w porównaniu do HBAO+.
DXR to API pozwalające wykorzystać rt, a na ile to sam MS odpowiedział
Co za tym idzie obecnie tak czy siak mamy hybrydowy rendering i niczego innego się spodziewać nie można.
DXR do efektów RT nie jest potrzebne, można by to ogarnąć bibliotekami producenta (tak jak ATI pozwoliło wykorzystać Truform w grach DX8). Niemniej jest to jednak standard który można wykorzystać z SDK więc na dłuższą metę bardziej opłacalny. Gry będą korzystać z hybrydowego renderingu oferowanego przez DXR. Kiedyś DXR może będzie miało wystarczająco mocną platformę sprzętową by robić pełne RT, taki jest cel, zatem sformułowanie 'hybrydowe DXR' precyzyjne nie jest, ale też nie tak dalekie od prawdy jak sugerujesz.
No zaraz, zaraz, wieszczą erę raytracingu, pokazują kartę wspierającą to sprzętowo, a nie mają nawet prostego interaktywnego demka pokazującego różnicę między full rt, a dxr, a klasyczną rasteryzacją?
To może cytat z takiej wypowiedzi? Ach, nie ma... bo mowa była o implementacji w grach. Jeśli nie ma różnicy między pełnym RT, a rasteryzacją z elementami RT to po co w ogóle używać RT? A jeśli jest to jak nazwać rt do liczenia samych odbić dołożone do klasycznego potoku? Albo cała scena jest liczona w technice RT i jest to RT, albo jest tylko część i wtedy to RT nie jest. Nikt nie nazywa samochodu elektrycznego hybrydą, ale też nikt nie nazywa hybrydy samochodem elektrycznym. A do tego jest stworzony Turing. Do hybrydy. Czy do 10gigarays/s rzeczywiście potrzebny jest denoise na tensor cores? Przecież dla takiej ilości to już powinien pełny RT wyśmienicie działać bez dodatkowych zabiegów. Chyba, że są jakieś ograniczenia, o których nie ma mowy nawet małą czcionką.
Przecież nv reklamuje tę serię jako dedykowaną do realtime raytracing. Czy zaprzeczysz?
To przypomnij, konkretnie jaka dyskusja, jaki konktekst, jaka treść, a nie takie sranie w banie.
DXR do efektów RT nie jest potrzebne, można by to ogarnąć bibliotekami producenta (tak jak ATI pozwoliło wykorzystać Truform w grach DX8). Niemniej jest to jednak standard który można wykorzystać z SDK więc na dłuższą metę bardziej opłacalny. Gry będą korzystać z hybrydowego renderingu oferowanego przez DXR. Kiedyś DXR może będzie miało wystarczająco mocną platformę sprzętową by robić pełne RT, taki jest cel, zatem sformułowanie 'hybrydowe DXR' precyzyjne nie jest, ale też nie tak dalekie od prawdy jak sugerujesz.
Przestań się wreszcie mądrzyć. DXR nie ma nic wspólnego z hybrydowym renderingiem. To jest API, które pozwala uruchamiać specjalne shadery, w których można obliczać przecięcia promieni. Nawet nie potrafisz zrozumieć prostych kilku zdań po angielsku. Ja ci mam to przetłumaczyć?
I znowu twoje mądrości, że można by cośtam cośtam. Pytanie tylko po co, skoro Microsoft stworzył uniwersalne API rozszerzające po prostu DirectX 12?
Microsoft już udostępnił kod źródłowy do 6 przykładów. W żadnym z nich nie zastosowano hybrydowego renderingu. Najnowszy przykład renderuje scenę z AO wyłącznie za pomocą śledzenia promieni. Czy to jest dla ciebie wystarczający argument, że się mylisz?
NVidia pokazała jakie możliwości daje śledzenie promieni. Poza tym wie to każdy, kto zajmuje się tworzeniem grafiki trójwymiarowej. Pokazane zostało jak wygląda globalne oświetlenie w nowym Metro. Czego jeszcze chcesz. A właśnie jak za pomocą śledzenia promieni renderujesz scenę, gdzie nie ma odbić, globalnego oświetlenia czy innych efektów to nie zobaczysz różnicy, nie ważne w jaki sposób jest generowany obraz.
Demo StarWars to nie jest film tylko rendering w czasie rzeczywistym więc nie wiem o co ci chodzi.
Czyli ty uważasz, że w grze nawet menu będzie musiało być rysowane za pomocą śledzenia promieni, inaczej nie będzie można powiedzieć, że obraz jest tworzony w ten sposób?
Nie ma ograniczeń. Odszumianie jest potrzebne. Przykład to globalne oświetlenie. Promień, który pada na matową powierchnię może się odbić w dowolnym kierunku. W związku z tym, żeby nie liczyć odbić w tysiącach różnych kierunków trzeba wybrać jeden, do tego używa się szumu. A później taki obraz trzeba odszumić. Jeżeli liczone jest AO lub GI to można je po prostu rozmyć inteligentnym filtrem uwzględniającym głębię i wektory normalne. Tak realizowane jest to w przykładzie Microsoft, o którym pisałem wcześniej.
To pokaż mi tą reklamę.
Spokojnie.
Napisałeś, że to jest namiastka renderowania całej sceny w technice śledzenia promieni i że do tego RTX'y są za słabe. Czyli ten jeden programista z Microsoft'u, którego nieukończony przykład jednak potrafi renderować całą scenę (z okluzją otoczenia) za pomocą śledzenia promieni, dokonał niemożliwego?
Ty go zacytuj w związku z tą namiastką a nie znowu tworzysz opowieść.