komentarze
CryZenZobacz profil
Poziom ostrzeżenia: 0%
CryZen2018.11.22, 10:58
Porównania z Crysisem są pozbawione sensu. Grafika w Crysisie w tamtych czasach sprawiała, że ludzie zbierali szczęki z podłogi a RT... tylko fajnie wygląda i to na Ultra.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2018.11.22, 11:09
-2#42
Kyle_PL
... tylko, czy nie można uzyskać praktycznie tych samych efektów, przy użyciu tradycyjnych technik, jednak przy znacznie mniejszym spadku wydajności?

Dobre pytanie. Odpowiedź brzmi: nie, nie da się. Tzn. można zrobić tak, by równie ładnie wyglądało na screenach, ale odbicia nie będą odpowiadały otoczeniu, beda miały przekłamania.
bab11Zobacz profil
Poziom ostrzeżenia: 0%
bab112018.11.22, 11:59
Czyli 720p@30fps The Way It's Meant to be Played za 6000 zł.

BIERE.

Nie.
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2018.11.22, 12:20
Assassin @ 2018.11.22 11:09  Post: 1176206
Kyle_PL
... tylko, czy nie można uzyskać praktycznie tych samych efektów, przy użyciu tradycyjnych technik, jednak przy znacznie mniejszym spadku wydajności?

Dobre pytanie. Odpowiedź brzmi: nie, nie da się. Tzn. można zrobić tak, by równie ładnie wyglądało na screenach, ale odbicia nie będą odpowiadały otoczeniu, beda miały przekłamania.

Problem w tym, że producenci gier nawet nie będą próbować!
Będzie ładnie z RT albo paskudnie bez RT, tak jak w tej chińskiej grze Justice..
Nawet tam, gdzie odbicia da się zrobić bez RT (np. od powierzchni wody).
boogdalZobacz profil
Poziom ostrzeżenia: 0%
boogdal2018.11.22, 13:14
Andree @ 2018.11.22 10:37  Post: 1176199
boogdal @ 2018.11.22 10:20  Post: 1176194
Taki spadek wydajności kosztem iluzorycznego, niedostrzegalnego praktycznie efektu graficznego jest jakąś kpiną. Raytracing jest przyszłościową technologią, pokazują to m.in. filmy, ale na pewno jeszcze nie teraz.

Problem w tym że współczesne karty graficzne są... za szybkie. Jeśli monitor może wyświetlić max. 60 klatek/sek. , to kupno karty graficznej zdolnej renderować np. 200 klatek/sek. (w rozdzielczości tego monitora) nie ma ekonomicznego sensu! Oczywiście są gracze, którym 60 kl./sek. nie wystarcza, ale to niewielki ułamek, dla których przeznaczone są karty high-end. Całej reszcie wystarcza karta mid-range.
Tak więc producenci kart graficznych muszą wprowadzić nowe efekty, takie jak ray-tracing wymagający ogromnej mocy obliczeniowej, aby płynne granie znowu było zarezerwowane dla najbogatszych. Będzie to połączone z rezygnacją producentów gier z pracochłonnych technik artystycznych symulujących odbicia i grę świateł, przez co gry z wyłączonym RT będą wyglądać znacznie gorzej, co zachęci graczy do sięgnięcia do portfeli.


To nie wina 'zbyt szybkich kart graficznych' tylko rynku gier generalnie. Producenci uznali w którymś momencie (całkiem słusznie), że zdecydowanie bezpieczniej jest wydać grę o przeciętnych wymaganiach sprzętowych i przyzwoitej grafice, bo znajdą one zainteresowanie zarówno wśród graczy komputerowych jak i konsolowych. Grafika w grach komputerowych śmiało można powiedzieć stanęła w miejscu i to dobrych parę lat temu. Jeśli nic się nie zmieni zatrzyma się i rynek kart graficznych. Zauważ, że jeszcze kilka lat temu normalną sytuacją było, że topowe karty graficzne w najnowszych grach były regularnie w stanie wyświetlić 30-40 klatek, teraz wyścig zmienił się w odświeżanie. 144Hz czy nawet 240Hz to nowa papka marketingowa. Moim zdaniem jest to też odpowiedź na pytanie dlaczego AMD nie wypuszcza nowej Vegi za to odświeża 480 po raz trzeci. Taka karta, podobnie jak 1060tka jest w stanie w parze z procesorem średniej półki zapewnić 40-60kl w praktycznie każdej grze na rynku. Cokolwiek zmieni się niestety dopiero przy okazji PS5 Czy nowego Xboxa. Raytracing to tylko taka sama papka marketingowa jak właśnie 240Hz.
VirtuaBoyZobacz profil
Poziom ostrzeżenia: 0%
VirtuaBoy2018.11.22, 14:31
-1#46
Wpis usunięty przez moderatora
Edytowane przez moderatora (2018.11.22, 17:50)
VirtuaBoyZobacz profil
Poziom ostrzeżenia: 0%
VirtuaBoy2018.11.22, 14:35
Wpis usunięty przez moderatora
Edytowane przez moderatora (2018.11.22, 17:50)
VirtuaBoyZobacz profil
Poziom ostrzeżenia: 0%
VirtuaBoy2018.11.22, 14:39
-2#48
Wpis usunięty przez moderatora
Edytowane przez moderatora (2018.11.22, 17:50)
VirtuaBoyZobacz profil
Poziom ostrzeżenia: 0%
VirtuaBoy2018.11.22, 14:42
-2#49
Wpis usunięty przez moderatora
Edytowane przez moderatora (2018.11.22, 17:50)
VirtuaBoyZobacz profil
Poziom ostrzeżenia: 0%
VirtuaBoy2018.11.22, 14:44
-2#50
Wpis usunięty przez moderatora
Edytowane przez moderatora (2018.11.22, 17:50)
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2018.11.22, 14:51
Dedykowaną kartę od tego mogliby zrobić. Mniejszy rdzeń więc mniejsze problemy z uzyskiem a więcej rdzeni do RT by tam można było wpakować.
_gunnar_Zobacz profil
Poziom ostrzeżenia: 0%
_gunnar_2018.11.22, 14:52
Raptor9 @ 2018.11.22 10:19  Post: 1176193
Widać że wielu młodych nie pamięta czasów 20lat wstecz jak wychodził np. UNREAL lub później CRYSIS i zarzynał topowe karty znacznie poniżej 20-25FPS.

Obecnie NVIDIA robi krok do przodu, bo śledzenie promieni to krok na przód ku realizmowi (wielu się wypowiada o efektach pomimo tego że nie widzieli na żywo), ale jest jeden duży problem bo wydajność powinna być 2 razy wyższa, a ceny kart dużo niższe !!!

Natomiast AMD przyzwyczaja nas do odświeżonych kotletów....


Ja pamiętam czasy 20 lat wstecz. Akurat 98r to rok kiedy złożyłem swój pierwszy komputer z używanych części i zacząłem się tym trochę interesować.

Porównania które stosujesz są trochę nieadekwatne. Unreal czy Crisis to był tak ogromny przeskok jakości grafiki, że wymagania sprzętowe były w pełni uzasadnione. Crisis do tej pory może robić wrażenie grafiką a minęło już tyle lat. To był prawdziwy krok milowy.
Tutaj mamy efekt nad którym trzeba się z lupą do monitora pochylić aby dostrzec. A jak go dostrzeżemy to nie jest 'wow' tylko wymowne 'aha, to o to tyle szumu ?' Naprawdę ja na tych screenach nie widzę niczego co mogło by urwać dupę. Przeciwnie nie widzę niczego, tam trzeba się dopatrywać aby cokolwiek zobaczyć.

Jak dla mnie para w gwizdek. Moim zdaniem twórcy gier zamiast nad efektami graficznymi powinni się skupić nad zwiększeniem imersji. Bo co z tego że grafika jest super jak nadal gry kuleją na polu wpływu gracza na świat gry. Niezniszczalne przedmioty, schematyczne modele zniszczeń wyglądające kuriozalnie, krawężniki wysokości 5cm nie do pokonania itp elementy które pokutują w grach od tych 20 lat.
Wiadomo to ulega stałej, niewielkiej, poprawie ale moim zdaniem to właśnie aspekt fizyki, wpływu gracza na wirtualny świat, na możliwość jego modyfikowania, tworzenia, niszczenia itd i to w sposób wyglądający bardzo realistycznie a nie schematycznie, da większe odczucie realizmu niż to czy się gdzieś tam odbiło światło na lufie karabinu.
Edytowane przez autora (2018.11.22, 14:54)
PrimoGhostZobacz profil
Poziom ostrzeżenia: 0%
PrimoGhost2018.11.22, 18:40
Assassin @ 2018.11.22 11:09  Post: 1176206
Kyle_PL
... tylko, czy nie można uzyskać praktycznie tych samych efektów, przy użyciu tradycyjnych technik, jednak przy znacznie mniejszym spadku wydajności?

Dobre pytanie. Odpowiedź brzmi: nie, nie da się. Tzn. można zrobić tak, by równie ładnie wyglądało na screenach, ale odbicia nie będą odpowiadały otoczeniu, beda miały przekłamania.

Z rtx też mają przecież przekłamania. Światło to fala i korpuskuła jednocześnie. Z rtx przenikania i nakładania się fal świetlnych nie uświadczyny prawdopodobne nigdy. Ray tracking to nie ściema, ale w sporej części taka sama sztuczka, jak 'tradycyjne metody'
kriegxZobacz profil
Poziom ostrzeżenia: 0%
kriegx2018.11.23, 01:04
Po pierwsze to raytracing w wykonaniu RTX to tylko jego uposledzona namiastka i nijak sie ma do raytracingowej rasteryzacji z prawdziwego zdarzenia. Po drugie jest to slepa uliczka bo z tak wielkim narzutem na GPU wykorzystanie raytracingu jest zwyczajnie nieoplacalne. Dobra rasteryzacja od zawsze polegala na drodze na skroty, oszukiwaniu ludzkiego oka i wykorzystywaniu wszelkiej masci forteli majacych uwolnic moc przerobowa przy osiagnieciu tego samego/zblizonego efektu ale innym wydajniejszym sposobem. RayTracing od zawsze byl przeciwienstwem tej filozofii i tylko totalni ignoranci nie sa w stanie tego zrozumiec. Moc potrzebna do obsluzenia takiej rasteryzacji mozna wykorzystac na niezliczona ilosc lepszych sposobow. Porownywanie RT do pixel/vertex/unified shaderow i cieniowania na pixel to jakis absurd bo przerpasc jakosc jaki dala pierwsza technologia nad druga jest wrecz niewyobrazalna.
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2018.11.23, 02:11
-5#55
@kriegx - sztuczki artystyczne związane z rasteryzacją nigdy nie dadzą dokładnie takich efektów jak ray-tracing, poza tym są bardzo pracochłonne.
Problem słabej wydajności RTX zostanie rozwiązany wraz z postępem litografii - w technologii 7 nm na takiej samej powierzchni krzemu można umieścić cztery razy tyle tranzystorów co w technologii 14 nm. Będzie to oznaczać 4-krotnie większą wydajność+bonus wynikający z szybszego taktowania.
Jeżeli 2080 Ti przy włączonym RTX zapewnia 60 Hz w 1080p, to czterokrotnie wydajniejsza karta zapewni 60 Hz w 4K, albo 120 Hz w 1440p.
qas1Zobacz profil
Poziom ostrzeżenia: 0%
qas12018.11.23, 02:59
Andree @ 2018.11.23 02:11  Post: 1176369
Problem słabej wydajności RTX zostanie rozwiązany wraz z postępem litografii - w technologii 7 nm na takiej samej powierzchni krzemu można umieścić cztery razy tyle tranzystorów co w technologii 14 nm. Będzie to oznaczać 4-krotnie większą wydajność+bonus wynikający z szybszego taktowania.
Mogę prosić o źródło tej informacji? W procesie 16 nm na zbliżonej powierzchni co w 28 nm, dało się w praktyce zmieścić niecałe 2x więcej tranzystorów (15,3 mld vs 8 mld):

4x więcej tranzystorów w przypadku procesu 7 nm byłoby nie lada osiągnięciem.
Andree @ 2018.11.23 02:11  Post: 1176369
Jeżeli 2080 Ti przy włączonym RTX zapewnia 60 Hz w 1080p, to czterokrotnie wydajniejsza karta zapewni 60 Hz w 4K, albo 120 Hz w 1440p.
Tutaj także prosiłbym o źródło. Przy przejściu z 28 nm na 16 nm wzrost wydajności z mm2 wynosił nieco poniżej 100%:
https://babeltechreviews.com/battle-titans...well-titan-x/3/
Przy czym wzrost ten w dużej mierze wynikał ze znacznie wyższych zegarów, ilość CUDA Cores wzrosła nieznacznie (3840 vs 3072).
Edytowane przez autora (2018.11.23, 16:18)
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2018.11.23, 05:11
-6#57
Masz rację że bez litografii EUV, za pomocą tradycyjnych maszyn naświetlających światłem UV 193 nm, można uzyskać jedynie podwojenie ilości tranzystorów przy przejściu z 14nm na 7nm. Po prostu dlatego że te wymiary technologiczne nie mają nic wspólnego z faktycznymi wielkościami bramek tranzystorów, są nazwami handlowymi.
Miałem jednak na myśli litografię EUV, która przyniesie dalsze zmniejszenie wielkości tranzystorów, tak że będą one faktycznie czterokrotnie mniejsze od wykonanych w technologii 14 nm. Wtedy będzie można odczuć znaczny postęp i RTX stanie się popularny wśród graczy.
Edytowane przez autora (2018.11.23, 05:13)
SebastianFMZobacz profil
Poziom ostrzeżenia: 0%
SebastianFM2018.11.23, 09:23
-6#58
kriegx @ 2018.11.23 01:04  Post: 1176365
Po pierwsze to raytracing w wykonaniu RTX to tylko jego uposledzona namiastka i nijak sie ma do raytracingowej rasteryzacji z prawdziwego zdarzenia. Po drugie jest to slepa uliczka bo z tak wielkim narzutem na GPU wykorzystanie raytracingu jest zwyczajnie nieoplacalne. Dobra rasteryzacja od zawsze polegala na drodze na skroty, oszukiwaniu ludzkiego oka i wykorzystywaniu wszelkiej masci forteli majacych uwolnic moc przerobowa przy osiagnieciu tego samego/zblizonego efektu ale innym wydajniejszym sposobem. RayTracing od zawsze byl przeciwienstwem tej filozofii i tylko totalni ignoranci nie sa w stanie tego zrozumiec. Moc potrzebna do obsluzenia takiej rasteryzacji mozna wykorzystac na niezliczona ilosc lepszych sposobow. Porownywanie RT do pixel/vertex/unified shaderow i cieniowania na pixel to jakis absurd bo przerpasc jakosc jaki dala pierwsza technologia nad druga jest wrecz niewyobrazalna.

Dlaczego wszyscy powtarzają te bzdury? To nie jest żadna namiastka. Pobierz sobie najprostszy przykład programistyczny Microsoft'u, podejrzyj kod shadera to zobaczysz, że to jest prawdziwe śledzenie promieni.

Ja mam RTX'a i uruchamiam na nim już napisane przeze mnie przykładowe programy korzystające ze śledzenia promieni a mam wrażenie, że większość osób wypowiadających się o tej technologii tylko teoretyzuje. RTX'y mają ogromne możliwości w liczeniu śledzenia promieni, tylko nikt nie bierze tego pod uwagę, że przy liczeniu odbić GPU musi wykonać dodatkowe obliczenia, ponieważ oprócz koloru piksela trzeba obliczyć dodatkowo kolor miejsca, w kyórym promień przecina się z geometrią. Nawet jeżeli odbicie jest obliczane w połowe niższej rozdzielczości to już zwiększa to ilość obliczeń o 25%. Do tego dochodzi obliczanie kierunku promienia, miejsca przecięcia (rdzenie RT) a także budowanie/aktualizacja drzewa BVH.
Edytowane przez autora (2018.11.23, 09:40)
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842018.11.23, 09:37
Dlaczego wszyscy powtarzają te bzdury? To nie jest żadna namiastka.

To jest namiastka renderowania całej sceny w technice śledzenia promieni. I tylko o to chodzi. Na to RTX są zwyczajnie za słabe, a jak widać nawet jeśli ograniczy się technikę tylko do określonych obiektów (czy materiałów) to i tak wydajność bardzo, bardzo widocznie maleje. Zatem NV zrobiła krok, nawet można uznać, że w dobrą stronę, ale nijak nie ma wystarczająco dobrego wsparcia by to można uznać za popularyzację. Brakuje programistów zdolnych to ogarnąć bez drastycznego spadku wydajności, brakuje samych mocy przerobowych topowej karty graficznej. Pod względem sprzętu zatem jest zwyczajnie ZA WCZEŚNIE.
SebastianFMZobacz profil
Poziom ostrzeżenia: 0%
SebastianFM2018.11.23, 09:41
-6#60
Promilus1984 @ 2018.11.23 09:37  Post: 1176390
Dlaczego wszyscy powtarzają te bzdury? To nie jest żadna namiastka.

To jest namiastka renderowania całej sceny w technice śledzenia promieni. I tylko o to chodzi. Na to RTX są zwyczajnie za słabe, a jak widać nawet jeśli ograniczy się technikę tylko do określonych obiektów (czy materiałów) to i tak wydajność bardzo, bardzo widocznie maleje. Zatem NV zrobiła krok, nawet można uznać, że w dobrą stronę, ale nijak nie ma wystarczająco dobrego wsparcia by to można uznać za popularyzację. Brakuje programistów zdolnych to ogarnąć bez drastycznego spadku wydajności, brakuje samych mocy przerobowych topowej karty graficznej. Pod względem sprzętu zatem jest zwyczajnie ZA WCZEŚNIE.

Przeczytaj mój edytowany komentarz i przestań nazywać to namiastką. RTX'y są w stanie obliczyć w ciągu sekundy kilka miliardów promieni i jest to prawdziwe śledzenie promieni. To jak to zostanie wykorzystane w grze zależy tylko od deweloperów.
Edytowane przez autora (2018.11.23, 09:46)
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.