RTX, RTX, taaaaa. Pamiętacie jak długo przyszło nam czekać na powszechne gry z DX11 licząc od premiery 5870? No właśnie, tak z hmm... dwie, trzy serie kart graficznych
A jak długo przyszło czekać na powszechne gry z DX12/Vulkan/Mantle od premiery mantle (290x), no właśnie - to nigdy nie nastąpiło!
Wygląda na to, że najwięcej z vulkana korzysta się w linuksie, a mowa tu o graczach korzystający z translacji DX11 -> Vulkan, aka DXVK, bo po prostu nie ma innej wydajnej ścieżki. Jest to jednocześnie i wesołe (bo używa się tego powszechnie) i smutne (bo linux ma ile, no z 1% max)...
Vulkan jest już w zasadzie martwy. Poza Bethesdą z silnikiem id Tech 6 i CroTeam z Serious Engine, które zabrały się za upowszechnienie tego standardu, więksi, liczący się wydawcy gier ( EA, Ubi, Activision, 2K ), nie wydali ani 1 szt. gry, wspierającej ten standard.
Prezentacja nowej, dedykowanej karty Intela sugeruje, że Intel w pierwszej kolejności będzie wspierał DX12 od Microsoftu, a nie inne otwarte standardy czy translatory.
Najgorsze jest to, że AMD na ten rok nie przygotowało wydajnej odpowiedzi, i te kosmiczne ceny pewnie będą się jeszcze długo utrzymywać...
Można powiedzieć, że wydajność w przeliczeniu na 1 złotówkę stoi od lat w miejscu. Po prostu te szybsze/nowsze modele są droższe niezależnie od segmentu do jakiego należą.
Tak jak ktoś wcześniej słusznie zauważył, kiedyś średni segment kart można było kupić za 600-800zł teraz trzeba już wydać 2x tyle a po premierze tej generacji pewnie 3x tyle. Mając dalej te 600-800zł w portfelu można sobie odpuścić zakupy bo dostanie się tą samą wydajność co 3 lata temu.
Deklarowana wydajność po włączeniu RTX jest 10x lepsza względem pascali więc mamy tu gigantyczny wzrost mocy w grach z efektami RTX, a które co jak co wyglądały kapitalnie tak w prezentacji tomb raidera jak i battlefielda. Ciekawi mnie natomiast wynik 4K w infiltratorze, bo rezultat 78 fps jest ponad 2x lepszy wzgędem 1080ti. Z prezentacji wywnioskowałem, że rdzenie tensor mają posiadać możliwość przekierowywania mocy karty tam gdzie jest najbardziej potrzebna, a reszta pikseli ma być uzupełniona. Coś takiego tłumaczyłoby ponad 2x przyrost mocy w infiltratorze, bo natywnie demko byłoby obliczone przy mniejszej rozdzielczości. Jeśli coś takiego będzie się spisywać bez zauważalnej straty jakosci obrazu, oraz dostępne będzie w każdej grze to nawet 1070 RTX przy znacznie mniejszej ilości rdzeni CUDA zmiecie 1080ti.
10 razy z kosmosu (i dla marketingu), seria 10xx nie nadaje się do liczenia Rt więc porównanie nie ma sensu. Tensor potrafi podbijać sztucznie rozdzielczość, coś jak zaawansowana szachownica. Jeśli na 1080ti włączysz prawdziwe 4k a na 2070 interpolowane, to z pewnością ją pokona.
Rozwiązania fajne, w przyszłości wszyscy na tym skorzystamy. Dziś najbardziej napaleni muszą opłacić koszty tej technologii a reszta skorzysta za kilka lat.
A kto im kazał Pascale drogo wystawiać, że zalegają? Też mogą obniżyć ceny. 960 GTX 4GB kupiłem za 900zł nówkę w momencie premiery 1060 6GB, a tego nie kupisz za 900zł nówki.
Niektorzy zapominaja ze RT to nie jest technologia zamknieta tylko dla NV jak PhysX.
AMD juz od dawna pracuje nad wprowadzeniem RT i ich karty w przyszlym roku pewnie tez dostana jednostki od RT.
To spowoduje duza popularyzacje tej techniki w grach w przyszlych latach, bo jest naturalnym rozwinieciem grafiki komputerowej, a nie sztucznym finczerem wymyslonym na sile.
Czekamnie na testy to jedno - czekanie na Nowe 'SPECJALNE' sterowniki to drugie... Ile na nich spadnie wydajność rodziny GTX 10XX...?
Demko infiltrator było tradycyjną 'grą'. Wynik na karcie RTX jest 78 fps, czyli 2x lepszy względem 1080ti ķtóre uzyskuje 38 fps. Z prezentacji zrozumiałem, że rdzenie tensor mają przekierowywać moc reszty kart tam, gdzie jest najbardziej potrzebna, a resztę rozdzielczości uzupełnić już swoimi obliczeniami więc efektywnie koszt uzyskania przykładowo 4K będzie wymagał znacznie mniejszego nakładu mocy reszty karty. Jak to będzie wyglądać w praktyce oraz czy na pewno dobrze zrozumiałem gostka z Nv to czas pokaże, ale jednak zapowiada się ciekawie.
Karty kupią pasjonaci z zasobnym portfelem, bo mogą. Możecie sobie tutaj krzyczeć ze nv szaleje z cenami ale za kilka miesięcy przeczytamy na tym samym portalu jakie to zyski wygenerowała nvidia za ostatni kwartał.
Z niecierpliwością czekam na testy aby ocenić wzrost wydajności do pascala wówczas będzie wiadomo czy wydajność rekompensuje cenę.
Póki co jestem zadowolony ze tydzień temu wyrwałem 1080 za 1700 zł z gwarancja.
Oj, żebyś się nie zdziwił. Poczytaj zagraniczne fora, facebooka itd. Ludzie są mocno nie zadowoleni z cen i chyba w tym roku Nvidia dostanie po kieszeni. Przynajmniej mam taką nadzieję. Pamiętajmy, że najwydajniejsze karty to max kilka (<5) procent rynku.
Obliczaniem efektów RTX zajmą się dedykowane rdzenie RTX o wydajności x10 większej w ray tracingu jak zapewniała cała karta 1080ti. Rdzenie tensor będą miały inny użytek i np. moga przekierowywać zasoby karty w inteligentny sposób tak, aby ułamkiem nakadów rdzeni cuda uzyskać to samo. Wynik w infiltratorze sugeruje takie właśnie rozwiązanie, bo wydajność względem 1080ti skoczyła ponad 2x czego sam przyrost w rdzeniach CUDA nie tlumaczy i pewnie rdzenie tensor uzupełniły tu piksele przy realnej potrzebie wygenerowania tylko połowy i coś takiego tłumaczyłoby już masakrycznie dobry wynik karty RTX .
Hierarchia teoretycznej wydajności kart [w TFLOPS] :
RTX 2080 Ti FE: 14.23
RTX 2080Ti: 13.44
Vega 64: 12.58
GTX 1080Ti: 11.33
RTX2080FE: 10.59
Vega 56: 10.56
RTX2080: 10.06
GTX1080: 8.87
RTX 2070 FE: 7.87
RTX 2070: 7.46
GTX 1070: 6.46
RX 580: 6.17
RX 480: 5.83
Oczywiście nie ma tu ani słowa o narzucie sterowników, szybszej pamięci DDR6, ani specjalnych technikach w stylu hairworks, ray tracing czy tressFX. Po prostu teoretyczna maksymalna moc układu obliczeniowego w idealnym przypadku.
Deklarowana wydajność po włączeniu RTX jest 10x lepsza względem pascali więc mamy tu gigantyczny wzrost mocy w grach z efektami RTX, a które co jak co wyglądały kapitalnie tak w prezentacji tomb raidera jak i battlefielda. Ciekawi mnie natomiast wynik 4K w infiltratorze, bo rezultat 78 fps jest ponad 2x lepszy wzgędem 1080ti. Z prezentacji wywnioskowałem, że rdzenie tensor mają posiadać możliwość przekierowywania mocy karty tam gdzie jest najbardziej potrzebna, a reszta pikseli ma być uzupełniona. Coś takiego tłumaczyłoby ponad 2x przyrost mocy w infiltratorze, bo natywnie demko byłoby obliczone przy mniejszej rozdzielczości. Jeśli coś takiego będzie się spisywać bez zauważalnej straty jakosci obrazu, oraz dostępne będzie w każdej grze to nawet 1070 RTX przy znacznie mniejszej ilości rdzeni CUDA zmiecie 1080ti.
Nowe konsole wcale nie muszą być na amd. Druga sprawa- RT to nie tylko bajery wizualne dla graczy ale też ogromne ułatwienie dla devów, więc spodziewam się, że coraz więcej gier będzie z tego korzystało. Póki co to perspektywa 4-7 lat myślę, zanim to będzie standard, ale postęp w tym temacie jest nieunikniony.
4-7 lat ,czyli kolejna albodalej seria kart i konsol ...
Wydajność Pascali nie musi być ubijana sterami, bo po to wprowadzany jest RT, żeby wszystkie starsze generacje za kilka lat poszły w zapomnienie. Co prawda Ray Tracing jest genialny i naprawdę robi różnicę w wyglądzie grafiki, ale to przy okazji idealny moment na ubicie konkurencji i starszych serii NV. Inna sprawa, że jak RT wejdzie do powszechnego użytku, to nowe generacje zielonych kart będą jeszcze bardziej uciekać w testach, bo GPU takiej karty dzięki rdzeniom tensor i AI ma o wiele mniej roboty. Moc obliczeniowa będzie się rozdzielać i to, co do tej pory zajmowało zwykłe GPU (obliczanie cieni, oświetlenia), teraz przejdzie na tensor cores.
W sumie to nawet jak ukażą się testy RTXów, to nie można porównywać ich 1:1 z obecną generacją, bo te karty są stworzone do RT i nawet jeśli nie będą bić na głowę GTXów, to w grach z opcją RT zniszczą wynikami wszystko co do tej pory wyszło.
Nowe konsole oparte o APU od amd nie będą miały rdzeni RT. Na rynku PC też mają je tylko najdroższe modele 70/80 a najpopularniejsza seria 60 już nie. Tym samym jeszcze długo gry nie będą projektowane pod RT. Owszem jak nvidia posmaruje dodadzą w niektórych grach efekt dla marketingu, ale będą do dodatki typu hairworks i raczej nie przyspieszy globalnych obliczeń bo zaprojektowane to będzie dla zwykłych gpu. Sytuacja się zmieni za kilka lat, kiedy niższe serie kart dostaną nowe rdzenie (i może kolejne konsole za 7 lat)
Nowe konsole wcale nie muszą być na amd. Druga sprawa- RT to nie tylko bajery wizualne dla graczy ale też ogromne ułatwienie dla devów, więc spodziewam się, że coraz więcej gier będzie z tego korzystało. Póki co to perspektywa 4-7 lat myślę, zanim to będzie standard, ale postęp w tym temacie jest nieunikniony.
Niestety ale chyba przyszedł czas aby pożegnać PC na rzecz konsoli...po za grafiką widzę same plusy...kiedyś w 'dobrych' czasach sprzedawało się starszą grafikę za połowę ceny i dokładało drugie tyle aby mieć nową,ale od 1070 już trzeba x2 a o teraźniejszości nawet nie myślę.
Ceny z dupy więc jak ktoś pisał wcześniej lepiej jednak kupić PS4 Pro niż wydać majątek na nową grafikę, bo lepsze gry i na wyłączność jak God of War a we wrześniu nowy Spiderman a październik to Red Dead Redemption 2 ;p
Ta i do tego pad w reku do fpesow albo emulacja myszki .... 30 fps... albo 60 na papierze spadajace od 30..... no idealny komfort dla gracza a i ta grafika ze sredniowiecza biore w ciemno!
No niby tak, ale za konsole płacisz 2 razy mniej niż za GPU z wysokiej półki (nie najwyższej).
Czekamnie na testy to jedno - czekanie na Nowe 'SPECJALNE' sterowniki to drugie... Ile na nich spadnie wydajność rodziny GTX 10XX...?
Wydajność Pascali nie musi być ubijana sterami, bo po to wprowadzany jest RT, żeby wszystkie starsze generacje za kilka lat poszły w zapomnienie. Co prawda Ray Tracing jest genialny i naprawdę robi różnicę w wyglądzie grafiki, ale to przy okazji idealny moment na ubicie konkurencji i starszych serii NV. Inna sprawa, że jak RT wejdzie do powszechnego użytku, to nowe generacje zielonych kart będą jeszcze bardziej uciekać w testach, bo GPU takiej karty dzięki rdzeniom tensor i AI ma o wiele mniej roboty. Moc obliczeniowa będzie się rozdzielać i to, co do tej pory zajmowało zwykłe GPU (obliczanie cieni, oświetlenia), teraz przejdzie na tensor cores.
W sumie to nawet jak ukażą się testy RTXów, to nie można porównywać ich 1:1 z obecną generacją, bo te karty są stworzone do RT i nawet jeśli nie będą bić na głowę GTXów, to w grach z opcją RT zniszczą wynikami wszystko co do tej pory wyszło.
Nowe konsole oparte o APU od amd nie będą miały rdzeni RT. Na rynku PC też mają je tylko najdroższe modele 70/80 a najpopularniejsza seria 60 już nie. Tym samym jeszcze długo gry nie będą projektowane pod RT. Owszem jak nvidia posmaruje dodadzą w niektórych grach efekt dla marketingu, ale będą do dodatki typu hairworks i raczej nie przyspieszy globalnych obliczeń bo zaprojektowane to będzie dla zwykłych gpu. Sytuacja się zmieni za kilka lat, kiedy niższe serie kart dostaną nowe rdzenie (i może kolejne konsole za 7 lat)
Najważniejsze to testy wydajnosci bo puki co to widzimy tylko rtx... A nic nie wiemy o wydajności tych kart... Ja kupie tylko jeśli będzie to dawało 144 FPS w każdej grze aaa na qwhd. Inaczej czekamy na kolejną generacje
144FPS w każdej grze AAA na QWHD? No to poczekaj jeszcze ze 2 generacje, jak nie 3.
Czekamnie na testy to jedno - czekanie na Nowe 'SPECJALNE' sterowniki to drugie... Ile na nich spadnie wydajność rodziny GTX 10XX...?
Wydajność Pascali nie musi być ubijana sterami, bo po to wprowadzany jest RT, żeby wszystkie starsze generacje za kilka lat poszły w zapomnienie. Co prawda Ray Tracing jest genialny i naprawdę robi różnicę w wyglądzie grafiki, ale to przy okazji idealny moment na ubicie konkurencji i starszych serii NV. Inna sprawa, że jak RT wejdzie do powszechnego użytku, to nowe generacje zielonych kart będą jeszcze bardziej uciekać w testach, bo GPU takiej karty dzięki rdzeniom tensor i AI ma o wiele mniej roboty. Moc obliczeniowa będzie się rozdzielać i to, co do tej pory zajmowało zwykłe GPU (obliczanie cieni, oświetlenia), teraz przejdzie na tensor cores.
W sumie to nawet jak ukażą się testy RTXów, to nie można porównywać ich 1:1 z obecną generacją, bo te karty są stworzone do RT i nawet jeśli nie będą bić na głowę GTXów, to w grach z opcją RT zniszczą wynikami wszystko co do tej pory wyszło.
A jak długo przyszło czekać na powszechne gry z DX12/Vulkan/Mantle od premiery mantle (290x), no właśnie - to nigdy nie nastąpiło!
Wygląda na to, że najwięcej z vulkana korzysta się w linuksie, a mowa tu o graczach korzystający z translacji DX11 -> Vulkan, aka DXVK, bo po prostu nie ma innej wydajnej ścieżki. Jest to jednocześnie i wesołe (bo używa się tego powszechnie) i smutne (bo linux ma ile, no z 1% max)...
Vulkan jest już w zasadzie martwy. Poza Bethesdą z silnikiem id Tech 6 i CroTeam z Serious Engine, które zabrały się za upowszechnienie tego standardu, więksi, liczący się wydawcy gier ( EA, Ubi, Activision, 2K ), nie wydali ani 1 szt. gry, wspierającej ten standard.
Prezentacja nowej, dedykowanej karty Intela sugeruje, że Intel w pierwszej kolejności będzie wspierał DX12 od Microsoftu, a nie inne otwarte standardy czy translatory.
Najgorsze jest to, że AMD na ten rok nie przygotowało wydajnej odpowiedzi, i te kosmiczne ceny pewnie będą się jeszcze długo utrzymywać...
Tak jak ktoś wcześniej słusznie zauważył, kiedyś średni segment kart można było kupić za 600-800zł teraz trzeba już wydać 2x tyle a po premierze tej generacji pewnie 3x tyle. Mając dalej te 600-800zł w portfelu można sobie odpuścić zakupy bo dostanie się tą samą wydajność co 3 lata temu.
10 razy z kosmosu (i dla marketingu), seria 10xx nie nadaje się do liczenia Rt więc porównanie nie ma sensu. Tensor potrafi podbijać sztucznie rozdzielczość, coś jak zaawansowana szachownica. Jeśli na 1080ti włączysz prawdziwe 4k a na 2070 interpolowane, to z pewnością ją pokona.
Rozwiązania fajne, w przyszłości wszyscy na tym skorzystamy. Dziś najbardziej napaleni muszą opłacić koszty tej technologii a reszta skorzysta za kilka lat.
AMD juz od dawna pracuje nad wprowadzeniem RT i ich karty w przyszlym roku pewnie tez dostana jednostki od RT.
To spowoduje duza popularyzacje tej techniki w grach w przyszlych latach, bo jest naturalnym rozwinieciem grafiki komputerowej, a nie sztucznym finczerem wymyslonym na sile.
Chyba dokupię Nintendo Switch i Xbox One X i przezimuję generację, albo coś :/ To zaczyna przypominać powoli zakupy PC w latach 90 i to wczesnych...
Demko infiltrator było tradycyjną 'grą'. Wynik na karcie RTX jest 78 fps, czyli 2x lepszy względem 1080ti ķtóre uzyskuje 38 fps. Z prezentacji zrozumiałem, że rdzenie tensor mają przekierowywać moc reszty kart tam, gdzie jest najbardziej potrzebna, a resztę rozdzielczości uzupełnić już swoimi obliczeniami więc efektywnie koszt uzyskania przykładowo 4K będzie wymagał znacznie mniejszego nakładu mocy reszty karty. Jak to będzie wyglądać w praktyce oraz czy na pewno dobrze zrozumiałem gostka z Nv to czas pokaże, ale jednak zapowiada się ciekawie.
Z niecierpliwością czekam na testy aby ocenić wzrost wydajności do pascala wówczas będzie wiadomo czy wydajność rekompensuje cenę.
Póki co jestem zadowolony ze tydzień temu wyrwałem 1080 za 1700 zł z gwarancja.
Oj, żebyś się nie zdziwił. Poczytaj zagraniczne fora, facebooka itd. Ludzie są mocno nie zadowoleni z cen i chyba w tym roku Nvidia dostanie po kieszeni. Przynajmniej mam taką nadzieję. Pamiętajmy, że najwydajniejsze karty to max kilka (<5) procent rynku.
Obliczaniem efektów RTX zajmą się dedykowane rdzenie RTX o wydajności x10 większej w ray tracingu jak zapewniała cała karta 1080ti. Rdzenie tensor będą miały inny użytek i np. moga przekierowywać zasoby karty w inteligentny sposób tak, aby ułamkiem nakadów rdzeni cuda uzyskać to samo. Wynik w infiltratorze sugeruje takie właśnie rozwiązanie, bo wydajność względem 1080ti skoczyła ponad 2x czego sam przyrost w rdzeniach CUDA nie tlumaczy i pewnie rdzenie tensor uzupełniły tu piksele przy realnej potrzebie wygenerowania tylko połowy i coś takiego tłumaczyłoby już masakrycznie dobry wynik karty RTX .
RTX 2080 Ti FE: 14.23
RTX 2080Ti: 13.44
Vega 64: 12.58
GTX 1080Ti: 11.33
RTX2080FE: 10.59
Vega 56: 10.56
RTX2080: 10.06
GTX1080: 8.87
RTX 2070 FE: 7.87
RTX 2070: 7.46
GTX 1070: 6.46
RX 580: 6.17
RX 480: 5.83
Oczywiście nie ma tu ani słowa o narzucie sterowników, szybszej pamięci DDR6, ani specjalnych technikach w stylu hairworks, ray tracing czy tressFX. Po prostu teoretyczna maksymalna moc układu obliczeniowego w idealnym przypadku.
Nowe konsole wcale nie muszą być na amd. Druga sprawa- RT to nie tylko bajery wizualne dla graczy ale też ogromne ułatwienie dla devów, więc spodziewam się, że coraz więcej gier będzie z tego korzystało. Póki co to perspektywa 4-7 lat myślę, zanim to będzie standard, ale postęp w tym temacie jest nieunikniony.
4-7 lat ,czyli kolejna albodalej seria kart i konsol ...
Wydajność Pascali nie musi być ubijana sterami, bo po to wprowadzany jest RT, żeby wszystkie starsze generacje za kilka lat poszły w zapomnienie. Co prawda Ray Tracing jest genialny i naprawdę robi różnicę w wyglądzie grafiki, ale to przy okazji idealny moment na ubicie konkurencji i starszych serii NV. Inna sprawa, że jak RT wejdzie do powszechnego użytku, to nowe generacje zielonych kart będą jeszcze bardziej uciekać w testach, bo GPU takiej karty dzięki rdzeniom tensor i AI ma o wiele mniej roboty. Moc obliczeniowa będzie się rozdzielać i to, co do tej pory zajmowało zwykłe GPU (obliczanie cieni, oświetlenia), teraz przejdzie na tensor cores.
W sumie to nawet jak ukażą się testy RTXów, to nie można porównywać ich 1:1 z obecną generacją, bo te karty są stworzone do RT i nawet jeśli nie będą bić na głowę GTXów, to w grach z opcją RT zniszczą wynikami wszystko co do tej pory wyszło.
Nowe konsole oparte o APU od amd nie będą miały rdzeni RT. Na rynku PC też mają je tylko najdroższe modele 70/80 a najpopularniejsza seria 60 już nie. Tym samym jeszcze długo gry nie będą projektowane pod RT. Owszem jak nvidia posmaruje dodadzą w niektórych grach efekt dla marketingu, ale będą do dodatki typu hairworks i raczej nie przyspieszy globalnych obliczeń bo zaprojektowane to będzie dla zwykłych gpu. Sytuacja się zmieni za kilka lat, kiedy niższe serie kart dostaną nowe rdzenie (i może kolejne konsole za 7 lat)
Nowe konsole wcale nie muszą być na amd. Druga sprawa- RT to nie tylko bajery wizualne dla graczy ale też ogromne ułatwienie dla devów, więc spodziewam się, że coraz więcej gier będzie z tego korzystało. Póki co to perspektywa 4-7 lat myślę, zanim to będzie standard, ale postęp w tym temacie jest nieunikniony.
Ta i do tego pad w reku do fpesow albo emulacja myszki .... 30 fps... albo 60 na papierze spadajace od 30..... no idealny komfort dla gracza a i ta grafika ze sredniowiecza
No niby tak, ale za konsole płacisz 2 razy mniej niż za GPU z wysokiej półki (nie najwyższej).
Wydajność Pascali nie musi być ubijana sterami, bo po to wprowadzany jest RT, żeby wszystkie starsze generacje za kilka lat poszły w zapomnienie. Co prawda Ray Tracing jest genialny i naprawdę robi różnicę w wyglądzie grafiki, ale to przy okazji idealny moment na ubicie konkurencji i starszych serii NV. Inna sprawa, że jak RT wejdzie do powszechnego użytku, to nowe generacje zielonych kart będą jeszcze bardziej uciekać w testach, bo GPU takiej karty dzięki rdzeniom tensor i AI ma o wiele mniej roboty. Moc obliczeniowa będzie się rozdzielać i to, co do tej pory zajmowało zwykłe GPU (obliczanie cieni, oświetlenia), teraz przejdzie na tensor cores.
W sumie to nawet jak ukażą się testy RTXów, to nie można porównywać ich 1:1 z obecną generacją, bo te karty są stworzone do RT i nawet jeśli nie będą bić na głowę GTXów, to w grach z opcją RT zniszczą wynikami wszystko co do tej pory wyszło.
Nowe konsole oparte o APU od amd nie będą miały rdzeni RT. Na rynku PC też mają je tylko najdroższe modele 70/80 a najpopularniejsza seria 60 już nie. Tym samym jeszcze długo gry nie będą projektowane pod RT. Owszem jak nvidia posmaruje dodadzą w niektórych grach efekt dla marketingu, ale będą do dodatki typu hairworks i raczej nie przyspieszy globalnych obliczeń bo zaprojektowane to będzie dla zwykłych gpu. Sytuacja się zmieni za kilka lat, kiedy niższe serie kart dostaną nowe rdzenie (i może kolejne konsole za 7 lat)
144FPS w każdej grze AAA na QWHD? No to poczekaj jeszcze ze 2 generacje, jak nie 3.
Wydajność Pascali nie musi być ubijana sterami, bo po to wprowadzany jest RT, żeby wszystkie starsze generacje za kilka lat poszły w zapomnienie. Co prawda Ray Tracing jest genialny i naprawdę robi różnicę w wyglądzie grafiki, ale to przy okazji idealny moment na ubicie konkurencji i starszych serii NV. Inna sprawa, że jak RT wejdzie do powszechnego użytku, to nowe generacje zielonych kart będą jeszcze bardziej uciekać w testach, bo GPU takiej karty dzięki rdzeniom tensor i AI ma o wiele mniej roboty. Moc obliczeniowa będzie się rozdzielać i to, co do tej pory zajmowało zwykłe GPU (obliczanie cieni, oświetlenia), teraz przejdzie na tensor cores.
W sumie to nawet jak ukażą się testy RTXów, to nie można porównywać ich 1:1 z obecną generacją, bo te karty są stworzone do RT i nawet jeśli nie będą bić na głowę GTXów, to w grach z opcją RT zniszczą wynikami wszystko co do tej pory wyszło.