komentarze
BelforZobacz profil
Poziom ostrzeżenia: 0%
Belfor2018.08.23, 16:43
-9#41
yendrek @ 2018.08.23 16:33  Post: 1161114
iwanme @ 2018.08.23 14:33  Post: 1161057
(...)

Czemu nie ma być to prawda?
Rendering FHD + upscaling to spokojnie może wyjść dwukrotnie wyższy FPS niż w natywnym 4k.
A sama normalna wydajność wyższa o 40-50% to nic nadzwyczajnego przy zmianie generacji.
Masz w końcu więcej Shaderów, większą przepustowość pamięci, wyższy boost clock.

Tylko trzeba wiedzieć co jest na slajdzie bo FHD+DLSS nie równa się natywne 4k. Aczkolwiek jeśli strata jakości będzie niewielka to jest to super sprawa.

Nie zapominaj, że według nvidii 2080 wraz z 2080ti to segment super-premium. A od takich kart (w cenie odpowiednio ~4k zł i ~6k zł) oczekuje się natywnego 4k, a nie sztuczek z renderowaniem fhd i upscalingiem, które potrafi poprzednia generacja.

Jakim upscalingiem? testy wykonane były w 4k z i bez wykorzystania nowego AA od Nvidii. DLSS to nie jest żaden upscaling. Skąd ty w ogóle wziąłeś takie bzdury?
dawidoxxZobacz profil
Poziom ostrzeżenia: 0%
dawidoxx2018.08.23, 16:45
HentaiKamen @ 2018.08.23 15:50  Post: 1161097
Zakładam, że ~50% to best case scenario. Zatem mamy kartę o podobnej lub do kilkunastu procent większej wydajności od GTX1080ti(o ile nie będzie tytułów gdzie okaże się wolniejsza) przy takim samym MSRP 699$. Chociaż patrząc na ceny przedsprzedaży to bliżej wersji FE 799$ :E
A wyniki z nową technologią spokojnie można pominąć, bo nie wiadomo jaka była procedura testowa. Czy testowali 1080p+DLSS vs natywne 4k, czy może na obu włączony był tryb DLSS, ale tutaj pojawia wątpliwość czy w ogóle da się to włączyć na paskalach?


Prawdopodobnie na pascalach też będzie to działać..
https://www.youtube.com/watch?v=WMbh6zFrzto
OxyniumZobacz profil
Poziom ostrzeżenia: 0%
Oxynium2018.08.23, 16:59
-8#43
Jacek1991 @ 2018.08.23 11:39  Post: 1160993
mogę zrobić grafikę gdzie w 4k w BF1 mam ponad 140fps na 1050ti i to nie będzie kłamstwo... tylko barany się dają łapać na taki marketing :D


Dużo ludzi wątpiło w zapowiadaną wydajność 1070 :) Pamiętaj że minęły całe dwa lata. To dużo czasu na taki postęp.
supervisorZobacz profil
Poziom ostrzeżenia: 0%
supervisor2018.08.23, 17:07
Oxynium @ 2018.08.23 16:59  Post: 1161127
Jacek1991 @ 2018.08.23 11:39  Post: 1160993
mogę zrobić grafikę gdzie w 4k w BF1 mam ponad 140fps na 1050ti i to nie będzie kłamstwo... tylko barany się dają łapać na taki marketing :D


Dużo ludzi wątpiło w zapowiadaną wydajność 1070 :) Pamiętaj że minęły całe dwa lata. To dużo czasu na taki postęp.

Bardzo cieszyłbym się gdyby tak było, ale mam wątpliwości. Inna sprawa to cena.

Niektórzy porównują tutaj 1080 do 2080, 1080ti do 2080ti. A tutaj trzeba porównywać dolar w dolar. Oznaczenie tutaj nic nie znaczy, kwestia jest jak dużo więcej wydajności można kupić w tej samej cenie. I czy w ogóle cena/wydajność będzie lepsza.
Edytowane przez autora (2018.08.23, 18:23)
DaviMZobacz profil
Poziom ostrzeżenia: 0%
DaviM2018.08.23, 17:09
przemekan @ 2018.08.23 13:04  Post: 1161025
Ja mam tylko pytanie, dlaczego wydajność porównano do 2x GTX1080, a nie samego GTX‘a 1080?

Napis z tabelki '2080: 2x 1080', to nie jest porównanie RTX2080 do dwóch (2x) GTX1080, tylko stwierdzenie, że RTX2080 jest 2x szybszy od GTX1080 :)

eNeSik @ 2018.08.23 13:35  Post: 1161037
przemekan @ 2018.08.23 13:04  Post: 1161025
Ja mam tylko pytanie, dlaczego wydajność porównano do 2x GTX1080, a nie samego GTX‘a 1080? (...)
To proste - nigdzie nie napisali 'na jakiej platformie te 2 x GTX1080'
Mozliwe, ze skalowanie przy nich wynosilo 20-30% :E

Jak kolega, również się nie popisałeś :)
Edytowane przez autora (2018.08.23, 17:15)
kEhYo77Zobacz profil
Poziom ostrzeżenia: 0%
kEhYo772018.08.23, 17:38
-1#46
Cena tej karty jest w sumie drugorzędna. To, co wnoszą 3 procesory na 1 kości jest rewolucją w realtime 3D. Robiłem rendery 3D już w 1992 na A500 i wiem, z czym to się je. Ta karta w porównaniu do mocy pierwszych komputerów jest 1.000.000 razy szybsza i to widać dla oka grafika ;)
Teraz tylko czekać, aż programy takie jak Blender zaczną używać tego sprzętu do czegoś więcej niż gierki.
Edytowane przez autora (2018.08.23, 17:40)
*Konto usunięte*2018.08.23, 18:07
-11#47
MPro @ 2018.08.23 11:43  Post: 1160998
Karta za 5500 zł i tylko średnio 60-80FPS w 4K. Dla mnie to dalej niezła porażka, tak samo jak 30FPS w Tomb Raiderze i to w FullHD.

Wstyd! Za 5500 zł to karta powinna trzymać stałe 120-144FPS w 4K żeby zadowolić posiadaczy monitorów 4K 144Hz.


1. I to mówi osoba która używa Windows 7 do gier.

2. Postęp jest bo 1070/1080 wystarcza do 30/40fps w 4k a 2070/2080 wystarczy do 60/75fps.

3. 2080Ti ma słabą wydajność w SoTR bo korzysta w wczesnej wersji beta ray tracing.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842018.08.23, 18:16
Robiłem rendery 3D już w 1992 na A500 i wiem, z czym to się je.
Na procesorze CISC, bez FPU, z 16 bitowym dostępem do pamięci za pośrednictwem Agnusa, który to dzielony był jeszcze z chipsetem. Od tamtego czasu sporo się zmieniło. Np. taki Ryzen ma 8 rdzeni, a nie 1. 4 ALU per rdzeń, a nie 1, zegar 3.5GHz+ (a nie 7MHz) i do tego SIMD 1x256bit ;) Co z tego wynika? Że z samego zegara jest 500x, z ilości rdzeni jest 8x, z IPC jest jakieś 20x, z zastosowania SIMD jeszcze 8x co daje 640000 na samym nowoczesnym CPU. W przypadku GPU różnica wydajności jest wielokrotnie większa. I tylko porównuję w MIPSach, bo we FLOPSach to by było już całkiem potępienie (w końcu FPU było zewnętrzne, można było emulować FPU do niektórych aplikacji, ale wydajność była tragiczna, a zewnętrznego FPU nie można do A500 dołożyć bezpośrednio, a tylko w karcie turbo).
kEhYo77Zobacz profil
Poziom ostrzeżenia: 0%
kEhYo772018.08.23, 18:22
[quote name='Promilus1984' date='2018.08.23 18:16' post='1161149']
FPU było zewnętrzne, można było emulować FPU do niektórych aplikacji, ale wydajność była tragiczna, a zewnętrznego FPU nie można do A500 dołożyć bezpośrednio, a tylko w karcie turbo).

I właśnie taką kartę Turbo miałem w 1994 do Amigi1200: Blizzard MC68060 @ 50 MHz, 16 MB RAM :)

yendrekZobacz profil
Poziom ostrzeżenia: 0%
yendrek2018.08.23, 18:27
Belfor @ 2018.08.23 16:43  Post: 1161120
yendrek @ 2018.08.23 16:33  Post: 1161114
(...)

Nie zapominaj, że według nvidii 2080 wraz z 2080ti to segment super-premium. A od takich kart (w cenie odpowiednio ~4k zł i ~6k zł) oczekuje się natywnego 4k, a nie sztuczek z renderowaniem fhd i upscalingiem, które potrafi poprzednia generacja.

Jakim upscalingiem? testy wykonane były w 4k z i bez wykorzystania nowego AA od Nvidii. DLSS to nie jest żaden upscaling. Skąd ty w ogóle wziąłeś takie bzdury?

Wczytaj sie w tekst: 'Według zielonych, po aktywacji DLSS możliwe jest osiągnięcie aż dwukrotnie wyższej liczby klatek niż podczas gry z wykorzystaniem karty z rodziny Pascal.' Sądzisz, że przy 4k ktoś włączył dlss i nagle fps podskoczył miejscami ponad dwukrotnie? Jakbys nie wiedział, co to dlss, to luknij na https://pclab.pl/news78676.html :
(...)technika Deep Learning Super-Sampling (DLSS). Pozwala ona wykorzystać sztuczną inteligencję do renderowania grafiki, by zapewnić świetnej jakości wygładzanie krawędzi w grach.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842018.08.23, 18:33
@up - 68040 i 68060 miały FPU wewnątrz (z wyjątkiem wersji EC i LC), które było niekompatybilne (albo inaczej - nie do końca kompatybilne) z 68881/68882 stąd też konieczne były odpowiednie łatki do systemu :) Dla A500 były tylko 2 rodzaje turbo - w miarę nowoczesne na sideport (84 czy 86 pin złacze krawędziowe przeznaczone dla HDD A590 lub CD-ROM A570), albo nakładka na gniazdo CPU wewnątrz amigi. Było ich mało, były drogie i z reguły zatrzymywały się na 68030 (bez FPU, ale z MMU, taktowane do 50MHz). Jedyny wyjątek to bodajże jakiś wynalazek Phase5 z 040/25MHz (ale mało RAM) oraz busboard Micronika z Zorro II i Slot CPU pozwalający wykorzystać turbo do Amigi2000 gdzie najmocniejsze to było 2060 (z 060) - nota bene dla tego turbo był egzemplarz prototypowy nakładki z PowerPC! Ale to nas tu nostalgia zalewa ;) A wracając do tematu różnica wydajności 10FPS vs 20FPS to dla mnie g... a nie różnica. A tak to trochę zalatują te przechwałki. W możliwości układu nie wątpię - nie wiem jednak po co takie zagrania. Przecież dla ogarniętego użytkownika to jak plucie w gębę.
marc99Zobacz profil
Poziom ostrzeżenia: 0%
marc992018.08.23, 18:43
-3#52
Dlaczego porównują 1080 do 2080? Przecież ta druga to następca 1080Ti a nie 1080.
mksejZobacz profil
Poziom ostrzeżenia: 0%
mksej2018.08.23, 19:05
-7#53
marc99 @ 2018.08.23 18:43  Post: 1161161
Dlaczego porównują 1080 do 2080? Przecież ta druga to następca 1080Ti a nie 1080.


z tego co wczesniej pisali to RTX 280 to nastepca 1080 a RTX 2080TI to następca GTX 1080TI :) chyba ze cos sie juz pozmienialo ... a 2070 to raczej bedzie następca gtx 1070 ..
marc99Zobacz profil
Poziom ostrzeżenia: 0%
marc992018.08.23, 19:08
mksej @ 2018.08.23 19:05  Post: 1161169
marc99 @ 2018.08.23 18:43  Post: 1161161
Dlaczego porównują 1080 do 2080? Przecież ta druga to następca 1080Ti a nie 1080.


z tego co wczesniej pisali to RTX 280 to nastepca 1080 a RTX 2080TI to następca GTX 1080TI :) chyba ze cos sie juz pozmienialo ... a 2070 to raczej bedzie następca gtx 1070 ..

To cena determinuję co jest czyim następcą, a nie nazwa czy chciejstwo producenta.
ombre070Zobacz profil
Poziom ostrzeżenia: 0%
ombre0702018.08.23, 19:17
RMS_84 @ 2018.08.23 18:07  Post: 1161147
MPro @ 2018.08.23 11:43  Post: 1160998
Karta za 5500 zł i tylko średnio 60-80FPS w 4K. Dla mnie to dalej niezła porażka, tak samo jak 30FPS w Tomb Raiderze i to w FullHD.

Wstyd! Za 5500 zł to karta powinna trzymać stałe 120-144FPS w 4K żeby zadowolić posiadaczy monitorów 4K 144Hz.


1. I to mówi osoba która używa Windows 7 do gier.

2. Postęp jest bo 1070/1080 wystarcza do 30/40fps w 4k a 2070/2080 wystarczy do 60/75fps.

3. 2080Ti ma słabą wydajność w SoTR bo korzysta w wczesnej wersji beta ray tracing.


Juz 1080ti wystarcza spokojnie do 4k/60Hz.Chyba że połączysz ja z core2duo i ddr2.
Wystarczy przejść z ustawień uber/ultra/maximus na ultra/high.
Mistereco21Zobacz profil
Poziom ostrzeżenia: 0%
Mistereco212018.08.23, 19:25
-2#56
Sklep Z-kom złożył właśnie komputer za 200 tysięcy złotych. Film można zobaczyć na youtube. Muszą mieć jakieś informację bo nie czekali na turinga tylko użyli Pascali GP102/ lub 4xTitan V. Trochę to zastanawiające dlaczego właśnie teraz taki projekt i dlaczego nie użyto nowych ryzenów bądź epicków.

Są też tacy, który twierdzili, że Vega nigdy nie dogoni GTX-a 1080 oraz, że Crossfire nie działa i wszędzie gdzie tylko można chwalono się tymi mitycznymi tajtanami ex nazywając innych użytkowników cebulakami.
Po obejrzenieniu tego komputera się powiesi.
h63619Zobacz profil
Poziom ostrzeżenia: 0%
h636192018.08.23, 19:53
Widać dział sprzedaży nVidii jest zawiedziony ilością preorderów więc marketing musi brać się do roboty, żeby wyrobić normę przed pojawieniem się testów.
WaltherZobacz profil
Poziom ostrzeżenia: 0%
Walther2018.08.23, 20:02
Ceny tych kart to jeszcze nic ale MOSTEK za trzysta coś tam złotych :E
Trzeba mieć naprawdę czachę zrytą!!!



Edytowane przez autora (2018.08.23, 20:02)
SquizzZobacz profil
Poziom ostrzeżenia: 0%
Squizz2018.08.23, 20:14
RMS_84 @ 2018.08.23 18:07  Post: 1161147


1. I to mówi osoba która używa Windows 7 do gier.

2. Postęp jest bo 1070/1080 wystarcza do 30/40fps w 4k a 2070/2080 wystarczy do 60/75fps.

3. 2080Ti ma słabą wydajność w SoTR bo korzysta w wczesnej wersji beta ray tracing.


2. oczekiwanie, że 2070 = 1080ti jest zbyt daleko idące. Można to poprawić na:
'Postęp jest bo 1070/1080 wystarcza do 30/40fps w 4k a 2070/2080 wystarczy do 45/60 fps'. Niema co liczyć na więcej niż +50% jeśli nawet Nvidia sugeruje wzrost o 40-50%

3. co najwyżej skroją jakość o 30% tak, aby 2080ti chodziło w 55-60 fps 1080p - tytuły aaa zawsze na premierę nowej karty mają jakość szytą na miarę topowej karty. Już nie wspomnę, że do prawdziwego raytracingu potrzeba karty minimum 10 razy wydajniejszej. Pamiętasz render star wars? 4 titany V generowały 24 fps w 1080p - aby jedna karta generowała 60 fps potrzeba 10 razy więcej mocy (i trzeba jeszcze pamiętać, że scena choć realistyczna, była nadal relatywnie prosta, także może i 20 razy więcej mocy będzie trzeba aby zasilić choćby 1080p jedną kartą)
Edytowane przez autora (2018.08.23, 20:47)
HΛЯPΛGŌNZobacz profil
Poziom ostrzeżenia: 0%
HΛЯPΛGŌN2018.08.23, 20:53
Kogo obchodzą testy NVIDII? serio kogo?
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.