Ja mam tylko pytanie, dlaczego wydajność porównano do 2x GTX1080, a nie samego GTX‘a 1080? Skoro wydajnosc jest taka hiper super to jednego GTX'a 1080 RTX powinien pozamiatac. Wiadomo przeciez jak dziala SLI/CrossFire.
To proste - nigdzie nie napisali 'na jakiej platformie te 2 x GTX1080'
Mozliwe, ze skalowanie przy nich wynosilo 20-30%
Jenak jest MOC! Przy takiej wydajności ceny są uzasadnione, no chyba że AMD obniży ceny o połowę!
Super8 @ 2018.08.23 12:35
WYdajność 2X tam gdzie można włączyć FSAA z użyciem Tensorów. Więc...
Wiem, że cena RTXów jest wysoka (Za Ti wręcz kosmiczna), ale jednak coś tam pod tą 'maską' siedzi. DLSS i RT sam się nie obliczy. Nawet jak wydajność 2080 w stosunku to GTX 1080Ti będzie 15-20% wyższa, to dodatkowo otrzymuje się w/w bajery... kto chce, to kupi. Nie koniecznie musi być idiotą, jeśli go po prostu stać.
Ja mam tylko pytanie, dlaczego wydajność porównano do 2x GTX1080, a nie samego GTX‘a 1080? Skoro wydajnosc jest taka hiper super to jednego GTX'a 1080 RTX powinien pozamiatac. Wiadomo przeciez jak dziala SLI/CrossFire.
To nie o to chodzi, że porównanie jest do dwóch 1080. Jest do jednego ale po zastosowaniu supersamplingu na 2080 mamy 2 razy szybciej niż natywny 4k na 1080. Dlatego tabelka nazwana 2x1080, po prostu 2 razy szybciej. Szkoda, że natywna vs podbijana.
Ziemnozielony pokazuje natywna vs natywna i tutaj okazuje się, że jest około 50% przyrostu. Czyli 2080 vs 1080Ti w porównaniu natywnych rozdzielczości będzie minimalna różnica.
Ja Was ludzie proszę....czy myślicie naprawdę, że to prawda co podali?
Testy byłyby wtedy i na pudelku, a nawet Pani Domu by dostała egzemplarz testowy. Toż to rekord na skalę gwiezdną by był w perf/w. Zejdźmy na ziemię, to co podała NV to marketingowy bełkot dla funkcjonalnych idiotów.
Ja Was ludzie proszę....czy myślicie naprawdę, że to prawda co podali?
Testy byłyby wtedy i na pudelku, a nawet Pani Domu by dostała egzemplarz testowy. Toż to rekord na skalę gwiezdną by był w perf/w. Zejdźmy na ziemię, to co podała NV to marketingowy bełkot dla funkcjonalnych idiotów.
Czemu nie ma być to prawda?
Rendering FHD + upscaling to spokojnie może wyjść dwukrotnie wyższy FPS niż w natywnym 4k.
A sama normalna wydajność wyższa o 40-50% to nic nadzwyczajnego przy zmianie generacji.
Masz w końcu więcej Shaderów, większą przepustowość pamięci, wyższy boost clock.
Tylko trzeba wiedzieć co jest na slajdzie bo FHD+DLSS nie równa się natywne 4k. Aczkolwiek jeśli strata jakości będzie niewielka to jest to super sprawa.
Wykresy jak u AMD w najlepszych czasach. Nie znamy metodologii, nie znamy bazowych wartości, jakieś gry HDR (gdzie wiemy że seria 10xx i wcześniejsze mają problem z HDR), w grach w których jest dx12 nie wiemy czy porównanie było na dx11 czy dx12. Jakieś gry których jeszcze nie ma i nie można nic potwierdzić.
Nie ma chyba ani jednej gry w której można by czarno na białym porównać wartości z 1080 od recenzentów, z tym pseudowykresem.
Ja bym zrobił taki test wydajności (w jakiejś jednej chociaż grze) i cyknął fotki (najlepiej normalne fotki) aby porównać jakość generowanego obrazu:
- GTX1080 puszczony na 1080p ze skalowaniem do 4K przez TV/Monitor 4K;
- GTX1080 puszczony na 4K na tym TV/Monitorze 4K;
- RTX2080 puszczony na 1080p ze skalowaniem do 4K przez TV/Monitor 4K;
- RTX2080 puszczony na 'niby 4K' ze skalowaniem do 4K przez DLSS na tym TV/Monitorze 4K;
- RTX2080 puszczony na 4K na tym TV/Monitorze 4K.
Porównać wydajność, jakość obrazu na tym TV/Monitorze i cenę kart, no i wyciągnąć wnioski
---edit---
Co ciekawe bardzo dużo TV 4K ma zaawansowane systemy skalowania FullHD do 4K i ciekawy jestem jak wypadłoby takie powyższe porównanie z takim właśnie skalowaniem (bo zwykłe, najprostsze skalowanie czyli powielenie pikseli w pionie i poziomie, to byłoby marnowanie potencjału takiego testu).
Ciekawe co klęknie: DLSS czy zaawansowane systemy skalowania w TV. Na i jak to będzie wyglądało na tle ceny i wydajności.
Zaraz , czy nvidia porównala wydajnosc w fps kart w 4k w ktorej jedna z nich reguluje sobie rozdziałke i detale w locie (DLSS - czyli nie jest w 4k) i odtrąbila zwycięstwo wydajnosciowe ?
Zakładam, że ~50% to best case scenario. Zatem mamy kartę o podobnej lub do kilkunastu procent większej wydajności od GTX1080ti(o ile nie będzie tytułów gdzie okaże się wolniejsza) przy takim samym MSRP 699$. Chociaż patrząc na ceny przedsprzedaży to bliżej wersji FE 799$
A wyniki z nową technologią spokojnie można pominąć, bo nie wiadomo jaka była procedura testowa. Czy testowali 1080p+DLSS vs natywne 4k, czy może na obu włączony był tryb DLSS, ale tutaj pojawia wątpliwość czy w ogóle da się to włączyć na paskalach?
50% więcej niż GTX 1080 na pełnym stocku, bo pewnie do tego się odnoszą, czyli RTX 2080 będzie szybszy od kręconych 1080 Ti o jakieś 5-10%. Szczerze mówiąc kiepsko, biorąc pod uwagę, że nowe 1080 Ti można dostać za 3200-3400 zł, a RTX 2080 za 3500-4000 zł. Pod względem ekonomicznym będzie to bardzo średnia opcja.
A jaki problem podkręcić 2080 ? Cenowo po początkowym podatku od nowości będzie pewnie podobnie, więc pchanie się w zakup 1.5 rocznego kotleta jest po prostu głupotą - szczególnie, że nowa seria jest również nieco bardziej zaawansowana technologicznie.
Jedyny sens w kupowaniu 1080Ti obecnie jest wtedy gdy sprzedaje go jakiś Janusz za 1/2 ceny.
Ja Was ludzie proszę....czy myślicie naprawdę, że to prawda co podali?
Testy byłyby wtedy i na pudelku, a nawet Pani Domu by dostała egzemplarz testowy. Toż to rekord na skalę gwiezdną by był w perf/w. Zejdźmy na ziemię, to co podała NV to marketingowy bełkot dla funkcjonalnych idiotów.
Czemu nie ma być to prawda?
Rendering FHD + upscaling to spokojnie może wyjść dwukrotnie wyższy FPS niż w natywnym 4k.
A sama normalna wydajność wyższa o 40-50% to nic nadzwyczajnego przy zmianie generacji.
Masz w końcu więcej Shaderów, większą przepustowość pamięci, wyższy boost clock.
Tylko trzeba wiedzieć co jest na slajdzie bo FHD+DLSS nie równa się natywne 4k. Aczkolwiek jeśli strata jakości będzie niewielka to jest to super sprawa.
Nie zapominaj, że według nvidii 2080 wraz z 2080ti to segment super-premium. A od takich kart (w cenie odpowiednio ~4k zł i ~6k zł) oczekuje się natywnego 4k, a nie sztuczek z renderowaniem fhd i upscalingiem, które potrafi poprzednia generacja.
To proste - nigdzie nie napisali 'na jakiej platformie te 2 x GTX1080'
Mozliwe, ze skalowanie przy nich wynosilo 20-30%
Wiem, że cena RTXów jest wysoka (Za Ti wręcz kosmiczna), ale jednak coś tam pod tą 'maską' siedzi. DLSS i RT sam się nie obliczy. Nawet jak wydajność 2080 w stosunku to GTX 1080Ti będzie 15-20% wyższa, to dodatkowo otrzymuje się w/w bajery... kto chce, to kupi. Nie koniecznie musi być idiotą, jeśli go po prostu stać.
Chyba jednak zostane z moim 1080ti na dłużej, bo jakoś na razie nie widzę sensu kupna nowej karty..
To nie o to chodzi, że porównanie jest do dwóch 1080. Jest do jednego ale po zastosowaniu supersamplingu na 2080 mamy 2 razy szybciej niż natywny 4k na 1080. Dlatego tabelka nazwana 2x1080, po prostu 2 razy szybciej. Szkoda, że natywna vs podbijana.
Ziemnozielony pokazuje natywna vs natywna i tutaj okazuje się, że jest około 50% przyrostu. Czyli 2080 vs 1080Ti w porównaniu natywnych rozdzielczości będzie minimalna różnica.
Testy byłyby wtedy i na pudelku, a nawet Pani Domu by dostała egzemplarz testowy. Toż to rekord na skalę gwiezdną by był w perf/w. Zejdźmy na ziemię, to co podała NV to marketingowy bełkot dla funkcjonalnych idiotów.
Testy byłyby wtedy i na pudelku, a nawet Pani Domu by dostała egzemplarz testowy. Toż to rekord na skalę gwiezdną by był w perf/w. Zejdźmy na ziemię, to co podała NV to marketingowy bełkot dla funkcjonalnych idiotów.
Czemu nie ma być to prawda?
Rendering FHD + upscaling to spokojnie może wyjść dwukrotnie wyższy FPS niż w natywnym 4k.
A sama normalna wydajność wyższa o 40-50% to nic nadzwyczajnego przy zmianie generacji.
Masz w końcu więcej Shaderów, większą przepustowość pamięci, wyższy boost clock.
Tylko trzeba wiedzieć co jest na slajdzie bo FHD+DLSS nie równa się natywne 4k. Aczkolwiek jeśli strata jakości będzie niewielka to jest to super sprawa.
Nie ma chyba ani jednej gry w której można by czarno na białym porównać wartości z 1080 od recenzentów, z tym pseudowykresem.
- GTX1080 puszczony na 1080p ze skalowaniem do 4K przez TV/Monitor 4K;
- GTX1080 puszczony na 4K na tym TV/Monitorze 4K;
- RTX2080 puszczony na 1080p ze skalowaniem do 4K przez TV/Monitor 4K;
- RTX2080 puszczony na 'niby 4K' ze skalowaniem do 4K przez DLSS na tym TV/Monitorze 4K;
- RTX2080 puszczony na 4K na tym TV/Monitorze 4K.
Porównać wydajność, jakość obrazu na tym TV/Monitorze i cenę kart, no i wyciągnąć wnioski
---edit---
Co ciekawe bardzo dużo TV 4K ma zaawansowane systemy skalowania FullHD do 4K i ciekawy jestem jak wypadłoby takie powyższe porównanie z takim właśnie skalowaniem (bo zwykłe, najprostsze skalowanie czyli powielenie pikseli w pionie i poziomie, to byłoby marnowanie potencjału takiego testu).
Ciekawe co klęknie: DLSS czy zaawansowane systemy skalowania w TV. Na i jak to będzie wyglądało na tle ceny i wydajności.
Wstyd! Za 5500 zł to karta powinna trzymać stałe 120-144FPS w 4K żeby zadowolić posiadaczy monitorów 4K 144Hz.
A to w ogóle są już takie monitory? W cenach choć trochę mniejszych od kosztów wyprawy na Marsa?
A wyniki z nową technologią spokojnie można pominąć, bo nie wiadomo jaka była procedura testowa. Czy testowali 1080p+DLSS vs natywne 4k, czy może na obu włączony był tryb DLSS, ale tutaj pojawia wątpliwość czy w ogóle da się to włączyć na paskalach?
A jaki problem podkręcić 2080 ? Cenowo po początkowym podatku od nowości będzie pewnie podobnie, więc pchanie się w zakup 1.5 rocznego kotleta jest po prostu głupotą - szczególnie, że nowa seria jest również nieco bardziej zaawansowana technologicznie.
Jedyny sens w kupowaniu 1080Ti obecnie jest wtedy gdy sprzedaje go jakiś Janusz za 1/2 ceny.
Testy byłyby wtedy i na pudelku, a nawet Pani Domu by dostała egzemplarz testowy. Toż to rekord na skalę gwiezdną by był w perf/w. Zejdźmy na ziemię, to co podała NV to marketingowy bełkot dla funkcjonalnych idiotów.
Czemu nie ma być to prawda?
Rendering FHD + upscaling to spokojnie może wyjść dwukrotnie wyższy FPS niż w natywnym 4k.
A sama normalna wydajność wyższa o 40-50% to nic nadzwyczajnego przy zmianie generacji.
Masz w końcu więcej Shaderów, większą przepustowość pamięci, wyższy boost clock.
Tylko trzeba wiedzieć co jest na slajdzie bo FHD+DLSS nie równa się natywne 4k. Aczkolwiek jeśli strata jakości będzie niewielka to jest to super sprawa.
Nie zapominaj, że według nvidii 2080 wraz z 2080ti to segment super-premium. A od takich kart (w cenie odpowiednio ~4k zł i ~6k zł) oczekuje się natywnego 4k, a nie sztuczek z renderowaniem fhd i upscalingiem, które potrafi poprzednia generacja.