komentarze
mat9vZobacz profil
Poziom ostrzeżenia: 0%
mat9v2018.09.21, 19:16
SrebrnyL @ 2018.09.19 16:38  Post: 1165558
trochę historii ( w zaokrągleniu):
1070 startował w cenie 980 z wydajnością 980ti
2080 startuje z wydajnością 1080ti z ceną 1080ti
wzrostu mocy ani wzrostu energooszczędności nie widać...
tak, wiem nowe bajery, które (może) za rok zobaczymy ;)
p.s. ale RT jest!

Do małej poprawki.
1070 startował w cenie 449$ (wersja FE), potem opuszczoną do 379$ (potem oczywiście górnicy się przypałętali) z wydajnością 980Ti podczas gdy 980 na premierę kosztowała 549$ - tak że Nvidia dużo bardziej niż piszesz robi nas w bambuko
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842018.09.21, 19:34
Widziałem dema BF 5 i Metro Exodus i faktycznie Ray Tracing to przyszlość

A ja widziałem kiedyś dema z Global Ilumination, Geometry Instancing, Tessellation, Screen Space Ambient Occlussion itp. itd. i też wydawało mi się, że 'to, fotorealizm tuż tuż' a tu dupa blada. RT ma swoje wady, które i tak trzeba będzie łatać shaderami. Ergo hybryda ok, ale nie spodziewałbym się cudów.
mat9vZobacz profil
Poziom ostrzeżenia: 0%
mat9v2018.09.21, 19:37
supervisor @ 2018.09.19 19:11  Post: 1165614
Sorvas @ 2018.09.19 18:58  Post: 1165613
Czy mi się wydaje czy 1080 na premierę kosztowała ok. 3600? Więc o co ta awantura skoro 3600-4000 kosztuje 2080. Nvidia dyma nas równo, tak jak dymała nas 2.5 roku temu i kilka lat wstecz.

MSRP dla 1080 było $599, dla 2080 jest $699. Czyli dokładnie tyle samo co wynosiło MSRP 1080Ti.

Ceny na premierę:
1080 - $599
1080Ti - $699
2080 - $699
2080Ti - $999

Innymi słowy wzrost wydajności w stosunku do ceny jest bliski 0.

Z jednym małym ALE - nie ma w sklepach kart rtx2080 w cenie 699$, wszystkie, także niereferenty są powyżej 799$ (z wyjątkiem MSI Duke, jest za 769$). Natomiast gdy wychodziły 1080, sporo później niż 1080 FE to faktycznie ukazały się w sklepach za 599$
Mr KwolfZobacz profil
Poziom ostrzeżenia: 0%
Mr Kwolf2018.09.21, 19:50
ceny dla Kowalskiego tych kart to jakis absurd,za tyle to ludzie kopmy w całosci składaja.czekać na 2070,2060 albo kupować 1080 jedyne sensowne rozwiazanie.
NamonakiZobacz profil
Poziom ostrzeżenia: 0%
Namonaki2018.09.21, 20:01
daerragh @ 2018.09.21 18:38  Post: 1165986
Dziwię się, że komentarze są aż takie łagodne. 2080Ti tylko o 20-25% szybsza od 1080 Ti a cena o ok. 3000zł w górę! Przecież to jest tragedia i najgorsza premiera nVidii od lat (najmniejszy przyrost wydajności z generacji na generację). Pogrom.

najwyraźniej przegapiłeś premiery Tytan'ów (od tego czasu jedynie zmieniła się nazwa)
daerragh @ 2018.09.21 18:38  Post: 1165986
No ale co zrobić jak nV nie ma konkurencji ze strony AMD w najwyzszym sektorze. nV ustala ceny jak im sie podoba. A i patrzac na statystyki Steam, to AMD praktycznie w żadnym sektorze nie istnieje a przeciez RX 570/580 to niezle karty. Ten ich niby ok. 20% udział w rynku to chyba sami gornicy...

aż mnie natknęliście żeby 'sprawdzić najniższe ceny' ...
RX 570 obecnie stoi po 900-1000; używki po 650
https://www.ceneo.pl/Karty_graficzne/Chips..._570;0112-0.htm
RX 580 po 1000-1200
https://www.ceneo.pl/Karty_graficzne/Chips..._580;0112-0.htm
wiec zamiast narzekać że nikt tych kart nie używa może wypadało by się nimi zainteresować?

a co do nowych funkcji kart graficznych to czy to będą shadery czy DX12/Vulkan to ktoś najpierw musi się tego nauczyć (pod warunkiem że ma dostęp do sprzętu) zanim efekty jego pracy będzie można zobaczyć
przecież nigdy tak nie było ze wraz premierą nowych funkcji pojawiał się wysyp korzystającego z nich oprogramowania
daerraghZobacz profil
Poziom ostrzeżenia: 0%
daerragh2018.09.21, 22:16
Namonaki @ 2018.09.21 20:01  Post: 1166001

najwyraźniej przegapiłeś premiery Tytan'ów (od tego czasu jedynie zmieniła się nazwa)


Titany pomijam, bo do gier sa kompletnie nieoplacalne.
NamonakiZobacz profil
Poziom ostrzeżenia: 0%
Namonaki2018.09.21, 22:56
daerragh @ 2018.09.21 22:16  Post: 1166021

Titany pomijam, bo do gier sa kompletnie nieoplacalne.


a 2080 ti nie jest równie 'opłacalna' co tytany?
GrzegorzG3Zobacz profil
Poziom ostrzeżenia: 0%
GrzegorzG32018.09.21, 23:40
2080 ti jest równie 'opłacalna' co nowe Apple iPhone Xs Max https://www.x-kom.pl/p/448441-smartfon-tel...2gb-silver.html
Edytowane przez autora (2018.09.21, 23:52)
HΛЯPΛGŌNZobacz profil
Poziom ostrzeżenia: 0%
HΛЯPΛGŌN2018.09.22, 02:36
Namonaki @ 2018.09.21 22:56  Post: 1166024
daerragh @ 2018.09.21 22:16  Post: 1166021

Titany pomijam, bo do gier sa kompletnie nieoplacalne.


a 2080 ti nie jest równie 'opłacalna' co tytany?

Zgadza się, po prostu przesunęli półki cenowe tak jak przy przejściu z serii 900 na 1000. Nazywać sobie to mogą jak chcą, ale jeśli wydajność w tej samej cenie stoi w miejscu albo dyga o 3-5% to jest to po prostu ZASTUJ.
ColidaceZobacz profil
Poziom ostrzeżenia: 0%
Colidace2018.09.22, 05:03
-10#230
Po tylu latach wreszcie cos nowego. Najwazniejsza dla mnie cecha to DLSS. Raytracing to tylko dodatek w chwili obecnej. Dopiero za pare generacji bedzie warto sie o niego martwic. Ale rdzenie AI w GPU zmieniaja wszystko. 60pfs w prawdziwym 4k (nie ta podroba co na konsolaach) wreszcie zrownuje sie z monitorami 4k ktorych jest pelno. Cena jest bez znaczenia, rzecz ktora sie moze zmieniac w czasie jak chce. RTX przynosi wieksze zmiany niz kiedys na raty dawane takie rzeczy jak antyaliasing, HBAO+, czy cienie HFTS. To ogromna zmiana podana w na jednym talerzu.
Edytowane przez autora (2018.09.22, 05:06)
ja__Zobacz profil
Poziom ostrzeżenia: 0%
ja__2018.09.22, 09:42
Vendeur @ 2018.09.20 22:27  Post: 1165857
Zedmen @ 2018.09.20 19:34  Post: 1165839
Dla kogo te karty? Mój przykład, jak pewnie jeden z wielu ludzi, celujących w Hi End.
Jestem zwykłym kowalskim, który lubi pograć w dobrej jakości.
Myślałem nad 2080Ti.
Mam monitor WQHD 3440x1440 120hz. Do tego 1080Ti.
Battlefield 1 wyciąga u mnie 100hz na ultra.
Ray Tracing w mojej rozdziałce na tej karcie odpada.
Czyli co? 5,5k za dodatkowe 20 klatek?
Bez sensu te karty. Jeszcze musiałbym przeprosić się z win10.
No to możę pod TV 4k.
Ale zaraz, teraz mam w przykładowym BF1 55 fps a TV wyciągnie na maxa 60 po hdmi. Czyli co? 5 fps za 5,5k?
Jaja jakieś.


Widać, kasę masz, ale rozumu to niezbyt... Gratuluję logiki. Będziesz winił teraz kartę graficzną, że masz TV tylko 60Hz? Trzeba było sobie kupić lepszy... Poza tym jakie 5,5k? Stare karty wieszasz na ścianie, aby się do nich modlić? Czy może jednak przy zakupie nowych stare sprzedasz i dzięki temu nie będzie 5,5k, a np 3,5k?

Magik II @ 2018.09.20 15:03  Post: 1165799
Co się stało że tytuł artykułu zmieniliście? Nvidii się nie spodobał? ;D
Dla niewtajemniczonych, wcześniej w 'RTX' było przekreślone RT.


I bardzo dobrze, bo takie idiotyczne przekreślanie wprowadzało w błąd. Nie pierwszy raz PcLab cuduje i się ośmiesza w ten sposób, czego najlepszy przykład dali właśnie w podsumowaniu i nie przyznaniu POWER dla nowej karty. To jest nazwa własna, PcLab nie ma prawa dla własnego kaprysu i żeby zrobić 'drama' zmieniać znak zastrzeżony.


A gdzie przy rtx masz znak zastrzeżony? :D te kart na ta chwilę to faili twoje spuszczanie się nad nimi niewiele zmieni
Edytowane przez autora (2018.09.22, 14:43)
ŻywyZobacz profil
Poziom ostrzeżenia: 0%
Żywy2018.09.22, 10:16
Colidace @ 2018.09.22 05:03  Post: 1166036
60pfs w prawdziwym 4k (nie ta podroba co na konsolaach)


Wlasnie DLSS polega na tym, ze renderuje w nizszej niz natywnej rozdzielczosci, to tez nie jest 'prawdziwe' 4K, dlatego tez jest szybsze niz nawet FXAA ktore 'pozera' pol FPSa. Aczkolwiek zgadzam sie, ze tutaj jest tak naprawde prawdziwy przelom, bo jak pokazuja screeny z gier NV udalo sie osignac cos, co zdawalo sie niemozliwe - osiagneli lepszy efekt koncowy renderujac w nizszej rozdzielczosci. A to z kolei pozostawia pole manewru dla RT. Niestety poki co jest niewiele gier, ktore wykorzystuja nowe technologie, a gier, ktore laczylyby obie nie ma wcale, chyba dopiero nadchodzacy Mechwarrior bedzie pierwszy? Ale jesli NV nie osiadzie na laurach i bedzie caly czas mocno wspolpracowala z deweloperami by promowac nowe rozwiazania, to mysle, ze w ciagu pol roku-roku ujrzymy wiecej gier, ktore lacza wszystie nowe technologie RTXow w calosc, i tak naprawde dopiero wtedy bedzie mozna w pelni ocenic uzytecznosc nowych kart, bo poki co to faktycznie lepiej kupic uzywanego 1080Ti i wykrecic do 2GHz.
zaki123Zobacz profil
Poziom ostrzeżenia: 0%
zaki1232018.09.22, 10:36
HAHAHAHHAHAHAHAHAHA. 2 lata oczekiwania i 10% wydajności za 5500zł xD. LOOOL! Wstyd i robienie idiotów z ludzi. To powinna wyjść odswiezona wersja 1080 ti za ewentualnie tę samą cenę. Oby się mendom do dupy nalało. Nawet jak w totka wygram nie kupię tego gówna.
TabalanZobacz profil
Poziom ostrzeżenia: 0%
Tabalan2018.09.22, 10:39
duchos @ 2018.09.21 10:23  Post: 1165899
Nie jest to rewolucja na miarę Passcala. Ogólnie jestem zawiedziony wydajnością. Cena za wysoka i wyniki zbl8zone do 1080ti.
Wybacz, ale co takiego rewolucyjnego w Pascalach? To, że przeskoczyli o 2 procesy w dół (28->20->16) i dopakowali wszystkich jednostek ciężko nazwać rewolucją.

Zedmen @ 2018.09.21 13:53  Post: 1165934
No dokładnie tak.
Trzeba czekać i obserwować.
Karta niby do Hi-Endu ale wydajność ray tracingu dla Mid-Endu. No chyba, że ktoś ma zamiar kartę za 5k podpiąć pod monitor FHD. Nie kumam tego.
Lepiej się nie dało, RTX 2080Ti to zdecydowanie największy układ konsumencki z ostatnich lat: https://pclab.pl/art78702.html .Gdyby wydajność w RT miała być wyższa to by trzeba było, hmm, coś w stylu dual GPU, ale wtenczas karta by było zapewne jeszcze droższa.
zaki123Zobacz profil
Poziom ostrzeżenia: 0%
zaki1232018.09.22, 10:53
a co z kopaniem KRYPTOWALUT?
KamorZobacz profil
Poziom ostrzeżenia: 0%
Kamor2018.09.23, 00:05
Ciekawe jaka jest różnica w wydajności pod kątem użytego procesora (czy liczba rdzeni, ht i taktowanie ma wpływ na wydajność)?
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2018.09.23, 11:16
Ile zajmują tensory? Ile na tej powierzchni zmieściłoby się rdzeni renderujących? Jeżeli odpowiednio dużo by i tak uzyskać podobną wydajność w 4K tylko, że NATYWNIE to tensory nie mają sensu.

Czy DLSS można ustawić dla innych rozdzielczości? Czy mogę renderować w 720p i zadziałają poprawiając do 1080p?

Czy MAX zużycie energii (temperatury) było liczone w 4K z włączonym DLSS i RT? To osobne jednostki, więc zużycie rośnie tylko jak pracują.

Karty OK, tego się spodziewałem a i ruch ze strony NV logiczny i korzystny, wprowadzili nowe techniki zamiast dawać duży wzrost wydajności w idealnym momencie - kiedy nie ma konkurencji. NV dobrze steruje tym rynkiem, bronią się przed stagnacją - nie tak jak Intel.
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2018.09.23, 12:49
Tak w ogóle czy tylko mnie dziwi, ze nvidia nie poczekała na 7nm, albo chociaż zdecydowała się na 10nm, tylko poszli w 12nm(to samo co 16nm). 10nm dało by prawie 2x większe upakowanie tranzystorów, a 7nm 3x większe.

W przypadku apple mamy w 16nm 26mln tr/mm2, w 10nm 48mln tr/mm2, a w przypadku 7nm 83mln/mm2.

Nawet 10nm centriq 2400 od qualcomma ma 398mm2 i tyle samo tranzystorów co TU102. No chyba, ze 10nm linie produkcyjne nie były dostępne z racji dużego obłożenia układami mobilnymi. Tak czy siak w przyszłym roku pewnie dostaniemy 7nm refresh około 300mm2 i nowego turinga ponad 400mm2.
tomasterZobacz profil
Poziom ostrzeżenia: 0%
tomaster2018.09.23, 13:05
Nvidia musi palić crack żeby takie ceny dawać.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2018.09.25, 08:42
@Amitoza
Też się nad tym zastanawiałem. Być może uznali, że podwójny eksperyment byłby zbyt ryzykowny (nowa architektura + nowy proces). Turing to naprawdę duża zmiana patrząc od wewnątrz (pierwszy układ Nvidii z dobrym wsparciem natywnego DX12; nowe jednostki obliczeniowe: RT i tensory). Tyle, że te zmiany nie dały kopa wydajności w DX11, a spowodowały znaczący wzrost kosztów produkcji i w konsekwencji również cen. Być może Nvidia chciała oswoić ludzi z nowymi technologiami przed premierą właściwej serii. To może się jednak niezbyt udać ze względu na dość powszechne rozczarowanie współczynnikiem wydajność/cena. Z drugiej strony zejście z marży mogłoby zdenerwować akcjonariuszy.

Inna sporawa, że w to 2x-3x lepsze upakowanie raczej nie wierzę. Z reguły te podawane wartości to 'best case scenario' dotyczące tylko wybranych segmentów układu, a średnia wynikająca z porównania wielkości wyprodukowanych chipów jest wyraźnie gorsza.
Edytowane przez autora (2018.09.25, 08:44)
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.