trochę historii ( w zaokrągleniu):
1070 startował w cenie 980 z wydajnością 980ti
2080 startuje z wydajnością 1080ti z ceną 1080ti
wzrostu mocy ani wzrostu energooszczędności nie widać...
tak, wiem nowe bajery, które (może) za rok zobaczymy
p.s. ale RT jest!
Do małej poprawki.
1070 startował w cenie 449$ (wersja FE), potem opuszczoną do 379$ (potem oczywiście górnicy się przypałętali) z wydajnością 980Ti podczas gdy 980 na premierę kosztowała 549$ - tak że Nvidia dużo bardziej niż piszesz robi nas w bambuko
Widziałem dema BF 5 i Metro Exodus i faktycznie Ray Tracing to przyszlość
A ja widziałem kiedyś dema z Global Ilumination, Geometry Instancing, Tessellation, Screen Space Ambient Occlussion itp. itd. i też wydawało mi się, że 'to, fotorealizm tuż tuż' a tu dupa blada. RT ma swoje wady, które i tak trzeba będzie łatać shaderami. Ergo hybryda ok, ale nie spodziewałbym się cudów.
Czy mi się wydaje czy 1080 na premierę kosztowała ok. 3600? Więc o co ta awantura skoro 3600-4000 kosztuje 2080. Nvidia dyma nas równo, tak jak dymała nas 2.5 roku temu i kilka lat wstecz.
MSRP dla 1080 było $599, dla 2080 jest $699. Czyli dokładnie tyle samo co wynosiło MSRP 1080Ti.
Ceny na premierę:
1080 - $599
1080Ti - $699
2080 - $699
2080Ti - $999
Innymi słowy wzrost wydajności w stosunku do ceny jest bliski 0.
Z jednym małym ALE - nie ma w sklepach kart rtx2080 w cenie 699$, wszystkie, także niereferenty są powyżej 799$ (z wyjątkiem MSI Duke, jest za 769$). Natomiast gdy wychodziły 1080, sporo później niż 1080 FE to faktycznie ukazały się w sklepach za 599$
ceny dla Kowalskiego tych kart to jakis absurd,za tyle to ludzie kopmy w całosci składaja.czekać na 2070,2060 albo kupować 1080 jedyne sensowne rozwiazanie.
Dziwię się, że komentarze są aż takie łagodne. 2080Ti tylko o 20-25% szybsza od 1080 Ti a cena o ok. 3000zł w górę! Przecież to jest tragedia i najgorsza premiera nVidii od lat (najmniejszy przyrost wydajności z generacji na generację). Pogrom.
najwyraźniej przegapiłeś premiery Tytan'ów (od tego czasu jedynie zmieniła się nazwa)
daerragh @ 2018.09.21 18:38
No ale co zrobić jak nV nie ma konkurencji ze strony AMD w najwyzszym sektorze. nV ustala ceny jak im sie podoba. A i patrzac na statystyki Steam, to AMD praktycznie w żadnym sektorze nie istnieje a przeciez RX 570/580 to niezle karty. Ten ich niby ok. 20% udział w rynku to chyba sami gornicy...
a co do nowych funkcji kart graficznych to czy to będą shadery czy DX12/Vulkan to ktoś najpierw musi się tego nauczyć (pod warunkiem że ma dostęp do sprzętu) zanim efekty jego pracy będzie można zobaczyć
przecież nigdy tak nie było ze wraz premierą nowych funkcji pojawiał się wysyp korzystającego z nich oprogramowania
Titany pomijam, bo do gier sa kompletnie nieoplacalne.
a 2080 ti nie jest równie 'opłacalna' co tytany?
Zgadza się, po prostu przesunęli półki cenowe tak jak przy przejściu z serii 900 na 1000. Nazywać sobie to mogą jak chcą, ale jeśli wydajność w tej samej cenie stoi w miejscu albo dyga o 3-5% to jest to po prostu ZASTUJ.
Po tylu latach wreszcie cos nowego. Najwazniejsza dla mnie cecha to DLSS. Raytracing to tylko dodatek w chwili obecnej. Dopiero za pare generacji bedzie warto sie o niego martwic. Ale rdzenie AI w GPU zmieniaja wszystko. 60pfs w prawdziwym 4k (nie ta podroba co na konsolaach) wreszcie zrownuje sie z monitorami 4k ktorych jest pelno. Cena jest bez znaczenia, rzecz ktora sie moze zmieniac w czasie jak chce. RTX przynosi wieksze zmiany niz kiedys na raty dawane takie rzeczy jak antyaliasing, HBAO+, czy cienie HFTS. To ogromna zmiana podana w na jednym talerzu.
Dla kogo te karty? Mój przykład, jak pewnie jeden z wielu ludzi, celujących w Hi End.
Jestem zwykłym kowalskim, który lubi pograć w dobrej jakości.
Myślałem nad 2080Ti.
Mam monitor WQHD 3440x1440 120hz. Do tego 1080Ti.
Battlefield 1 wyciąga u mnie 100hz na ultra.
Ray Tracing w mojej rozdziałce na tej karcie odpada.
Czyli co? 5,5k za dodatkowe 20 klatek?
Bez sensu te karty. Jeszcze musiałbym przeprosić się z win10.
No to możę pod TV 4k.
Ale zaraz, teraz mam w przykładowym BF1 55 fps a TV wyciągnie na maxa 60 po hdmi. Czyli co? 5 fps za 5,5k?
Jaja jakieś.
Widać, kasę masz, ale rozumu to niezbyt... Gratuluję logiki. Będziesz winił teraz kartę graficzną, że masz TV tylko 60Hz? Trzeba było sobie kupić lepszy... Poza tym jakie 5,5k? Stare karty wieszasz na ścianie, aby się do nich modlić? Czy może jednak przy zakupie nowych stare sprzedasz i dzięki temu nie będzie 5,5k, a np 3,5k?
Magik II @ 2018.09.20 15:03
Co się stało że tytuł artykułu zmieniliście? Nvidii się nie spodobał? ;D
Dla niewtajemniczonych, wcześniej w 'RTX' było przekreślone RT.
I bardzo dobrze, bo takie idiotyczne przekreślanie wprowadzało w błąd. Nie pierwszy raz PcLab cuduje i się ośmiesza w ten sposób, czego najlepszy przykład dali właśnie w podsumowaniu i nie przyznaniu POWER dla nowej karty. To jest nazwa własna, PcLab nie ma prawa dla własnego kaprysu i żeby zrobić 'drama' zmieniać znak zastrzeżony.
A gdzie przy rtx masz znak zastrzeżony? te kart na ta chwilę to faili twoje spuszczanie się nad nimi niewiele zmieni
60pfs w prawdziwym 4k (nie ta podroba co na konsolaach)
Wlasnie DLSS polega na tym, ze renderuje w nizszej niz natywnej rozdzielczosci, to tez nie jest 'prawdziwe' 4K, dlatego tez jest szybsze niz nawet FXAA ktore 'pozera' pol FPSa. Aczkolwiek zgadzam sie, ze tutaj jest tak naprawde prawdziwy przelom, bo jak pokazuja screeny z gier NV udalo sie osignac cos, co zdawalo sie niemozliwe - osiagneli lepszy efekt koncowy renderujac w nizszej rozdzielczosci. A to z kolei pozostawia pole manewru dla RT. Niestety poki co jest niewiele gier, ktore wykorzystuja nowe technologie, a gier, ktore laczylyby obie nie ma wcale, chyba dopiero nadchodzacy Mechwarrior bedzie pierwszy? Ale jesli NV nie osiadzie na laurach i bedzie caly czas mocno wspolpracowala z deweloperami by promowac nowe rozwiazania, to mysle, ze w ciagu pol roku-roku ujrzymy wiecej gier, ktore lacza wszystie nowe technologie RTXow w calosc, i tak naprawde dopiero wtedy bedzie mozna w pelni ocenic uzytecznosc nowych kart, bo poki co to faktycznie lepiej kupic uzywanego 1080Ti i wykrecic do 2GHz.
HAHAHAHHAHAHAHAHAHA. 2 lata oczekiwania i 10% wydajności za 5500zł xD. LOOOL! Wstyd i robienie idiotów z ludzi. To powinna wyjść odswiezona wersja 1080 ti za ewentualnie tę samą cenę. Oby się mendom do dupy nalało. Nawet jak w totka wygram nie kupię tego gówna.
Nie jest to rewolucja na miarę Passcala. Ogólnie jestem zawiedziony wydajnością. Cena za wysoka i wyniki zbl8zone do 1080ti.
Wybacz, ale co takiego rewolucyjnego w Pascalach? To, że przeskoczyli o 2 procesy w dół (28->20->16) i dopakowali wszystkich jednostek ciężko nazwać rewolucją.
Zedmen @ 2018.09.21 13:53
No dokładnie tak.
Trzeba czekać i obserwować.
Karta niby do Hi-Endu ale wydajność ray tracingu dla Mid-Endu. No chyba, że ktoś ma zamiar kartę za 5k podpiąć pod monitor FHD. Nie kumam tego.
Lepiej się nie dało, RTX 2080Ti to zdecydowanie największy układ konsumencki z ostatnich lat: https://pclab.pl/art78702.html .Gdyby wydajność w RT miała być wyższa to by trzeba było, hmm, coś w stylu dual GPU, ale wtenczas karta by było zapewne jeszcze droższa.
Ile zajmują tensory? Ile na tej powierzchni zmieściłoby się rdzeni renderujących? Jeżeli odpowiednio dużo by i tak uzyskać podobną wydajność w 4K tylko, że NATYWNIE to tensory nie mają sensu.
Czy DLSS można ustawić dla innych rozdzielczości? Czy mogę renderować w 720p i zadziałają poprawiając do 1080p?
Czy MAX zużycie energii (temperatury) było liczone w 4K z włączonym DLSS i RT? To osobne jednostki, więc zużycie rośnie tylko jak pracują.
Karty OK, tego się spodziewałem a i ruch ze strony NV logiczny i korzystny, wprowadzili nowe techniki zamiast dawać duży wzrost wydajności w idealnym momencie - kiedy nie ma konkurencji. NV dobrze steruje tym rynkiem, bronią się przed stagnacją - nie tak jak Intel.
Tak w ogóle czy tylko mnie dziwi, ze nvidia nie poczekała na 7nm, albo chociaż zdecydowała się na 10nm, tylko poszli w 12nm(to samo co 16nm). 10nm dało by prawie 2x większe upakowanie tranzystorów, a 7nm 3x większe.
W przypadku apple mamy w 16nm 26mln tr/mm2, w 10nm 48mln tr/mm2, a w przypadku 7nm 83mln/mm2.
Nawet 10nm centriq 2400 od qualcomma ma 398mm2 i tyle samo tranzystorów co TU102. No chyba, ze 10nm linie produkcyjne nie były dostępne z racji dużego obłożenia układami mobilnymi. Tak czy siak w przyszłym roku pewnie dostaniemy 7nm refresh około 300mm2 i nowego turinga ponad 400mm2.
@Amitoza
Też się nad tym zastanawiałem. Być może uznali, że podwójny eksperyment byłby zbyt ryzykowny (nowa architektura + nowy proces). Turing to naprawdę duża zmiana patrząc od wewnątrz (pierwszy układ Nvidii z dobrym wsparciem natywnego DX12; nowe jednostki obliczeniowe: RT i tensory). Tyle, że te zmiany nie dały kopa wydajności w DX11, a spowodowały znaczący wzrost kosztów produkcji i w konsekwencji również cen. Być może Nvidia chciała oswoić ludzi z nowymi technologiami przed premierą właściwej serii. To może się jednak niezbyt udać ze względu na dość powszechne rozczarowanie współczynnikiem wydajność/cena. Z drugiej strony zejście z marży mogłoby zdenerwować akcjonariuszy.
Inna sporawa, że w to 2x-3x lepsze upakowanie raczej nie wierzę. Z reguły te podawane wartości to 'best case scenario' dotyczące tylko wybranych segmentów układu, a średnia wynikająca z porównania wielkości wyprodukowanych chipów jest wyraźnie gorsza.
1070 startował w cenie 980 z wydajnością 980ti
2080 startuje z wydajnością 1080ti z ceną 1080ti
wzrostu mocy ani wzrostu energooszczędności nie widać...
tak, wiem nowe bajery, które (może) za rok zobaczymy
p.s. ale RT jest!
Do małej poprawki.
1070 startował w cenie 449$ (wersja FE), potem opuszczoną do 379$ (potem oczywiście górnicy się przypałętali) z wydajnością 980Ti podczas gdy 980 na premierę kosztowała 549$ - tak że Nvidia dużo bardziej niż piszesz robi nas w bambuko
A ja widziałem kiedyś dema z Global Ilumination, Geometry Instancing, Tessellation, Screen Space Ambient Occlussion itp. itd. i też wydawało mi się, że 'to, fotorealizm tuż tuż' a tu dupa blada. RT ma swoje wady, które i tak trzeba będzie łatać shaderami. Ergo hybryda ok, ale nie spodziewałbym się cudów.
MSRP dla 1080 było $599, dla 2080 jest $699. Czyli dokładnie tyle samo co wynosiło MSRP 1080Ti.
Ceny na premierę:
1080 - $599
1080Ti - $699
2080 - $699
2080Ti - $999
Innymi słowy wzrost wydajności w stosunku do ceny jest bliski 0.
Z jednym małym ALE - nie ma w sklepach kart rtx2080 w cenie 699$, wszystkie, także niereferenty są powyżej 799$ (z wyjątkiem MSI Duke, jest za 769$). Natomiast gdy wychodziły 1080, sporo później niż 1080 FE to faktycznie ukazały się w sklepach za 599$
najwyraźniej przegapiłeś premiery Tytan'ów (od tego czasu jedynie zmieniła się nazwa)
aż mnie natknęliście żeby 'sprawdzić najniższe ceny' ...
RX 570 obecnie stoi po 900-1000; używki po 650
https://www.ceneo.pl/Karty_graficzne/Chips..._570;0112-0.htm
RX 580 po 1000-1200
https://www.ceneo.pl/Karty_graficzne/Chips..._580;0112-0.htm
wiec zamiast narzekać że nikt tych kart nie używa może wypadało by się nimi zainteresować?
a co do nowych funkcji kart graficznych to czy to będą shadery czy DX12/Vulkan to ktoś najpierw musi się tego nauczyć (pod warunkiem że ma dostęp do sprzętu) zanim efekty jego pracy będzie można zobaczyć
przecież nigdy tak nie było ze wraz premierą nowych funkcji pojawiał się wysyp korzystającego z nich oprogramowania
najwyraźniej przegapiłeś premiery Tytan'ów (od tego czasu jedynie zmieniła się nazwa)
Titany pomijam, bo do gier sa kompletnie nieoplacalne.
Titany pomijam, bo do gier sa kompletnie nieoplacalne.
a 2080 ti nie jest równie 'opłacalna' co tytany?
Titany pomijam, bo do gier sa kompletnie nieoplacalne.
a 2080 ti nie jest równie 'opłacalna' co tytany?
Zgadza się, po prostu przesunęli półki cenowe tak jak przy przejściu z serii 900 na 1000. Nazywać sobie to mogą jak chcą, ale jeśli wydajność w tej samej cenie stoi w miejscu albo dyga o 3-5% to jest to po prostu ZASTUJ.
Jestem zwykłym kowalskim, który lubi pograć w dobrej jakości.
Myślałem nad 2080Ti.
Mam monitor WQHD 3440x1440 120hz. Do tego 1080Ti.
Battlefield 1 wyciąga u mnie 100hz na ultra.
Ray Tracing w mojej rozdziałce na tej karcie odpada.
Czyli co? 5,5k za dodatkowe 20 klatek?
Bez sensu te karty. Jeszcze musiałbym przeprosić się z win10.
No to możę pod TV 4k.
Ale zaraz, teraz mam w przykładowym BF1 55 fps a TV wyciągnie na maxa 60 po hdmi. Czyli co? 5 fps za 5,5k?
Jaja jakieś.
Widać, kasę masz, ale rozumu to niezbyt... Gratuluję logiki. Będziesz winił teraz kartę graficzną, że masz TV tylko 60Hz? Trzeba było sobie kupić lepszy... Poza tym jakie 5,5k? Stare karty wieszasz na ścianie, aby się do nich modlić? Czy może jednak przy zakupie nowych stare sprzedasz i dzięki temu nie będzie 5,5k, a np 3,5k?
Dla niewtajemniczonych, wcześniej w 'RTX' było przekreślone RT.
I bardzo dobrze, bo takie idiotyczne przekreślanie wprowadzało w błąd. Nie pierwszy raz PcLab cuduje i się ośmiesza w ten sposób, czego najlepszy przykład dali właśnie w podsumowaniu i nie przyznaniu POWER dla nowej karty. To jest nazwa własna, PcLab nie ma prawa dla własnego kaprysu i żeby zrobić 'drama' zmieniać znak zastrzeżony.
A gdzie przy rtx masz znak zastrzeżony?
Wlasnie DLSS polega na tym, ze renderuje w nizszej niz natywnej rozdzielczosci, to tez nie jest 'prawdziwe' 4K, dlatego tez jest szybsze niz nawet FXAA ktore 'pozera' pol FPSa. Aczkolwiek zgadzam sie, ze tutaj jest tak naprawde prawdziwy przelom, bo jak pokazuja screeny z gier NV udalo sie osignac cos, co zdawalo sie niemozliwe - osiagneli lepszy efekt koncowy renderujac w nizszej rozdzielczosci. A to z kolei pozostawia pole manewru dla RT. Niestety poki co jest niewiele gier, ktore wykorzystuja nowe technologie, a gier, ktore laczylyby obie nie ma wcale, chyba dopiero nadchodzacy Mechwarrior bedzie pierwszy? Ale jesli NV nie osiadzie na laurach i bedzie caly czas mocno wspolpracowala z deweloperami by promowac nowe rozwiazania, to mysle, ze w ciagu pol roku-roku ujrzymy wiecej gier, ktore lacza wszystie nowe technologie RTXow w calosc, i tak naprawde dopiero wtedy bedzie mozna w pelni ocenic uzytecznosc nowych kart, bo poki co to faktycznie lepiej kupic uzywanego 1080Ti i wykrecic do 2GHz.
Trzeba czekać i obserwować.
Karta niby do Hi-Endu ale wydajność ray tracingu dla Mid-Endu. No chyba, że ktoś ma zamiar kartę za 5k podpiąć pod monitor FHD. Nie kumam tego.
Czy DLSS można ustawić dla innych rozdzielczości? Czy mogę renderować w 720p i zadziałają poprawiając do 1080p?
Czy MAX zużycie energii (temperatury) było liczone w 4K z włączonym DLSS i RT? To osobne jednostki, więc zużycie rośnie tylko jak pracują.
Karty OK, tego się spodziewałem a i ruch ze strony NV logiczny i korzystny, wprowadzili nowe techniki zamiast dawać duży wzrost wydajności w idealnym momencie - kiedy nie ma konkurencji. NV dobrze steruje tym rynkiem, bronią się przed stagnacją - nie tak jak Intel.
W przypadku apple mamy w 16nm 26mln tr/mm2, w 10nm 48mln tr/mm2, a w przypadku 7nm 83mln/mm2.
Nawet 10nm centriq 2400 od qualcomma ma 398mm2 i tyle samo tranzystorów co TU102. No chyba, ze 10nm linie produkcyjne nie były dostępne z racji dużego obłożenia układami mobilnymi. Tak czy siak w przyszłym roku pewnie dostaniemy 7nm refresh około 300mm2 i nowego turinga ponad 400mm2.
Też się nad tym zastanawiałem. Być może uznali, że podwójny eksperyment byłby zbyt ryzykowny (nowa architektura + nowy proces). Turing to naprawdę duża zmiana patrząc od wewnątrz (pierwszy układ Nvidii z dobrym wsparciem natywnego DX12; nowe jednostki obliczeniowe: RT i tensory). Tyle, że te zmiany nie dały kopa wydajności w DX11, a spowodowały znaczący wzrost kosztów produkcji i w konsekwencji również cen. Być może Nvidia chciała oswoić ludzi z nowymi technologiami przed premierą właściwej serii. To może się jednak niezbyt udać ze względu na dość powszechne rozczarowanie współczynnikiem wydajność/cena. Z drugiej strony zejście z marży mogłoby zdenerwować akcjonariuszy.
Inna sporawa, że w to 2x-3x lepsze upakowanie raczej nie wierzę. Z reguły te podawane wartości to 'best case scenario' dotyczące tylko wybranych segmentów układu, a średnia wynikająca z porównania wielkości wyprodukowanych chipów jest wyraźnie gorsza.