komentarze
DoamdorZobacz profil
Poziom ostrzeżenia: 0%
Doamdor2020.01.20, 14:47
-7#1
Jeżeli RTX 3070 będzie wydajniejszy od RTX 2080Ti, tak jak to było podczas premiery Pascal GTX 1070 vs GTX980Ti, to będzie pięknie. No ale dopóki nie ma testów, to można sobie gdybać.

Edit: Widać, że komuś się nudzi.
Edytowane przez autora (2020.01.20, 15:57)
emil3223Zobacz profil
Poziom ostrzeżenia: 0%
emil32232020.01.20, 15:01
-14#2
RTX 3070 z 16 GB - jakieś 40% ceny to były koszt ramu - całkowity bezsens dla gier.
lukas108Zobacz profil
Poziom ostrzeżenia: 0%
lukas1082020.01.20, 15:09
Czyli Nvidia zamiast dać wydajność będzie dozować sobie po troszku jak Intel. W końcu konkurencja ciągle widzi ich tylnie blachy.
frog67Zobacz profil
Poziom ostrzeżenia: 0%
frog672020.01.20, 15:14
emil3223 @ 2020.01.20 15:01  Post: 1230929
RTX 3070 z 16 GB - jakieś 40% ceny to były koszt ramu - całkowity bezsens dla gier.

Jeżeli ma być więcej tytułów opartych na RT to trzeba dać więcej Vram bo Ray Tracing jednak znacznie zwiększa zapotrzebowanie na Vram, więc taka ilość Vramu to nie jest żaden bezsens. Zauważ że Nvidia zawsze skąpiła na swoich kartach dawać ram na zapas, jak to AMD choćby ma w zwyczaju i zawsze dawało trochę więcej.
Jeżeli do Ampere dają tyle pamięci to widać jest to konieczne.
buggeerZobacz profil
Poziom ostrzeżenia: 0%
buggeer2020.01.20, 15:17
Jeżeli 3080 faktycznie ma dostać GA103 to nvidii zwolnił rozwój. 2080 było jeszcze na hierarchicznie słabszym TU104. Ciekawe, czy 3080ti w tym wypadku dostanie GA102 czy GA101.

Albo będzie kolejny wzrost cen, albo musieli przejść półeczkę wyżej, żeby zapewnić wystarczający wzrost wydajności w raytracingu.
CaroozoZobacz profil
Poziom ostrzeżenia: 0%
Caroozo2020.01.20, 15:26
-2#6
Do czasu premiery AMD musi się 'nachapać', bo te karty będą na pewno bardzo mocne. Duże Navi pewnie w okolicy Q4 2020/Q1 2021, ciekawe co czerwoni wymyślą, bo na razie mają przewagę związaną z procesem... Jestem również ciekaw, jak to odbije się na rynku cen i czy i tym razem nVidia podniesie sufit, czy też zrobi jedynie delikatne korekty.
h63619Zobacz profil
Poziom ostrzeżenia: 0%
h636192020.01.20, 15:45
emil3223 @ 2020.01.20 15:01  Post: 1230929
RTX 3070 z 16 GB - jakieś 40% ceny to były koszt ramu - całkowity bezsens dla gier.


Jest powiedziane 8 lub 16, czyli pewnie 8 w GeForce 16 w Quadro i Tesli.
NamonakiZobacz profil
Poziom ostrzeżenia: 0%
Namonaki2020.01.20, 15:49
GTC 2020 : The Premier Deep Learning & AI Conference
wiec konferencja o głębokim uczeniu i sieciach neuronowych
https://www.nvidia.com/en-us/gtc/
h63619Zobacz profil
Poziom ostrzeżenia: 0%
h636192020.01.20, 15:58
buggeer @ 2020.01.20 15:17  Post: 1230933
Jeżeli 3080 faktycznie ma dostać GA103 to nvidii zwolnił rozwój. 2080 było jeszcze na hierarchicznie słabszym TU104. Ciekawe, czy 3080ti w tym wypadku dostanie GA102 czy GA101.

Albo będzie kolejny wzrost cen, albo musieli przejść półeczkę wyżej, żeby zapewnić wystarczający wzrost wydajności w raytracingu.


Może 3080ti dostanie pełne 103 a 3080 okrojone 103.
DoamdorZobacz profil
Poziom ostrzeżenia: 0%
Doamdor2020.01.20, 16:01
lukas108 @ 2020.01.20 15:09  Post: 1230931
Czyli Nvidia zamiast dać wydajność będzie dozować sobie po troszku jak Intel. W końcu konkurencja ciągle widzi ich tylnie blachy.


Nvidia da pełną wydajność w 7nm, tylko kwestia czy cię stać na kartę z pełnym rdzeniem.
trinitronZobacz profil
Poziom ostrzeżenia: 0%
trinitron2020.01.20, 16:51
Doamdor @ 2020.01.20 14:47  Post: 1230927
Jeżeli RTX 3070 będzie wydajniejszy od RTX 2080Ti, tak jak to było podczas premiery Pascal GTX 1070 vs GTX980Ti, to będzie pięknie. No ale dopóki nie ma testów, to można sobie gdybać.

Najpierw był GTX 1080, który był faktycznie dużym skokiem. Ale cenowo także było ciekawie ;)
GTX 970 to była karta, która wydajnościowo i cenowo była idealnym produktem dla wielu graczy. Cena ? Całkiem przystępna, nawet nie patrząc na kurs dolara. Cena bazowa była po prostu całkiem 'niska'. Różnica wydajności i tego ile trzeba było dopłacić do 980 nie była dla wielu warta zachodu. Szczególnie, że GTX 970 sam w sobie zapewniał bardzo dobrą wydajność i na lata zagościł w wielu komputerach.

Przy GTX1080/1070 wydajnościowo mieliśmy ładny skok, ale cenowo tak samo. GTX 970 to było 1400-1500zł, a GTX1070 to już 2300-2500zł. To ogromny skok, różnica pozwalała kupić płytę i RAM czy procesor.
Patrząc wstecz uważam, że seria 10xx była udana, ale jednak zbyt droga. Swoje zrobił szał na kryptowaluty. Obie firmy chciały zarobić na boku i jawnie robiły to kosztem kart konsumenckich.
AMD i Nvidia, krajowi dystrybutorzy i duże sklepy będące w kontakcie z dystrybutorami i oddziałami ww firm nie patrzyły na Kowalskiego, ale zysk. Bajki o tym, że tak nie było powstały dla dobrego PRu. Oczywiście ich prawo, ale mogli produkcję i sprzedaż mocniej i szybciej rozdzielić.
Zresztą potem informacje dla inwestorów np. Nvidii o tym, że zysk był mniejszy bo spodziewali się dalej trzepać grubą kasę na kryptowalutach :E Całe szczęście, że częściowo wyszło im to bokiem. Ktoś chce się w to bawić spoko, ale ile to napsuło na rynku dla zwykłego użytkownika w sensie cen i dostępności sprzętu. A także tego jak firmy zaczęły patrzeć na rynek, to z czego mogą czerpać zysk ;)

RTX - taka 2080 RTX to przecież wydajnościowo śmiech na sali. Praktycznie zerowy wzrost wydajności do GTX 1080Ti bo cena prawie ta sama, nawet ramu mniej. Ale są nowe rozwiązania. Co z tego, że w 4K na High/Ultra wydajność z RT siada. Nawet RTX 2080Ti w Ultra i 4K to 30 klatek w Metro Exodus :D
W Battlefield V w zależności czy 2K czy 4K mamy od 70 do 40 klatek. Ok już całkiem nieźle, ale jak wziąć poprawkę, że to karty za 4500-6000zł ? Powiedzmy, że do 2K nawet z RT RTX 2070S wystarczy, ale trzeba jeszcze pamiętać, że 70-90% będzie na tej karcie siedzieć 1,5 roku do 3 lat.

No i ostatnia kwestia premiera nowych konsol. Dwie kwestie, ich moc i cena oraz to czy i jak mocno będą wykorzystywać RT. Im wydajniejsze konsole, im więcej RT, tym niby lepiej. Bo raz, że to będzie po stronie AMD co daje szanse na to 'samo' w ich kartach - a dwa, implementacja tego w grach. MS i ich gry oraz wydawców na Xboxie i...PC oraz Sony z PS i wydawcy na PSie. A skoro gry na konsolach będą mieć RT to tym szybciej pójdzie to na PC.
Mocniejsze konsole to większe pole do popisu dla twórców gier, brak ograniczeń więc i na PC niby będzie minimum to samo. Jeśli zabrakłoby mocy to będzie powód do presji na producentów jak AMD/Intel i Nvidia/AMD. Tylko, że przecież AMD nie będzie samo sobie robić problemów. Patrzą też na zyski i to jak bardzo opłaca im się przesuwać moce i kasę na R&D dla produktów i kontraktów z właśnie MS i Sony, rynek serwerowy, produkty konsumenckie jak procesory i karty graficzne.
AMD raczej nie dogodni Nvidii w czystej wydajności, ale można jeśli uda im się dobrze wejść w RT to wbrew pozorom dystans się zmniejszy ;) No chyba, że wyskoczą z czymś jak GTX970 karta z bardzo dobrą wydajnością i naprawdę przystępna cenowo. Ale kiedy ostatnio AMD pokazało coś takiego ? I mówię o rynku PC, konsumenckim, raczej czysto growym. Bo fajnie, że nowe procesory wypadają dobrze, a bardzo dobrze w różnych programach Adobe AE, kompresja H.264. To część rynku, ale tutaj pewnie większość interesuje czy pociągnie Crysisa.
Edytowane przez autora (2020.01.20, 17:00)
AlthaisZobacz profil
Poziom ostrzeżenia: 0%
Althais2020.01.20, 16:57
Doamdor @ 2020.01.20 16:01  Post: 1230942
lukas108 @ 2020.01.20 15:09  Post: 1230931
Czyli Nvidia zamiast dać wydajność będzie dozować sobie po troszku jak Intel. W końcu konkurencja ciągle widzi ich tylnie blachy.


Nvidia da pełną wydajność w 7nm, tylko kwestia czy cię stać na kartę z pełnym rdzeniem.


Krążą plotki, że nowe karty mają być nawet odrobinę tańsze. Ktoś ma jakieś inne źródło plotek gdzie jest wspomniana kwestia cen kart od NV ?
TabalanZobacz profil
Poziom ostrzeżenia: 0%
Tabalan2020.01.20, 17:03
buggeer @ 2020.01.20 15:17  Post: 1230933
Jeżeli 3080 faktycznie ma dostać GA103 to nvidii zwolnił rozwój. 2080 było jeszcze na hierarchicznie słabszym TU104. Ciekawe, czy 3080ti w tym wypadku dostanie GA102 czy GA101.
Nie było TU103, więc RTX2080 był na drugim największym układzie (a więc odpowiednik GA103). Tutaj Nvidia zmienia oznaczenia z TU102, 104, 106 na GA 102, 103, 104. Na pewno będą też niższe układy, ale na to trzeba poczekać.
Wszystkie info odnośnie GA10X z tej plotki/strony Videocardz.
Edytowane przez autora (2020.01.20, 17:04)
buggeerZobacz profil
Poziom ostrzeżenia: 0%
buggeer2020.01.20, 17:11
-1#14
Tabalan @ 2020.01.20 17:03  Post: 1230949
Nie było TU103, więc RTX2080 był na drugim największym układzie (a więc odpowiednik GA103). Tutaj Nvidia zmienia oznaczenia z TU102, 104, 106 na GA 102, 103, 104. Na pewno będą też niższe układy, ale na to trzeba poczekać.
Wszystkie info odnośnie GA10X z tej plotki/strony Videocardz.


XX103 to zawsze lepszy rdzeń niż XX104. Nvidia nie nazywa ich tak dla zabawy, tylko projektuje XX100 a potem dzieli go na gorsze warianty, w zależności od perspektyw uzysku.

Przeszli na taki układ code name'ów przy okazji serii 400 i się tego trzymają. Są materiały od GN na ten temat. Nawet główny fanboj amd, AdoredTV to przyznaje.
Edytowane przez autora (2020.01.20, 17:13)
blubajuZobacz profil
Poziom ostrzeżenia: 0%
blubaju2020.01.20, 18:26
trinitron @ 2020.01.20 16:51  Post: 1230946

GTX 970 to była karta, która wydajnościowo i cenowo była idealnym produktem dla wielu graczy. Cena ? Całkiem przystępna, nawet nie patrząc na kurs dolara. Cena bazowa była po prostu całkiem 'niska'. Różnica wydajności i tego ile trzeba było dopłacić do 980 nie była dla wielu warta zachodu. Szczególnie, że GTX 970 sam w sobie zapewniał bardzo dobrą wydajność i na lata zagościł w wielu komputerach.


Jeszcze do dzisiaj niektórzy mają tą kartę w swoich blaszakach. Nie do wiary że jeszcze dzisiaj można na tym grać.
Edytowane przez autora (2020.01.20, 18:27)
el_darkoZobacz profil
Poziom ostrzeżenia: 0%
el_darko2020.01.20, 18:49
Czyli co ga103 to dawniejsze 104, a ga104 to dawniejsze 106 żeby ludzie się nie rzucali jak przy Turingach? Oby się to nie sprawdziło..
ReveAngeZobacz profil
Poziom ostrzeżenia: 0%
ReveAnge2020.01.20, 18:58
blubaju @ 2020.01.20 18:26  Post: 1230952
trinitron @ 2020.01.20 16:51  Post: 1230946

GTX 970 to była karta, która wydajnościowo i cenowo była idealnym produktem dla wielu graczy. Cena ? Całkiem przystępna, nawet nie patrząc na kurs dolara. Cena bazowa była po prostu całkiem 'niska'. Różnica wydajności i tego ile trzeba było dopłacić do 980 nie była dla wielu warta zachodu. Szczególnie, że GTX 970 sam w sobie zapewniał bardzo dobrą wydajność i na lata zagościł w wielu komputerach.


Jeszcze do dzisiaj niektórzy mają tą kartę w swoich blaszakach. Nie do wiary że jeszcze dzisiaj można na tym grać.


Można można. Sam na 'tym' gram i nawet mam 60fps w full hd. Nie do wiary ale jednak :)
jakejoyrideZobacz profil
Poziom ostrzeżenia: 0%
jakejoyride2020.01.20, 19:10
trinitron @ 2020.01.20 16:51  Post: 1230946

AMD raczej nie dogodni Nvidii w czystej wydajności, ale można jeśli uda im się dobrze wejść w RT to wbrew pozorom dystans się zmniejszy ;) No chyba, że wyskoczą z czymś jak GTX970 karta z bardzo dobrą wydajnością i naprawdę przystępna cenowo. Ale kiedy ostatnio AMD pokazało coś takiego ? I mówię o rynku PC, konsumenckim, raczej czysto growym.

Kheeeeeeeeeeem khem proponuję kheeeeeem zobaczyć kheeeeeem 5700xt kheeeeeeeeeeem to może ten nowy kheeeeeeeeeem 970 o którym tak kheeeeeeem śnisz...
Zobacz też - sprzedaje się jak świerze bułeczki. Ale w kraju cebuli każdy ma jeszcze nvidie i o tym jeszcze nie wie :)
AntybiotykZobacz profil
Poziom ostrzeżenia: 0%
Antybiotyk2020.01.20, 19:14
16 i 20 GB Vram to miałoby sens, zważywszy, że nowe konsole będą miały prawdopodobnie 16 GB ramu.
SaryZobacz profil
Poziom ostrzeżenia: 0%
Sary2020.01.20, 19:22
Antybiotyk @ 2020.01.20 19:14  Post: 1230959
16 i 20 GB Vram to miałoby sens, zważywszy, że nowe konsole będą miały prawdopodobnie 16 GB ramu.

Współdzielonego na system i GPU
Zaloguj się, by móc komentować