komentarze
znafcaZobacz profil
Poziom ostrzeżenia: 0%
znafca2020.01.20, 20:20
Zaraz do tych newsow bede podchodzil z takim dystansem , ze bede je omijal szerokim lukiem
TabalanZobacz profil
Poziom ostrzeżenia: 0%
Tabalan2020.01.20, 21:24
-1#22
buggeer @ 2020.01.20 17:11  Post: 1230950
Tabalan @ 2020.01.20 17:03  Post: 1230949
Nie było TU103, więc RTX2080 był na drugim największym układzie (a więc odpowiednik GA103). Tutaj Nvidia zmienia oznaczenia z TU102, 104, 106 na GA 102, 103, 104. Na pewno będą też niższe układy, ale na to trzeba poczekać.
Wszystkie info odnośnie GA10X z tej plotki/strony Videocardz.


XX103 to zawsze lepszy rdzeń niż XX104. Nvidia nie nazywa ich tak dla zabawy, tylko projektuje XX100 a potem dzieli go na gorsze warianty, w zależności od perspektyw uzysku.

Przeszli na taki układ code name'ów przy okazji serii 400 i się tego trzymają. Są materiały od GN na ten temat. Nawet główny fanboj amd, AdoredTV to przyznaje.
Nie istnieje TU103, jest TU102 następnie i TU104, TU106. W przypadku Ampere ma być GA102, GA103, GA104.

Nie jestem także przekonany czy tak się projektuje układy jak mówisz - według mnie opracowuje się uarch, a potem każdy układ jest projektowany z osobna.
kapojikeZobacz profil
Poziom ostrzeżenia: 0%
kapojike2020.01.21, 08:05
-1#23
trinitron @ 2020.01.20 16:51  Post: 1230946
(...)


1080(ti) używana na tą chwilę jest bardzo dobrym rozwiązaniem (nadal).
Edytowane przez autora (2020.01.21, 08:09)
Orzel94Zobacz profil
Poziom ostrzeżenia: 0%
Orzel942020.01.21, 08:23
buggeer @ 2020.01.20 15:17  Post: 1230933
Jeżeli 3080 faktycznie ma dostać GA103 to nvidii zwolnił rozwój. 2080 było jeszcze na hierarchicznie słabszym TU104. Ciekawe, czy 3080ti w tym wypadku dostanie GA102 czy GA101.

Albo będzie kolejny wzrost cen, albo musieli przejść półeczkę wyżej, żeby zapewnić wystarczający wzrost wydajności w raytracingu.

a czy widziałeś może TU103? bo ja nie
Orzel94Zobacz profil
Poziom ostrzeżenia: 0%
Orzel942020.01.21, 08:30
frog67 @ 2020.01.20 15:14  Post: 1230932
emil3223 @ 2020.01.20 15:01  Post: 1230929
RTX 3070 z 16 GB - jakieś 40% ceny to były koszt ramu - całkowity bezsens dla gier.

Jeżeli ma być więcej tytułów opartych na RT to trzeba dać więcej Vram bo Ray Tracing jednak znacznie zwiększa zapotrzebowanie na Vram, więc taka ilość Vramu to nie jest żaden bezsens. Zauważ że Nvidia zawsze skąpiła na swoich kartach dawać ram na zapas, jak to AMD choćby ma w zwyczaju i zawsze dawało trochę więcej.
Jeżeli do Ampere dają tyle pamięci to widać jest to konieczne.

Ja bardzo chętnie tylko na chwilę obecną nie szykuje się na spadki cen GDDR6 a wręcz przeciwnie, konsole wchłoną ile rynek da i nie sądze żeby nvidia chciała jeszcze bardziej windować ceny w związku z tym. Może Ti dostanie 16GB ale 3080 więcej jak 12GB na pewno nie :/ a i to jest optymizm
szymcio30Zobacz profil
Poziom ostrzeżenia: 0%
szymcio302020.01.27, 18:35
Trinitron po części mówisz prawdę, ale nie d okońca oceniasz sprawiedliwie RTX 2080. Startował w podobnej cenie co 1080Ti, ale w grach RT miażdży Pascala. Poza tym nowsza architektura i to powoli widać: Control, Red Dead Redemption 2, Call of Duty Modern Warfare tam już RTX uzyskuje średnio 10 - 15 fps więcej. Owszem dupy nie urywa, ale to jest już różnica.
Zaloguj się, by móc komentować