komentarze
SoulRak3rZobacz profil
Poziom ostrzeżenia: 0%
SoulRak3r2020.06.09, 11:47
Hmmm, poszli w wydajność nie ulepszając za bardzo technologii?
SasiltonZobacz profil
Poziom ostrzeżenia: 0%
Sasilton2020.06.09, 11:48
27#2
Przy takim poborze prądu, skok wydajności o 50% byłby rozczarowaniem.
emil3223Zobacz profil
Poziom ostrzeżenia: 0%
emil32232020.06.09, 11:48
Za 150$ to powinni dodawać AiO i to ze 240mm. Rzeczywiście to chłodzenie wygląda na kosztowne w masowej produkcji. Cóż...zawsze są niereferencyjne wersje.
Ostatni Promień SłońcaZobacz profil
Poziom ostrzeżenia: 0%
Ostatni Promień Słońca2020.06.09, 11:48
17#4
+100% do ceny jak nic :)
W sumie AMD też leci w kulki, ceny Navi są zbyt wysokie.
Bez trzeciego gracza pewnie nic się nie zmieni, bo jak się człowiek przyzwyczai do dobrobytu wtedy nie potrafi z niego zrezygnować. Firmy tym bardziej lubią zysk.
CaroozoZobacz profil
Poziom ostrzeżenia: 0%
Caroozo2020.06.09, 11:49
Bardzo wysoki wzrost wydajności byłby na rękę wszystkim - zieloni dalej utrzymywaliby koronę króla wydajności, zaś ceny Turingów mogłyby zostać obniżone (a co za tym idzie - ceny starszych konstrukcji). Szczerze wątpię, żeby wypuścili Ampere po jeszcze wyższych cenach aniżeli na premierę RTX-ów, bo AMD ich zje agresywną polityką cenową i dość dobrą wydajnością - w myśl zasady lepiej sprzedać 1kk z marżą 50$ niż 1k z marżą 500$. Z drugiej strony integry są tam, gdzie były jeszcze niedawno karty low-end, jednak po górce krypto wysoka półka przesunęła się nieprzyzwoicie wysoko. Za pasem premiera konsol...

Za to gdyby to był problem z procesem, to faktycznie mogą obawiać się Big Navi, bo mimo wszystko dzięki 7nm u TSMC i tweak'om (m.in. deklarowany boost perf/W +50% względem RDNA1) AMD może być tu groźnym konkurentem - być może korony króla wydajności nie zyska, ale wystarczy jeden bardzo konkurencyjny produkt z doskonałym ratio cena/perf żeby był kolejny hit sprzedażowy.

Jedno jest pewne - druga połowa roku będzie obfitować w naprawdę ciekawe premiery (Tiger Lake, RDNA2, next-geny, Ampere, Zen3 itd) - jest na co czekać :).
StjepanZobacz profil
Poziom ostrzeżenia: 0%
Stjepan2020.06.09, 11:49
16#6
Tak jak mówiłem wcześniej z 10900k nie trzeba kaloryferów w zimę w pokoju mieć, komp ci go ogrzeje, 250W z CPU + 350W z GPU i reszta jakieś 100W to jest 700W. :E

Szkoda że nie dali szyny 512bit by było 32GB VRAM. :E
Edytowane przez autora (2020.06.09, 11:56)
tomek1717Zobacz profil
Poziom ostrzeżenia: 0%
tomek17172020.06.09, 11:59
16#7
cofaja sie z poborem prądu a to za duzy minus, czekamy na AMD
kadajoZobacz profil
Poziom ostrzeżenia: 0%
kadajo2020.06.09, 12:05
Hahaha wiedziałem... piekarnik coraz bliżej. Wydajność za wszelką cenę.
Dramat Nvidia. Sami sobie kopią grób takimi GPU.
Edytowane przez autora (2020.06.09, 12:07)
panzarZobacz profil
Poziom ostrzeżenia: 0%
panzar2020.06.09, 12:13
No to już wiadomo że przecieki na temat ceny to ściema, i pobożny śpiew wróżbitów. Masakra jakaś. 400w ciepła do rozproszenia. Ktoś ma FT-02?

Ciekawe co na to partnerzy nvidii, jak to ogarną.

Ciekawe też jak na to krzem i sam chip. Już teraz są problemy z kumulowaniem ciepła. Im więcej tranzystorów tym gorzej. Rozmiar chipu nie ma znaczenia, gęstości się nie przeskoczy. Jak sobie pomyślę że moja chłodnica ma zdolność wyliczoną na 500w, to aż mi się ciepło robi :E
h63619Zobacz profil
Poziom ostrzeżenia: 0%
h636192020.06.09, 12:18
emil3223 @ 2020.06.09 11:48  Post: 1246940
Za 150$ to powinni dodawać AiO i to ze 240mm. Rzeczywiście to chłodzenie wygląda na kosztowne w masowej produkcji. Cóż...zawsze są niereferencyjne wersje.

AiO to może nie, ale wersja z blokiem wodnym powinna być tańsza od wersji z AC za 150$.
kadajoZobacz profil
Poziom ostrzeżenia: 0%
kadajo2020.06.09, 12:20
panzar @ 2020.06.09 12:13  Post: 1246947
No to już wiadomo że przecieki na temat ceny to ściema, i pobożny śpiew wróżbitów. Masakra jakaś. 400w ciepła do rozproszenia. Ktoś ma FT-02?

Ciekawe co na to partnerzy nvidii, jak to ogarną.

Ciekawe też jak na to krzem i sam chip. Już teraz są problemy z kumulowaniem ciepła. Im więcej tranzystorów tym gorzej. Rozmiar chipu nie ma znaczenia, gęstości się nie przeskoczy. Jak sobie pomyślę że moja chłodnica ma zdolność wyliczoną na 500w, to aż mi się ciepło robi :E

Za wszelka cenę chcą aby ta seria kart nie była zbyt żywotna :E
lolek.oloZobacz profil
Poziom ostrzeżenia: 0%
lolek.olo2020.06.09, 12:20
12#12
To by pasowało do przecieków o bardzo dobrej wydajności RDNA2. Nvidia ryzykuje(GDDR6X) i żyłuje swoje produkty (blisko 50% więcej W). Do tego degraduje Titana do roli 'zwykłego' GPU, a 3080 awansuje do najwydajniejszego chipu generacji Ampere (2080 był na słabszym od 2080Ti).
Oby to się potwierdziło. Bo to oznacza znaczny wzrost wydajności i być może nawet lekki spadek cen dzięki konkurencji :)
Edytowane przez autora (2020.06.09, 12:22)
Pioneer83Zobacz profil
Poziom ostrzeżenia: 0%
Pioneer832020.06.09, 12:25
16#13
Szykuje się wielki powrót 'Fermi' w wydaniu Ampere!🤣
h63619Zobacz profil
Poziom ostrzeżenia: 0%
h636192020.06.09, 12:29
Ostatni Promień Słońca @ 2020.06.09 11:48  Post: 1246941
+100% do ceny jak nic :)
W sumie AMD też leci w kulki, ceny Navi są zbyt wysokie.
Bez trzeciego gracza pewnie nic się nie zmieni, bo jak się człowiek przyzwyczai do dobrobytu wtedy nie potrafi z niego zrezygnować. Firmy tym bardziej lubią zysk.

Mogą sobie dać i +1000% do ceny i poboru prądu. Tylko kto to kupi. Już teraz jest drogo a do tego jest na świecie kryzys.
Ciekawe tylko ile z tego pójdzie na RT a ile na całą resztę. Jak się okaże, że za pół ceny można mieć Radeona, który poza RT doskonale radzi sobie z 4k to raczej nie wróżę Ampere sukcesów.
emil3223Zobacz profil
Poziom ostrzeżenia: 0%
emil32232020.06.09, 12:30
h63619 @ 2020.06.09 12:18  Post: 1246949
emil3223 @ 2020.06.09 11:48  Post: 1246940
Za 150$ to powinni dodawać AiO i to ze 240mm. Rzeczywiście to chłodzenie wygląda na kosztowne w masowej produkcji. Cóż...zawsze są niereferencyjne wersje.

AiO to może nie, ale wersja z blokiem wodnym powinna być tańsza od wersji z AC za 150$.

Wątpię żeby Nvidia wydała referenta z blokiem wodnym, a AiO jest bardzo prawdopodobne - szczególnie dla segmentu entuzjastów 3080/3080Ti.
szymcio30Zobacz profil
Poziom ostrzeżenia: 0%
szymcio302020.06.09, 12:31
-6#16
Z tym poborem mocy to żadna nowość. Najwydajniejsze 2080Ti łykają lekko 350W np MSI RTX 2080 Ti LIGHTINING Z. Jeśli zwykła 3080 będzie równie szybka to i tak kupimy ją taniej, choć oczywiście to i tak będzie cholernie drogo. Z drugiej strony ludzie kupują telefony po 4-5 tys od kilku lat wiec NVIDIA uznała, że granie w 4K tez musi swoje kosztować
Edytowane przez autora (2020.06.09, 12:33)
czolgista778Zobacz profil
Poziom ostrzeżenia: 0%
czolgista7782020.06.09, 12:31
Yyy, ja czytalem ze te rendery to 100% fake...
CaroozoZobacz profil
Poziom ostrzeżenia: 0%
Caroozo2020.06.09, 12:43
czolgista778 @ 2020.06.09 12:31  Post: 1246958
Yyy, ja czytalem ze te rendery to 100% fake...

No nie za bardzo, bo podobno te leak'i ze zdjęciami kart pochodzą z fabryk Foxconn'a lub BYD'a. Render jest na podstawie tych zdjęć.

Mam obawy, że nVidia idzie w ślady Intela, gdzie Maxwell -> Pascal -> Turing to było tylko zmniejszanie procesu i podbijanie zegarów. AMD przynajmniej GCN 'przerobiło' na RDNA. Cóż - zobaczymy, ale karta na poziomie 350W TGP musi oferować albo niesamowitą wydajność (już mniejsza wtedy o cenę ;)) albo - śladem Intela - na siłę pokazywać, że zieloni są ciągle górą. Jedno jest pewne - w sektorze dGPU będzie starcie Godzilla (Huang) vs Kraken (Lisa) :E
SPYCHCIOZobacz profil
Poziom ostrzeżenia: 0%
SPYCHCIO2020.06.09, 12:48
13#19
Stjepan @ 2020.06.09 11:49  Post: 1246943
Tak jak mówiłem wcześniej z 10900k nie trzeba kaloryferów w zimę w pokoju mieć, komp ci go ogrzeje, 250W z CPU + 350W z GPU i reszta jakieś 100W to jest 700W. :E


Były osoby, które mi mówiły 'po co Ci zasilacz 850W...' a ja po prostu przewidziałem przyszłość :p
emil3223Zobacz profil
Poziom ostrzeżenia: 0%
emil32232020.06.09, 12:49
-2#20
Caroozo @ 2020.06.09 12:43  Post: 1246959

Mam obawy, że nVidia idzie w ślady Intela, gdzie Maxwell -> Pascal -> Turing to było tylko zmniejszanie procesu i podbijanie zegarów.....

To prawda ale Amper to całkowicie nowa architektura więc nie ma co porównywać do Intela.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.