komentarze
noel24Zobacz profil
Poziom ostrzeżenia: 0%
noel242019.02.15, 10:41
piwo1 @ 2019.02.15 10:17  Post: 1189270
no i wyniki kwartalne nvidii:https://ithardware.pl/aktualnosci/kiepska_...yniki-8634.html
pokazuja jasno jak slabo sprzedaja sie rtxy. ewidentnie kupujacy oczekuja czystych klatek w grach a nie wodotryskow ktore beda dostepne w przyszlosci. pokazywaly to radeony ktore mialy obslugiwac przyszlosciowe techniki jak mantle, asynchronic compute, wiecej pamieci, hbm czy inne rzeczy nie przynoszace wydajnosci a wplywajace na cene. teraz dolaczyly rtxy z przyszlosciowymi technologiami i widac ze klienci oczekuja tylko czystej wydajnosci, wiekszej ilosci klatek w istniejacych grach i nie obchodzi ich zastosowana technologia a tylko wydajnosc do ceny. ciekawe to i jednoczesnie smutne.

Nie do końca się zgodzę. Asynchronic compute daje AMD przewagę w niektórych tytułach. Mantle przeszedł w Vulcana i wymusił stworzenie DX12 i tu rzeczywiście jeszcze kuleje ale przynajmniej jest zastosowany i pisze się pod niego gry. Natomiast Failworks... znaczy się Hairworks do dziś chyba nie zawojował rynku. Ogólnie AMD (znienawidzony za brak konkurencyjności z NVIDIA) wprowadza otwarte standardy które stają się powszechne i zmieniają granie na plus, podczas gdy nVidia wprowadza zamknięte standardy które upadają lub zamykają przyjemność z grania posiadaczom starszych kart nVidii i kart AMD.
piwo1Zobacz profil
Poziom ostrzeżenia: 0%
piwo12019.02.15, 10:56
-3#22
ja napisalem ze im karta ma wiecej czegos przyszlosciowego tym sprzedaz tej karty jest mniejsza. tylko tyle. nie wnikam w to co daje dana technologia bo rtx tez daje sporo w niektorych tytulach. co z tego? nic. nie tego oczekuje rynek. najlepiej sprzedajace sie karty to takie ktore nie maja zadnych nowinek a wysoka wydajnosc w aktualnych tytulach. to popkazuje sprzedaz. najlepiej jakby karty byly wykastrowane z wszystkiego co nie przynosi dodatkowych klatek i mialy jak najnizsza cene i jak najwiecej generowaly klatek na tle konkurencji.
Edytowane przez autora (2019.02.15, 10:57)
noel24Zobacz profil
Poziom ostrzeżenia: 0%
noel242019.02.15, 11:07
-2#23
piwo1 @ 2019.02.15 10:56  Post: 1189278
ja napisalem...konkurencji.

Tak się nie da. I AMD i nVidia oszczędzają
ghs @ 2019.02.15 09:10  Post: 1189261
noel24 @ 2019.02.14 23:00  Post: 1189211
(...)

Sorry ,ale chyba ty? Ja tu próbuje zrozumieć politykę wyceniania kart nVidii. Midrange GPU historycznie był najlepiej wyceniany w przeliczeniu na $/fps. Nagle nVidia sprzedaje ci tę samą klatkę na sekundę za tego samego pieniążka, ale obcina cały klaster z rdzeniami tensor za które musi płacić TSMC. Gdzie tu logika z ich strony? Ano tak że każą ci płacić za tensor cores których nie dostajesz. I drugie pytanie: co z tobą nie tak, skoro tego nie widzisz?


ło matko. ale bzdury. rdzenie tensor są i będą w każdym turingu. 16xx będą miały wycięte rdzenie RT.

rdzenie tensor będą kluczowe do podnoszenia wydajności gpu. taki plan sobie opracowała nvidia. teraz z generacji na generację będą zwiększali ilość rdzeni tensor aby tanim kosztem podnosić wydajność nowych serii co napędzi sprzedaż nowych gpu

Oczywiście masz rację. Jako laik cały czas dokonuję niefortunnego skrótu myślowego łącząc dwie nowe technologie z Turinga w jedną całość. Przepraszam.
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2019.02.15, 11:51
ghs @ 2019.02.15 09:10  Post: 1189261
noel24 @ 2019.02.14 23:00  Post: 1189211
(...)

Sorry ,ale chyba ty? Ja tu próbuje zrozumieć politykę wyceniania kart nVidii. Midrange GPU historycznie był najlepiej wyceniany w przeliczeniu na $/fps. Nagle nVidia sprzedaje ci tę samą klatkę na sekundę za tego samego pieniążka, ale obcina cały klaster z rdzeniami tensor za które musi płacić TSMC. Gdzie tu logika z ich strony? Ano tak że każą ci płacić za tensor cores których nie dostajesz. I drugie pytanie: co z tobą nie tak, skoro tego nie widzisz?


ło matko. ale bzdury. rdzenie tensor są i będą w każdym turingu. 16xx będą miały wycięte rdzenie RT.

rdzenie tensor będą kluczowe do podnoszenia wydajności gpu. taki plan sobie opracowała nvidia. teraz z generacji na generację będą zwiększali ilość rdzeni tensor aby tanim kosztem podnosić wydajność nowych serii co napędzi sprzedaż nowych gpu

Znaczy jak? Robiąc średni upscaling… o ile producent się na taką technikę zdecyduje? Gdyby zastąpili tensory i rt normalnymi cuda cores, to wzrost wydajności był by pewnie podobny lub ciut mniejszy jak z dlss, ale w pełnym 4k.
Edytowane przez autora (2019.02.15, 11:51)
*Konto usunięte*2019.02.15, 12:01
noel24 @ 2019.02.14 21:55  Post: 1189202
jaki morał? Nawet nVidia przyznaje że rdzenie Tensor są nic nie warte.

Kto sie pospieszył i sprzedał 1080 to musiał kupić coś z RTX ale przyznaje ze zakup całkowicie bez sensu ani to RT a DLSS to juz wogóle do niczego sie nie nadaje nastepnym razem mnie nie nabiorą
ghs2019.02.15, 12:03
-3#26
Amitoza @ 2019.02.15 11:51  Post: 1189287
ghs @ 2019.02.15 09:10  Post: 1189261
(...)


ło matko. ale bzdury. rdzenie tensor są i będą w każdym turingu. 16xx będą miały wycięte rdzenie RT.

rdzenie tensor będą kluczowe do podnoszenia wydajności gpu. taki plan sobie opracowała nvidia. teraz z generacji na generację będą zwiększali ilość rdzeni tensor aby tanim kosztem podnosić wydajność nowych serii co napędzi sprzedaż nowych gpu

Znaczy jak? Robiąc średni upscaling… o ile producent się na taką technikę zdecyduje? Gdyby zastąpili tensory i rt normalnymi cuda cores, to wzrost wydajności był by pewnie podobny lub ciut mniejszy jak z dlss, ale w pełnym 4k.


nvidia będzie coś kombinować z AI w optymalizacji gier. Stawiają farmę maszyn gdzie AI ma się uczyć kodu w celu wypracownia modelu per gra, to pewnie zajmie trochę czasu od premiery tytułu. ile? trudno powiedzieć. tydzień, może miesiąc. następnie taki wyuczony model będzie udostępniamy w formie łatki softowej, np w sterowniku, i wykonywany tylko na rdzeniach tensor. nawet jak wydajność dzięki temu miałaby skoczyć o 10% to i tak będzie boost jakiego nie uświadczysz na pascalu czy maxwelu. dzieki temu szybko uwalą stare serie. a w nowych seriach będą wydzielać wzrost rdzeni tensor co generację. dzięki temu szybciej będą się starzały stare serie i co z tym idzie rynek wtórny dostanie po upie. i o to w tym wszystkim chodzi. musi być nowa motywacja do zakupu kolejnych gpu inaczej łosie popadają w marazm i zaczynają wybrzydzać :)
Edytowane przez autora (2019.02.15, 12:11)
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2019.02.15, 12:10
ghs @ 2019.02.15 12:03  Post: 1189289
Amitoza @ 2019.02.15 11:51  Post: 1189287
(...)

Znaczy jak? Robiąc średni upscaling… o ile producent się na taką technikę zdecyduje? Gdyby zastąpili tensory i rt normalnymi cuda cores, to wzrost wydajności był by pewnie podobny lub ciut mniejszy jak z dlss, ale w pełnym 4k.


nvidia będzie coś kombinować z AI w optymalizacji gier. Stawiają farmę maszyn gdzie AI ma się uczyć kodu w celu wypracownia modelu per gra, to pewnie zajmie trochę czasu od premiery tytułu. ile? trudno powiedzieć. tydzień, może miesiąc. następnie taki wyuczony model będzie udostępniamy w formie łatki softowej, np w sterowniku, i wykonywany tylko na rdzeniach tensor. nawet jak wydajność dzięki temu miałaby skoczyć o 10% to i tak będzie boost jakiego nie uświadczysz na pascalu czy maxwelu
Wybacz, nie wierzę. Battlefielda v to AI uczylo sie od kilku miesiecy, a efekt dlss mizerny. I tutaj producent musi umieścić dlss w grze, a dopiero potem latka w sterowniki ma cokolwiek do powiedzenia.

Za to w benchmarkach efekt prawie fenomenalny - momentami nie widać różnic miedzy 4k i dlss - (chociaż uwalone taa robi swoje i obraz wygląda nawet gorzej niż w 4k) wiesz dlaczego? Bo jest jedna powtarzalna scena z jednym i tym samym ruchem kamer. Wiec tefo AI latwo nauczyć.

Poza tym - super - 10% boost wydajności ma być zadowalający? Więcej cuda cores da lepszy wzrost. Pascal wielkości turinga miał by jeszcze około 30% więcej cuda cores.
Edytowane przez autora (2019.02.15, 12:11)
*Konto usunięte*2019.02.15, 12:13
-6#28
chreasy chreasy chreasy typie gdzie jesteś ?? gdzie się chowasz tchórzu.Każdy się na tobie pozna kim jesteś i nie pomogą tobie bany malinowy cieciu.Na początek rozwinę temat na wykopie,tylko nie zmieniaj nazwy użytkownika hahahahaha
ghs2019.02.15, 12:14
-4#29
Amitoza @ 2019.02.15 12:10  Post: 1189290
ghs @ 2019.02.15 12:03  Post: 1189289
(...)


nvidia będzie coś kombinować z AI w optymalizacji gier. Stawiają farmę maszyn gdzie AI ma się uczyć kodu w celu wypracownia modelu per gra, to pewnie zajmie trochę czasu od premiery tytułu. ile? trudno powiedzieć. tydzień, może miesiąc. następnie taki wyuczony model będzie udostępniamy w formie łatki softowej, np w sterowniku, i wykonywany tylko na rdzeniach tensor. nawet jak wydajność dzięki temu miałaby skoczyć o 10% to i tak będzie boost jakiego nie uświadczysz na pascalu czy maxwelu
Wybacz, nie wierzę. Battlefielda v to AI uczylo sie od kilku miesiecy, a efekt dlss mizerny. I tutaj producent musi umieścić dlss w grze, a dopiero potem latka w sterowniki ma cokolwiek do powiedzenia.

Za to w benchmarkach efekt prawie fenomenalny - momentami nie widać różnic miedzy 4k i dlss - (chociaż uwalone taa robi swoje i obraz wygląda nawet gorzej niż w 4k) wiesz dlaczego? Bo jest jedna powtarzalna scena z jednym i tym samym ruchem kamer. Wiec tefo AI latwo nauczyć.

Poza tym - super - 10% boost wydajności ma być zadowalający? Więcej cuda cores da lepszy wzrost. Pascal wielkości turinga miał by jeszcze około 30% więcej cuda cores.


na razie technika jest w powijakach, dodatkowo za bardzo się tym nie chwalą aby nie płoszyć leszczy z brania pascali. ale wiosłują w tym kierunku. wiadomo że więcej cuda cores dałoby lepszy boost ale jak ładnie będą wydzielać tensor core to na ładnych kilka lat starczy im aby podwajać ich liczebność per generacja
*Konto usunięte*2019.02.15, 12:14
-9#30
tu mnie zapomniałeś zbanować ahhahahaha
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2019.02.15, 12:22
ghs @ 2019.02.15 12:14  Post: 1189294
Amitoza @ 2019.02.15 12:10  Post: 1189290
(...)
Wybacz, nie wierzę. Battlefielda v to AI uczylo sie od kilku miesiecy, a efekt dlss mizerny. I tutaj producent musi umieścić dlss w grze, a dopiero potem latka w sterowniki ma cokolwiek do powiedzenia.

Za to w benchmarkach efekt prawie fenomenalny - momentami nie widać różnic miedzy 4k i dlss - (chociaż uwalone taa robi swoje i obraz wygląda nawet gorzej niż w 4k) wiesz dlaczego? Bo jest jedna powtarzalna scena z jednym i tym samym ruchem kamer. Wiec tefo AI latwo nauczyć.

Poza tym - super - 10% boost wydajności ma być zadowalający? Więcej cuda cores da lepszy wzrost. Pascal wielkości turinga miał by jeszcze około 30% więcej cuda cores.


na razie technika jest w powijakach, dodatkowo za bardzo się tym nie chwalą aby nie płoszyć leszczy z brania pascali. ale wiosłują w tym kierunku. wiadomo że więcej cuda cores dałoby lepszy boost ale jak ładnie będą wydzielać tensor core to na ładnych kilka lat starczy im aby podwajać ich liczebność per generacja
czyli co... Jednak za szybko wprowadzona technologia ;) zmiany w samej architekturze cuda cores w turingu są dobre, ale tensory i rt delikatnie mowiac zbedne i za słabe. Poczekali by do 7nm i moze mieli by lepszy start, a tak to lekki falstart wyszedl.
ghs2019.02.15, 12:52
-3#32
Amitoza @ 2019.02.15 12:22  Post: 1189297
ghs @ 2019.02.15 12:14  Post: 1189294
(...)


na razie technika jest w powijakach, dodatkowo za bardzo się tym nie chwalą aby nie płoszyć leszczy z brania pascali. ale wiosłują w tym kierunku. wiadomo że więcej cuda cores dałoby lepszy boost ale jak ładnie będą wydzielać tensor core to na ładnych kilka lat starczy im aby podwajać ich liczebność per generacja
czyli co... Jednak za szybko wprowadzona technologia ;) zmiany w samej architekturze cuda cores w turingu są dobre, ale tensory i rt delikatnie mowiac zbedne i za słabe. Poczekali by do 7nm i moze mieli by lepszy start, a tak to lekki falstart wyszedl.


jak za szybko, przecież na czymś się muszą uczyć. nabywcy turingów będą robić za beta testerów. tensor core też dali jak na lekarstwo, jedynie po to aby był materiał do analizy i dalszego rozwoju. musieli coś wymyślić aby odesłać obecne architektury na śmietnik. cuda cores wyeliminowały z obiegu serie 6xxxGT i 7xxxGT w niecały rok. sprzętowy DX11 wywalil z użycia 9xxxGT i GTX 2xx. tensor cores zamkną wieko do trumny dla keplera, maxwella i pascala
Edytowane przez autora (2019.02.15, 12:54)
losiuZobacz profil
Poziom ostrzeżenia: 0%
losiu2019.02.15, 14:27
-2#33
daerragh @ 2019.02.14 20:21  Post: 1189177
Szwarcu @ 2019.02.14 20:19  Post: 1189176
(...)

Ty chyba żartujesz. Dalej tkwimy na poziomie ~GTX 970 w tej samej cenie ...


GTX 970 (i słynne 3.5GB) w Polsce kosztował ~1400zł. GTX 1060 6GB ma więcej VRAM i jest kartą wyraźnie szybszą i kosztuje ~1100zł. O co Ci chodzi? A GTX 1160/Ti będą szybsze...

Nie żebym też nie był zażenowany obecnymi cenami kart xx60, które jeszcze pare lat temu były na spodzie średniego segmentu (GTX 960) a teraz już są praktycznie w wysokim.


Ja kupiłem zaraz po premierze MSI Gaming GTX 970 za 1240zł....1400 to było kiedy się okazało jak duży jest popyt. GTX 1060 6GB teraz już jako karta stara i schodząca do segmentu niskiego kosztuje 1100zł. W momencie zejścia z rynku GTX 980Ti można było dostać za ~1500zł nowy egzemplarz ze sklepu. Mamy od kilku lat stagnację cena/wydajność. Nie możesz porównywać cen premierowych z cenami pozostałości po ostatniej kryptokalipsie.
Edytowane przez autora (2019.02.16, 12:14)
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.