czyli już driver nvidii nie pozwala na zapełnienie całych 4gb vram dla gtx970 w tych dwóch grach. test więc nie miał większego sensu
edit: i jeszcze konfrontacja dwóch zdań z tej publikacji:
1. strona2: ''Faktem jest natomiast, że w trakcie trzech przejść w Assassin's Creed: Unity, zarówno GTX-owi 970 jak i Radeonowi R9 290X zdarzały się małe przycięcia obrazu, podczas gdy GTX 980 jest całkowicie wolny od problemu'
2. strona4: ''Najzabawniejsze jest przecież w tym wszystkim to, że premierowa oraz obecna wydajność GeForce'a GTX-a 970 przecież wcale nie ulegnie zmianie.''
Zdania wzajemnie się wykluczające. Nikt na premierę nie badał mikrocięć a to właśnie o nie cała batalia się rozgrywa.
tak jak ktoś wspominał pod newsem na stronie głównej. badanie w som i acu nie ma sensu. należy sprawdzić w tytule dla którego jeszcze nvidia nie zdążyła zapudrować problemu czyli coś w rodzaju star citizen
edit2. ok może przesadziłem że test nie miał sensu ale sprawdziliście tytuły dla których istnieje wysokie prawdopodobieństwo że sterownik otrzymał dedykowaną łatkę dla gtx970. tego problemu nie można w ten sposób badać bo to do niczego nie prowadzi a jedynie do wniosku ''w som i acu jest ok''.
dodatkowo odpowiedzmy sobie na pytanie po co nvidia dodała ten nieszczęsny bufor. po to aby poprawić sprzedaż czy wydajność? odpowiedź chyba jest prosta. i jak widzimy inżynierowie robili wszytko aby pomysł sprzedażowców nie pogorszył wydajności. czy im się udało, cholera wie, na pewno nie potwierdzimy tego (lub nie zaprzeczymy) w tytule sponsorowanym przez nvidię. tu tzreba albo napisać dedykowany soft do analizy po problem jest wyjątkowy, albo badać w produkcjach niszowych/nowych, jeszcze nieprzypudrowanych sterownikiem
edit3: takie wybielanie nvidii na forach i artykułach jest niezrozumiałe. nvidia wykonała celowe działanie mające na celu wprowadzenie klienta w błąd. nie mogą się tłumaczyć że dział marketingu źle przepisał ilość ROP czy cache bo takie dane też są w biosach gdzie raczej PR nie macza paluchów. dla mnie to kryminał bez znaczenia czy produkt jest dobry czy nie.
a udowadnianie niemożliwego czyli że rozwiązanie 3,5gb szybkiej pamięci + 0,5gb jakiegoś żałosnego marketingowego buforka jest tak samo efektywne (dla ciągłych odczytów z całego vram) jak na karcie gdzie jest 4gb z normalnym dostępem, może się udać tylko w sytuacji gdy odbiorca jest idiotą.
podsumowując:
karta jest niezgodna z podaną w dniu zakupu specyfikacją zatem istnieje niezerowe prawdopodbieństwo że cześć klientów, gdyby znała prawdziwą specyfikację, to towaru by nie nabyła. zatem mamy błędne dane mające na celu uzyskanie korzyści finansowej. to raz. dwa. argument że od dnia premiery wydajność się nie zmieniła jest od czapy. nie wiemy jaka by była wydajnosc gtx970 gdyby naprawdę miał 64 rop, większy cache i pełne 256-bit z 4gb vram bez bufora. takiej karty nie ma i dopóki nvidia takiej karty nie wyprodukuje, nie porówna z obecną i nie pokaże że mają taką samą wydajność to zakłada się że gorsza specyfikacja pociąga za sobą gorszą wydajność. dodatkowo to że nie ma problemów z kartą dziś nie oznacza że nie będzie ich jutro. idiotyczny bufor ma prawo niepokoić klientów i niepokoi. na szczęście to nie nvidia stanowi prawo więc wystarczy jeden wygrany pozew zbiorowy i mają pozamiatane
Pytanie czy Nviadia o tym problemie wiedziała przed wypuszczeniem karty na rynek, jeśli tak to pomijając aspekt etyczny moim zdaniem można od nich dochodzić zwrotu pieniędzy za wadliwy produkt.
Nvidia mogła zrobić dwie rzeczy: stworzyć kartę, która ma 3 GB pamięci z pełnym, 192-bitowym interfejsem lub 4 GB pamięci z 256-bitowym interfejsem, gdzie tylko 7/8 pamięci VRAM ma priorytet, a dostęp do reszty jest wolniejszy. Zieloni wybrali drugą opcję jako mniejsze zło.
1. Mogli zrobić kartę, która ma 3,5GB pamięci i 224bit jak już? 192BIt wymagałoby dalszego cięcia GPU.
2. Mogli zrobi kartę, która ma 4GB pamięci i 256bit.
Diagram z 980m... więc wałki, wałki, wałki.
Taa PR NV mnie zaminusuje Damage Control.
Pytanie czy Nviadia o tym problemie wiedziała przed wypuszczeniem karty na rynek, jeśli tak to pomijając aspekt etyczny moim zdaniem można od nich dochodzić zwrotu pieniędzy za wadliwy produkt.
Jaki wadliwy produkt?
Wejdź sobie na stronę Nvidii, przeczytaj specyfikację karty, coś ci się nie zgadza?
edit: i jeszcze konfrontacja dwóch zdań z tej publikacji:
1. strona2: ''Faktem jest natomiast, że w trakcie trzech przejść w Assassin's Creed: Unity, zarówno GTX-owi 970 jak i Radeonowi R9 290X zdarzały się małe przycięcia obrazu, podczas gdy GTX 980 jest całkowicie wolny od problemu'
2. strona4: ''Najzabawniejsze jest przecież w tym wszystkim to, że premierowa oraz obecna wydajność GeForce'a GTX-a 970 przecież wcale nie ulegnie zmianie.''
Zdania wzajemnie się wykluczające. Nikt na premierę nie badał mikrocięć a to właśnie o nie cała batalia się rozgrywa.
Oczywiście, że badaliśmy. Nie pokazywaliśmy wykresów z FCAT-a bo na nich można zmieścić najwyżej 4 linie. Mikroprzycięcia były wtedy takie same jak dziś. Faktem za to jest, że wtedy nie było gier, które tak mocno obciążały pamięć RAM i dlatego ten dzisiejszy test ma sens.
Pytanie czy Nviadia o tym problemie wiedziała przed wypuszczeniem karty na rynek, jeśli tak to pomijając aspekt etyczny moim zdaniem można od nich dochodzić zwrotu pieniędzy za wadliwy produkt.
Skopali kartę i zachowali się nieładnie, co nie znaczy że to jest 'wadliwy produkt'. Jest tak, jak miało być Po prostu zaprojektowano wąskie gardło, bo '4GB' na papierku wygląda ładniej niż '3,5GB'. SunTzu w swoim poście z grafem wyżej podał rozsądne rozwiązania.
Prawo do reklamacji niezgodności towaru z umową mamy przez 2 lata.
Będzie to miało kluczowe znaczenie przy premierze kolejnej generacji kart. Jeśli ceny spadną i wejdzie 20nm, najzwyczajniej w świecie będzie opłacało się wyrwać kasę. Zwróć kartę i kupić bardziej opłacalną.
Amdfan @ 2015.01.27 12:14
Mich486 @ 2015.01.27 12:08
Pytanie czy Nviadia o tym problemie wiedziała przed wypuszczeniem karty na rynek, jeśli tak to pomijając aspekt etyczny moim zdaniem można od nich dochodzić zwrotu pieniędzy za wadliwy produkt.
Jaki wadliwy produkt?
Wejdź sobie na stronę Nvidii, przeczytaj specyfikację karty, coś ci się nie zgadza?
To, że jak odpalę iRay-a to się wywali przy użyciu 4GB.
To, że jak odpalę grę, która realnie wykorzysta 3,9GB może nie przejść, albo przejdzie i będzie wydajność porażająco niska.
I rzekomo GTX970 ma problem a 290X nie? Wolne żarty!
Assasins Creed Unity to jest żart, nie pamietasz, że współpracują z nvidią ! a za (swoje) błędy oskarżali amd co zresztą szybko okazało się nieprawdą, to doskonale pokazuje jak wrogi stosunek ma ubisoft do tego producenta. Niewątpliwym faktem jest że mikroprzyciącia w amd są z reguły większe, ale akurat testy w AC Unity nie są wiarygodne
Ale smrodek po ściemie z faktyczną specyfikacją karty zostanie. I to jest dziwne w zachowaniu Nvidii. Po co bawić się w jakieś tajemnice mając dobry produkt, który sam się obroni?
Pomimo pewnych udziwnień z alokowaniem pamięci, 970 to bardzo dobra karta. Ma niezły stosunek ceny do wydajności i sprawności energetycznej. Chociaz 1500 zł to wcale nie tak mało. W nie tak odległej przeszłości bywały dużo lepiej wyceniane karty - np. Radeon 4850 i 4870. Szkoda, że NV z modelem 960 nie wbiło się w okolice 600-700 zł. Moim zdaniem spierniczyli akcję (może czują się zbyt pewnie? )
Z drugiej strony nie chce mi się gtx970 reklamować, bo faktycznie wszystko u mnie działa jak tego oczekiwałem. Dodatkowo nic nie piszczy itp., więc jestem bardzo zadowolony z zakupu.
Poza tym jestem zbyt leniwy na chodzenie z pochodnią pod.. hmm... sam nie wiem, ambasadę USA? Chyba, że Nv ma oficjalne przedstawicielstwo w PL : )
Tak naprawdę, to Nv powinna teraz grzecznie przeprosić, obiecać, że to się więcej nie powtórzy i rzucić jakiś gratisowy klucz do gry .
edit: i jeszcze konfrontacja dwóch zdań z tej publikacji:
1. strona2: ''Faktem jest natomiast, że w trakcie trzech przejść w Assassin's Creed: Unity, zarówno GTX-owi 970 jak i Radeonowi R9 290X zdarzały się małe przycięcia obrazu, podczas gdy GTX 980 jest całkowicie wolny od problemu'
2. strona4: ''Najzabawniejsze jest przecież w tym wszystkim to, że premierowa oraz obecna wydajność GeForce'a GTX-a 970 przecież wcale nie ulegnie zmianie.''
Zdania wzajemnie się wykluczające. Nikt na premierę nie badał mikrocięć a to właśnie o nie cała batalia się rozgrywa.
tak jak ktoś wspominał pod newsem na stronie głównej. badanie w som i acu nie ma sensu. należy sprawdzić w tytule dla którego jeszcze nvidia nie zdążyła zapudrować problemu czyli coś w rodzaju star citizen
edit2. ok może przesadziłem że test nie miał sensu ale sprawdziliście tytuły dla których istnieje wysokie prawdopodobieństwo że sterownik otrzymał dedykowaną łatkę dla gtx970. tego problemu nie można w ten sposób badać bo to do niczego nie prowadzi a jedynie do wniosku ''w som i acu jest ok''.
dodatkowo odpowiedzmy sobie na pytanie po co nvidia dodała ten nieszczęsny bufor. po to aby poprawić sprzedaż czy wydajność? odpowiedź chyba jest prosta. i jak widzimy inżynierowie robili wszytko aby pomysł sprzedażowców nie pogorszył wydajności. czy im się udało, cholera wie, na pewno nie potwierdzimy tego (lub nie zaprzeczymy) w tytule sponsorowanym przez nvidię. tu tzreba albo napisać dedykowany soft do analizy po problem jest wyjątkowy, albo badać w produkcjach niszowych/nowych, jeszcze nieprzypudrowanych sterownikiem
edit3: takie wybielanie nvidii na forach i artykułach jest niezrozumiałe. nvidia wykonała celowe działanie mające na celu wprowadzenie klienta w błąd. nie mogą się tłumaczyć że dział marketingu źle przepisał ilość ROP czy cache bo takie dane też są w biosach gdzie raczej PR nie macza paluchów. dla mnie to kryminał bez znaczenia czy produkt jest dobry czy nie.
a udowadnianie niemożliwego czyli że rozwiązanie 3,5gb szybkiej pamięci + 0,5gb jakiegoś żałosnego marketingowego buforka jest tak samo efektywne (dla ciągłych odczytów z całego vram) jak na karcie gdzie jest 4gb z normalnym dostępem, może się udać tylko w sytuacji gdy odbiorca jest idiotą.
podsumowując:
karta jest niezgodna z podaną w dniu zakupu specyfikacją zatem istnieje niezerowe prawdopodbieństwo że cześć klientów, gdyby znała prawdziwą specyfikację, to towaru by nie nabyła. zatem mamy błędne dane mające na celu uzyskanie korzyści finansowej. to raz. dwa. argument że od dnia premiery wydajność się nie zmieniła jest od czapy. nie wiemy jaka by była wydajnosc gtx970 gdyby naprawdę miał 64 rop, większy cache i pełne 256-bit z 4gb vram bez bufora. takiej karty nie ma i dopóki nvidia takiej karty nie wyprodukuje, nie porówna z obecną i nie pokaże że mają taką samą wydajność to zakłada się że gorsza specyfikacja pociąga za sobą gorszą wydajność. dodatkowo to że nie ma problemów z kartą dziś nie oznacza że nie będzie ich jutro. idiotyczny bufor ma prawo niepokoić klientów i niepokoi. na szczęście to nie nvidia stanowi prawo więc wystarczy jeden wygrany pozew zbiorowy i mają pozamiatane
Może przeczytaj co napisaliśmy, co?
I rzekomo GTX970 ma problem a 290X nie? Wolne żarty!
1. Mogli zrobić kartę, która ma 3,5GB pamięci i 224bit jak już? 192BIt wymagałoby dalszego cięcia GPU.
2. Mogli zrobi kartę, która ma 4GB pamięci i 256bit.
Diagram z 980m... więc wałki, wałki, wałki.
Taa PR NV mnie zaminusuje
Dobra robota.
Gdybyś miał rację to w tych testach GTX 970 dostałby oberwałby po FPS'ach
Jaki wadliwy produkt?
Wejdź sobie na stronę Nvidii, przeczytaj specyfikację karty, coś ci się nie zgadza?
1. strona2: ''Faktem jest natomiast, że w trakcie trzech przejść w Assassin's Creed: Unity, zarówno GTX-owi 970 jak i Radeonowi R9 290X zdarzały się małe przycięcia obrazu, podczas gdy GTX 980 jest całkowicie wolny od problemu'
2. strona4: ''Najzabawniejsze jest przecież w tym wszystkim to, że premierowa oraz obecna wydajność GeForce'a GTX-a 970 przecież wcale nie ulegnie zmianie.''
Zdania wzajemnie się wykluczające. Nikt na premierę nie badał mikrocięć a to właśnie o nie cała batalia się rozgrywa.
Oczywiście, że badaliśmy. Nie pokazywaliśmy wykresów z FCAT-a bo na nich można zmieścić najwyżej 4 linie. Mikroprzycięcia były wtedy takie same jak dziś. Faktem za to jest, że wtedy nie było gier, które tak mocno obciążały pamięć RAM i dlatego ten dzisiejszy test ma sens.
Skopali kartę i zachowali się nieładnie, co nie znaczy że to jest 'wadliwy produkt'. Jest tak, jak miało być Po prostu zaprojektowano wąskie gardło, bo '4GB' na papierku wygląda ładniej niż '3,5GB'. SunTzu w swoim poście z grafem wyżej podał rozsądne rozwiązania.
Będzie to miało kluczowe znaczenie przy premierze kolejnej generacji kart. Jeśli ceny spadną i wejdzie 20nm, najzwyczajniej w świecie będzie opłacało się wyrwać kasę. Zwróć kartę i kupić bardziej opłacalną.
Jaki wadliwy produkt?
Wejdź sobie na stronę Nvidii, przeczytaj specyfikację karty, coś ci się nie zgadza?
To, że jak odpalę iRay-a to się wywali przy użyciu 4GB.
To, że jak odpalę grę, która realnie wykorzysta 3,9GB może nie przejść, albo przejdzie i będzie wydajność porażająco niska.
I rzekomo GTX970 ma problem a 290X nie? Wolne żarty!
Assasins Creed Unity to jest żart, nie pamietasz, że współpracują z nvidią ! a za (swoje) błędy oskarżali amd co zresztą szybko okazało się nieprawdą, to doskonale pokazuje jak wrogi stosunek ma ubisoft do tego producenta. Niewątpliwym faktem jest że mikroprzyciącia w amd są z reguły większe, ale akurat testy w AC Unity nie są wiarygodne
Ale smrodek po ściemie z faktyczną specyfikacją karty zostanie. I to jest dziwne w zachowaniu Nvidii. Po co bawić się w jakieś tajemnice mając dobry produkt, który sam się obroni?
I rzekomo GTX970 ma problem a 290X nie? Wolne żarty!
LOL, ACU tylko na GTX980 jest płynny. Dobre... Pewnie to samo będzie z Wiedźin 3
Z drugiej strony nie chce mi się gtx970 reklamować, bo faktycznie wszystko u mnie działa jak tego oczekiwałem. Dodatkowo nic nie piszczy itp., więc jestem bardzo zadowolony z zakupu.
Poza tym jestem zbyt leniwy na chodzenie z pochodnią pod.. hmm... sam nie wiem, ambasadę USA? Chyba, że Nv ma oficjalne przedstawicielstwo w PL : )
Tak naprawdę, to Nv powinna teraz grzecznie przeprosić, obiecać, że to się więcej nie powtórzy i rzucić jakiś gratisowy klucz do gry