GeForce GTX 970 – problem z pamięcią?
Omawiany problem z pamięcią wypłynął w społecznościach takich, jak Reddit, Overclock.net oraz Guru3D, kilkanaście dni temu. Za pomocą oprogramowania, które mierzy przepustowość pamięci na karcie graficznej przy różnych poziomach zapełnienia, daje się wskazać przypadłość GTX-ów 970: duży spadek przepustowości po zajęciu nieco ponad 3 GB VRAM-u na karcie.
Jak duży? Podczas dostępu do pamięci od pierwszego megabajta do nieco ponad 3200 MB jej zmierzona przepustowość wynosi około 150 GB/s, podczas gdy po przekroczeniu pewnej wartości (zazwyczaj 3300–3500 MB zajętości) przepustowość spada gwałtownie do 20–25 GB/s. Możecie to zobaczyć poniżej:
Jak widać na powyższym zrzucie ekranu, wykonaliśmy test na jednym z niereferencyjnych modeli GTX-a 970. Twórca omawianego narzędzia udostępnił kod źródłowy, ale sami nie możemy ocenić, co ono tak naprawdę robi, więc jedyny komentarz, o jaki się pokusimy, jest taki, że... rezultaty wykazują istnienie problemu. Co ciekawe, w pierwszych testach nowego produktu Nvidii czy też następujących po nich testach wersji niereferencyjnych nikt nie zauważył zjawiska. I to nawet w trybie typu WQHD (2560 × 1440 pikseli) z wygładzaniem krawędzi czy 4K (3840 × 2160 pikseli) w najbardziej wymagających grach.
Co jeszcze ciekawsze, problem ten ma w ogóle nie dotyczyć najwyższego modelu Nvidii, GTX-a 980. I to pomimo tego, że oba najwyższe modele w jej ofercie (GTX-y 970 i 980) dzielą ten sam podsystem pamięci i w istocie mają te same układy GPU. W dziewięćsetsiedemdziesiątce wyłączono po prostu 3 z 16 bloków SMM. Czy w GTX-ie 970 mamy zatem do czynienia z jakimś niezamierzonym błędem, który można szybko naprawić aktualizacją sterowników i/lub BIOS-u?
GTX 970 jednak nie taki podobny do GTX-a 980...
Czy jednak na pewno można powiedzieć, że po prostu wyłączono 3 z 16 bloków SMM? Niezupełnie, o czym dowiecie się za moment.
Stanowisko Nvidii brzmi, we fragmentach, tak:
GeForce GTX 970 jest wyposażony w 4 GB własnej pamięci graficznej. Jednakże GTX 970 ma inną konfigurację SM [multiprocesorów strumieniowych – przyp. red.] niż GTX 980, a także mniej zasobów dla podsystemu pamięci. Aby optymalnie zarządzać ruchem w takiej konfiguracji, dzielimy pamięć graficzną na segment 3,5 GB i segment 0,5 GB. GPU dla segmentu 3,5-gigabajtowego ma wyższy priorytet dostępu. Gdy gra potrzebuje mniej niż 3,5 GB pamięci graficznej dla polecenia rysowania, będzie uzyskiwać dostęp tylko do pierwszej partycji, a inne narzędzia, które wyliczają użycie pamięci na kartach GTX 970, będą raportować zajęcie 3,5 GB. [...] Jeżeli gra wymaga więcej niż 3,5 GB, wykorzystujemy oba segmenty.
Ale dlaczego tak to wszystko wygląda?
GTX-owi 970 brakuje jeszcze czegoś...
ROP-ów. Nie, to nie żart. Bujdą są 64 jednostki ROP w GTX-ie 970. Po tym, jak wypłynął problem pamięci, Nvidia przyznała, że rdzeń GM204-200 ma ich zaledwie 56. Przy okazji tłumaczy, że podczas tworzenia poradników dla testerów doszło do nieporozumienia pomiędzy inżynierami a specjalistami od PR. Dziwne, że przez 4 miesiące nikt nie postanowił sprostować tej informacji, prawda? To właśnie mniejsza liczba ROP-ów jest powodem mniejszej przepustowości pamięci w ostatniej części VRAM-u GTX-a 970.
GeForce GTX 970 ma 13 bloków SMM po 128 CUDA, co razem daje 1664 jednostki CUDA. Najważniejszy jest jednak specjalnie przygotowany przez pracownika Nvidii Jonaha Albena diagram wyjaśniający problem dostępu do pamięci.
Na górze diagramu widać 13 aktywnych jednostek SMM (czarne, wyraźne bloki oznaczone SM) oraz 3 nieaktywne (to te szare). W środku jest interfejs nazwany przez inżyniera Crossbar, który służy do komunikacji z pamięcią. Interfejs ten ma osiem portów do połączenia pamięci podręcznej L2 oraz 32-bitowych kontrolerów pamięci (MC). Wszystkie te elementy są włączone w GTX-ie 980, ale w GTX-ie 970 jeden z portów musiał zostać wyłączony. Ostatni, siódmy port jest zatem współdzielony pomiędzy dwa kontrolery pamięci i ten z ostatniego segmentu po prawej stronie dostał niższy priorytet – wszystko po to, aby siódmy port nie dostawał dwa razy więcej próśb o dane niż każdy inny port interfejsu Crossbar.
Nvidia miała trzy wyjścia. Mogła stworzyć kartę, która miałaby albo 3 GB pamięci o pełnym, 192-bitowym interfejsie, albo 3,5 GB pamięci o 224-bitowym interfejsie, albo 4 GB pamięci o 256-bitowym interfejsie, gdzie tylko 7/8 VRAM-u miałoby priorytet, a dostęp do reszty byłby wolniejszy. Wybrano ostatnią opcję jako mniejsze zło.
Na powyższym diagramie zastanawia jeszcze jedno: jeden blok L2 również jest pokolorowany na szaro. Niestety, to też nie jest błąd. GTX 970 ma 1792 kB pamięci podręcznej, a nie, jak GTX 980, całe 2 MB, choć początkowa specyfikacja wyglądała inaczej.
Dwie zmiany specyfikacji w ciągu jednego dnia? Czy zatem wcześniej mieliśmy do czynienia z fatalnym przeoczeniem? Jakoś trudno w to uwierzyć i na pewno więcej osób będzie o to pytać.
Testy, testy, testy...
Nvidia udostępniła własne wyniki testów porównawczych GTX-a 980 i 970, w formie tabelki z uśrednionymi osiągami. Większości jednak takie porównanie nie interesuje. I bardzo słusznie. „Zieloni” sami propagowali pomysł, aby za prawdziwą płynność rozgrywki przyjmować to, co się dzieje już na ekranie komputera, a więc szczegółowy zapis tego, ile zajęło wyrenderowanie oraz wyświetlenie kolejnych klatek obrazu. Chodzi po prostu o wykresy wygenerowane z użyciem metody FCAT, która pokazuje dokładnie, co się działo z płynnością animacji w każdej milisekundzie testu. W swoim artykule przedstawiającym metodę FCAT sami udowodniliśmy, że średni wynik ma się nijak do faktycznej wydajności, jeśli dana karta graficzna generuje klatki w nierównym tempie lub niektórych w ogóle nie wyświetla.
W związku z tym, że w naszym laboratorium stoi maszyna, która zajmuje się wyłącznie przetwarzaniem filmów i prezentowaniem wyników uzyskanych za pomocą metody FCAT, postanowiliśmy przeprowadzić własne testy w pamięciożernych grach, które pokazałyby, czy mierzalny przy użyciu specjalnego oprogramowania problem (spadek przepustowości do 22 GB/s w ostatnim segmencie pamięci) jest mierzalny również podczas rozgrywki.
Przeprowadziliśmy własne testy trzech kart graficznych: dotkniętego problemem GTX-a 970, wolnego od wad GTX-a 980 i kartę konkurencji z tą samą ilością pamięci i podobnie wycenioną, czyli Radeona R9 290X. Porównaliśmy wyniki wszystkich trzech konstrukcji w pamięciożernych grach, takich jak Assassin's Creed: Unity oraz Middle-earth: Shadow of Mordor.
Przechodząc do rzeczy: na razie sprawdziliśmy działanie GTX-ów 970 i 980 w dwóch najbardziej pamięciożernych grach z naszej procedury testowej: Assassin's Creed: Unity oraz Middle-earth: Shadow of Mordor. Jeśli nasi Czytelnicy mają jakieś propozycje, co jeszcze można by tu dodać (w grę wchodzi również profesjonalne oprogramowanie, ale tylko z kompletną instrukcją wykonania testu), jesteśmy na nie otwarci.
Do problemu podeszliśmy kompleksowo: na każdej z trzech konfiguracji postanowiliśmy wykonać trzy kompletne przejścia. Pierwsze przejście testowe wykonywaliśmy od razu po uruchomieniu gry i wczytaniu jej stanu, a dwa dalsze następowały już po pierwszym teście i polegały na zwykłym ponownym wczytaniu stanu gry.
Postanowiliśmy też udostępnić filmy z wszystkich przejść z włączonym monitoringiem programu MSI Afterburner, który raportuje takie parametry karty graficznej jak zajętość pamięci graficznej (określoną jako VRAM use i podaną w megabajtach). Wszystkie filmy można znaleźć pod tym linkiem.
Wydajność – Assassin's Creed: Unity
Najpierw przetestowaliśmy karty w Assassin's Creed: Unity. Gra w maksymalnych ustawieniach (Ultra High) już w rozdzielczości Full HD z 4-krotnym wygładzaniem krawędzi alokuje nie mniej niż 3,5 GB pamięci graficznej. W rozdzielczości 2560 × 1440 pikseli z wygładzaniem krawędzi 4 GB RAM-u na karcie to już za mało.
Oto wykresy wydajności z pierwszego przejścia:
...drugiego:
...i trzeciego:
Otwarte pozostaje pytanie: dlaczego w dwóch ostatnich trybach GeForce GTX 980 miał (?) zajęte więcej pamięci? Być może jest to efekt tego, o czym wspomniał pracownik Nvidii: programy diagnostyczne mogą mieć trudności z poprawnym odczytaniem wszystkich parametrów karty, a podaną wartość można traktować wyłącznie orientacyjnie. Tak naprawdę nie wiadomo, ile VRAM-u było wykorzystane, a trzeba pamiętać jeszcze o tym, że ilość zajętej pamięci po każdym kolejnym uruchomieniu gry jest wyraźnie inna, więc nie należy trzymać się kurczowo pokazywanych wartości.
Z punktu widzenia użytkownika najważniejsza jest wydajność, a ta... jest w porządku, a przynajmniej nie jest mniejsza, niż można by oczekiwać po karcie graficznej za 1400–1500 zł. Mimo wszystko w trakcie trzech przejść w Assassin's Creed: Unity zarówno GTX-owi 970, jak i Radeonowi R9 290X zdarzały się małe zacięcia obrazu, podczas gdy GTX 980 był całkowicie wolny od tego zjawiska. I prawdopodobnie dlatego ten ostatni kosztuje blisko 2,5 tys. zł ;)
Wydajność – Middle-earth: Shadow of Mordor
Drugą grą, która alokuje bardzo dużo pamięci graficznej, jest Middle-earth: Shadow of Mordor. Gra w maksymalnych ustawieniach (Ultra) w rozdzielczości 1920 × 1080 pikseli zajmuje ponad 3,5 GB VRAM-u.
Oto wykresy wydajności z pierwszego przejścia:
...drugiego:
...i trzeciego:
Podobnie jak w Assassin's Creed: Unity GeForce GTX 980 w najwyższym trybie miał zaalokowane ponad 400 MB więcej. Przypominamy raz jeszcze, że ilość zajętej pamięci mocno się zmienia wraz z każdym uruchomieniem gry i nie należy trzymać się kurczowo pokazywanych wartości.
Tym razem karty zachowywały się w bardzo zbliżony sposób.
Far Cry 4 (wstępny test)
Nagraliśmy film z gry Far Cry 4 z użyciem karty graficznej GeForce GTX 970:
Wydajność – Middle-earth: Shadow of Mordor, 2560 × 1440
Temat GeForce'a GTX 970 i problemów z teoretyczną przepustowością ostatnich 512 MB pamięci wciąż jest żywy. Po tym, jak Nvidia przyznała się do błędu w oficjalnych danych technicznych, nastąpiła fala testów metodą FCAT, która wykazała, że... wyniki są takie jak na początku (jeśli nie lepsze – za sprawą kolejnych wersji sterowników). Przeprowadziliśmy dodatkowe testy, a w podsumowaniu dodaliśmy informacje na temat możliwości zwrotu kart!
Poprzednie testy w grach Assassin's Creed: Unity oraz Middle-earth: Shadow of Mordor (ze wszystkimi wizualnymi atrakcjami w rozdzielczości Full HD) nie wykazały dziwnego zachowania GTX-a 970 w porównaniu z konkurencją (R9 290X) lub GeForce'em GTX 980. Tam, gdzie problem z niedoborem pamięci miał GeForce GTX 970, tam miały go również dwie pozostałe wymienione karty. Postanowiliśmy przeprowadzić dodatkowe testy w rozdzielczości 2560 × 1440. Wykorzystaliśmy dwie produkcje: ponownie Middle-earth: Shadow of Mordor oraz często pojawiającą się w komentarzach Watch Dogs.
Do testów w ramach ciekawostki dodaliśmy również kartę GeForce GTX Titan z pamięcią o pojemności 6 GB.
Takiej sytuacji w Middle-earth: Shadow of Mordor można było się spodziewać: ponownie wszystkie karty z 4 GB pamięci miały problem z doczytywaniem obiektów/tekstur w 40. sekundzie testu. Zarówno GTX 970, GTX 980, jak i Radeon R9 290X zawiodły, co nie będzie zaskoczeniem, jeśli weźmie się pod uwagę, że tak samo było w rozdzielczości 1920 × 1080.
GeForce GTX Titan, jak widać, nie znalazł się na wykresie bez powodu: to jedyna konstrukcja, która zapewnia całkowitą płynność, nawet w najwyższych ustawieniach, w Middle-earth: Shadow of Mordor.
Wydajność – Watch Dogs, 2560 × 1440
Watch Dogs, czyli majowo-czerwcowa wpadka Ubisoftu, to gra, która potrzebowała kilku łatek, aby zacząć działać zgodnie z oczekiwaniami. Wciąż jednak nie wszystkie konstrukcje zapewniają płynność w tej wymagającej produkcji, a gracze narzekają na zacięcia. Postanowiliśmy to sprawdzić. Porównaliśmy GTX-a 970 i 980, aby ocenić, czy sposób działania podsystemu pamięci w dziewięćsetsiedemdziesiątce może tu sprawiać problemy.
W Watch Dogs po raz pierwszy udało nam się w choćby minimalnym stopniu odtworzyć problem, który może (a więc nie musi!) być związany z organizacją pamięci w GTX-ie 970. W naszym miejscu testowym na początku występują trzy krótkie zacięcia, z czego największe wzięło się z tego, że klatka była renderowana przez 61–62 ms. Taka sama sytuacja występuje w przypadku Radeona R9 290X (najdłużej renderowana klatka pojawiła się po 88 ms). Co ciekawe, w przypadku GTX-a 980 zjawisko w tym samym miejscu nie występuje i maksymalny czas generowania klatki podczas testu wynosi 35 ms.
Kiedy klatka jest renderowana przez ponad 60 ms, widoczne jest krótkie zacięcie animacji, bo odpowiada to sytuacji, w której na monitorze 60-hercowym zobaczylibyśmy tę samą klatkę obrazu cztery razy z rzędu. W przypadku Radeona R9 290X zacięcie (88 ms) odpowiada pięciu identycznym klatkom obrazu jedna po drugiej.
Ogólnie rzecz biorąc, pozostajemy przy tym, co napisaliśmy w podsumowaniu: problem GTX-a 970 bardzo trudno odtworzyć w prawdziwej rozgrywce (jego istnienie wykazał benchmark pamięci napisany przez osobę o pseudonimie Nai, od której cała sprawa się zaczęła). Nam udało się to tylko w Watch Dogs w rozdzielczości 2560 × 1440. Na początku testu GTX-a 970 (i R9 290X) regularnie występują zacięcia obrazu, których udaje się uniknąć GTX-owi 980 czy Titanowi.
Zapraszamy również do podsumowania, w którym zamieściliśmy dodatkowe informacje na temat zwrotów kart graficznych GeForce GTX 970.
Podsumowanie
Po pierwsze, definitywnie trzeba obalić mit o tym, że nie da się alokować całej pamięci na GTX-ie 970. GeForce GTX 970 według Nvidii nie ma żadnych problemów z alokowaniem całego VRAM-u (4 GB) i po pomiarach metodą FCAT definitywnie widać, że pamięciożerne gry mogą wykorzystywać całe 4 GB. Osobną kwestią jest to, że niektóre narzędzia diagnostyczne rzeczywiście mogą mieć trudności z poprawnym odczytaniem pewnych parametrów karty. Nie byłby to jednak pierwszy taki przypadek. Tylko inżynierowie Nvidii wiedzą, co się dzieje w rdzeniu GM204, o czym boleśnie przekonali się wczoraj zarówno użytkownicy, jak i dziennikarze. Każdy przyjął pierwotną specyfikację GTX-a 970 (64 jednostki ROP zamiast 56 i 2048 kB pamięci podręcznej zamiast 1792 kB) za pewnik, a tymczasem rzeczywistość okazała się nieco inna.
Na początku zastanawiało nas, dlaczego w przypadku GTX-a 980 od razu widać, kiedy gra zaalokowała więcej niż 3,5 GB, natomiast w tym samym scenariuszu po zmianie karty na GTX-a 970 nie jest to raportowane. Teraz już wiemy, że to właśnie przez sztuczny podział VRAM-u na partycje, który został zaimplementowany przez inżynierów Nvidii na poziomie sprzętowym rdzenia GM204. Programiści stojący za narzędziami diagnostycznymi typu MSI Afterburner i podobnymi raczej nigdy nie projektowali rdzenia GPU, więc nie mieli dostępu do każdej możliwej informacji, i właśnie w ten sposób nie pokazują one całej prawdy o wykorzystaniu pamięci w GTX-ie 970. Osobną kwestią jest postawa Nvidii, która w ogóle do tej sytuacji doprowadziła, ale o tym za chwilę.
Wiadomo już od września, że GeForce GTX 970 jest oparty na obciętej wersji procesora GM204, który występuje w pełnej wersji w kartach GeForce GTX 980. GM204-200 w GTX-ie 970 ma jednak trzy jednostki SMM wyłączone, co wpływa też na niektóre elementy podsystemu pamięci. Jednak do tej pory nie wszystko było jasne, a Nvidia trzymała szczegóły budowy tej karty w tajemnicy. Dopiero wczoraj dowiedzieliśmy się od samego projektanta GeForce'ów Jonaha Albena, że układ z GTX-a 970 ma po prostu mniej zasobów do zarządzania taką samą pojemnością VRAM-u niż największy Maxwell, GeForce GTX 980.
GeForce GTX 970 – ostateczny werdykt?
Ostatecznie więc GeForce GTX 970 może z pełną wydajnością spożytkować 3,5 GB z całej 4-gigabajtowej pamięci graficznej. Pozostałe 0,5 GB może być przez gry wykorzystywane bez żadnych ograniczeń, ale dostęp już nie jest tak efektywny jak w przypadku pierwszej, znacznie większej partycji (a właściwie można powiedzieć, że jest znacznie mniej efektywny). Jak zapewnia Nvidia, alokowanie drugiej partycji wpływa na ogólną wydajność karty tylko minimalnie. Jeśli patrzeć na średnią wydajność oraz wykresy FCAT, faktycznie tak jest, a problem może się ujawnić tylko w konfiguracjach z wieloma monitorami i/lub w konfiguracjach SLI złożonych z dziewięćsetsiedemdziesiątek. Najlepszym dowodem jest to, że wielu posiadaczy tych kart w ogóle nie wiedziałoby o problemie, gdyby nie ostatnie doniesienia. Do tej pory zarówno GTX 970, jak i GTX 980 zachowywały się przewidywalnie i nie bez powodu żaden tester ani użytkownik nie zwrócił na ten „problem” uwagi. Zanim nie wypłynęły wyniki benchmarku testującego przepustowość pamięci w grach, nie było (i wciąż nie jest) to zauważalne.
Czy nasza ocena GTX-a 970 zmieniłaby się, gdybyśmy od początku wiedzieli to wszystko? Nie. To nadal najlepiej wyceniona karta Nvidii od lat, która w swojej klasie nie ma konkurencji. A najlepszym dowodem jest to, że według statystyk Steama GTX-a 970 ma aż 1% użytkowników. Piszemy „aż”, bo zdeklasował on wszystkie Radeony R9 serii 200 razem wzięte (0,6%). Pytanie: ile z tych osób zrezygnowałoby z zakupu, gdyby wiedziały od początku o sporych jednak różnicach w budowie względem GTX-a 980? Teraz przynajmniej już wiadomo, skąd się wzięło aż 200 dol. (prawie 1000 zł) różnicy w cenie między tymi dwoma konstrukcjami.
Nvidio, nieładnie
Osobną kwestią jest podejście Nvidii do podsystemu pamięci w GTX-ie 970. Gdy do sklepów trafiał GTX 660 Ti, nikt się nie krył z tym, że dostęp do pamięci jest asymetryczny (2 GB przy 192-bitowym interfejsie), a sama informacja była wypisana czarno na białym w poradniku dla testerów, wysłanym jeszcze przed wprowadzeniem produktu na rynek. W przypadku GTX-a 970 było jednak całkiem inaczej: „zieloni” na początku podali błędną specyfikację i przez 4 miesiące nikt nawet nie próbował sprostować nieporozumienia. Dopiero garstka zapaleńców przycisnęła giganta do muru, tak że ten wreszcie przyznał, o co tak właściwie chodzi.
Najzabawniejsze jest przecież w tym wszystkim to, że początkowa oraz obecna wydajność GeForce'a GTX-a 970 wcale się od tego nie zmieni. Jesteśmy dokładnie w tym punkcie, w którym byliśmy, tylko bogatsi o „tajemną” wiedzę o rdzeniu GM204-200 zamontowanym w GTX-ie 970. Dlatego sądzimy, że uczciwe podejście do sprawy od samego początku prawdopodobnie niczego by nie zmieniło: po prostu w artykułach znalazłyby się odpowiednie zapisy dotyczące organizacji pamięci na karcie. Tymczasem mamy wrażenie, że cała sytuacja była zamiatana pod dywan tak długo, jak to tylko możliwe... Nieładnie!
Jak na te rewelacje reagują obecni użytkownicy? Część jest bardzo zadowolona ze swoich kart i nie zwróci na problem uwagi, a inni na pewno będą za wszelką cenę próbowali oddać swoje egzemplarze z tytułu niezgodności towaru z umową (zastrzegamy, że nie wiemy, czy to możliwe). Sama Nvidia na pewno straci na swoim „przeoczeniu” wizerunkowo.
Aktualizacja z 2.01.2014 r.
Temat GTX-a 970 jeszcze nie jest dla nas zamknięty. Będziemy obserwowali sytuację także w innych grach, a gdy tylko dostrzeżemy nienormalne zachowania tej karty w porównaniu z GTX-em 980, zaktualizujemy artykuł. Szykujemy jeszcze dość niestandardową akcję, o której dowiecie się już niebawem :)
Tymczasem nieco zgłębiliśmy zagadnienie zwrotu GTX-a 970. Z kilku stron dopływają do nas bowiem sygnały, że do sklepów już spływają żądania zwrotu karty ze względu na niezgodność towaru z umową lub pojawiają się pytania w tej sprawie (od jakby niezdecydowanych na zwrot użytkowników).
Nvidia na razie milczy w tej sprawie, a w zasadzie można od niej uzyskać tylko zapewnienie, że GeForce GTX 970 działa zgodnie z zamierzeniem inżynierów, a wyniki testów wydajności mówią same za siebie. Firma przypomina też, że nigdzie – ani na jej stronie internetowej, ani na stronach producentów sprzętu – nie było informacji o liczbie jednostek ROP czy też ilości pamięci L2 rdzenia graficznego. Trudno się z tym nie zgodzić: faktycznie ogólnodostępna specyfikacja zawiera tylko takie dane, jak: liczba rdzeni CUDA (1664), ilość pamięci (4 GB), taktowanie rdzenia i pamięci. Na razie wygląda więc na to, że „zieloni” nie pozwolą zwracać tych kart bez ograniczeń.
W całej sytuacji najbardziej zyska (na zaufaniu użytkowników), a jednocześnie straci (gotówkę) firma Asus. Największy dostawca kart graficznych 2014 roku wziął sprawę w swoje ręce i oficjalnie sklepy mają obowiązek przyjąć zwrot kart GeForce GTX 970 tej marki, a następnie oddać klientowi pieniądze. Asus jest zarazem jedyną firmą, która w ten sposób podchodzi do sprawy. Użytkownicy modelu Asus GeForce GTX 970 Strix są zatem w bardzo komfortowej sytuacji. Każdy, kto kupił tę kartę przed 1 lutego 2015 roku, może ją bez żadnego problemu zwrócić do 28 lutego.
Drugim producentem, który zdecydował się pójść na rękę użytkownikom, jest EVGA. Karty GeForce GTX 970 tej marki można zarejestrować na stronie evga.com, by wziąć udział w programie Step Up. Nie pozwala on co prawda na zwrot gotówki, ale zapewnia bezbolesną wymianę na GTX-a 980 (oczywiście, trzeba dopłacić różnicę w cenie).
Pozostali producenci z grupy tych najpopularniejszych, czyli Gigabyte, MSI, Palit czy Zotac, dotąd nie wydali oficjalnych oświadczeń w sprawie możliwości zwrotu.