Zieloni mają się czego wstydzić. W ciągu ostatnich dni w sieci pojawiło się sporo doniesień na temat problemów z działaniem kart graficznych z rodziny Turing. Ich nabywcy skarżą się, że sprzęt po prostu przestaje poprawnie pracować, co objawia się wyświetleniem na ekranie artefaktów lub wręcz całkowitym brakiem odpowiedzi po włączeniu komputera. Co najgorsze, nawet wymiana sprzętu nie daje gwarancji na otrzymanie poprawnie działającego.
O problemie z uszkodzonymi kartami GeForce RTX można przeczytać na właściwie wszystkich większych forach technologicznych, w tym też na naszym. Początkowo sądzono, że usterka dotyczy wyłącznie kart GeForce RTX 2080 Ti, ale szybko okazało się, że także posiadacze modeli GeForce RTX 2080 i GeForce RTX 2070 nie mogą czuć się bezpiecznie. Nie ma ponadto żadnej reguły jeśli chodzi o konkretną wersję urządzenia – co prawda, w większości wpisów o uszkodzonych Turingach wymienia się konstrukcje Founders Edition Nvidii, ale pojawiają się też doniesienia o podobnym problemie z edycjami autorskimi, np. firm Gigabyte i EVGA.
We wszystkich przypadkach usterka objawia się podobnie – karty przestają poprawnie generować obraz. Na ekranie naszego wyświetlacza pojawiają się przekłamania graficzne, a są też przypadki, gdy monitor po prostu traci sygnał. Winnymi takiego zachowania GeForce’ów RTX mają być zamontowane na ich pokładzie pamięci GDDR6 Microna. Na to zresztą wskazuje sama usterka, a potwierdzeniem ma być fakt, że u części osób pomogło zmniejszenie częstotliwości pracy kości.
Według doniesień kilku użytkowników, narażone na usterkę karty można rozpoznać po numerze partii. Najwięcej uszkodzonych GeForce’ów RTX miało oznaczenie 0332xxx, podczas gdy wersje działające zwykle poprawnie i nie mające problemów z artefaktami rozpoznamy po kodzie 0333xxx. Jeśli natraficie na uszkodzoną kartę, to oczywiście powinniście wysłać odpowiednie zgłoszenie RMA. Problem w tym, że nie musicie otrzymać działającej karty, bo nawet takie przypadki są już opisywane w sieci, a dodatkowo sam proces wymiany może trochę potrwać.
Nvidia na ten moment problemu nie zauważa lub nie chce go widzieć. W krótkim oświadczeniu przesłanym serwisowi Digital Trends możemy przeczytać, że zieloni współpracują z osobami posiadającymi uszkodzone GeForce’y, ale podmiot nie odnotował, by liczba zgłoszeń była większa niż zwykle. Trudno powiedzieć, czy tak jest w rzeczywistości, czy to tylko zasłona dymna, z której stosowania zieloni są przecież znani od dawna, bo to nie pierwsza ich głośna wpadka. Wiadomo jednak jedno – taka sytuacja nie powinna mieć miejsca, szczególnie w przypadku tak drogich konstrukcji jak karty z rodziny Turing. Co prawda, temat nie jest nowy, bo właściwie zawsze to pierwsi nabywcy są swego rodzaju „testerami” produktów (na co się zgadzają, kupując je często w ciemno), ale i tak pozostaje niesmak.



Msi trio jednak ma już swoje PCB dla 2080 i 2080ti. Tak więc jest nadzieja
Ale to najdroższe modele, i to 2080. A co z budżetowymi 2070?
Hmm 2x8 plus 1x6 pin To jaki przewidują pobór?
Brak jednej kostki też w tym przypadku. Czemu nie dali 12GB ? Pamięci mają szynę 32bit więc w czym tkwi problem ?
Msi trio jednak ma już swoje PCB dla 2080 i 2080ti. Tak więc jest nadzieja
To nie do końca jest tak jak napisałeś.
GPU które pobiera 200W przy napięciu zasilania 0,85V ciągnie z VRM prąd o natężeniu 235A.
Co oznacza że 70% wyprowadzeń GPU to zasilanie i masa.
Laminat takich kart jest 6 - 8 warstwowy gdzie całe warstwy służą doprowadzeniu zasilania jak i też rozprowadzeniu ciepła. Dodatkowo używa się warstwy zasilającej tej od GND jako ekranu od warstwy z ścieżkami do kości pamięci.
Projekt PCB do kart graficznych nie jest trywialną sprawą. I nie wierzę w taki błąd jak sugerujesz. Narzędzia do projektowania mają moduły wyliczające w symulacji nie tylko temperaturę ale także i wiele innych parametrów jak indukcję, pojemność itd łącznie z symulacją przebiegu sygnału HF dobierając tak przebieg ścieżki by spełniała założenia.
To samo dot. ścieżek/warstw zasilania.
Obstawiam złe chłodzenie od góry, a nie od strony PCB. Swoją drogą temp. na pamięciach rośnie szybciej niż na GPU co nie jest dobrym wskaźnikiem.
No też mi w to trudno uwierzyć, ale sam nie czuję się na siłach podważać ani kompetencji ludzi z nvidii ani gości z Tomshardware. Zdjęcia termo też pokazują że dwa moduły pamięci są akurat przy najcieplejszym miejscu karty. I przy okazji wyjaśniło się skąd 11GB ramu - w miejscu gdzie zmieściła by się jeszcze jedna kostka, temperatury są już zupełnie nieakceptowalne...
ps. z trzeciej strony - podobno zwrotów gwarancyjnych wcale nie jest jakoś dużo [w porównaniu do innych generacji], natomiast jak już ktoś kupuję kartę za 5k to raczej głośno wyraża oburzenie kiedy jego karta nie działa. I nic dziwnego - też bym się ostro wkur@#%@# gdyby mi taka karta padła...
To się da ogarnąć, niższe napięcia na VRAMy i niższe taktowania.
Chyba że ktoś źle wyliczył parametry albo grubość termopadów między radiatorem a pamięciami.
Cała seria do poprawki.
Patrzyłeś w ogóle na tego linka?
Projekt referencyjnego laminatu jest skopany bo dwa moduły są umieszczone nad ścieżkami zasilania GPU. I trzeba by zmniejszyć napięcia zasilania profesora (GPU), a nie napięcia na vram (które jest ok).
To nie do końca jest tak jak napisałeś.
GPU które pobiera 200W przy napięciu zasilania 0,85V ciągnie z VRM prąd o natężeniu 235A.
Co oznacza że 70% wyprowadzeń GPU to zasilanie i masa.
Laminat takich kart jest 6 - 8 warstwowy gdzie całe warstwy służą doprowadzeniu zasilania jak i też rozprowadzeniu ciepła. Dodatkowo używa się warstwy zasilającej tej od GND jako ekranu od warstwy z ścieżkami do kości pamięci.
Projekt PCB do kart graficznych nie jest trywialną sprawą. I nie wierzę w taki błąd jak sugerujesz. Narzędzia do projektowania mają moduły wyliczające w symulacji nie tylko temperaturę ale także i wiele innych parametrów jak indukcję, pojemność itd łącznie z symulacją przebiegu sygnału HF dobierając tak przebieg ścieżki by spełniała założenia.
To samo dot. ścieżek/warstw zasilania.
Obstawiam złe chłodzenie od góry, a nie od strony PCB. Swoją drogą temp. na pamięciach rośnie szybciej niż na GPU co nie jest dobrym wskaźnikiem.
Armory i Gamingi maja własny laminat, czy referencyjny? W ogóle ktoś dla RTX ma własny?
A już byliśmy pewni, że Micron dał ciała...
No właśnie przez to że Nvidia zrobiła swoją wersję FE i tak mało dała czasu producentom OEM - to chyba nikt nie wypuścił jeszcze swojej wersji płytki
A Micron dał o tyle ciała że pamięci Samsunga spokojnie wytrzymują do 105 stopni Celsjusza, a niektóre Microny już przy 91 stopni padają. Teoretycznie oba zachowania są zgodne z specyfikacją którą sobie Nvidia zażyczyła, ale jednak kontrola jakości u Microna jest zauważalnie gorsza...
Armory i Gamingi maja własny laminat, czy referencyjny? W ogóle ktoś dla RTX ma własny?
A już byliśmy pewni, że Micron dał ciała...
No to grubo - tutaj już żaden software update nie pomoże
Chyba że narzucą powerlimit na kartę poniżej 100W
To się da ogarnąć, niższe napięcia na VRAMy i niższe taktowania.
Chyba że ktoś źle wyliczył parametry albo grubość termopadów między radiatorem a pamięciami.
Cała seria do poprawki.
Patrzyłeś w ogóle na tego linka?
Projekt referencyjnego laminatu jest skopany bo dwa moduły są umieszczone nad ścieżkami zasilania GPU. I trzeba by zmniejszyć napięcia zasilania procesora (GPU), a nie napięcia na VRam (które jest ok).