Mam RTX 2060 i grając w BF5 zauważyłem ten problem, to spadochron rozciągnięty, to szachownica zamiast liści na palmie... To jest naprawdę chore żeby człowiek dał 1600 zł za kartę i miał od początku artefakty. Masakra jakaś NVIDIA ma problem i dobrze o tym wie, tylko się boi przyznać a będzie miała jeszcze większy bo to są felerne karty za grube pieniądze i one mają działać albo będą dawać nowe. Ja robię screeny ale ja wiem ile czasu taki zwrot trwa i mi się to nie uśmiecha więc jeszcze poczekam ale już widzę że problem mnie będzie dotyczył.
https://www.youtube.com/watch?v=V70f1Kx0QTU
Hmm 2x8 plus 1x6 pin To jaki przewidują pobór?
Brak jednej kostki też w tym przypadku. Czemu nie dali 12GB ? Pamięci mają szynę 32bit więc w czym tkwi problem ?
To nie do końca jest tak jak napisałeś.
GPU które pobiera 200W przy napięciu zasilania 0,85V ciągnie z VRM prąd o natężeniu 235A.
Co oznacza że 70% wyprowadzeń GPU to zasilanie i masa.
Laminat takich kart jest 6 - 8 warstwowy gdzie całe warstwy służą doprowadzeniu zasilania jak i też rozprowadzeniu ciepła. Dodatkowo używa się warstwy zasilającej tej od GND jako ekranu od warstwy z ścieżkami do kości pamięci.
Projekt PCB do kart graficznych nie jest trywialną sprawą. I nie wierzę w taki błąd jak sugerujesz. Narzędzia do projektowania mają moduły wyliczające w symulacji nie tylko temperaturę ale także i wiele innych parametrów jak indukcję, pojemność itd łącznie z symulacją przebiegu sygnału HF dobierając tak przebieg ścieżki by spełniała założenia.
To samo dot. ścieżek/warstw zasilania.
Obstawiam złe chłodzenie od góry, a nie od strony PCB. Swoją drogą temp. na pamięciach rośnie szybciej niż na GPU co nie jest dobrym wskaźnikiem.
No też mi w to trudno uwierzyć, ale sam nie czuję się na siłach podważać ani kompetencji ludzi z nvidii ani gości z Tomshardware. Zdjęcia termo też pokazują że dwa moduły pamięci są akurat przy najcieplejszym miejscu karty. I przy okazji wyjaśniło się skąd 11GB ramu - w miejscu gdzie zmieściła by się jeszcze jedna kostka, temperatury są już zupełnie nieakceptowalne...
ps. z trzeciej strony - podobno zwrotów gwarancyjnych wcale nie jest jakoś dużo [w porównaniu do innych generacji], natomiast jak już ktoś kupuję kartę za 5k to raczej głośno wyraża oburzenie kiedy jego karta nie działa. I nic dziwnego - też bym się ostro wkur@#%@# gdyby mi taka karta padła...
To się da ogarnąć, niższe napięcia na VRAMy i niższe taktowania.
Chyba że ktoś źle wyliczył parametry albo grubość termopadów między radiatorem a pamięciami.
Cała seria do poprawki.
Patrzyłeś w ogóle na tego linka?
Projekt referencyjnego laminatu jest skopany bo dwa moduły są umieszczone nad ścieżkami zasilania GPU. I trzeba by zmniejszyć napięcia zasilania profesora (GPU), a nie napięcia na vram (które jest ok).
To nie do końca jest tak jak napisałeś.
GPU które pobiera 200W przy napięciu zasilania 0,85V ciągnie z VRM prąd o natężeniu 235A.
Co oznacza że 70% wyprowadzeń GPU to zasilanie i masa.
Laminat takich kart jest 6 - 8 warstwowy gdzie całe warstwy służą doprowadzeniu zasilania jak i też rozprowadzeniu ciepła. Dodatkowo używa się warstwy zasilającej tej od GND jako ekranu od warstwy z ścieżkami do kości pamięci.
Projekt PCB do kart graficznych nie jest trywialną sprawą. I nie wierzę w taki błąd jak sugerujesz. Narzędzia do projektowania mają moduły wyliczające w symulacji nie tylko temperaturę ale także i wiele innych parametrów jak indukcję, pojemność itd łącznie z symulacją przebiegu sygnału HF dobierając tak przebieg ścieżki by spełniała założenia.
To samo dot. ścieżek/warstw zasilania.
Obstawiam złe chłodzenie od góry, a nie od strony PCB. Swoją drogą temp. na pamięciach rośnie szybciej niż na GPU co nie jest dobrym wskaźnikiem.
No to teraz krótka piłka - trzeba szukać kart z własnym laminatem - i najlepiej dodatkowo poprawnym chłodzeniem pamięci.
Armory i Gamingi maja własny laminat, czy referencyjny? W ogóle ktoś dla RTX ma własny?
A już byliśmy pewni, że Micron dał ciała...
No właśnie przez to że Nvidia zrobiła swoją wersję FE i tak mało dała czasu producentom OEM - to chyba nikt nie wypuścił jeszcze swojej wersji płytki
A Micron dał o tyle ciała że pamięci Samsunga spokojnie wytrzymują do 105 stopni Celsjusza, a niektóre Microny już przy 91 stopni padają. Teoretycznie oba zachowania są zgodne z specyfikacją którą sobie Nvidia zażyczyła, ale jednak kontrola jakości u Microna jest zauważalnie gorsza...
No to grubo - tutaj już żaden software update nie pomoże
Chyba że narzucą powerlimit na kartę poniżej 100W
To się da ogarnąć, niższe napięcia na VRAMy i niższe taktowania.
Chyba że ktoś źle wyliczył parametry albo grubość termopadów między radiatorem a pamięciami.
Cała seria do poprawki.
Patrzyłeś w ogóle na tego linka?
Projekt referencyjnego laminatu jest skopany bo dwa moduły są umieszczone nad ścieżkami zasilania GPU. I trzeba by zmniejszyć napięcia zasilania procesora (GPU), a nie napięcia na VRam (które jest ok).
RTX 2080TI - padają ramy z powodu złego projektu laminatu, moduły pamięciowe M6 and M7 mogą przekroczyć ponad 90C https://www.overclock.net/forum/379-rumors...ot-users-4.html
A Miron nie podał jakie te kości działają długoterminowo przy takich temperaturach, a i mogła mu się zdarzyć seria która też nie wytrzymuje takich temperatur.
No to grubo - tutaj już żaden software update nie pomoże
Chyba że narzucą powerlimit na kartę poniżej 100W
To się da ogarnąć, niższe napięcia na VRAMy i niższe taktowania.
Chyba że ktoś źle wyliczył parametry albo grubość termopadów między radiatorem a pamięciami.
Cała seria do poprawki.
Niech im te karty zaczną zalegac na magazynach i zbierają tony kurzu. Taka marża jest na tych kartach, a to tylko dlatego że chcieli na boomie Kryptowalut się wzbogacić. Ja tylko czekam jak amd nagle utrze im nosa, bo Intel do dzis dzien jeszcze się nue umie pozbierać.
Moje źródło? Matematyka. 2x1800x2560=9,2Tflops. Dla turinga liczysz tak samo. Przy tym samym zegarze turing będzie mieć około 10% niższa moc obliczeniową.
Po pierwsze, gdzie ty takiego boosta widziałeś? na azocie?
Po drugie, twoje 'wyliczenia' Tflops mają się nijak do oficjalnej specyfikacji http://www.benchmark.pl/aktualnosci/nvidia...-kart-graf.html
2070 7,5 TFOPS
1080 8,9 TFLOPS
1080ti 11,3 TFLOPS
A 'jakimś cudem' przebija te karty 'usprawnienia' wewnątrz rdzenia? wątpie, prawdopodobnie złapani za rękę w przeszłości zastosowali strategię wydawania 'średnich' sterów na długi czas przed premierą nowej generacji aby nowa generacja miała odpowiedni OMG faktor.
Oficjalna specyfikacja jest dla standardowego boosta.
W przypadku gtx1080FE jest to 1733mhz. Co daje nam 8,9Tflops. (1800mhz to maksymalny boost dla FE)
Z kolei rtx2070 w wersji testowanej na labie ma w grach taktowanie 1905mhz - 8,7tflops.
W teście laba wyszło, ze karta jest 10% mocniejsza do 1080FE przy podobnej mocy obliczeniowej. Wiec tyle masz z poprawek architektury i szybszych pamięci - jedyna istotna poprawka, to wykonywanie jednocześnie obliczen int i fp, co dało właśnie te kilka procent.
Moje źródło? Matematyka. 2x1800x2560=9,2Tflops. Dla turinga liczysz tak samo. Przy tym samym zegarze turing będzie mieć około 10% niższa moc obliczeniową.
Po pierwsze, gdzie ty takiego boosta widziałeś? na azocie?
Po drugie, twoje 'wyliczenia' Tflops mają się nijak do oficjalnej specyfikacji http://www.benchmark.pl/aktualnosci/nvidia...-kart-graf.html
2070 7,5 TFOPS
1080 8,9 TFLOPS
1080ti 11,3 TFLOPS
A 'jakimś cudem' przebija te karty 'usprawnienia' wewnątrz rdzenia? wątpie, prawdopodobnie złapani za rękę w przeszłości zastosowali strategię wydawania 'średnich' sterów na długi czas przed premierą nowej generacji aby nowa generacja miała odpowiedni OMG faktor.
Teraz to Ty manipulujesz teoretycznymi wyliczeniami i nierealnymi taktowaniami. Te karty mają podobne taktowania out of box i pomimo wyraźnie mniejszej mocy obliczeniowej to 2070 jest kartą wydajniejszą. Jest nawet lepiej, taki MSI 1080 Gaming X ma z reguły 1950MHz i wyżej natomiast ROG Strix 2070 w teście PCL miał realnie 1905MHz.
Jak wyżej
Moje źródło? Matematyka. 2x1800x2560=9,2Tflops. Dla turinga liczysz tak samo. Przy tym samym zegarze turing będzie mieć około 10% niższa moc obliczeniową.
RTX 2080TI - padają ramy z powodu złego projektu laminatu, moduły pamięciowe M6 and M7 mogą przekroczyć ponad 90C https://www.overclock.net/forum/379-rumors...ot-users-4.html
A Miron nie podał jakie te kości działają długoterminowo przy takich temperaturach, a i mogła mu się zdarzyć seria która też nie wytrzymuje takich temperatur.
Kiedy ściemniałeś w CV a i tak dostałeś tę pracę xD
RTX 2080TI - padają ramy z powodu złego projektu laminatu, moduły pamięciowe M6 and M7 mogą przekroczyć ponad 90C https://www.overclock.net/forum/379-rumors...ot-users-4.html
A Miron nie podał jakie te kości działają długoterminowo przy takich temperaturach, a i mogła mu się zdarzyć seria która też nie wytrzymuje takich temperatur.
No to grubo - tutaj już żaden software update nie pomoże
Chyba że narzucą powerlimit na kartę poniżej 100W
RTX 2080TI - padają ramy z powodu złego projektu laminatu, moduły pamięciowe M6 and M7 mogą przekroczyć ponad 90C https://www.overclock.net/forum/379-rumors...ot-users-4.html
A Miron nie podał jakie te kości działają długoterminowo przy takich temperaturach, a i mogła mu się zdarzyć seria która też nie wytrzymuje takich temperatur.
to ktoś to serio w ogóle kupił? Czy są jakieś dane na temat popytu na te karty? Jakoś nie widzę,żeby szły jak ciepłe bułeczki. Może w końcu ktoś się puknie w łeb i obniżą ceny. Ponadto czegoś tu nie rozumiem, obecne ceny były podytkowane nadmiernym popytem na karty przez kopaczy kryptowalut. Nie widziałem ani jednego artykułu na temat wydajności karty w kopaniu ani nawet nikt nie pytał. Co z kryptowalutami?
Msi trio jednak ma już swoje PCB dla 2080 i 2080ti. Tak więc jest nadzieja
Ale to najdroższe modele, i to 2080. A co z budżetowymi 2070?
Hmm 2x8 plus 1x6 pin To jaki przewidują pobór?
Brak jednej kostki też w tym przypadku. Czemu nie dali 12GB ? Pamięci mają szynę 32bit więc w czym tkwi problem ?
Msi trio jednak ma już swoje PCB dla 2080 i 2080ti. Tak więc jest nadzieja
To nie do końca jest tak jak napisałeś.
GPU które pobiera 200W przy napięciu zasilania 0,85V ciągnie z VRM prąd o natężeniu 235A.
Co oznacza że 70% wyprowadzeń GPU to zasilanie i masa.
Laminat takich kart jest 6 - 8 warstwowy gdzie całe warstwy służą doprowadzeniu zasilania jak i też rozprowadzeniu ciepła. Dodatkowo używa się warstwy zasilającej tej od GND jako ekranu od warstwy z ścieżkami do kości pamięci.
Projekt PCB do kart graficznych nie jest trywialną sprawą. I nie wierzę w taki błąd jak sugerujesz. Narzędzia do projektowania mają moduły wyliczające w symulacji nie tylko temperaturę ale także i wiele innych parametrów jak indukcję, pojemność itd łącznie z symulacją przebiegu sygnału HF dobierając tak przebieg ścieżki by spełniała założenia.
To samo dot. ścieżek/warstw zasilania.
Obstawiam złe chłodzenie od góry, a nie od strony PCB. Swoją drogą temp. na pamięciach rośnie szybciej niż na GPU co nie jest dobrym wskaźnikiem.
No też mi w to trudno uwierzyć, ale sam nie czuję się na siłach podważać ani kompetencji ludzi z nvidii ani gości z Tomshardware. Zdjęcia termo też pokazują że dwa moduły pamięci są akurat przy najcieplejszym miejscu karty. I przy okazji wyjaśniło się skąd 11GB ramu - w miejscu gdzie zmieściła by się jeszcze jedna kostka, temperatury są już zupełnie nieakceptowalne...
ps. z trzeciej strony - podobno zwrotów gwarancyjnych wcale nie jest jakoś dużo [w porównaniu do innych generacji], natomiast jak już ktoś kupuję kartę za 5k to raczej głośno wyraża oburzenie kiedy jego karta nie działa. I nic dziwnego - też bym się ostro wkur@#%@# gdyby mi taka karta padła...
To się da ogarnąć, niższe napięcia na VRAMy i niższe taktowania.
Chyba że ktoś źle wyliczył parametry albo grubość termopadów między radiatorem a pamięciami.
Cała seria do poprawki.
Patrzyłeś w ogóle na tego linka?
Projekt referencyjnego laminatu jest skopany bo dwa moduły są umieszczone nad ścieżkami zasilania GPU. I trzeba by zmniejszyć napięcia zasilania profesora (GPU), a nie napięcia na vram (które jest ok).
To nie do końca jest tak jak napisałeś.
GPU które pobiera 200W przy napięciu zasilania 0,85V ciągnie z VRM prąd o natężeniu 235A.
Co oznacza że 70% wyprowadzeń GPU to zasilanie i masa.
Laminat takich kart jest 6 - 8 warstwowy gdzie całe warstwy służą doprowadzeniu zasilania jak i też rozprowadzeniu ciepła. Dodatkowo używa się warstwy zasilającej tej od GND jako ekranu od warstwy z ścieżkami do kości pamięci.
Projekt PCB do kart graficznych nie jest trywialną sprawą. I nie wierzę w taki błąd jak sugerujesz. Narzędzia do projektowania mają moduły wyliczające w symulacji nie tylko temperaturę ale także i wiele innych parametrów jak indukcję, pojemność itd łącznie z symulacją przebiegu sygnału HF dobierając tak przebieg ścieżki by spełniała założenia.
To samo dot. ścieżek/warstw zasilania.
Obstawiam złe chłodzenie od góry, a nie od strony PCB. Swoją drogą temp. na pamięciach rośnie szybciej niż na GPU co nie jest dobrym wskaźnikiem.
Armory i Gamingi maja własny laminat, czy referencyjny? W ogóle ktoś dla RTX ma własny?
A już byliśmy pewni, że Micron dał ciała...
No właśnie przez to że Nvidia zrobiła swoją wersję FE i tak mało dała czasu producentom OEM - to chyba nikt nie wypuścił jeszcze swojej wersji płytki
A Micron dał o tyle ciała że pamięci Samsunga spokojnie wytrzymują do 105 stopni Celsjusza, a niektóre Microny już przy 91 stopni padają. Teoretycznie oba zachowania są zgodne z specyfikacją którą sobie Nvidia zażyczyła, ale jednak kontrola jakości u Microna jest zauważalnie gorsza...
Armory i Gamingi maja własny laminat, czy referencyjny? W ogóle ktoś dla RTX ma własny?
A już byliśmy pewni, że Micron dał ciała...
No to grubo - tutaj już żaden software update nie pomoże
Chyba że narzucą powerlimit na kartę poniżej 100W
To się da ogarnąć, niższe napięcia na VRAMy i niższe taktowania.
Chyba że ktoś źle wyliczył parametry albo grubość termopadów między radiatorem a pamięciami.
Cała seria do poprawki.
Patrzyłeś w ogóle na tego linka?
Projekt referencyjnego laminatu jest skopany bo dwa moduły są umieszczone nad ścieżkami zasilania GPU. I trzeba by zmniejszyć napięcia zasilania procesora (GPU), a nie napięcia na VRam (które jest ok).
A Miron nie podał jakie te kości działają długoterminowo przy takich temperaturach, a i mogła mu się zdarzyć seria która też nie wytrzymuje takich temperatur.
No to grubo - tutaj już żaden software update nie pomoże
Chyba że narzucą powerlimit na kartę poniżej 100W
To się da ogarnąć, niższe napięcia na VRAMy i niższe taktowania.
Chyba że ktoś źle wyliczył parametry albo grubość termopadów między radiatorem a pamięciami.
Cała seria do poprawki.
Moje źródło? Matematyka. 2x1800x2560=9,2Tflops. Dla turinga liczysz tak samo. Przy tym samym zegarze turing będzie mieć około 10% niższa moc obliczeniową.
Po pierwsze, gdzie ty takiego boosta widziałeś? na azocie?
Po drugie, twoje 'wyliczenia' Tflops mają się nijak do oficjalnej specyfikacji
http://www.benchmark.pl/aktualnosci/nvidia...-kart-graf.html
2070 7,5 TFOPS
1080 8,9 TFLOPS
1080ti 11,3 TFLOPS
A 'jakimś cudem' przebija te karty 'usprawnienia' wewnątrz rdzenia? wątpie, prawdopodobnie złapani za rękę w przeszłości zastosowali strategię wydawania 'średnich' sterów na długi czas przed premierą nowej generacji aby nowa generacja miała odpowiedni OMG faktor.
Oficjalna specyfikacja jest dla standardowego boosta.
W przypadku gtx1080FE jest to 1733mhz. Co daje nam 8,9Tflops. (1800mhz to maksymalny boost dla FE)
Z kolei rtx2070 w wersji testowanej na labie ma w grach taktowanie 1905mhz - 8,7tflops.
W teście laba wyszło, ze karta jest 10% mocniejsza do 1080FE przy podobnej mocy obliczeniowej. Wiec tyle masz z poprawek architektury i szybszych pamięci - jedyna istotna poprawka, to wykonywanie jednocześnie obliczen int i fp, co dało właśnie te kilka procent.
Twoje źródła? moje: https://www.game-debate.com/gpu/index.php?...eforce-gtx-1080
Jak wyżej
Moje źródło? Matematyka. 2x1800x2560=9,2Tflops. Dla turinga liczysz tak samo. Przy tym samym zegarze turing będzie mieć około 10% niższa moc obliczeniową.
Po pierwsze, gdzie ty takiego boosta widziałeś? na azocie?
Po drugie, twoje 'wyliczenia' Tflops mają się nijak do oficjalnej specyfikacji
http://www.benchmark.pl/aktualnosci/nvidia...-kart-graf.html
2070 7,5 TFOPS
1080 8,9 TFLOPS
1080ti 11,3 TFLOPS
A 'jakimś cudem' przebija te karty 'usprawnienia' wewnątrz rdzenia? wątpie, prawdopodobnie złapani za rękę w przeszłości zastosowali strategię wydawania 'średnich' sterów na długi czas przed premierą nowej generacji aby nowa generacja miała odpowiedni OMG faktor.
Gtx1080 ma 9,2Tflops owszem, ale na maksymalnym booscie fabrycznym na poziomie 1,8ghz. Rtx2070 ma 6,5Tflops... na zegarze bazowym 1400mhz.
A wiesz ile ma rtx2070 na maksymalnym booscie 2160mhz? 9,9Tflops - tutaj masz swoją nową architekturę
Twoje źródła? moje: https://www.game-debate.com/gpu/index.php?...eforce-gtx-1080
Teraz to Ty manipulujesz teoretycznymi wyliczeniami i nierealnymi taktowaniami. Te karty mają podobne taktowania out of box i pomimo wyraźnie mniejszej mocy obliczeniowej to 2070 jest kartą wydajniejszą. Jest nawet lepiej, taki MSI 1080 Gaming X ma z reguły 1950MHz i wyżej natomiast ROG Strix 2070 w teście PCL miał realnie 1905MHz.
Jak wyżej
Moje źródło? Matematyka. 2x1800x2560=9,2Tflops. Dla turinga liczysz tak samo. Przy tym samym zegarze turing będzie mieć około 10% niższa moc obliczeniową.
A Miron nie podał jakie te kości działają długoterminowo przy takich temperaturach, a i mogła mu się zdarzyć seria która też nie wytrzymuje takich temperatur.
Kiedy ściemniałeś w CV a i tak dostałeś tę pracę xD
A Miron nie podał jakie te kości działają długoterminowo przy takich temperaturach, a i mogła mu się zdarzyć seria która też nie wytrzymuje takich temperatur.
No to grubo - tutaj już żaden software update nie pomoże
Chyba że narzucą powerlimit na kartę poniżej 100W
A Miron nie podał jakie te kości działają długoterminowo przy takich temperaturach, a i mogła mu się zdarzyć seria która też nie wytrzymuje takich temperatur.
Prosz...
https://www.youtube.com/watch?v=Db-t8YikANM