Coś jest nie tak z tym testem. Straszna rozbieżność pomiędzy testami z różnymi ustawieniami. Wystarczy spojrzeć na 1080 Ti w różnej konfiguracji ustawień graficznych. Te wyniki totalnie bez sensu.
Coś jest nie tak z tym testem. Straszna rozbieżność pomiędzy testami z różnymi ustawieniami. Wystarczy spojrzeć na 1080 Ti w różnej konfiguracji ustawień graficznych. Te wyniki totalnie bez sensu.
Wyniki bezsensu bo testowanie tej gry jest bezsensu. Biorąc pod uwagę że Snowdrop ma zmianę pogody/mgły przy presetach High i Ultra daje to wynik na FPS, musieliby zacząć test idealnie w momencie deszczu/słońca ewentualnie z mała ilością mgły i powtórzyć to samo otoczenie na wszystkich kartach... Nierealne. Lipton podsumował test Div2, jedyny test zrobiony na poważnie to benchmark, bo gra jest zbyt losowa jeśli chodzi o odczyty, co chciałem zauważyć w pierwszym komentarzu, ale widać PClol znowu ma rację
Rzeź Pascali czas zacząć, 2060 na plecach 1080, 2070 bije 1080 Ti, 2080 całkowicie mu odjeżdża.
Czyli czas polować na Radeona VII, ale Vega 64 w sumie też piknie.
U siebie Ryzen 7 2700X + Radeon VII, wszystko na ultra 4K + 85% resolution scaling i mam srednio 55fps na nie podkreconej karcie, musze jeszcze sprawdzic na 1950Mhz OC ale itak z padem i Freesynch jest super 😊
'Rozdzielczość 4K i 60 kl./s bardzo rzadko idą w parze. '
Dokładnie.
Więc dlaczego ciągle ustawiacie tam najwyższe możliwe detale?
To samo się tyczy 1440p.
Gdy widzę, że na takich rozdzielczościach, topowe karty (kosztujące chore pieniądze) najczęściej wymiękają na max detalach... niewiele to dla mnie znaczy.
Skoro wg was rozdzielczości 1440p i 4K są coraz popularniejsze, może warto już rozszerzyć testy o pozostałe ustawienia detali, w takich rozdzielczościach. Jeśli ludzie zobaczyliby jak radzi sobie karta za 1000-1500 zł w średnich detalach, byłoby to bardziej wartościowe, niż ironiczny śmiech patrząc jak karta za 6000 zł nie potrafi zapewnić płynności w 4K... i to przecież nie zmieni się jeszcze przez BARDZO DŁUGI CZAS, wliczając w to oczywiście kolejne generacje kart.
Portal który jako pierwszy wprowadzi kompleksowe testy w 1440p i 4K, wygra.
Czym wyższa rozdzielczość to RTX 2070 bardziej odskakuję od gtx 1080. Być może niektóre miejscówki w The Division 2 są uczulone na przepustowość i dla tego takie wzrosty.
gtx 1080 przepustowość 320 GB/s
RTX 2070 448 GB/s
A no i do autorów testów, przydały by się testy w 4k na presecie High, coraz więcej ludzi gra w 4k, ale nie grają na ultra gdzie jest wiele opcji ubijających wydajność.
Nie mam Radeona VII w redakcji. Jak bardzo nasze miejsce testowe zależne jest od pamięci VRAM można zobaczyć porównując wyniki GTX'a 960 2GB i 4GB na naszych wykresach.
Nie mam Radeona VII w redakcji. Jak bardzo nasze miejsce testowe zależne jest od pamięci VRAM można zobaczyć porównując wyniki GTX'a 960 2GB i 4GB na naszych wykresach.
Pewnie dlatego 960 4GB czasami wypada lepiej albo tak samo jak 970 '3,5+0,5GB'
ale jaja. 6600K @4,5GHz daje wąskie gardło na 50fps. tego jeszcze nie grali
co w tym dziwnego? silne wątk iale jest ich tylko 4. czterordzeniwoe procesory umarły w mainstreamie wraz z pojawieniem się ryzenów 1600. kto tego nie roozumiał ten teraz ma po 50 kl/s a będzie jeszcze gorzej bo 6/12 dalej ma zapas mocy. teraz jest prime time dla mocnych 4/8 i 6/6.
Nie mam Radeona VII w redakcji. Jak bardzo nasze miejsce testowe zależne jest od pamięci VRAM można zobaczyć porównując wyniki GTX'a 960 2GB i 4GB na naszych wykresach.
I dla tego RX570 przegrywa z R9 380, choć ma tyle samo pamięci tylko, że szybszą(o mocniejszym GPU nie wspominając)?
Tak samo RTX2060 6GB wygrywa w 4K z GTX1070Ti 8GB, a Vega64 z 8GB znacznie szybszej pamięci nie zyskuje nad RTX2060?
Coś z waszym testem jest mocno nie tak. Nie wiem co, ale powinniście się nad tą sprawą pochylić, bo teraz to jest kompromitacja. Już druga w ostatnim czasie po wynikach RX570 w teście GTX1660. Tam zareagowaliście dość szybko. Mam nadzieję, że teraz też tak będzie.
ale jaja. 6600K @4,5GHz daje wąskie gardło na 50fps. tego jeszcze nie grali
co w tym dziwnego? silne wątk iale jest ich tylko 4. czterordzeniwoe procesory umarły w mainstreamie wraz z pojawieniem się ryzenów 1600. kto tego nie roozumiał ten teraz ma po 50 kl/s a będzie jeszcze gorzej bo 6/12 dalej ma zapas mocy. teraz jest prime time dla mocnych 4/8 i 6/6.
Ale 4/8 to nadal cztery rdzenie, tylko efektywniej wykorzystywane dzięki wielowątkowości W mainstreamie faktycznie umarły, ale 4 wątki. Niezależnie, czy są to 2 rdzenie z HT czy 4 rdzenie bez HT.
@lolek, a dla czego niby 2060 w 4k nie może wygrać z 1070ti?
Bo w 4K 6GB to podobno zdecydowanie za mało:
Fragment podsumowania z PPC:
The Division 2 nawet na najniższych ustawieniach potrzebuje 2 GB VRAM, medium konsumuje niespełna 3 GB VRAM, high podbija poprzeczkę do około 4 GB VRAM, natomiast ultra wymaga ponad 5 GB VRAM - wszystko w rozdzielczości 1920x1080. Jak brakujące gigabajty wpływają na framerate doskonale pokazuje przypadek GeForce GTX 1060, gdzie wersja 6 GB jeszcze wystarcza do detali wysokich (high), podczas gdy model 3 GB wypada znacznie gorzej.
Skoro 1080p wymaga ponad 5GB, to chcesz mi powiedzieć, że 6GB wystarczy do 4K?
Na PPC z tego powodu nawet nie umieścili na wykresie (4K) RTX2060 jak i żadnej innej karty z 6GB. Tutaj nagle 6GB wystarczy ALE tylko dla jednej karty, bo wszystkie inne z 6GB spadają mocno na wykresie 4K, łącznie z 1660Ti.
Cudów nie ma. Troszkę wyższa przepustowość nie zrekompensuje braku pamięci.
A co do Vegi to akurat w tej grze zachowuje się bardzo poprawnie i przewidywalnie. Vega56 to złoty środek w tej grze
Wyniki bezsensu bo testowanie tej gry jest bezsensu. Biorąc pod uwagę że Snowdrop ma zmianę pogody/mgły przy presetach High i Ultra daje to wynik na FPS, musieliby zacząć test idealnie w momencie deszczu/słońca ewentualnie z mała ilością mgły i powtórzyć to samo otoczenie na wszystkich kartach... Nierealne. Lipton podsumował test Div2, jedyny test zrobiony na poważnie to benchmark, bo gra jest zbyt losowa jeśli chodzi o odczyty, co chciałem zauważyć w pierwszym komentarzu, ale widać PClol znowu ma rację
Czyli czas polować na Radeona VII, ale Vega 64 w sumie też piknie.
U siebie Ryzen 7 2700X + Radeon VII, wszystko na ultra 4K + 85% resolution scaling i mam srednio 55fps na nie podkreconej karcie, musze jeszcze sprawdzic na 1950Mhz OC ale itak z padem i Freesynch jest super 😊
Pad na Pc w strzekance
Dokładnie.
Więc dlaczego ciągle ustawiacie tam najwyższe możliwe detale?
To samo się tyczy 1440p.
Gdy widzę, że na takich rozdzielczościach, topowe karty (kosztujące chore pieniądze) najczęściej wymiękają na max detalach... niewiele to dla mnie znaczy.
Skoro wg was rozdzielczości 1440p i 4K są coraz popularniejsze, może warto już rozszerzyć testy o pozostałe ustawienia detali, w takich rozdzielczościach. Jeśli ludzie zobaczyliby jak radzi sobie karta za 1000-1500 zł w średnich detalach, byłoby to bardziej wartościowe, niż ironiczny śmiech patrząc jak karta za 6000 zł nie potrafi zapewnić płynności w 4K... i to przecież nie zmieni się jeszcze przez BARDZO DŁUGI CZAS, wliczając w to oczywiście kolejne generacje kart.
Portal który jako pierwszy wprowadzi kompleksowe testy w 1440p i 4K, wygra.
Test 1440p z http://www.pcgameshardware.de/Tom-Clancys-...Test-1277387/2/
Czym wyższa rozdzielczość to RTX 2070 bardziej odskakuję od gtx 1080. Być może niektóre miejscówki w The Division 2 są uczulone na przepustowość i dla tego takie wzrosty.
gtx 1080 przepustowość 320 GB/s
RTX 2070 448 GB/s
A no i do autorów testów, przydały by się testy w 4k na presecie High, coraz więcej ludzi gra w 4k, ale nie grają na ultra gdzie jest wiele opcji ubijających wydajność.
Pewnie dlatego 960 4GB czasami wypada lepiej albo tak samo jak 970 '3,5+0,5GB'
co w tym dziwnego? silne wątk iale jest ich tylko 4. czterordzeniwoe procesory umarły w mainstreamie wraz z pojawieniem się ryzenów 1600. kto tego nie roozumiał ten teraz ma po 50 kl/s a będzie jeszcze gorzej bo 6/12 dalej ma zapas mocy. teraz jest prime time dla mocnych 4/8 i 6/6.
I dla tego RX570 przegrywa z R9 380, choć ma tyle samo pamięci tylko, że szybszą(o mocniejszym GPU nie wspominając)?
Tak samo RTX2060 6GB wygrywa w 4K z GTX1070Ti 8GB, a Vega64 z 8GB znacznie szybszej pamięci nie zyskuje nad RTX2060?
Coś z waszym testem jest mocno nie tak. Nie wiem co, ale powinniście się nad tą sprawą pochylić, bo teraz to jest kompromitacja. Już druga w ostatnim czasie po wynikach RX570 w teście GTX1660. Tam zareagowaliście dość szybko. Mam nadzieję, że teraz też tak będzie.
co w tym dziwnego? silne wątk iale jest ich tylko 4. czterordzeniwoe procesory umarły w mainstreamie wraz z pojawieniem się ryzenów 1600. kto tego nie roozumiał ten teraz ma po 50 kl/s a będzie jeszcze gorzej bo 6/12 dalej ma zapas mocy. teraz jest prime time dla mocnych 4/8 i 6/6.
Ale 4/8 to nadal cztery rdzenie, tylko efektywniej wykorzystywane dzięki wielowątkowości
Sama przepustowość pamięci to dla RTX 2060 336 GB/s a dla 1070ti to 256 GB/s
Zobacz testy w 4k http://www.pcgameshardware.de/Tom-Clancys-...Test-1277387/2/
2060 również bardzo blisko gtx 1080 podobnie jak i na pclabie.
Vega z swoimi sterownikami i nierówną wydajnością to temat rzeka do analizy, raz działa tak a innym razem inaczej w zależności od miejsca testowego.
Bo w 4K 6GB to podobno zdecydowanie za mało:
Fragment podsumowania z PPC:
Skoro 1080p wymaga ponad 5GB, to chcesz mi powiedzieć, że 6GB wystarczy do 4K?
Na PPC z tego powodu nawet nie umieścili na wykresie (4K) RTX2060 jak i żadnej innej karty z 6GB. Tutaj nagle 6GB wystarczy ALE tylko dla jednej karty, bo wszystkie inne z 6GB spadają mocno na wykresie 4K, łącznie z 1660Ti.
Cudów nie ma. Troszkę wyższa przepustowość nie zrekompensuje braku pamięci.
A co do Vegi to akurat w tej grze zachowuje się bardzo poprawnie i przewidywalnie. Vega56 to złoty środek w tej grze