Skoro pokusiliście się o te dodatkowe wykresy zajętości rdzeni, to w takiej grze jak ta (z 'problemami' na procach z 8c/16t AMD) przydałoby się jeszcze dodatkowo przetestować ją na Ryzenie 8c/16t ale z następującym przydziałem (koligacja/affinity) wątków/rdzeni do gry:
gdzie: 1 - wątek/rdzeń przydzielony grze, x - nieprzydzielony.
Czyli będzie to takie zasymulowanie (bez wchodzenia do BIOSu i restartów) wyłączenia HT i wyłączenia rdzeni 4-7 (czyli całego CCX #2) dla tylko tej konkretnej aplikacji (gry), co nie na każdej płycie da się zrobić z poziomu BIOS (a jak da, to tylko dla całego systemu, a nie dla wybranej aplikacji/gry).
Być może będzie to lekarstwem na jej zachowanie na Ryzenie 8c/16t, a być może nie - będzie wtedy można również wyciągnąć dodatkowe wnioski na temat optymalizacji gry (pod daną architekturę CPU, czy pod wielowątkowość).
Ale z drugiej strony średnie 200 klatek na sekundę i minimalne 170 klatek na sekundę na Ryzenie 8c/16t może zniechęcać do dalszych testów i optymalizacji: po co komu więcej niż 200 kl//s?
Pozostaje jednak dyskomfort psychiczny (ale ja go nie mam ) patrząc na wykres wydajności CPU .
PS. Jeżeli już ręcznie (lub automatycznie poprzez np. Process Lasso) przydzielamy 4 wątki do gry na Ryzenach 8c/16t to najlepiej przydzielić je oczywiście w ramach jednego CCX (pierwszego - 4 parzyste lub 4 nieparzyste wątki od 0. do 7. lub drugiego - 4 parzyste lub 4 nieparzyste wątki od 8. do 15.)
PS2. Oczywiście dla równowagi (i z ciekawości) można by również na i7-6700K 4c/8t przydzielić grę tylko do 4 fizycznych rdzeni (parzystych lub nieparzystych wątków), czyli w sumie na nim byłoby to akurat takie zasymulowanie wyłączenia HT bez niepotrzebnego grzebania w BIOSie i restartów.
I to jest właśnie problem AMD - niski udział w rynku + gra spoza głównego nurtu = developerzy mają w dupie optymalizacje pod ich produkty. Muszą blisko współpracować ze studiami albo samemu dorzucać łatki do każdej produkcji.
Niestety, większość wątków procesorów Ryzen jest nieużywana – są całkowicie bezczynne. Na wykresie można wyróżnić 6 pracujących rdzeni i 12, które są w zasadzie niewykorzystywane. Może warto poczekać na nowe łatki, które usuną ten problem.
Zazdroszczę twórcom wolnego czasu, jeśli faktycznie zdecydują się zająć tym 'problemem' przy ponad 170 min. fps
Jak zwykle AMD w czarnej dupie. Ale czego można się spodziewać od firmy, która nie robi nic by nawiązać współpracę z deweloperami i wydawcami gier. Jak im jeszcze Vega nie wyjdzie to Nvidia wykupi ich za bezcen, tak jak to zrobiła z 3DFX-em.
I tak powinien wyglądać każdy test gier, wykres z wykorzystaniem rdzeni /wątków świetny.
Jakie ma to znaczenie jeśli masz wynik tego wykorzystania w postaci FPSu na procesorach np. Ryzen 5,6,7. To jest prawdziwy wyznacznik stopnia wykorzystania. Oczywiście znów zabrakło tych procesorów.
Gra składa z tak wielu mikrooperacji, że programy po prostu nie uchwycą tego tak dokładnie inaczej same by stanowiły obciążenie i wypaczały wynik.
Dużo bardziej potrzebny jest wykres FPSu w czasie - taki jaki był przy testach FCATem...
Tak proszę co jakiś czas. Mamy monitory 120Hz, sic mamy 144Hz...
Czy naprawdę wykresy kart graficznych muszą się kończyć na 80FPSach?
Raz polecacie monitory z wysoką częstotliwością do gier, zachwycacie się i bronicie ich (słusznie), lecz innym razem gdy już macie fizycznie tą grę to nie testujecie kart graficznych, by osiągnąć ten FPS.
DaviM @ 2017.06.28 09:03
Skoro pokusiliście się o te dodatkowe wykresy zajętości rdzeni, to w takiej grze jak ta (z 'problemami' na procach z 8c/16t AMD) przydałoby się jeszcze dodatkowo przetestować ją na Ryzenie 8c/16t ale z następującym przydziałem (koligacja/affinity) rdzeni do gry:
gdzie: 1 - rdzeń/wątek przydzielony grze, x - nieprzydzielony.
Być może będzie to lekarstwem na jej zachowanie na Ryzenie 8c/16t, a być może nie - będzie wtedy można również wyciągnąć dodatkowe wnioski na temat optymalizacji gry (pod daną architekturę CPU, czy pod wielowątkowość).
Ale z drugiej strony średnie 200 klatek na sekundę i minimalne 170 klatek na sekundę na Ryzenie 8c/16t może zniechęcać do dalszych testów i optymalizacji: po co komu więcej niż 200 kl//s?
Pozostaje jednak dyskomfort psychiczny (ale ja go nie mam ) patrząc na wykres wydajności CPU .
PS. Jeżeli już ręcznie (lub automatycznie poprzez np. Process Lasso) przydzielamy wątki do gry na Ryzenach 8c/16t to najlepiej przydzielić je oczywiście w ramach jednego CCX (pierwszego - parzyste lub nieparzyste wątki od 0 do 7 lub drugiego - parzyste lub nieparzyste wątki od 8 do 15)
PS2. Oczywiście dla równowagi (i z ciekawości) można by również na i7-6700K 4c/8t przydzielić grę tylko do 4 fizycznych rdzeni (parzystych lub nieparzystych wątków), czyli w sumie na nim byłoby to akurat takie zasymulowanie wyłączenia HT bez niepotrzebnego grzebania w BIOSie i restartów.
Jak już to tak i tak. Napisz maskę to wystarczy plik bat by otworzyć.
Z tego co widzę to gdy jedna aplikacja mimo windowsa i jego przeucania wątkami; to na Intelu ma to mierne znaczenie, a na AMD tak było w FX-ach i tak jest w Ryzenach.
Kolejne wersje poprawek jednak wydało mi się ten problem rozwiązały.
Jaja się robią gdy masz otwarte masę rzeczy. Wtedy np. ja porządkuję względem SMT
Kop w dupę dla developerów za 100% optymalizacji pod Intela.
Nie tyle za optymalizację pod Intela, tylko brak optymalizacji. Pod Intela można napisać kod byle jak i efekt będzie co najmniej przyzwoity. Pod AMD jest z tym słabiej, bo:
a) wyjdzie, że pojedynczy wątek jest jednak słabszy,
b) możliwe, że rozkład wątków ułoży dwa główne wątki w jeden rdzeń sprzętowy.
Dlatego optymalizacja pod AMD może dać kolosalne efekty vide ostatni patch do RoTR.
PS. Oczywiście za brak odpowiedniej optymalizacji należy się odpowiedni 'kop' .
Już widzę jak małe studio będzie se zawracać dupę niszowymi rozwiązaniami sprzętowymi. Musieli by być nierozsądni niemalże tak samo jak ci, co kupili Ryzena do grania.
To nie jest przypadkiem ta gra, o której swego czasu było głośno, że wykorzystują jakieś laserowe skanowanie pomieszczeń? Coś tak mi się kojarzy po tym pomieszczeniu z graffiti - we wszystkich artykułach było coś podobnego
No i wreszcie 60fps na bardzo wysokich przy GTX960 - chyba kupię tę grę
To nie jest przypadkiem ta gra, o której swego czasu było głośno, że wykorzystują jakieś laserowe skanowanie pomieszczeń? Coś tak mi się kojarzy po tym pomieszczeniu z graffiti - we wszystkich artykułach było coś podobnego
No i wreszcie 60fps na bardzo wysokich przy GTX960 - chyba kupię tę grę
Tak wypuścili teaser lata temu, który miał bodaj parę mlnów odsłon...
...
Potem kolejne o jedne zero mniej
Ale gra i tak wydaje się ciekawa. Z jednej strony mamy SGW3, które ogólnie jak na klasy grę A (nie AAA) wygląda dość nieźle ale ogromne zapotrzebowanie na moc + oklepana fabuła/schemat z drugiej Get Even... słabsza grafika, mniejsze zapotrzebowanie, nieoklepany schemat, dźwięk, dźwięk!
W oryginale byli aktorzy
Kenjiro @ 2017.06.28 10:27
czolgista778 @ 2017.06.28 10:06
Kop w dupę dla developerów za 100% optymalizacji pod Intela.
Nie tyle za optymalizację pod Intela, tylko brak optymalizacji. Pod Intela można napisać kod byle jak i efekt będzie co najmniej przyzwoity. Pod AMD jest z tym słabiej, bo:
a) wyjdzie, że pojedynczy wątek jest jednak słabszy,
b) możliwe, że rozkład wątków ułoży dwa główne wątki w jeden rdzeń sprzętowy.
Dlatego optymalizacja pod AMD może dać kolosalne efekty vide ostatni patch do RoTR.
PS. Oczywiście za brak odpowiedniej optymalizacji należy się odpowiedni 'kop' .
Ja rozumiem, że fajnie... tylko robiąc tak AMD oleje sprawę i będzie przerzucało winę na wszystkich. Nigdy nie naprawi problemu, a przecież to samo było w FX 8150 i przez lata mogli to zrobić. Podobne problemy były u Intela rzecz jasna. Czasem są... Tylko dokładnie jak piszesz zawsze działa jako tako...
To zadaniem OS-u i procesora jest tak porządkowanie zadań by było optymalne.
...0.......1.......2.......3.................4.......5.......6.......7 (rdzenie)
00.01.02.03.04.05.06.07..........08.09.10.11.12.13.14.15 (wątki)
.x...1...x...1..x...1...x...1............x...x...x...x...x...x...x...x (przydział/koligacja/affinity)
gdzie: 1 - wątek/rdzeń przydzielony grze, x - nieprzydzielony.
Czyli będzie to takie zasymulowanie (bez wchodzenia do BIOSu i restartów) wyłączenia HT i wyłączenia rdzeni 4-7 (czyli całego CCX #2) dla tylko tej konkretnej aplikacji (gry), co nie na każdej płycie da się zrobić z poziomu BIOS (a jak da, to tylko dla całego systemu, a nie dla wybranej aplikacji/gry).
Być może będzie to lekarstwem na jej zachowanie na Ryzenie 8c/16t, a być może nie - będzie wtedy można również wyciągnąć dodatkowe wnioski na temat optymalizacji gry (pod daną architekturę CPU, czy pod wielowątkowość).
Ale z drugiej strony średnie 200 klatek na sekundę i minimalne 170 klatek na sekundę na Ryzenie 8c/16t może zniechęcać do dalszych testów i optymalizacji: po co komu więcej niż 200 kl//s?
Pozostaje jednak dyskomfort psychiczny (ale ja go nie mam
PS. Jeżeli już ręcznie (lub automatycznie poprzez np. Process Lasso) przydzielamy 4 wątki do gry na Ryzenach 8c/16t to najlepiej przydzielić je oczywiście w ramach jednego CCX (pierwszego - 4 parzyste lub 4 nieparzyste wątki od 0. do 7. lub drugiego - 4 parzyste lub 4 nieparzyste wątki od 8. do 15.)
PS2. Oczywiście dla równowagi (i z ciekawości) można by również na i7-6700K 4c/8t przydzielić grę tylko do 4 fizycznych rdzeni (parzystych lub nieparzystych wątków), czyli w sumie na nim byłoby to akurat takie zasymulowanie wyłączenia HT bez niepotrzebnego grzebania w BIOSie i restartów.
Zazdroszczę twórcom wolnego czasu, jeśli faktycznie zdecydują się zająć tym 'problemem' przy ponad 170 min. fps
Jakie ma to znaczenie jeśli masz wynik tego wykorzystania w postaci FPSu na procesorach np. Ryzen 5,6,7. To jest prawdziwy wyznacznik stopnia wykorzystania. Oczywiście znów zabrakło tych procesorów.
Gra składa z tak wielu mikrooperacji, że programy po prostu nie uchwycą tego tak dokładnie inaczej same by stanowiły obciążenie i wypaczały wynik.
Dużo bardziej potrzebny jest wykres FPSu w czasie - taki jaki był przy testach FCATem...
Tak proszę co jakiś czas. Mamy monitory 120Hz, sic mamy 144Hz...
Czy naprawdę wykresy kart graficznych muszą się kończyć na 80FPSach?
Raz polecacie monitory z wysoką częstotliwością do gier, zachwycacie się i bronicie ich (słusznie), lecz innym razem gdy już macie fizycznie tą grę to nie testujecie kart graficznych, by osiągnąć ten FPS.
00.01.02.03.04.05.06.07..........08.09.10.11.12.13.14.15
.x...1...x...1..x...1...x...1............x...x...x...x...x...x...x...x
gdzie: 1 - rdzeń/wątek przydzielony grze, x - nieprzydzielony.
Być może będzie to lekarstwem na jej zachowanie na Ryzenie 8c/16t, a być może nie - będzie wtedy można również wyciągnąć dodatkowe wnioski na temat optymalizacji gry (pod daną architekturę CPU, czy pod wielowątkowość).
Ale z drugiej strony średnie 200 klatek na sekundę i minimalne 170 klatek na sekundę na Ryzenie 8c/16t może zniechęcać do dalszych testów i optymalizacji: po co komu więcej niż 200 kl//s?
Pozostaje jednak dyskomfort psychiczny (ale ja go nie mam
PS. Jeżeli już ręcznie (lub automatycznie poprzez np. Process Lasso) przydzielamy wątki do gry na Ryzenach 8c/16t to najlepiej przydzielić je oczywiście w ramach jednego CCX (pierwszego - parzyste lub nieparzyste wątki od 0 do 7 lub drugiego - parzyste lub nieparzyste wątki od 8 do 15)
PS2. Oczywiście dla równowagi (i z ciekawości) można by również na i7-6700K 4c/8t przydzielić grę tylko do 4 fizycznych rdzeni (parzystych lub nieparzystych wątków), czyli w sumie na nim byłoby to akurat takie zasymulowanie wyłączenia HT bez niepotrzebnego grzebania w BIOSie i restartów.
Jak już to tak i tak. Napisz maskę to wystarczy plik bat by otworzyć.
Z tego co widzę to gdy jedna aplikacja mimo windowsa i jego przeucania wątkami; to na Intelu ma to mierne znaczenie, a na AMD tak było w FX-ach i tak jest w Ryzenach.
Kolejne wersje poprawek jednak wydało mi się ten problem rozwiązały.
Jaja się robią gdy masz otwarte masę rzeczy. Wtedy np. ja porządkuję względem SMT
Nie tyle za optymalizację pod Intela, tylko brak optymalizacji. Pod Intela można napisać kod byle jak i efekt będzie co najmniej przyzwoity. Pod AMD jest z tym słabiej, bo:
a) wyjdzie, że pojedynczy wątek jest jednak słabszy,
b) możliwe, że rozkład wątków ułoży dwa główne wątki w jeden rdzeń sprzętowy.
Dlatego optymalizacja pod AMD może dać kolosalne efekty vide ostatni patch do RoTR.
PS. Oczywiście za brak odpowiedniej optymalizacji należy się odpowiedni 'kop'
No i wreszcie 60fps na bardzo wysokich przy GTX960 - chyba kupię tę grę
No i wreszcie 60fps na bardzo wysokich przy GTX960 - chyba kupię tę grę
Tak wypuścili teaser lata temu, który miał bodaj parę mlnów odsłon...
...
Potem kolejne o jedne zero mniej
Ale gra i tak wydaje się ciekawa. Z jednej strony mamy SGW3, które ogólnie jak na klasy grę A (nie AAA) wygląda dość nieźle ale ogromne zapotrzebowanie na moc + oklepana fabuła/schemat z drugiej Get Even... słabsza grafika, mniejsze zapotrzebowanie, nieoklepany schemat, dźwięk, dźwięk!
W oryginale byli aktorzy
Nie tyle za optymalizację pod Intela, tylko brak optymalizacji. Pod Intela można napisać kod byle jak i efekt będzie co najmniej przyzwoity. Pod AMD jest z tym słabiej, bo:
a) wyjdzie, że pojedynczy wątek jest jednak słabszy,
b) możliwe, że rozkład wątków ułoży dwa główne wątki w jeden rdzeń sprzętowy.
Dlatego optymalizacja pod AMD może dać kolosalne efekty vide ostatni patch do RoTR.
PS. Oczywiście za brak odpowiedniej optymalizacji należy się odpowiedni 'kop'
Ja rozumiem, że fajnie... tylko robiąc tak AMD oleje sprawę i będzie przerzucało winę na wszystkich. Nigdy nie naprawi problemu, a przecież to samo było w FX 8150 i przez lata mogli to zrobić. Podobne problemy były u Intela rzecz jasna. Czasem są... Tylko dokładnie jak piszesz zawsze działa jako tako...
To zadaniem OS-u i procesora jest tak porządkowanie zadań by było optymalne.
To samo w TV do premiery GOT
Ale, TRZEBA TO ZAPISAĆ, w końcu wykresy obciążenia rdzeni w czasie! Oby było tego więcej, najlepiej w każdym teście gier.
Jak na dłoni widać, że na ryzenie ewidentnie coś nie działa, 2 rdzenie maks plus trzeci, ale tak sobie używany.