Jak wygląda wydajność łatki AMD na prockach Intela (tj. KB4073290) ?
U mnie wymagała uaktywnienia przez rejestr/program InSpectre, ale oprócz tego wszystko hula : https://i.imgur.com/QdbVv99.png
trzeba używać najnowszej wersji ocat(nieoficjalny najnowszy build dostępny na githubie)
Żadna wersja OCATa nie jest (i być może nie może być) wolna od niedokładności w mierzeniu czasu. PresentMon, OCAT i FCAT VR wszystkie korzystają z ETW i zakładają, że zarejestrowane przez ETW zdarzenia odpowiadają dokładnie zmianom na ekranie, które widzi gracz. To jest dobre przybliżenie (dlatego korzystam z Frapsa i OCATa w testach CPU), ale nie dość dobre, żeby używać go do analizy frametime (dlatego czasem korzystamy z przechwytywania i analizy obrazu).
Co do klatek - może poza średnim, minimalnym FPS, 1% i 0,1% najgorszego (o ile te kiedyś uda się jakoś zrobić) zrobicie jeszcze histogramy? Wiem, że w cholerę roboty przy kilku(nastu) kartach/procesorach i testach, ale daje pełny obraz sytuacji i wydajności karty - kiedyś podobno coś takiego robiliście
trzeba używać najnowszej wersji ocat(nieoficjalny najnowszy build dostępny na githubie)
Żadna wersja OCATa nie jest (i być może nie może być) wolna od niedokładności w mierzeniu czasu. PresentMon, OCAT i FCAT VR wszystkie korzystają z ETW i zakładają, że zarejestrowane przez ETW zdarzenia odpowiadają dokładnie zmianom na ekranie, które widzi gracz. To jest dobre przybliżenie (dlatego korzystam z Frapsa i OCATa w testach CPU), ale nie dość dobre, żeby używać go do analizy frametime (dlatego czasem korzystamy z przechwytywania i analizy obrazu).
Z góry sobie założyłeś, że presentmon nie jest dokładny. Jak nie ma możliwości ominięcia błędu lub tego nie potrafisz to przedstaw problem na githubie. Presentmon/Ocat to soft jak wiadomo on bywa zawodny i działa w różny sposób na różnych konfiguracjach. Ewidentne anomalie w frametime to widziałem w starszych wersjach presentmon.
tomcug @ 2018.02.03 17:19
sideband @ 2018.02.03 16:43
Po drugie trzeba używać najnowszej wersji ocat(nieoficjalny najnowszy build dostępny na githubie)
Chodzi Ci o 1.1.0.60? Bo ja używam 1.0.0, 1.0.1.43 się u mnie wywalała przy kliknięciu w przycisk Start .
Korzystanie ze starszych wersji ocat, które opartę na starszym presentmon powoduje, że pomiary są niedokładne(czasem wręcz niemożliwe) i nie wykonasz pomiarów na starszych systemach operacyjnych.
Co do wersji są dwie wersje z końcówką 60 i jeszcze nowsza z końcówką 65.
Proponowałbym, aby w przypadku testów 7-zip'em pojawiły się też testy dekompresji. Przeciętny użytkownik znacznie częściej wypakowuje pliki niż je kompresuje, a różnice w prędkości kompresji i dekompresji potrafią być znaczne pomiędzy różnymi architekturami.
Dodatkowo, w przypadku gier, przydałyby się histogramy, jak to było robione na łamach PCL kiedyś.
EDIT: I jeszcze jedno - przy testowaniu dyskó SSD proponowałbym zmienić platformę na AMD lub nie instalować łatek odnośnie meltdown i spectre. Inaczej testy mogą być obarczone nawet 40% błędem pomiaru....
Korzystanie ze starszych wersji ocat, które opartę na starszym presentmon powoduje, że pomiary są niedokładne(czasem wręcz niemożliwe)
Zauważyłem, dlatego się pytam . OCAT w wersji 1.0.0 potrafi mi przykładowo w RotTR zwracać wyniki ze sporym rozrzutem i raczej nie jest to wina niepowtarzalnego testu, bo FRAPS (mimo braku overlaya w DX 12) takich problemów nie ma przy tym samym przejściu.
Nie założyłem z góry, tylko zaobserwowałem w praktyce porównując zapisy z OCATa z nagraniem obrazu. Długo o tym nie wiedziałem - na przykład w zalinkowanym powyżej felietonie o testowaniu są obarczone tym błędem wyniki (co na szczęście nie ma wpływu na treść felietonu). Postaram się w wolnej chwili sprawdzić dev branch OCATa i przedstawić moje wcześniejsze obserwacje w jakimś mini-artykule.
Moje 3gr o czytanych stronach i prezentacji wyników.
Ludzie nie czytają wszystkich stron, bo to po prostu nudne. Ileś tam stron samych wykresów, a potem drugie tyle tego samego po podkręceniu i to dosłownie tego samego, bo wyniki bez podkręcenia też tam są.
Na 24 strony wspomnianych testów Ryzen-a są 4 z treścią do poczytania, reszta to wykresy, z czego połowa powtórzonych.
Proponuję przenieść stronę z podkręcaniem przed wyniki testów. Wykresy dać raz te co są po OC.
W kwestii uśrednionych wykresów. Może dodać na słupkach min i max? Np. w grach średni wynik X to 110% względem odniesienia, min 90% (w takim a takim programie/grze), max 140% (w takim, a takim programie/grze). Jeżeli będzie jakieś mocne odchylenie od średniej, to czytelnik może się zainteresować i wejdzie popatrzeć na dokładniejsze wyniki.
Zamiast min/max można spróbować na wykresie umieścić wyniki poszczególnych programów/gier, wtedy będzie widać jaki jest rozrzut i czy uśrednionego wyniku nie robi jedna pozycja.
Trzeba pokombinować z czymś nowym i ciekawym, żeby zachęcić do czytania.
Min i max na wykresach średniej to niezły pomysł, zobaczę jak by to wyglądało. Sam podział na tak dużo stron jest głównie historyczny i pewnie się zmieni w przyszłości, ale nie jestem na takiej pozycji, żeby cokolwiek obiecywać albo chociaż hintować
Niezależnie od luk Meltdown i Spectre, przestępca musi uruchomić złośliwy kod na komputerze ofiary. Można mu to zdecydowanie utrudnić, utwardzając system Windows za pomocą poniższego pakietu poprawek: https://github.com/securitywithoutborders/...ntools/releases
Edit: trzeba odznaczyć 'file associations'.
Edit2: i Windows Scripting Host, bo Edge i nowe menu Start Windows 10 bez tego nie działa.
Program jest napisany w Google Go, można go też skompilować ze źródeł.
Polecam także dodatki Ghostery i ScriptSafe do Chrome.
Korzystanie ze starszych wersji ocat, które opartę na starszym presentmon powoduje, że pomiary są niedokładne(czasem wręcz niemożliwe)
Zauważyłem, dlatego się pytam . OCAT w wersji 1.0.0 potrafi mi przykładowo w RotTR zwracać wyniki ze sporym rozrzutem i raczej nie jest to wina niepowtarzalnego testu, bo FRAPS (mimo braku overlaya w DX 12) takich problemów nie ma przy tym samym przejściu.
Ps. mam jeszcze nowszą wersje 88 zapomniałem , że takiej używam. Jak nie znajdziesz to Ci wyśle pisz na pw.
mbrzostek @ 2018.02.03 18:44
Nie założyłem z góry, tylko zaobserwowałem w praktyce porównując zapisy z OCATa z nagraniem obrazu. Długo o tym nie wiedziałem - na przykład w zalinkowanym powyżej felietonie o testowaniu są obarczone tym błędem wyniki (co na szczęście nie ma wpływu na treść felietonu). Postaram się w wolnej chwili sprawdzić dev branch OCATa i przedstawić moje wcześniejsze obserwacje w jakimś mini-artykule.
Też byłem negatywnie nastawiony do ocat-a, ponieważ widziałem anomalie w wynikach na wykresie frametime były duże skoki, które nie miały miejsca. W starszych API OCAT też wypluwał anormalne wyniki. Ale to wszystko zmieniało się w czasie. W momencie kiedy MS grzebie przy DXGI też mogą dziać się cyrki i anomalie mogą pojawiać na nowszych buildach Win10. Tutaj wychodzi przewaga FCATA, który działa zawsze pewnie i nie trzeba czekać na ewentualny poprawki do softu lub szukać na własną rękę rozwiązania problemu.
Nie powinniście oczekiwać, że każdy przeczyta cały artykuł. Co mnie obchodzą na przykład testy procesora w grze, w którą nie gram lub w programie, którego nie używam? Właśnie po to są mi potrzebne średnie podsumowania, by sobie wyrobić ogólną opinię o potencjalnych możliwościach sprzętu w zastosowaniach, które na teraz mi nie są potrzebne. Zastosowania potrzebne mi osobiście sobie przeklikam. Inne to dla mnie ciekawostka.
Nawet po aktualizacji we wpisie dalej są istotne błędy. Tak jak kolega pisał wyżej, poprawki mikrokodu nie mają żadnego związku z Meltdown. Tak samo poprawka KB4056892 (i pochodne) nie ma związku wyłącznie ze Spectre, ale także z Meltdown. Tu jest wszystko fajnie opisane:
Dokładnie tak. Aktualizacja mikrokodu przez UEFI dotyczy tylko luki Spectre. Meltdown to błąd w architekturze, ma charakter sprzętowy, dotyczy wyłącznie procesorów Intela (od Skylake w górę) i nie da się go usunąć aktualizacją mikrokodu przez UEFI, jedynie próbować softowego łatania (przez aktualizację systemu operacyjnego). Taka próba została podjęta i zakończyła się wycofaniem łatki przez Microsoft, ze względu na problemy z działaniem Windowsa i spadki wydajności.
Makavcio2 @ 2018.02.04 00:55
Nie powinniście oczekiwać, że każdy przeczyta cały artykuł. Co mnie obchodzą na przykład testy procesora w grze, w którą nie gram lub w programie, którego nie używam? Właśnie po to są mi potrzebne średnie podsumowania, by sobie wyrobić ogólną opinię o potencjalnych możliwościach sprzętu w zastosowaniach, które na teraz mi nie są potrzebne. Zastosowania potrzebne mi osobiście sobie przeklikam. Inne to dla mnie ciekawostka.
Zgadzam się. Uśrednione wartości pozwalają na szybką, ogólną ocenę możliwości sprzętu, bez konieczności zagłębiania się w część testów np. dotyczących zastosowań profesjonalnych.
Taka próba została podjęta i zakończyła się wycofaniem łatki przez Microsoft, ze względu na problemy z działaniem Windowsa i spadki wydajności.
Mogę się mylić, ale wycofano nie ochronę przed Meltdown, a Spectre v2 - nawet jeśli w komputerze jest BIOS z poprawką mikrokodu.
Tak, zgadza się - to chodziło o Spectre V2 po aktualizacji mikrokodu.
EDIT: Dodam ciekawostkę, że po wgraniu najnowszego mikrokodu AGESA 1.0.0.0a od AMD do swojej płyty (GA-AB350 Gaming 3) nadal nie ma w nim obsługi IBRS, czyli tego co na Intelu wprowadza tyle problemów w przypadku Spectre V2. Wynika z tego, że faktycznie tego typu rozwiązanie w procesorach AMD jest opcjonalne i nie jest wprowadzane przez producentów sprzętu.
Zmiany można odczuć głównie w grach z silnym DRM (AC Origins) albo robiących dużo dostępów do dysku (Witcher3). Czas ładowania gier na NVMe SSD może się wydłużyć ale raczej nieznacznie + nie sprawdzałem tego więc to tylko teoria (tzn spadek na pewno jest, pytanie czy zauważalny).
Spadek wydajności w grach jest raczej tylko w mocno CPU-bound grach albo ustawieniach CPU-bound (niska jakość + niska rozdzielczość, dużo fps, czyli i tak spadku kilku FPS nie zauważymy) albo w lokacjach CPU-bound. W teście bardzo wyczulonym na CPU (=nierealistycznym) zauważymy max -10% fps.
Odnośnie spadku wydajności w grach wynikającego z łatek na Meltdown i Spectre, to odczuwać się je będzie głównie w tych momentach:
1. Ładowanie gry/ doczytywanie levelu
2. Granie w przypadku niewystarczającej ilości RAM - ze względu na częste użycie pliku stronicowania, spowolnienie będzie o wiele wyższe, niż wynikałoby to tylko z faktu za małej ilości pamięci RAM.
3. Jeśli w tle odpali się coś, co generuje dużo żądań do kernela - na przykład antywirus, synchronizacja plików z chmurą, itp.
4. Rozgrywki multiplayer - ze względu na bardzo dużo odwołań do karty sieciowej.
W czystym singlu, przy wystarczającej ilości RAM oraz bez jakiś procesów obciążających w tle, nie powinno być zbyt dużej różnicy w wydajności.
Niestety na recenzjach raczej tego nie zauważymy, gdyż testy robione są w takich warunkach, które w większości wykluczają powyższe scenariusze (czyli single player, dużo pamięci RAM, zero procesów w tle).
minimalny fps jest bezużyteczny bez 0.1% i 1%. mam nadzieje że uda wasm sie jakoś to pogodzić. jednorazowy mocny drop znaczy znacznie mniej niż regularne spadki w okolice jakiejś wartości
Nite mogą tego robić, bo amd odmówi wysyłania sampli.
Min i max na wykresach średniej to niezły pomysł, zobaczę jak by to wyglądało. Sam podział na tak dużo stron jest głównie historyczny i pewnie się zmieni w przyszłości, ale nie jestem na takiej pozycji, żeby cokolwiek obiecywać albo chociaż hintować
Ma to sens jeśli zrobicie tabelki z możliwością filtrowania wyników, tak to będzie raczej nieczytelnie co już widac po niektórych wykresach gdzie są średnie wartości wraz z 0.1% i 1% min.
U mnie wymagała uaktywnienia przez rejestr/program InSpectre, ale oprócz tego wszystko hula :
https://i.imgur.com/QdbVv99.png
Żadna wersja OCATa nie jest (i być może nie może być) wolna od niedokładności w mierzeniu czasu. PresentMon, OCAT i FCAT VR wszystkie korzystają z ETW i zakładają, że zarejestrowane przez ETW zdarzenia odpowiadają dokładnie zmianom na ekranie, które widzi gracz. To jest dobre przybliżenie (dlatego korzystam z Frapsa i OCATa w testach CPU), ale nie dość dobre, żeby używać go do analizy frametime (dlatego czasem korzystamy z przechwytywania i analizy obrazu).
Chodzi Ci o 1.1.0.60? Bo ja używam 1.0.0, 1.0.1.43 się u mnie wywalała przy kliknięciu w przycisk Start
Żadna wersja OCATa nie jest (i być może nie może być) wolna od niedokładności w mierzeniu czasu. PresentMon, OCAT i FCAT VR wszystkie korzystają z ETW i zakładają, że zarejestrowane przez ETW zdarzenia odpowiadają dokładnie zmianom na ekranie, które widzi gracz. To jest dobre przybliżenie (dlatego korzystam z Frapsa i OCATa w testach CPU), ale nie dość dobre, żeby używać go do analizy frametime (dlatego czasem korzystamy z przechwytywania i analizy obrazu).
Z góry sobie założyłeś, że presentmon nie jest dokładny. Jak nie ma możliwości ominięcia błędu lub tego nie potrafisz to przedstaw problem na githubie. Presentmon/Ocat to soft jak wiadomo on bywa zawodny i działa w różny sposób na różnych konfiguracjach. Ewidentne anomalie w frametime to widziałem w starszych wersjach presentmon.
Chodzi Ci o 1.1.0.60? Bo ja używam 1.0.0, 1.0.1.43 się u mnie wywalała przy kliknięciu w przycisk Start
Korzystanie ze starszych wersji ocat, które opartę na starszym presentmon powoduje, że pomiary są niedokładne(czasem wręcz niemożliwe) i nie wykonasz pomiarów na starszych systemach operacyjnych.
Co do wersji są dwie wersje z końcówką 60 i jeszcze nowsza z końcówką 65.
Dodatkowo, w przypadku gier, przydałyby się histogramy, jak to było robione na łamach PCL kiedyś.
EDIT: I jeszcze jedno - przy testowaniu dyskó SSD proponowałbym zmienić platformę na AMD lub nie instalować łatek odnośnie meltdown i spectre. Inaczej testy mogą być obarczone nawet 40% błędem pomiaru....
Zauważyłem, dlatego się pytam
Ludzie nie czytają wszystkich stron, bo to po prostu nudne. Ileś tam stron samych wykresów, a potem drugie tyle tego samego po podkręceniu i to dosłownie tego samego, bo wyniki bez podkręcenia też tam są.
Na 24 strony wspomnianych testów Ryzen-a są 4 z treścią do poczytania, reszta to wykresy, z czego połowa powtórzonych.
Proponuję przenieść stronę z podkręcaniem przed wyniki testów. Wykresy dać raz te co są po OC.
W kwestii uśrednionych wykresów. Może dodać na słupkach min i max? Np. w grach średni wynik X to 110% względem odniesienia, min 90% (w takim a takim programie/grze), max 140% (w takim, a takim programie/grze). Jeżeli będzie jakieś mocne odchylenie od średniej, to czytelnik może się zainteresować i wejdzie popatrzeć na dokładniejsze wyniki.
Zamiast min/max można spróbować na wykresie umieścić wyniki poszczególnych programów/gier, wtedy będzie widać jaki jest rozrzut i czy uśrednionego wyniku nie robi jedna pozycja.
Trzeba pokombinować z czymś nowym i ciekawym, żeby zachęcić do czytania.
https://github.com/securitywithoutborders/...ntools/releases
Edit: trzeba odznaczyć 'file associations'.
Edit2: i Windows Scripting Host, bo Edge i nowe menu Start Windows 10 bez tego nie działa.
Program jest napisany w Google Go, można go też skompilować ze źródeł.
Polecam także dodatki Ghostery i ScriptSafe do Chrome.
Zauważyłem, dlatego się pytam
Ps. mam jeszcze nowszą wersje 88 zapomniałem , że takiej używam. Jak nie znajdziesz to Ci wyśle pisz na pw.
Też byłem negatywnie nastawiony do ocat-a, ponieważ widziałem anomalie w wynikach na wykresie frametime były duże skoki, które nie miały miejsca. W starszych API OCAT też wypluwał anormalne wyniki. Ale to wszystko zmieniało się w czasie. W momencie kiedy MS grzebie przy DXGI też mogą dziać się cyrki i anomalie mogą pojawiać na nowszych buildach Win10. Tutaj wychodzi przewaga FCATA, który działa zawsze pewnie i nie trzeba czekać na ewentualny poprawki do softu lub szukać na własną rękę rozwiązania problemu.
https://arstechnica.com/gadgets/2018/01/he...rt-performance/
Zgadzam się. Uśrednione wartości pozwalają na szybką, ogólną ocenę możliwości sprzętu, bez konieczności zagłębiania się w część testów np. dotyczących zastosowań profesjonalnych.
Mogę się mylić, ale wycofano nie ochronę przed Meltdown, a Spectre v2 - nawet jeśli w komputerze jest BIOS z poprawką mikrokodu.
EDIT:
Więcej minusów poproszę
Mogę się mylić, ale wycofano nie ochronę przed Meltdown, a Spectre v2 - nawet jeśli w komputerze jest BIOS z poprawką mikrokodu.
Tak, zgadza się - to chodziło o Spectre V2 po aktualizacji mikrokodu.
EDIT: Dodam ciekawostkę, że po wgraniu najnowszego mikrokodu AGESA 1.0.0.0a od AMD do swojej płyty (GA-AB350 Gaming 3) nadal nie ma w nim obsługi IBRS, czyli tego co na Intelu wprowadza tyle problemów w przypadku Spectre V2. Wynika z tego, że faktycznie tego typu rozwiązanie w procesorach AMD jest opcjonalne i nie jest wprowadzane przez producentów sprzętu.
Zmiany można odczuć głównie w grach z silnym DRM (AC Origins) albo robiących dużo dostępów do dysku (Witcher3). Czas ładowania gier na NVMe SSD może się wydłużyć ale raczej nieznacznie + nie sprawdzałem tego więc to tylko teoria (tzn spadek na pewno jest, pytanie czy zauważalny).
Spadek wydajności w grach jest raczej tylko w mocno CPU-bound grach albo ustawieniach CPU-bound (niska jakość + niska rozdzielczość, dużo fps, czyli i tak spadku kilku FPS nie zauważymy) albo w lokacjach CPU-bound. W teście bardzo wyczulonym na CPU (=nierealistycznym) zauważymy max -10% fps.
Odnośnie spadku wydajności w grach wynikającego z łatek na Meltdown i Spectre, to odczuwać się je będzie głównie w tych momentach:
1. Ładowanie gry/ doczytywanie levelu
2. Granie w przypadku niewystarczającej ilości RAM - ze względu na częste użycie pliku stronicowania, spowolnienie będzie o wiele wyższe, niż wynikałoby to tylko z faktu za małej ilości pamięci RAM.
3. Jeśli w tle odpali się coś, co generuje dużo żądań do kernela - na przykład antywirus, synchronizacja plików z chmurą, itp.
4. Rozgrywki multiplayer - ze względu na bardzo dużo odwołań do karty sieciowej.
W czystym singlu, przy wystarczającej ilości RAM oraz bez jakiś procesów obciążających w tle, nie powinno być zbyt dużej różnicy w wydajności.
Niestety na recenzjach raczej tego nie zauważymy, gdyż testy robione są w takich warunkach, które w większości wykluczają powyższe scenariusze (czyli single player, dużo pamięci RAM, zero procesów w tle).
Nite mogą tego robić, bo amd odmówi wysyłania sampli.
Ma to sens jeśli zrobicie tabelki z możliwością filtrowania wyników, tak to będzie raczej nieczytelnie co już widac po niektórych wykresach gdzie są średnie wartości wraz z 0.1% i 1% min.
Imho lepszą informacją niż max fps była by ilość czasu sprzędzona poniżej 60 i 30fps jak ma to miejsce w tech report https://techreport.com/review/32863/intel-...-cpu-reviewed/7 na samym dole.