Jedni gadają o obciążeniu CPU w czasie generowania pojedynczej klatki a drudzy gadają o łącznym obciążeniu CPU podczas generowania kilku klatek w czasie sekundy. Nigdy się nie dogadacie.
Znaczy się wiecie uruchamianie systemów operacyjnych na procesorach x86 to nie jest tak jak programowanie 8051. System operacyjny przełącza sobie procesy, samo przełączenie kontekstu itd. zabiera cykle, ale przecież mamy w prockach przetwarzanie potokowe itp. Zejdźmy niżej do assemblera, jedna instrukcja zabiera 1 cykl a inna nawet i 4. To nie jest takie hop siup jak się nie którym wydaje. Tak jak koleś mierzył pobór prądu rdzenia ARM M-4 z fpu i bez i był w szoku jak to możliwe że włączenie FPU pozwala na zmniejszenie poboru prądu.
Wpisami z bloga się nie dowiecie o podstawach systemów operacyjnych, w blogu to można sobie opisać jakiś fajny fragment.
O rozdzielczości nic nie pisałem w tej chwili , cały czas rozpatrujesz obciążenie cpu z poziomu aplikacji i tutaj nic się nie zmieni , ale skoro wydłuża się przerwa w działaniu cpu to logiczne jest , że cpu jest mniej zajęty i to co pokazuje menedżer zadań nie jest głupotą.
Myślałem, że rozmawiamy na rozsądny temat, a nie na bezsensowne wskazania menadżera zadań, który w żadnym wypadku nie pokazuje jak program obciąża CPU... pokazuje jedynie, że dany scheduler, z danego systemu operacyjnego uznał, że program wymaga przyznania mu tyle i tyle czasu procesora (program może nic nie robić (lub robić, ale tylko na intach, zależnych od siebie przez co wykorzysta maksymalnie 1/20 (superskalarność i SIMD nie są wykorzystywane) mocy procesora (i prądu)), a scheduler mu może przyznać nawet 100%). To co pokazuje menadzer zadań JEST głupotą i nie świadczy o niczym poza jakością schedulera i tego jak przyznaje czas procesora poszczególnym zadaniom.
Pokaż to ....
... nie pokażesz, bo te narzędzia wyparowały. łapiesz za słówka. Nie możemy sprawdzić obciążenia CPU/klatkę w BF4... Dlatego posługujemy się czasem procesora w jednostce czasu jaki podaje windows, a ten powinien spaść.
Możesz sprawdzić debuggerem DX i zobaczyć, ze zmiana rozdzielczości czy dodanie interwału nic nie zmienia czasu spędzonego na renderowaniu klatki.
SunTzu @ 2014.02.04 08:38
Jak mamy być tak szczegółowi. To nawet w swoim silniku nam nie udowodnisz jakie jest obciążenie ponieważ nie sprawdzisz jakie jest faktyczne obciążenie procesora, a jedynie czas procesora nad zadaniem.
Nawet nie w swoim silniku możesz zobaczyć dokładnie na performance counterach faktyczne obciążenie procesora.
SunTzu @ 2014.02.04 08:38
EDIT:
Załóżmy, że by wygenerować klatkę masz obciążony procesor w DX w 15% przez 15ms vs 100% mantle przez 2,5ms, obciążenie w obu przypadkach jest prawie takie same, ale czas procesora krótszy w mantle i manager zadań poda w przypadku DX wyższy procent.
Nie jest to prawdą jeśli aktualizacja jest co 15ms counterka (tak na przykład, bo raczej 500ms ;p (pół sekundy)) w systemie to mantle pokaże 17%... jeśli co 7,5ms to pokaże w jednym przedziale 33%, a w kolejnym 0% (a w DX w obu 15%)
sideband @ 2014.02.04 18:09
Zetniesz fps spadnie pobór mocy i temperatury cpu , samo obciążenia może nie spaść , ale procesor przelicza mniej w danej jednostce czasu i to można przełożyć na realne niższe obciążenie cpu.
Jeśli weźmiesz pod uwagę jednostkę czasu tak - czas procesora przy generowaniu klatki się nie zmieni, ale będzie sztucznie wytworzona przerwa w działaniu, jednak tu nie ma zupełnie żadnej analogii względem zmniejszenia rozdzielczości... jest wręcz przeciwnie proporcjonalna (im niższa rozdzielczość tym łączny czas generowania klatki jest mniejszy, i w jednosce czasu CPU więcej klatek musi obliczyć (jednak na klatkę robi zawsze tą samą pracę)).
Chcesz mi powiedzieć, że możesz jakimś programem sprawdzić ile jednostek ALU/AGLU pracowało nad danym zadaniem w danym rdzeniu?
performance counter wiele pokazuje, ale tego niet.
jakby nie było widać tutaj postęp szczególnie przy średnich prockach, może by tak zrobili coś z tym DirectX żeby to usprawnić. Czy ktoś może mi odpowiedzieć czy na Intel 3770 Radeon r9 290x z Mantle pokona geforce 780 ti ? widzę tu 780 ale ti nie widzę
Wnioskując z testu, nie pokona - masz w teście 780GHz i przy standardowo taktowanym 4770K r9 290x teoretycznie dociera do granic swoich możliwości, jak pokazuje OC procka 780GHz ma jeszcze zapas, tym bardziej będzie go miał 780ti.
Wszystko jest w teście:
Wzrost wydajności zestawu z Core i7-4770K zdecydowanie nie jest tak imponujący. Wynika to głównie z tego, że dotarliśmy już do granic możliwości Radeona R9 290X.
Osiągi podkręconego procesora Core i7-4770K @ 4,5 GHz potwierdzają nasze przypuszczenia: dotarliśmy do kresu możliwości Radeona R9 290X.
jakby nie było widać tutaj postęp szczególnie przy średnich prockach, może by tak zrobili coś z tym DirectX żeby to usprawnić. Czy ktoś może mi odpowiedzieć czy na Intel 3770 Radeon r9 290x z Mantle pokona geforce 780 ti ? widzę tu 780 ale ti nie widzę
Wnioskując z testu, nie pokona - masz w teście 780GHz i przy standardowo taktowanym 4770K r9 290x teoretycznie dociera do granic swoich możliwości, jak pokazuje OC procka 780GHz ma jeszcze zapas, tym bardziej będzie go miał 780ti.
Wszystko jest w teście:
Wzrost wydajności zestawu z Core i7-4770K zdecydowanie nie jest tak imponujący. Wynika to głównie z tego, że dotarliśmy już do granic możliwości Radeona R9 290X.
Osiągi podkręconego procesora Core i7-4770K @ 4,5 GHz potwierdzają nasze przypuszczenia: dotarliśmy do kresu możliwości Radeona R9 290X.
A ja się zastanawiam co by było jak by tak i7 obniżyć zegary...
Prawdopodobnie wąskie gardło by rosło wraz ze spadkiem wydajności CPU i w pewnym momencie DX stanowiłby na tyle duże 'obciążenie', że 290x na Mantle byłaby szybsza.
Już na niekręconej i5 4670k idą całkowicie łeb w łeb.
Ja jestem ciekawy zestawienia Crossfire vs SLI na kręconej i7, jeśli uporają się z problemami.
Chcesz mi powiedzieć, że możesz jakimś programem sprawdzić ile jednostek ALU/AGLU pracowało nad danym zadaniem w danym rdzeniu?
performance counter wiele pokazuje, ale tego niet.
Zauważyłem że pod każdym testem na labie i w każdej dyskusji zgrywasz najmądrzejszego eksperta i zawsze wykłucasz się o swoje racje nawet jeśli nie masz zielonego pojęcia w temacie tak jak w tym przypadku. Dla mnie czytanie tego już się stało męczące. Nigdy w życiu nie profilowałeś gpu, nie znasz podstaw systemów operacyjnych i wykłucasz się z profesjonalnym programistą który się tym zajmuje. Mam wrażenie że jakby sam Johan Andersson z Dice się tu wypowiedział w kwestii obciążenia CPU to też byś zgrywał cwaniaka (mądrzejszego) mając przy nim zerową wiedzę. Kończ waść, wstydu oszczędź.
Bylo by dobré, když si ten pclab přečteš pořádně a sám a zjistil, kolik chyb tam vlastně panáčkové udělali. Ten článek neustále za běhu opravují. Byly a jsou tam takové perly jako u GeForce DirectX 11.2, nebo stále ještě, zřejmě zázračné drivery 343.67 beta
I tym bardziej się dziwię że dał się wciągnąć w tą dyskusję na poziomie gimbusów. Patrząc na wypowiedzi ją inicjujące (Aeromisia i Sidebanda) spieracie się o semantykę.
wonskyy @ 2014.02.04 18:18
Czy ktoś może mi odpowiedzieć czy na Intel 3770 Radeon r9 290x z Mantle pokona geforce 780 ti ? widzę tu 780 ale ti nie widzę
Pod Mantle i3770 wyrobi i ponad 100 fps, pod warunkiem że nie będzie go ograniczać GPU. W praktyce dla 290X wystarczy wyłączyć AA i wyniki szybują:
Ja jestem ciekawy zestawienia Crossfire vs SLI na kręconej i7, jeśli uporają się z problemami.
CF z 290 będzie już miał wystarczający power żeby nie być ograniczeniem dla nawet podkręconego i7, szczególnie że przy CF i SLI procesor jest dodatkowo obciążony synchronizacją dwóch kart (co potrafi zabrać i kilkanaście % mocy CPU).
@up
3770 wyrobi i 200FPSy pod warunkiem, że nie będzie ograniczeniem dla karty graficznej. W multi może być wręcz przeciwnie, użycie crossfire właśnie spowolni Ci FPS-y, bo to 3770 może być ograniczeniem, nie 290
4770 nie wyrabia stalych 120 fps z pojedyncza karta nvidii. Sa spadki w okolice 100 i ponizej, bez v sync 100-160 fps. Moze z g-sync bedzie to dobrze chodzilo w 120 fps, na razie jest kiszka. Gdyby mantle dawalo stale 120 fps, z tym ze ja juz nie mam zaufania do czerwonych fpsow i przypuszczam, ze rok zajmie im dopracowanie tego.
@up
W pełni się zgadzam... choć brutalna moc takich kart jak 48xx, 58xx pokazywała, że po prostu się opłaca. 58xx był w cenie 28x, a oferował znacznie lepszą wydajność +DX11, 48xx też oferowały znacznie lepsze ratio...
Ja bym poczekał na nowy standard złacza DP, nową serię radeonów, bo to co dziś jest jest średnie.
Ja bym poczekał na nowy standard złacza DP, nową serię radeonów, bo to co dziś jest jest średnie.
Może być z tym spory problem, bo różne faby mają ostatnio spory problem z przechodzeniem na niższy proces technologiczny. Zobacz jak długo siedzimy już na różnych odmianach 28 nm i 20 nm nadal jest bardzo problematyczne. Czyli na faktycznie nową generację kart możemy sobie trochę poczekać...
@up
Nie to miałem na myśli... ja jestem sceptykiem tutaj i nawet jak przejdziemy na 20nm nie sądzę, by to dało jakiś duży wzrost wydajności/$, bardziej oczekuję większych wafli to powinno więcej dać niż nowy proces technologiczny.
Słusznie unknown_soldier zauważył, że jest problem od dawna i g-sync go załatawia, ale to średnie rozwiązanie i wolę poczekać na nowe złącze DP+monitor.
Do tego nie trzeba nowego procesu technologicznego nawet.
W sumie cały czas mnie zastanawia jak Intel to zrobił wprowadzając na dość masową produkcję 22nm praktycznie 2 lata przed wszystkimi. Z drugiej strony poraża mnie IB-E czyli zerowa oszczędność energetyczna w nowym procesie. +100MHz i spadek o 5% poborze energii to nie jest coś czego oczekujesz przy takiej zmianie. Podobna zmiana z 2600k->3770k dała spadek 15%
Zdaję się w xeonach zwiększyła się ilość rdzeni, to przyniesie sporą oszczędność, bo niskotatkowany procesor z większą ilością rdzeni pobiera mniej energii.
@up
3770 wyrobi i 200FPSy pod warunkiem, że nie będzie ograniczeniem dla karty graficznej.
Chodziło mi o miejsca testowe, najbardziej wymagające.
W multi może być wręcz przeciwnie, użycie crossfire właśnie spowolni Ci FPS-y, bo to 3770 może być ograniczeniem, nie 290
Przy SLI tak samo będzie dodatkowy narzut na synchronizację dwóch kart, tyle że SLI nie ma Mantle.
miekrzy @ 2014.02.05 11:12
Może być z tym spory problem, bo różne faby mają ostatnio spory problem z przechodzeniem na niższy proces technologiczny. Zobacz jak długo siedzimy już na różnych odmianach 28 nm i 20 nm nadal jest bardzo problematyczne. Czyli na faktycznie nową generację kart możemy sobie trochę poczekać...
Może dlatego pierwszy Maxwell to będzie mainstreamowa 750 Ti, a nie jakiś high-end.
@up
Mi jak najbardziej też Jak będziesz miał miejsce testowe, które nie ogranicza CPU to będziesz miał na 3770 nawet 200FPSów 'pod warunkiem, że nie będzie go ograniczać GPU.'
To też ani sli, ani crossfire polecać do gry z dużym narzutem CPU polecać nie będę. Jak najbardziej za to Mantle ma w BFie większy sens niż 780Ti przy 3770
Wpisami z bloga się nie dowiecie o podstawach systemów operacyjnych, w blogu to można sobie opisać jakiś fajny fragment.
Myślałem, że rozmawiamy na rozsądny temat, a nie na bezsensowne wskazania menadżera zadań, który w żadnym wypadku nie pokazuje jak program obciąża CPU... pokazuje jedynie, że dany scheduler, z danego systemu operacyjnego uznał, że program wymaga przyznania mu tyle i tyle czasu procesora (program może nic nie robić (lub robić, ale tylko na intach, zależnych od siebie przez co wykorzysta maksymalnie 1/20 (superskalarność i SIMD nie są wykorzystywane) mocy procesora (i prądu)), a scheduler mu może przyznać nawet 100%). To co pokazuje menadzer zadań JEST głupotą i nie świadczy o niczym poza jakością schedulera i tego jak przyznaje czas procesora poszczególnym zadaniom.
... nie pokażesz, bo te narzędzia wyparowały. łapiesz za słówka. Nie możemy sprawdzić obciążenia CPU/klatkę w BF4... Dlatego posługujemy się czasem procesora w jednostce czasu jaki podaje windows, a ten powinien spaść.
Możesz sprawdzić debuggerem DX i zobaczyć, ze zmiana rozdzielczości czy dodanie interwału nic nie zmienia czasu spędzonego na renderowaniu klatki.
Nawet nie w swoim silniku możesz zobaczyć dokładnie na performance counterach faktyczne obciążenie procesora.
EDIT:
Załóżmy, że by wygenerować klatkę masz obciążony procesor w DX w 15% przez 15ms vs 100% mantle przez 2,5ms, obciążenie w obu przypadkach jest prawie takie same, ale czas procesora krótszy w mantle i manager zadań poda w przypadku DX wyższy procent.
Nie jest to prawdą jeśli aktualizacja jest co 15ms counterka (tak na przykład, bo raczej 500ms ;p (pół sekundy)) w systemie to mantle pokaże 17%... jeśli co 7,5ms to pokaże w jednym przedziale 33%, a w kolejnym 0% (a w DX w obu 15%)
Jeśli weźmiesz pod uwagę jednostkę czasu tak - czas procesora przy generowaniu klatki się nie zmieni, ale będzie sztucznie wytworzona przerwa w działaniu, jednak tu nie ma zupełnie żadnej analogii względem zmniejszenia rozdzielczości... jest wręcz przeciwnie proporcjonalna (im niższa rozdzielczość tym łączny czas generowania klatki jest mniejszy, i w jednosce czasu CPU więcej klatek musi obliczyć (jednak na klatkę robi zawsze tą samą pracę)).
Chcesz mi powiedzieć, że możesz jakimś programem sprawdzić ile jednostek ALU/AGLU pracowało nad danym zadaniem w danym rdzeniu?
performance counter wiele pokazuje, ale tego niet.
Wnioskując z testu, nie pokona - masz w teście 780GHz i przy standardowo taktowanym 4770K r9 290x teoretycznie dociera do granic swoich możliwości, jak pokazuje OC procka 780GHz ma jeszcze zapas, tym bardziej będzie go miał 780ti.
Wszystko jest w teście:
Wzrost wydajności zestawu z Core i7-4770K zdecydowanie nie jest tak imponujący. Wynika to głównie z tego, że dotarliśmy już do granic możliwości Radeona R9 290X.
Osiągi podkręconego procesora Core i7-4770K @ 4,5 GHz potwierdzają nasze przypuszczenia: dotarliśmy do kresu możliwości Radeona R9 290X.
Wnioskując z testu, nie pokona - masz w teście 780GHz i przy standardowo taktowanym 4770K r9 290x teoretycznie dociera do granic swoich możliwości, jak pokazuje OC procka 780GHz ma jeszcze zapas, tym bardziej będzie go miał 780ti.
Wszystko jest w teście:
Wzrost wydajności zestawu z Core i7-4770K zdecydowanie nie jest tak imponujący. Wynika to głównie z tego, że dotarliśmy już do granic możliwości Radeona R9 290X.
Osiągi podkręconego procesora Core i7-4770K @ 4,5 GHz potwierdzają nasze przypuszczenia: dotarliśmy do kresu możliwości Radeona R9 290X.
A ja się zastanawiam co by było jak by tak i7 obniżyć zegary...
Już na niekręconej i5 4670k idą całkowicie łeb w łeb.
Ja jestem ciekawy zestawienia Crossfire vs SLI na kręconej i7, jeśli uporają się z problemami.
Chcesz mi powiedzieć, że możesz jakimś programem sprawdzić ile jednostek ALU/AGLU pracowało nad danym zadaniem w danym rdzeniu?
performance counter wiele pokazuje, ale tego niet.
Zauważyłem że pod każdym testem na labie i w każdej dyskusji zgrywasz najmądrzejszego eksperta i zawsze wykłucasz się o swoje racje nawet jeśli nie masz zielonego pojęcia w temacie tak jak w tym przypadku. Dla mnie czytanie tego już się stało męczące. Nigdy w życiu nie profilowałeś gpu, nie znasz podstaw systemów operacyjnych i wykłucasz się z profesjonalnym programistą który się tym zajmuje. Mam wrażenie że jakby sam Johan Andersson z Dice się tu wypowiedział w kwestii obciążenia CPU to też byś zgrywał cwaniaka (mądrzejszego) mając przy nim zerową wiedzę. Kończ waść, wstydu oszczędź.
I tym bardziej się dziwię że dał się wciągnąć w tą dyskusję na poziomie gimbusów. Patrząc na wypowiedzi ją inicjujące (Aeromisia i Sidebanda) spieracie się o semantykę.
Pod Mantle i3770 wyrobi i ponad 100 fps, pod warunkiem że nie będzie go ograniczać GPU. W praktyce dla 290X wystarczy wyłączyć AA i wyniki szybują:
http://www.golem.de/news/amds-mantle-api-i...2-104261-3.html
CF z 290 będzie już miał wystarczający power żeby nie być ograniczeniem dla nawet podkręconego i7, szczególnie że przy CF i SLI procesor jest dodatkowo obciążony synchronizacją dwóch kart (co potrafi zabrać i kilkanaście % mocy CPU).
3770 wyrobi i 200FPSy pod warunkiem, że nie będzie ograniczeniem dla karty graficznej. W multi może być wręcz przeciwnie, użycie crossfire właśnie spowolni Ci FPS-y, bo to 3770 może być ograniczeniem, nie 290
W pełni się zgadzam... choć brutalna moc takich kart jak 48xx, 58xx pokazywała, że po prostu się opłaca. 58xx był w cenie 28x, a oferował znacznie lepszą wydajność +DX11, 48xx też oferowały znacznie lepsze ratio...
Ja bym poczekał na nowy standard złacza DP, nową serię radeonów, bo to co dziś jest jest średnie.
Może być z tym spory problem, bo różne faby mają ostatnio spory problem z przechodzeniem na niższy proces technologiczny. Zobacz jak długo siedzimy już na różnych odmianach 28 nm i 20 nm nadal jest bardzo problematyczne. Czyli na faktycznie nową generację kart możemy sobie trochę poczekać...
Nie to miałem na myśli... ja jestem sceptykiem tutaj i nawet jak przejdziemy na 20nm nie sądzę, by to dało jakiś duży wzrost wydajności/$, bardziej oczekuję większych wafli to powinno więcej dać niż nowy proces technologiczny.
Słusznie unknown_soldier zauważył, że jest problem od dawna i g-sync go załatawia, ale to średnie rozwiązanie i wolę poczekać na nowe złącze DP+monitor.
Do tego nie trzeba nowego procesu technologicznego nawet.
W sumie cały czas mnie zastanawia jak Intel to zrobił wprowadzając na dość masową produkcję 22nm praktycznie 2 lata przed wszystkimi. Z drugiej strony poraża mnie IB-E czyli zerowa oszczędność energetyczna w nowym procesie. +100MHz i spadek o 5% poborze energii to nie jest coś czego oczekujesz przy takiej zmianie. Podobna zmiana z 2600k->3770k dała spadek 15%
Zdaję się w xeonach zwiększyła się ilość rdzeni, to przyniesie sporą oszczędność, bo niskotatkowany procesor z większą ilością rdzeni pobiera mniej energii.
3770 wyrobi i 200FPSy pod warunkiem, że nie będzie ograniczeniem dla karty graficznej.
Chodziło mi o miejsca testowe, najbardziej wymagające.
Przy SLI tak samo będzie dodatkowy narzut na synchronizację dwóch kart, tyle że SLI nie ma Mantle.
Może dlatego pierwszy Maxwell to będzie mainstreamowa 750 Ti, a nie jakiś high-end.
Mi jak najbardziej też
To też ani sli, ani crossfire polecać do gry z dużym narzutem CPU polecać nie będę. Jak najbardziej za to Mantle ma w BFie większy sens niż 780Ti przy 3770
Podobnie pierwszym keplerem był GK107