@up
Taa, tylko produkty dla Maca mają tutaj wbrew pozorom drugo/trzecio rzędne znaczenie, wydajność OS-X-a jest po prostu mała (ostatnio testowałem iMac-a i na windzie 60FPSów, a na OSX 20-30FPSów w maya, dziwne to, bo Mac ma niby optymalizacje)
... dalej 3ds umożliwia korzystanie z OGL-a w trybie legacy to wiele mówi.
Maya praktycznie dla nowych funkcji wymusza korzystanie z DX, ale nie wiem czy skończyli. Mudbox też coś tam mieszali, choć jak pamiętam działal na OGL-u
Nie fajnie będzie, jak na Mac/Linux programy będą działać w trybie legacy
Zresztą bardzo mi się nie podoba to, ze tylko 3ds ma iray i Autodesk nie sypnie kasy tutaj, bo mental standalone działa wszędzie i trochę to niefajne.
Zacznij uzywac modo. Tam uzywaja OpenGL. Co prawda w wersji 2, no ale, kto wie! Moze wersji 901 ogarna 4 ;p.
hehe, tak wiem jest pełno alternatyw- blender,lightwave, Cinema... ale nie po to kupowałem majkę, by teraz bawić się w inne programy. Wolę kupić sobie za to nowy procesor, więcej ram-u itp. Niż tracić czas na naukę programu, który mi po prostu nie podchodzi.
Tu zobaczysz różnicę wydajności DirectX vs Mantle po obniżeniu rozdzielczości (a więc zmniejszeniu zapotrzebowania na moc GPU która jest ograniczeniem dla mocnych procesorów.
Bzdura - zmniejszając rozdzielczość zmniejszasz zapotrzebowanie na moc fragment shaderów i ROPów, więc nic co jest ograniczeniem dla procesorów (obciążenie procesora przy niższej rozdzielczości jest identyczne, bo tyle samo drawcalli, tyle samo bindowania, tyle samo fizyki...). Po prostu GPU liczy szybciej i w łącznym czasie w milisekundach spędzonych na CPU (taka sama niezależnie od rozdzielczości) i GPU (zależna od rozdzielczości) im mniejsza rozdzielczość tym GPU ma mniejszy udział... więc wyższa wydajność API na CPU jest ładniej widoczna (gdy na CPU spędza się 10ms, a na GPU 20ms (33FPS) to 2x szybsze API zwiększy wydajność jedynie o 5ms (5ms na CPU i 20ms na GPU) czyli 40FPS (20% wydajniej)... w wypadku kiedy mamy bardzo niską rozdzielczość i przykładowo na CPU mamy 10ms i na GPU 5ms to z 67FPS, zrobi się po podwojeniu wydajności na CPU 100 FPS (50% wydajniej)).
hehe, tak wiem jest pełno alternatyw- blender,lightwave, Cinema... ale nie po to kupowałem majkę, by teraz bawić się w inne programy. Wolę kupić sobie za to nowy procesor, więcej ram-u itp. Niż tracić czas na naukę programu, który mi po prostu nie podchodzi.
problemem imo wlasnie byl mac..apple praktycznie zawsze jest o generacje lub dwie wzgledem wspieranego aktualnie numerka OGL, co powoduje ze tworcy gier czy programow sa ograniczani.
Nie zrozumiałeś go , jeżeli zrobisztest w tak wysokiej rozdzielczości (ewentualnie zastosujesz za wolne gpu), że wąskim gardłem jest gpu to różnice między dx a mantle spłaszczą się i przy okazji spadnie obciążenie cpu.
Spadnie obciążenie możesz to sprawdzić w praktyce , sytuacja jest analogiczna jak ścinasz ilość fps , obciążenie/wykorzystanie cpu spada.
Nie spada w żadnym. I znam praktykę dobrze - praktycznie większość zawodowego czasu profiluję GPU z użyciem narzędzi, które jednoznacznie pozwalają stwierdzić co się dzieje i co gdzie i ile czasu zajmuje ;p. Sytuacja w wypadku 'ścinania ilości fps' (zapewne chodzi Ci o V-sync), to sytuacja jest analogiczna - narzut na CPU jest taki sam... różnicą jest to, że pomiędzy klatkami następuje interwał przerwy (co system uśrednia jako niższe użycie procesora (bo w tych interwałach oddaje czas procka innym programom)). Nie zmienia to jednak w żaden sposób narzutu CPU na klatkę ten się nie zmienia, a jedynie zmusza się aplikacje do spania i nie używania CPU i GPU pomiędzy pracą nad klatkami.
Spadnie obciążenie możesz to sprawdzić w praktyce , sytuacja jest analogiczna jak ścinasz ilość fps , obciążenie/wykorzystanie cpu spada.
Nie spada w żadnym. I znam praktykę dobrze - praktycznie większość zawodowego czasu profiluję GPU z użyciem narzędzi, które jednoznacznie pozwalają stwierdzić co się dzieje i co gdzie i ile czasu zajmuje ;p. Sytuacja w wypadku 'ścinania ilości fps' (zapewne chodzi Ci o V-sync), to sytuacja jest analogiczna - narzut na CPU jest taki sam... różnicą jest to, że pomiędzy klatkami następuje interwał przerwy (co system uśrednia jako niższe użycie procesora (bo w tych interwałach oddaje czas procka innym programom)). Nie zmienia to jednak w żaden sposób narzutu CPU na klatkę ten się nie zmienia, a jedynie zmusza się aplikacje do spania i nie używania CPU i GPU pomiędzy pracą nad klatkami.
Sideband dobrze prawi
Przy 35kl/s i przy 70kl/s masz zupełnie inne obciążenie procesora. Im większa ilość kl/s tym obciążenie procesora jest większe!
Sideband dobrze prawi
Przy 35kl/s i przy 70kl/s masz zupełnie inne obciążenie procesora. Im większa ilość kl/s tym obciążenie procesora jest większe!
I ofc mówisz to pracując z debuggerem GPU w trybie profilera? No bo chyba nie mówiłbyś głupot w oparciu o systemowy wykresik czasu procesora (którego wskazania nie mają związku)?
Powiem więcej, że mnie by bardzo zdziwiło, gdyby narzut spadł w takiej sytuacji. Przecież dla każdej klatki procesor musi w dalszym ciągu przeliczyć dokładnie to samo, tylko po prostu spada wykorzystanie czasu CPU.
Sideband dobrze prawi
Przy 35kl/s i przy 70kl/s masz zupełnie inne obciążenie procesora. Im większa ilość kl/s tym obciążenie procesora jest większe!
I ofc mówisz to pracując z debuggerem GPU w trybie profilera? No bo chyba nie mówiłbyś głupot w oparciu o systemowy wykresik czasu procesora (którego wskazania nie mają związku)?
skotki chyba nie oczekujesz od chłopaków że wiedzą jak działa system operacyjny czy procesor
Spadnie obciążenie możesz to sprawdzić w praktyce , sytuacja jest analogiczna jak ścinasz ilość fps , obciążenie/wykorzystanie cpu spada.
Nie spada w żadnym. I znam praktykę dobrze - praktycznie większość zawodowego czasu profiluję GPU z użyciem narzędzi, które jednoznacznie pozwalają stwierdzić co się dzieje i co gdzie i ile czasu zajmuje ;p. Sytuacja w wypadku 'ścinania ilości fps' (zapewne chodzi Ci o V-sync), to sytuacja jest analogiczna - narzut na CPU jest taki sam... różnicą jest to, że pomiędzy klatkami następuje interwał przerwy (co system uśrednia jako niższe użycie procesora (bo w tych interwałach oddaje czas procka innym programom)). Nie zmienia to jednak w żaden sposób narzutu CPU na klatkę ten się nie zmienia, a jedynie zmusza się aplikacje do spania i nie używania CPU i GPU pomiędzy pracą nad klatkami.
Pokaż to ....
... nie pokażesz, bo te narzędzia wyparowały. łapiesz za słówka. Nie możemy sprawdzić obciążenia CPU/klatkę w BF4... Dlatego posługujemy się czasem procesora w jednostce czasu jaki podaje windows, a ten powinien spaść.
Jak mamy być tak szczegółowi. To nawet w swoim silniku nam nie udowodnisz jakie jest obciążenie ponieważ nie sprawdzisz jakie jest faktyczne obciążenie procesora, a jedynie czas procesora nad zadaniem.
EDIT:
Załóżmy, że by wygenerować klatkę masz obciążony procesor w DX w 15% przez 15ms vs 100% mantle przez 2,5ms, obciążenie w obu przypadkach jest prawie takie same, ale czas procesora krótszy w mantle i manager zadań poda w przypadku DX wyższy procent.
I ofc mówisz to pracując z debuggerem GPU w trybie profilera? No bo chyba nie mówiłbyś głupot w oparciu o systemowy wykresik czasu procesora (którego wskazania nie mają związku)?
skotki chyba nie oczekujesz od chłopaków że wiedzą jak działa system operacyjny czy procesor
Mam cichą nadzieję, że nam to przylbiżycie Przydałby się taki artykuł dla niedoświadczonych użytkowników.
Tak samo jak by się przydał artykuł dotyczący dziwnych nowopolskich słów
profilera
i
debuggerem
.
Pomijając tą kwestię systemowy menedżer zadań całkiem dobrze przybliża nam zużycie procesora w trakcie trwania aplikacji. Co prawda nie jest super dokładny co do milisekundy, a przez obecne rozkładanie zadań w systemach wielordzeniowych obraz się zaczyna rozmywać, ale potrafi pokazać nam różnicę w obciążeniu procesora pomiędzy grą uruchomioną z limitem na 60 klatek a na 30 klatek.
Przydałoby się takie narzędzie do sprawdzania ile wątków dana aplikacja uruchamia i jakie obciążenie każdy wątek tworzy, swego czasu taki program widziałem na benchmarku... Ale nie wiem czy coś w temacie było dalej tworzone...
hehe, tak wiem jest pełno alternatyw- blender,lightwave, Cinema... ale nie po to kupowałem majkę, by teraz bawić się w inne programy. Wolę kupić sobie za to nowy procesor, więcej ram-u itp. Niż tracić czas na naukę programu, który mi po prostu nie podchodzi.
Tylko ci sie wydaje ze ci nie podchodzi. Obadaj Mesh Fusion (plugin to modo) i stwierdz po tym, ze ci dalej nie podchodzi ;p.
Ciezko zmienic przyzwyczajenia, ale modelowanie w modo, jak juz sie je opanuje, absolutnie niszczy to co ma Autodesk. Ale to nie jest trudno, bo maya, max i xsi nie rozwijaja sie pod tym wzgledem oa jakies 7 lat ;p.
hehe, tak wiem jest pełno alternatyw- blender,lightwave, Cinema... ale nie po to kupowałem majkę, by teraz bawić się w inne programy. Wolę kupić sobie za to nowy procesor, więcej ram-u itp. Niż tracić czas na naukę programu, który mi po prostu nie podchodzi.
Tylko ci sie wydaje ze ci nie podchodzi. Obadaj Mesh Fusion (plugin to modo) i stwierdz po tym, ze ci dalej nie podchodzi ;p.
Ciezko zmienic przyzwyczajenia, ale modelowanie w modo, jak juz sie je opanuje, absolutnie niszczy to co ma Autodesk. Ale to nie jest trudno, bo maya, max i xsi nie rozwijaja sie pod tym wzgledem oa jakies 7 lat ;p.
https://www.youtube.com/watch?v=0m7qJKPnJC4#t=345
To masz na myśli? Wiesz, że w maya mam to od bodaj zawsze?
W modo nie cierpie nawigacji w viewporcie... Obracania kamerką, jakoś dziwnie to wygląda vs maya.
W Maya poza tym pracuje mi się szybko, nie muszę mieć UI.
Taa, tylko produkty dla Maca mają tutaj wbrew pozorom drugo/trzecio rzędne znaczenie, wydajność OS-X-a jest po prostu mała (ostatnio testowałem iMac-a i na windzie 60FPSów, a na OSX 20-30FPSów w maya, dziwne to, bo Mac ma niby optymalizacje)
... dalej 3ds umożliwia korzystanie z OGL-a w trybie legacy to wiele mówi.
Maya praktycznie dla nowych funkcji wymusza korzystanie z DX, ale nie wiem czy skończyli. Mudbox też coś tam mieszali, choć jak pamiętam działal na OGL-u
Nie fajnie będzie, jak na Mac/Linux programy będą działać w trybie legacy
Zresztą bardzo mi się nie podoba to, ze tylko 3ds ma iray i Autodesk nie sypnie kasy tutaj, bo mental standalone działa wszędzie i trochę to niefajne.
Zacznij uzywac modo. Tam uzywaja OpenGL. Co prawda w wersji 2, no ale, kto wie! Moze wersji 901 ogarna 4 ;p.
Bzdura - zmniejszając rozdzielczość zmniejszasz zapotrzebowanie na moc fragment shaderów i ROPów, więc nic co jest ograniczeniem dla procesorów (obciążenie procesora przy niższej rozdzielczości jest identyczne, bo tyle samo drawcalli, tyle samo bindowania, tyle samo fizyki...). Po prostu GPU liczy szybciej i w łącznym czasie w milisekundach spędzonych na CPU (taka sama niezależnie od rozdzielczości) i GPU (zależna od rozdzielczości) im mniejsza rozdzielczość tym GPU ma mniejszy udział... więc wyższa wydajność API na CPU jest ładniej widoczna (gdy na CPU spędza się 10ms, a na GPU 20ms (33FPS) to 2x szybsze API zwiększy wydajność jedynie o 5ms (5ms na CPU i 20ms na GPU) czyli 40FPS (20% wydajniej)... w wypadku kiedy mamy bardzo niską rozdzielczość i przykładowo na CPU mamy 10ms i na GPU 5ms to z 67FPS, zrobi się po podwojeniu wydajności na CPU 100 FPS (50% wydajniej)).
problemem imo wlasnie byl mac..apple praktycznie zawsze jest o generacje lub dwie wzgledem wspieranego aktualnie numerka OGL, co powoduje ze tworcy gier czy programow sa ograniczani.
No właśnie nie spadnie, a będzie taki sam. Po prostu jego znaczenie w ogólnej wydajności będzie większe.
No właśnie nie spadnie, a będzie taki sam. Po prostu jego znaczenie w ogólnej wydajności będzie większe.
Spadnie obciążenie możesz to sprawdzić w praktyce , sytuacja jest analogiczna jak ścinasz ilość fps , obciążenie/wykorzystanie cpu spada.
Nie spada w żadnym. I znam praktykę dobrze - praktycznie większość zawodowego czasu profiluję GPU z użyciem narzędzi, które jednoznacznie pozwalają stwierdzić co się dzieje i co gdzie i ile czasu zajmuje ;p. Sytuacja w wypadku 'ścinania ilości fps' (zapewne chodzi Ci o V-sync), to sytuacja jest analogiczna - narzut na CPU jest taki sam... różnicą jest to, że pomiędzy klatkami następuje interwał przerwy (co system uśrednia jako niższe użycie procesora (bo w tych interwałach oddaje czas procka innym programom)). Nie zmienia to jednak w żaden sposób narzutu CPU na klatkę ten się nie zmienia, a jedynie zmusza się aplikacje do spania i nie używania CPU i GPU pomiędzy pracą nad klatkami.
Nie spada w żadnym. I znam praktykę dobrze - praktycznie większość zawodowego czasu profiluję GPU z użyciem narzędzi, które jednoznacznie pozwalają stwierdzić co się dzieje i co gdzie i ile czasu zajmuje ;p. Sytuacja w wypadku 'ścinania ilości fps' (zapewne chodzi Ci o V-sync), to sytuacja jest analogiczna - narzut na CPU jest taki sam... różnicą jest to, że pomiędzy klatkami następuje interwał przerwy (co system uśrednia jako niższe użycie procesora (bo w tych interwałach oddaje czas procka innym programom)). Nie zmienia to jednak w żaden sposób narzutu CPU na klatkę ten się nie zmienia, a jedynie zmusza się aplikacje do spania i nie używania CPU i GPU pomiędzy pracą nad klatkami.
Sideband dobrze prawi
Przy 35kl/s i przy 70kl/s masz zupełnie inne obciążenie procesora. Im większa ilość kl/s tym obciążenie procesora jest większe!
Sideband dobrze prawi
Przy 35kl/s i przy 70kl/s masz zupełnie inne obciążenie procesora. Im większa ilość kl/s tym obciążenie procesora jest większe!
I ofc mówisz to pracując z debuggerem GPU w trybie profilera? No bo chyba nie mówiłbyś głupot w oparciu o systemowy wykresik czasu procesora (którego wskazania nie mają związku)?
Sideband dobrze prawi
Przy 35kl/s i przy 70kl/s masz zupełnie inne obciążenie procesora. Im większa ilość kl/s tym obciążenie procesora jest większe!
I ofc mówisz to pracując z debuggerem GPU w trybie profilera? No bo chyba nie mówiłbyś głupot w oparciu o systemowy wykresik czasu procesora (którego wskazania nie mają związku)?
skotki chyba nie oczekujesz od chłopaków że wiedzą jak działa system operacyjny czy procesor
Nie spada w żadnym. I znam praktykę dobrze - praktycznie większość zawodowego czasu profiluję GPU z użyciem narzędzi, które jednoznacznie pozwalają stwierdzić co się dzieje i co gdzie i ile czasu zajmuje ;p. Sytuacja w wypadku 'ścinania ilości fps' (zapewne chodzi Ci o V-sync), to sytuacja jest analogiczna - narzut na CPU jest taki sam... różnicą jest to, że pomiędzy klatkami następuje interwał przerwy (co system uśrednia jako niższe użycie procesora (bo w tych interwałach oddaje czas procka innym programom)). Nie zmienia to jednak w żaden sposób narzutu CPU na klatkę ten się nie zmienia, a jedynie zmusza się aplikacje do spania i nie używania CPU i GPU pomiędzy pracą nad klatkami.
Pokaż to ....
... nie pokażesz, bo te narzędzia wyparowały. łapiesz za słówka. Nie możemy sprawdzić obciążenia CPU/klatkę w BF4... Dlatego posługujemy się czasem procesora w jednostce czasu jaki podaje windows, a ten powinien spaść.
Jak mamy być tak szczegółowi. To nawet w swoim silniku nam nie udowodnisz jakie jest obciążenie ponieważ nie sprawdzisz jakie jest faktyczne obciążenie procesora, a jedynie czas procesora nad zadaniem.
EDIT:
Załóżmy, że by wygenerować klatkę masz obciążony procesor w DX w 15% przez 15ms vs 100% mantle przez 2,5ms, obciążenie w obu przypadkach jest prawie takie same, ale czas procesora krótszy w mantle i manager zadań poda w przypadku DX wyższy procent.
I ofc mówisz to pracując z debuggerem GPU w trybie profilera? No bo chyba nie mówiłbyś głupot w oparciu o systemowy wykresik czasu procesora (którego wskazania nie mają związku)?
skotki chyba nie oczekujesz od chłopaków że wiedzą jak działa system operacyjny czy procesor
Mam cichą nadzieję, że nam to przylbiżycie
Tak samo jak by się przydał artykuł dotyczący dziwnych nowopolskich słów
Pomijając tą kwestię systemowy menedżer zadań całkiem dobrze przybliża nam zużycie procesora w trakcie trwania aplikacji. Co prawda nie jest super dokładny co do milisekundy, a przez obecne rozkładanie zadań w systemach wielordzeniowych obraz się zaczyna rozmywać, ale potrafi pokazać nam różnicę w obciążeniu procesora pomiędzy grą uruchomioną z limitem na 60 klatek a na 30 klatek.
Przydałoby się takie narzędzie do sprawdzania ile wątków dana aplikacja uruchamia i jakie obciążenie każdy wątek tworzy, swego czasu taki program widziałem na benchmarku... Ale nie wiem czy coś w temacie było dalej tworzone...
Tylko ci sie wydaje ze ci nie podchodzi. Obadaj Mesh Fusion (plugin to modo) i stwierdz po tym, ze ci dalej nie podchodzi ;p.
Ciezko zmienic przyzwyczajenia, ale modelowanie w modo, jak juz sie je opanuje, absolutnie niszczy to co ma Autodesk. Ale to nie jest trudno, bo maya, max i xsi nie rozwijaja sie pod tym wzgledem oa jakies 7 lat ;p.
Tylko ci sie wydaje ze ci nie podchodzi. Obadaj Mesh Fusion (plugin to modo) i stwierdz po tym, ze ci dalej nie podchodzi ;p.
Ciezko zmienic przyzwyczajenia, ale modelowanie w modo, jak juz sie je opanuje, absolutnie niszczy to co ma Autodesk. Ale to nie jest trudno, bo maya, max i xsi nie rozwijaja sie pod tym wzgledem oa jakies 7 lat ;p.
https://www.youtube.com/watch?v=0m7qJKPnJC4#t=345
To masz na myśli? Wiesz, że w maya mam to od bodaj zawsze?
W modo nie cierpie nawigacji w viewporcie... Obracania kamerką, jakoś dziwnie to wygląda vs maya.
W Maya poza tym pracuje mi się szybko, nie muszę mieć UI.
http://www.polycount.com/forum/showthread....3641&page=5
A nawigacja w viewporcie. Wylacz orbit mode i zien ja na taka jak w maya, czy tam max
Polecam lekturę:
http://lubimyczytac.pl/ksiazka/82209/podst...ow-operacyjnych
http://www.polycount.com/forum/showthread....3641&page=5
A nawigacja w viewporcie. Wylacz orbit mode i zien ja na taka jak w maya, czy tam max
... wydaje misie, ale tak na serio co za różnica?
Czy zaimplementuje Mantle do siebie (cholera wie czy w ogóle się da)?
Czy wyda swoją wersję?
Czy może dorzuci kilka baniek dla M$ aby udoskonalić DX?