komentarze
ghs2013.12.10, 09:36
focus @ 2013.12.10 09:07  Post: 707987
ghs @ 2013.12.10 08:15  Post: 707977
(...)


egzactly

aby zbadać jak bardzo sterownik obciąża cpu potrzebne są specjalne narzędzia. niemniej na 8-wątkowcu warto otworzyć chociaż menagera zadań i sprawdzić jak obciążone są poszczególne rdzenie dla amd a jak dla nvidii

Zgadzam się z tym, że obserwacja efektów nie jest najdoskonalszą formą badania. Z drugiej strony: jakie to ma znaczenie dla końcowego użytkownika? Przekaz jest jasny i prosty: z jakiegoś powodu jedna karta zachowuje się tak, a inna tak i nie jest to temat jednej gry.

Co do badania obciążenia procesora za pomocą task managera, to ponownie odpowiem: wg menadżera zadań różnicy pomiędzy FX-4300, a FX-6300 być nie powinno, a jednak wyniki mówią co innego. Oczywiście wszyscy wiemy dlaczego ma to miejsce, ale to tylko potwierdza tą metodę 'badawczą' jako błędną.


co do pierwszego akapitu: ale wyciągacie wnioski. warto aby te wnioski były klasy światowej jak np 'test cpu na koniec 2012' a nie takie jakie może sobie wyklikać janek w garażu w koziej wólce. macie sprzęt, ludzi, czegóż więcej brak? dodatkowo w tytule jest fraza ''naukowe podejście do wydajności procesorów'' :) rozumiem że to taki 1 kwiecień

co do drugiego akapit: byłaby to prawda gdyby cpu obciążał tylko sam proces gry. jednak czas procesora zajmuje sterownik i tu sterownik nvidii jest bardziej ''inteligentny''. nie sądzisz chyba że screen jaki wkleiłem w komentarzu nr51 to proces AC4BF obciążający 11 wątków (jeden cpu logiczny był wyłączony). jak widać ster nvidii korzysta z tylu rdzeni logicznych ile jest dostępnych, dla amd zapewne jest inaczej, strzelam: ster amd siedzi na sztywno na 2 wątkach. ale tu własnie jest pies pogrzebany, i to właśnie trzeba sprawdzić a nie bawić się w wyciąganie wniosków npdst nieznanych założeń.

i tak jak pisałem wcześniej gdyby jeszcze były dorzucone analogiczne pomiary dla 6 rdzeni z ht i bez ht z różnym taktowaniem to można by sie pokusić o analizę problemu. tak jak jest to wróżenie z fusów bo danych wsadowych jest za mało i wniosek będzie obarczony dużym błędem
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2013.12.10, 09:10
-2#91
SunTzu @ 2013.12.10 00:29  Post: 707950
Hipoteza 1 też nie sprawdza się w np. Rome II/SC2. Gdzie z oczywistych względów masz własnie tutaj wlasnie żyłowany sterownik graficzny na maxa (najwięcej drawcall).

To jest też ciekawa kwestia, bo wyraźnie widać, że w grach dwuwątkowych albo wielowątkowych uzaleznionych jednak od wydajności 1 rdzenia połączenie 2 wątki + Geforce wypada raczej normalnie. Tyle, że przecież w takich grach obciążenie dwuwątkowego procesora i tak dochodzi do 100%, nawet na Radeonie. Można by więc przypuszczać, że procesory 2c/2t nie radzą sobie z równoczesnym puszczeniem wielu wątków na 1 rdzeniu, tyle że jakoś w innych programach tego nie widać (w niektórych aplikacjach do renderingu nawet lepiej jest puścić więcej wątków niż rdzeni, żeby w pełni wykorzystać sprzęt)...
focusZobacz profil
Poziom ostrzeżenia: 0%
focus2013.12.10, 09:07
ghs @ 2013.12.10 08:15  Post: 707977
sideband @ 2013.12.10 01:48  Post: 707959
(...)

Nie da się da grać , bo nie istnieje taki proc na rynku jak 4770k z 2core 2.3ghz oraz z tak duża ilością cache. Każdy kto siedzi w sterach to wie , że ten test cienki d.. węża.


egzactly

aby zbadać jak bardzo sterownik obciąża cpu potrzebne są specjalne narzędzia. niemniej na 8-wątkowcu warto otworzyć chociaż menagera zadań i sprawdzić jak obciążone są poszczególne rdzenie dla amd a jak dla nvidii

Zgadzam się z tym, że obserwacja efektów nie jest najdoskonalszą formą badania. Z drugiej strony: jakie to ma znaczenie dla końcowego użytkownika? Przekaz jest jasny i prosty: z jakiegoś powodu jedna karta zachowuje się tak, a inna tak i nie jest to temat jednej gry.

Co do badania obciążenia procesora za pomocą task managera, to ponownie odpowiem: wg menadżera zadań różnicy pomiędzy FX-4300, a FX-6300 być nie powinno, a jednak wyniki mówią co innego. Oczywiście wszyscy wiemy dlaczego ma to miejsce, ale to tylko potwierdza tą metodę 'badawczą' jako błędną.
focusZobacz profil
Poziom ostrzeżenia: 0%
focus2013.12.10, 09:04
grzechu45 @ 2013.12.10 08:45  Post: 707980
Szkoda, że nie ma i3 z dopiskiem k w przystępnej cenie ;-) Ciekawe czy by choć trochę lepiej się kręcił ni i5 i i7.

Gdyby się nam udało zrobić 5 GHz na '2-rdzeniowym' Haswellu, to byśmy przy takiej częstotliwości przeprowadzili test, ale jak widać nie przeprowadziliśmy.
grzechu45Zobacz profil
Poziom ostrzeżenia: 0%
grzechu452013.12.10, 08:45
Szkoda, że nie ma i3 z dopiskiem k w przystępnej cenie ;-) Ciekawe czy by choć trochę lepiej się kręcił ni i5 i i7.
ghs2013.12.10, 08:15
-4#87
sideband @ 2013.12.10 01:48  Post: 707959
RyszardGTS @ 2013.12.10 00:56  Post: 707954
Bardzo fajny artykuł :thumbup:
No i co da się pograć na mocnych dwurdzeniowych? DA SIĘ. Oczywiście nie popadajmy w skrajności że ktoś napisze 'ale nie działa na mega ultra high z fps 120', ale podobno dwa rdzenie nieważne czy amd/intel 'nie nadają się do gier' (no... bo gry to te 3-5 wiecznie przytaczanych tytułów i ich tabelek, a nie setki, tysiące innych).

Nie da się da grać , bo nie istnieje taki proc na rynku jak 4770k z 2core 2.3ghz oraz z tak duża ilością cache. Każdy kto siedzi w sterach to wie , że ten test cienki d.. węża.


egzactly

aby zbadać jak bardzo sterownik obciąża cpu potrzebne są specjalne narzędzia. niemniej na 8-wątkowcu warto otworzyć chociaż menagera zadań i sprawdzić jak obciążone są poszczególne rdzenie dla amd a jak dla nvidii
mbe2013.12.10, 08:14
-1#86
Patrząc po testach można dojść do wniosku że AMD zarobiło niezły rynek zbytu dla pentiuma.
KamiKAzeDBCZobacz profil
Poziom ostrzeżenia: 0%
KamiKAzeDBC2013.12.10, 08:10
-2#85
Fajnie jak byście taki test procka robili przy recenzji gry od dziś. Taka prośba ;)
tomcugZobacz profil
Poziom ostrzeżenia: 0%
tomcug2013.12.10, 06:49
Side, nie unoś się tak ;). Lepiej podać konkretne zarzuty, niż pisać, że test jest 'cienki jak d... węża' :E.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2013.12.10, 04:26
-13#83
To jest dowód na to ze PS3 nie jest trudno programowalna ale trudno jest deweloperom ujarzmić więcej niz 4 rdzenie i tyle. KZ2 hula na 6 rdzeniach (z PPE) dlatego port na nową generację to dla nich pierdnięcie. Na PC zawsze bedzie zastój bo deweloper nawet jak zrobi grę która hula na 6 rdzeniach to moze się okazać ze takich konfiguracji graczy którzy by kupili jego grę akurat jest kilka tysięcy na całym świecie.
*Konto usunięte*2013.12.10, 01:51
-5#82
hmm..ok.. @ 2013.12.10 01:07  Post: 707957
Wiele osób ma problem z wygospodarowaniem wystarczającej kasy na komputer pod gry, dlatego idą na 'dziwne' kompromisy i kupują celowo niezrównoważone konfiguracje, np. relatywnie 'mocny' procesor i słabą grafikę albo na odwrót, relatywnie 'mocną' grafikę i słaby procesor, i jednocześnie planują wymianę słabsze elementu powiedzmy po roku.
Na wymianę po roku 2 elementów na raz ich by nie było stać.

Kilka lat temu, w erze dwurdzeniowców ( x2 i core2duo ) ten problem był mniejszy bo do grania wystarczył procesor za 200-250 zł.
Proporcje w idealnej cenie komponentów też wyglądały trochę inaczej, grafika powinna wtedy być mniej więcej dwukrotnie droższa od procesora.

Teraz do grania potrzeba i3 za 500 zł, a 6300 FX za ponad 400zł to absolutne minimum.
Za to da się grać całkiem przyjemnie na tańszych kartach grafiki niż kiedyś. Proporcje w cenie proc/grafika uległy zmianie.

Mimo deklaracji autora test ma jednak praktyczne znaczenie, właśnie dla osób które mają ograniczony budżet, oraz dla tych którzy mają choćby 2-letni 2-rdzeniowy procesor i zastanawiają się czy zmienić samą grafikę czy również procesor.

Generalnie przydałby się jakiś art na temat upgradów 2-3 letnich komputerów, (sensowność, koszty, wzrost wydajności vs koszty itp itd )
Artykuł ciekawy, choć przydałoby uzupełnić o wykastrowane i7 4xxx K , np 2 i 3 rdzeniowej konfiguracji w taktowaniu obniżonym i podwyższonym.


Nie sądzę, by C2D nadawał się wtedy do gier, zwłaszcza tych, które były dedykowane konsolom, po prostu za słaby procek to był i zbyt duża różnica go dzieliła z CPU w konsolach. Xbox 360 wprowadził tak mocny procesor, że dopiero C2Q nadawał się....
Jak pomyśleć przez ten pryzmat to do grania potrzebowałeś 2xXeonów C2D co tanie nie było:)
sidebandZobacz profil
Poziom ostrzeżenia: 0%
sideband2013.12.10, 01:48
-12#81
RyszardGTS @ 2013.12.10 00:56  Post: 707954
Bardzo fajny artykuł :thumbup:
No i co da się pograć na mocnych dwurdzeniowych? DA SIĘ. Oczywiście nie popadajmy w skrajności że ktoś napisze 'ale nie działa na mega ultra high z fps 120', ale podobno dwa rdzenie nieważne czy amd/intel 'nie nadają się do gier' (no... bo gry to te 3-5 wiecznie przytaczanych tytułów i ich tabelek, a nie setki, tysiące innych).

Nie da się da grać , bo nie istnieje taki proc na rynku jak 4770k z 2core 2.3ghz oraz z tak duża ilością cache. Każdy kto siedzi w sterach to wie , że ten test cienki d.. węża.
hmm..ok..Zobacz profil
Poziom ostrzeżenia: 0%
hmm..ok..2013.12.10, 01:07
Wiele osób ma problem z wygospodarowaniem wystarczającej kasy na komputer pod gry, dlatego idą na 'dziwne' kompromisy i kupują celowo niezrównoważone konfiguracje, np. relatywnie 'mocny' procesor i słabą grafikę albo na odwrót, relatywnie 'mocną' grafikę i słaby procesor, i jednocześnie planują wymianę słabsze elementu powiedzmy po roku.
Na wymianę po roku 2 elementów na raz ich by nie było stać.

Kilka lat temu, w erze dwurdzeniowców ( x2 i core2duo ) ten problem był mniejszy bo do grania wystarczył procesor za 200-250 zł.
Proporcje w idealnej cenie komponentów też wyglądały trochę inaczej, grafika powinna wtedy być mniej więcej dwukrotnie droższa od procesora.

Teraz do grania potrzeba i3 za 500 zł, a 6300 FX za ponad 400zł to absolutne minimum.
Za to da się grać całkiem przyjemnie na tańszych kartach grafiki niż kiedyś. Proporcje w cenie proc/grafika uległy zmianie.

Mimo deklaracji autora test ma jednak praktyczne znaczenie, właśnie dla osób które mają ograniczony budżet, oraz dla tych którzy mają choćby 2-letni 2-rdzeniowy procesor i zastanawiają się czy zmienić samą grafikę czy również procesor.

Generalnie przydałby się jakiś art na temat upgradów 2-3 letnich komputerów, (sensowność, koszty, wzrost wydajności vs koszty itp itd )
Artykuł ciekawy, choć przydałoby uzupełnić o wykastrowane i7 4xxx K , 3 rdzeniowym @3.06 ghz
*Konto usunięte*2013.12.10, 01:06
-1#79
RyszardGTS @ 2013.12.10 00:56  Post: 707954
Bardzo fajny artykuł :thumbup:
No i co da się pograć na mocnych dwurdzeniowych? DA SIĘ. Oczywiście nie popadajmy w skrajności że ktoś napisze 'ale nie działa na mega ultra high z fps 120', ale podobno dwa rdzenie nieważne czy amd/intel 'nie nadają się do gier' (no... bo gry to te 3-5 wiecznie przytaczanych tytułów i ich tabelek, a nie setki, tysiące innych).

Wiesz to nie całkiem tak. Test pokazał, że da się, ale.... nie masz procesorów 2 rdzeniowych taktowanych 4.6GHz :)
Czyli masz rację o ile będzie to Haswell 2c@HT@4.6GHz.
RyszardGTSZobacz profil
Poziom ostrzeżenia: 0%
RyszardGTS2013.12.10, 00:56
Bardzo fajny artykuł :thumbup:
No i co da się pograć na mocnych dwurdzeniowych? DA SIĘ. Oczywiście nie popadajmy w skrajności że ktoś napisze 'ale nie działa na mega ultra high z fps 120', ale podobno dwa rdzenie nieważne czy amd/intel 'nie nadają się do gier' (no... bo gry to te 3-5 wiecznie przytaczanych tytułów i ich tabelek, a nie setki, tysiące innych).
*Konto usunięte*2013.12.10, 00:29
Assassin @ 2013.12.09 21:13  Post: 707891
Bardzo ciekawy artykuł, oby więcej takich.

Swoją drogą można odmienić sformułowanie 'optymalizacja wielowątkowa' przez wszystkie przypadki, ale jeśli w 2 przypadkach procesor 2,3GHz + HT zapewnia lepszą wydajność od procesora 4,6GHz bez HT to...dla mnie jest to po prostu zepsute oprogramowanie. Grzech dużo większego kalibru niż powszechnie krytykowany brak wsparcia wielu rdzeni w niektórych nowych engine'ach.

Chętnie przeczytałbym też taką naukową, teoretyczną analizę działania sterowników Nvidii i AMD. Nie ukrywam, że mam swoje teorie:
- hipoteza nr 1: Nvidia wykorzystuje do obsługi API i sterownika jednostki INT procesora; dzięki HT możliwe jest jednoczesne puszczenie 2 wątków INT (sterownik, drawcalle) i 2 wątków FP (gra); w przypadku 2 rdzeni bez HT jednostki INT i FP wzajemnie się blokują i rywalizują o zasoby;
- hipoteza nr 2: sterownik Nvidii korzystając z jednostek INT procesora kompresuje bądź w inny sposób obrabia dane, przez co drawcalle nie obciążają tak bardzo pojedynczego wątku; proces kompresji potrafi wykorzystać co najmniej 8 wątków, ale w przypadku procesorów dwuwątkowych zbyt mało zasobów pozostaje na samą grę.

Ciekawe, czy to tylko wytwory mojej chorej wyobraźni, czy może jednak coś jest na rzeczy ;)

To dalej hipoteza. Redaktorzy powinni to uzasadniać:) To wyniki strasznie empiryczne nie poparte jakimiś danymi tłumaczącymi je.
Zauważ, że masz 2C 4.6GHz vs 4C 2.3 GHz. Teoretycznie to dokładnie ta sama moc obliczeniowa. W tym momencie obie hipotezy nie tłumaczą tak znacznego wzrostu wydajności.

Hipoteza 1 też nie sprawdza się w np. Rome II/SC2. Gdzie z oczywistych względów masz własnie tutaj wlasnie żyłowany sterownik graficzny na maxa (najwięcej drawcall).
MarKol4Zobacz profil
Poziom ostrzeżenia: 0%
MarKol42013.12.10, 00:26
-1#76
Assassin @ 2013.12.09 21:13  Post: 707891
Bardzo ciekawy artykuł, oby więcej takich.

Swoją drogą można odmienić sformułowanie 'optymalizacja wielowątkowa' przez wszystkie przypadki, ale jeśli w 2 przypadkach procesor 2,3GHz + HT zapewnia lepszą wydajność od procesora 4,6GHz bez HT to...dla mnie jest to po prostu zepsute oprogramowanie. Grzech dużo większego kalibru niż powszechnie krytykowany brak wsparcia wielu rdzeni w niektórych nowych engine'ach.


Prawda. Pamietam swego czasu takie rozwazania gdzie sie liczylo to i owo. Z rozwiazaniem problemu dwa slabsze (rowno o polowe) rdzenie powinny poradzic sobie zawsze wolniej od jednego (ze wzgledu na konieczny narzut komunikacyjny i synchronizacje chocby). Natomiast mogly lepiej wypadac w czasie reakcji - gdzie moze sie zdarzyc, ze ten czas bedzie srednio krotszy.

To oczywiscie zakladajac ze porownujemy idealna implementacje rozwiazania na jeden rdzen z idealna implementacja rozwiazania na dwa rdzenie (no i pomijamy takie problemy jak np. fakt ze szybszy procesor byc moze bedzie musial tracic bezczynnie czas na oczekiwanie na dane z pamieci podczas gdy 2x wolniejszy bedzie tracil tego czasu mniej).

halflife2004Zobacz profil
Poziom ostrzeżenia: 0%
halflife20042013.12.09, 22:54
gregotsw @ 2013.12.09 22:48  Post: 707935
@halflife2004

Pamiętaj, że obecnie miejsca gdzie robotę ma CPU(wybuchy, fizyka obiektów, AI) zazwyczaj pokrywają się z wieloma postaciami, złożonymi obiektami, efektami cząsteczkowymi, dymem itd.

Dlatego testować karty graficzne powinno się w miejscach ogólnie obciążających - takich które oddają realną rozgrywkę.(przykład BF4 multiplayer)


No dobrze ja się z tym zgadzam, ale najczęściej tak nie jest, do GPU wybiera się miejsca gdzie najwięcej do roboty ma GPU i tam sprawdza się ich wydajność (co jest słuszne z punktu widzenia oceny samej wydajności GPU), do CPU miejsca zależne od CPU. Zgodzę się jednak że powinno się testować głównie kombinacje bo to ona mówi nam jak gra faktycznie działa, tylko jak uzasadnić taki test ? Nie testujemy CPU, nie testujemy GPU, to co dany zestaw pod dany sterownik ? Gdyby nie problemy AMD z sterownikiem to nie było by w ogóle tematu, wybieramy kartę z testów wydajnościowych + procesor z testów wydajnościowych i mamy kombinacje, a tutaj się okazuje że nie zawsze jest to realne zestawienie. Można np. to zobaczyć tak jak mówisz na testach z pclaba multiplayer z BF.

Najlepiej jakby focus się w tej kwestii wypowiedział ;)
gregotswZobacz profil
Poziom ostrzeżenia: 0%
gregotsw2013.12.09, 22:48
@halflife2004

Pamiętaj, że obecnie miejsca gdzie robotę ma CPU(wybuchy, fizyka obiektów, AI) zazwyczaj pokrywają się z wieloma postaciami, złożonymi obiektami, efektami cząsteczkowymi, dymem itd.

Dlatego testować karty graficzne powinno się w miejscach ogólnie obciążających - takich które oddają realną rozgrywkę.(przykład BF4 multiplayer)
halflife2004Zobacz profil
Poziom ostrzeżenia: 0%
halflife20042013.12.09, 22:39
Focus mam pytanie bo piszesz że nie można porównywać przez ten artykuł działania kart i ich wydajności (oczywiście to prawda, bo ją zmierzy się na teście odnośnie samego GPU), ale jeśli gry to kombinacja GPU/CPU to nadal wychodzi nam na to że w miejscach krytycznych GPU od NV w większości przypadków lepiej działa niż GPU od AMD dla wybranych przykładów np. na 4C+HT, co więcej najprawdopodobniej osoby o zestawie np. 4770K+780 będą miał większy min. fps przez całą grę, w większości gier niż osoby z 290X przez to realna wydajność samego GPU mało znaczy w takim przypadku (ponieważ zazwyczaj trzeba czekać na bardziej poprawione/zoptymalizowane sterowniki). Mylę się ?

gregotsw @ 2013.12.09 22:23  Post: 707927
...


przecież do testów GPU wybiera się miejsca zależne od GPU albo bardzo zależne, tak samo jak dla testów CPU szuka się miejsc zależnych od CPU. Mało kiedy albo i chyba w ogóle nie robi się testów kombinacji, prawdopodobnie ze względu na czas takiego testu. Moim zdaniem temat trudny o tyle że o ile prawdopodobnie łatwo jest dość przetestować GPU/CPU to trudniej przetestować całą grę na danym sterowniku. Wiele osób które mają np. 290X porównują wydajność tej karty do 780 i często mają niższy min. fps np. w BF3/BF4 co dla wielu osób wydaje się dziwne ze względu na to że 290X to mocniejsze GPU.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.