aby zbadać jak bardzo sterownik obciąża cpu potrzebne są specjalne narzędzia. niemniej na 8-wątkowcu warto otworzyć chociaż menagera zadań i sprawdzić jak obciążone są poszczególne rdzenie dla amd a jak dla nvidii
Zgadzam się z tym, że obserwacja efektów nie jest najdoskonalszą formą badania. Z drugiej strony: jakie to ma znaczenie dla końcowego użytkownika? Przekaz jest jasny i prosty: z jakiegoś powodu jedna karta zachowuje się tak, a inna tak i nie jest to temat jednej gry.
Co do badania obciążenia procesora za pomocą task managera, to ponownie odpowiem: wg menadżera zadań różnicy pomiędzy FX-4300, a FX-6300 być nie powinno, a jednak wyniki mówią co innego. Oczywiście wszyscy wiemy dlaczego ma to miejsce, ale to tylko potwierdza tą metodę 'badawczą' jako błędną.
co do pierwszego akapitu: ale wyciągacie wnioski. warto aby te wnioski były klasy światowej jak np 'test cpu na koniec 2012' a nie takie jakie może sobie wyklikać janek w garażu w koziej wólce. macie sprzęt, ludzi, czegóż więcej brak? dodatkowo w tytule jest fraza ''naukowe podejście do wydajności procesorów'' rozumiem że to taki 1 kwiecień
co do drugiego akapit: byłaby to prawda gdyby cpu obciążał tylko sam proces gry. jednak czas procesora zajmuje sterownik i tu sterownik nvidii jest bardziej ''inteligentny''. nie sądzisz chyba że screen jaki wkleiłem w komentarzu nr51 to proces AC4BF obciążający 11 wątków (jeden cpu logiczny był wyłączony). jak widać ster nvidii korzysta z tylu rdzeni logicznych ile jest dostępnych, dla amd zapewne jest inaczej, strzelam: ster amd siedzi na sztywno na 2 wątkach. ale tu własnie jest pies pogrzebany, i to właśnie trzeba sprawdzić a nie bawić się w wyciąganie wniosków npdst nieznanych założeń.
i tak jak pisałem wcześniej gdyby jeszcze były dorzucone analogiczne pomiary dla 6 rdzeni z ht i bez ht z różnym taktowaniem to można by sie pokusić o analizę problemu. tak jak jest to wróżenie z fusów bo danych wsadowych jest za mało i wniosek będzie obarczony dużym błędem
Hipoteza 1 też nie sprawdza się w np. Rome II/SC2. Gdzie z oczywistych względów masz własnie tutaj wlasnie żyłowany sterownik graficzny na maxa (najwięcej drawcall).
To jest też ciekawa kwestia, bo wyraźnie widać, że w grach dwuwątkowych albo wielowątkowych uzaleznionych jednak od wydajności 1 rdzenia połączenie 2 wątki + Geforce wypada raczej normalnie. Tyle, że przecież w takich grach obciążenie dwuwątkowego procesora i tak dochodzi do 100%, nawet na Radeonie. Można by więc przypuszczać, że procesory 2c/2t nie radzą sobie z równoczesnym puszczeniem wielu wątków na 1 rdzeniu, tyle że jakoś w innych programach tego nie widać (w niektórych aplikacjach do renderingu nawet lepiej jest puścić więcej wątków niż rdzeni, żeby w pełni wykorzystać sprzęt)...
Nie da się da grać , bo nie istnieje taki proc na rynku jak 4770k z 2core 2.3ghz oraz z tak duża ilością cache. Każdy kto siedzi w sterach to wie , że ten test cienki d.. węża.
egzactly
aby zbadać jak bardzo sterownik obciąża cpu potrzebne są specjalne narzędzia. niemniej na 8-wątkowcu warto otworzyć chociaż menagera zadań i sprawdzić jak obciążone są poszczególne rdzenie dla amd a jak dla nvidii
Zgadzam się z tym, że obserwacja efektów nie jest najdoskonalszą formą badania. Z drugiej strony: jakie to ma znaczenie dla końcowego użytkownika? Przekaz jest jasny i prosty: z jakiegoś powodu jedna karta zachowuje się tak, a inna tak i nie jest to temat jednej gry.
Co do badania obciążenia procesora za pomocą task managera, to ponownie odpowiem: wg menadżera zadań różnicy pomiędzy FX-4300, a FX-6300 być nie powinno, a jednak wyniki mówią co innego. Oczywiście wszyscy wiemy dlaczego ma to miejsce, ale to tylko potwierdza tą metodę 'badawczą' jako błędną.
Szkoda, że nie ma i3 z dopiskiem k w przystępnej cenie Ciekawe czy by choć trochę lepiej się kręcił ni i5 i i7.
Gdyby się nam udało zrobić 5 GHz na '2-rdzeniowym' Haswellu, to byśmy przy takiej częstotliwości przeprowadzili test, ale jak widać nie przeprowadziliśmy.
Bardzo fajny artykuł
No i co da się pograć na mocnych dwurdzeniowych? DA SIĘ. Oczywiście nie popadajmy w skrajności że ktoś napisze 'ale nie działa na mega ultra high z fps 120', ale podobno dwa rdzenie nieważne czy amd/intel 'nie nadają się do gier' (no... bo gry to te 3-5 wiecznie przytaczanych tytułów i ich tabelek, a nie setki, tysiące innych).
Nie da się da grać , bo nie istnieje taki proc na rynku jak 4770k z 2core 2.3ghz oraz z tak duża ilością cache. Każdy kto siedzi w sterach to wie , że ten test cienki d.. węża.
egzactly
aby zbadać jak bardzo sterownik obciąża cpu potrzebne są specjalne narzędzia. niemniej na 8-wątkowcu warto otworzyć chociaż menagera zadań i sprawdzić jak obciążone są poszczególne rdzenie dla amd a jak dla nvidii
To jest dowód na to ze PS3 nie jest trudno programowalna ale trudno jest deweloperom ujarzmić więcej niz 4 rdzenie i tyle. KZ2 hula na 6 rdzeniach (z PPE) dlatego port na nową generację to dla nich pierdnięcie. Na PC zawsze bedzie zastój bo deweloper nawet jak zrobi grę która hula na 6 rdzeniach to moze się okazać ze takich konfiguracji graczy którzy by kupili jego grę akurat jest kilka tysięcy na całym świecie.
Wiele osób ma problem z wygospodarowaniem wystarczającej kasy na komputer pod gry, dlatego idą na 'dziwne' kompromisy i kupują celowo niezrównoważone konfiguracje, np. relatywnie 'mocny' procesor i słabą grafikę albo na odwrót, relatywnie 'mocną' grafikę i słaby procesor, i jednocześnie planują wymianę słabsze elementu powiedzmy po roku.
Na wymianę po roku 2 elementów na raz ich by nie było stać.
Kilka lat temu, w erze dwurdzeniowców ( x2 i core2duo ) ten problem był mniejszy bo do grania wystarczył procesor za 200-250 zł.
Proporcje w idealnej cenie komponentów też wyglądały trochę inaczej, grafika powinna wtedy być mniej więcej dwukrotnie droższa od procesora.
Teraz do grania potrzeba i3 za 500 zł, a 6300 FX za ponad 400zł to absolutne minimum.
Za to da się grać całkiem przyjemnie na tańszych kartach grafiki niż kiedyś. Proporcje w cenie proc/grafika uległy zmianie.
Mimo deklaracji autora test ma jednak praktyczne znaczenie, właśnie dla osób które mają ograniczony budżet, oraz dla tych którzy mają choćby 2-letni 2-rdzeniowy procesor i zastanawiają się czy zmienić samą grafikę czy również procesor.
Generalnie przydałby się jakiś art na temat upgradów 2-3 letnich komputerów, (sensowność, koszty, wzrost wydajności vs koszty itp itd )
Artykuł ciekawy, choć przydałoby uzupełnić o wykastrowane i7 4xxx K , np 2 i 3 rdzeniowej konfiguracji w taktowaniu obniżonym i podwyższonym.
Nie sądzę, by C2D nadawał się wtedy do gier, zwłaszcza tych, które były dedykowane konsolom, po prostu za słaby procek to był i zbyt duża różnica go dzieliła z CPU w konsolach. Xbox 360 wprowadził tak mocny procesor, że dopiero C2Q nadawał się....
Jak pomyśleć przez ten pryzmat to do grania potrzebowałeś 2xXeonów C2D co tanie nie było
Bardzo fajny artykuł
No i co da się pograć na mocnych dwurdzeniowych? DA SIĘ. Oczywiście nie popadajmy w skrajności że ktoś napisze 'ale nie działa na mega ultra high z fps 120', ale podobno dwa rdzenie nieważne czy amd/intel 'nie nadają się do gier' (no... bo gry to te 3-5 wiecznie przytaczanych tytułów i ich tabelek, a nie setki, tysiące innych).
Nie da się da grać , bo nie istnieje taki proc na rynku jak 4770k z 2core 2.3ghz oraz z tak duża ilością cache. Każdy kto siedzi w sterach to wie , że ten test cienki d.. węża.
Wiele osób ma problem z wygospodarowaniem wystarczającej kasy na komputer pod gry, dlatego idą na 'dziwne' kompromisy i kupują celowo niezrównoważone konfiguracje, np. relatywnie 'mocny' procesor i słabą grafikę albo na odwrót, relatywnie 'mocną' grafikę i słaby procesor, i jednocześnie planują wymianę słabsze elementu powiedzmy po roku.
Na wymianę po roku 2 elementów na raz ich by nie było stać.
Kilka lat temu, w erze dwurdzeniowców ( x2 i core2duo ) ten problem był mniejszy bo do grania wystarczył procesor za 200-250 zł.
Proporcje w idealnej cenie komponentów też wyglądały trochę inaczej, grafika powinna wtedy być mniej więcej dwukrotnie droższa od procesora.
Teraz do grania potrzeba i3 za 500 zł, a 6300 FX za ponad 400zł to absolutne minimum.
Za to da się grać całkiem przyjemnie na tańszych kartach grafiki niż kiedyś. Proporcje w cenie proc/grafika uległy zmianie.
Mimo deklaracji autora test ma jednak praktyczne znaczenie, właśnie dla osób które mają ograniczony budżet, oraz dla tych którzy mają choćby 2-letni 2-rdzeniowy procesor i zastanawiają się czy zmienić samą grafikę czy również procesor.
Generalnie przydałby się jakiś art na temat upgradów 2-3 letnich komputerów, (sensowność, koszty, wzrost wydajności vs koszty itp itd )
Artykuł ciekawy, choć przydałoby uzupełnić o wykastrowane i7 4xxx K , 3 rdzeniowym @3.06 ghz
Bardzo fajny artykuł
No i co da się pograć na mocnych dwurdzeniowych? DA SIĘ. Oczywiście nie popadajmy w skrajności że ktoś napisze 'ale nie działa na mega ultra high z fps 120', ale podobno dwa rdzenie nieważne czy amd/intel 'nie nadają się do gier' (no... bo gry to te 3-5 wiecznie przytaczanych tytułów i ich tabelek, a nie setki, tysiące innych).
Wiesz to nie całkiem tak. Test pokazał, że da się, ale.... nie masz procesorów 2 rdzeniowych taktowanych 4.6GHz
Czyli masz rację o ile będzie to Haswell 2c@HT@4.6GHz.
Bardzo fajny artykuł
No i co da się pograć na mocnych dwurdzeniowych? DA SIĘ. Oczywiście nie popadajmy w skrajności że ktoś napisze 'ale nie działa na mega ultra high z fps 120', ale podobno dwa rdzenie nieważne czy amd/intel 'nie nadają się do gier' (no... bo gry to te 3-5 wiecznie przytaczanych tytułów i ich tabelek, a nie setki, tysiące innych).
Swoją drogą można odmienić sformułowanie 'optymalizacja wielowątkowa' przez wszystkie przypadki, ale jeśli w 2 przypadkach procesor 2,3GHz + HT zapewnia lepszą wydajność od procesora 4,6GHz bez HT to...dla mnie jest to po prostu zepsute oprogramowanie. Grzech dużo większego kalibru niż powszechnie krytykowany brak wsparcia wielu rdzeni w niektórych nowych engine'ach.
Chętnie przeczytałbym też taką naukową, teoretyczną analizę działania sterowników Nvidii i AMD. Nie ukrywam, że mam swoje teorie:
- hipoteza nr 1: Nvidia wykorzystuje do obsługi API i sterownika jednostki INT procesora; dzięki HT możliwe jest jednoczesne puszczenie 2 wątków INT (sterownik, drawcalle) i 2 wątków FP (gra); w przypadku 2 rdzeni bez HT jednostki INT i FP wzajemnie się blokują i rywalizują o zasoby;
- hipoteza nr 2: sterownik Nvidii korzystając z jednostek INT procesora kompresuje bądź w inny sposób obrabia dane, przez co drawcalle nie obciążają tak bardzo pojedynczego wątku; proces kompresji potrafi wykorzystać co najmniej 8 wątków, ale w przypadku procesorów dwuwątkowych zbyt mało zasobów pozostaje na samą grę.
Ciekawe, czy to tylko wytwory mojej chorej wyobraźni, czy może jednak coś jest na rzeczy
To dalej hipoteza. Redaktorzy powinni to uzasadniać To wyniki strasznie empiryczne nie poparte jakimiś danymi tłumaczącymi je.
Zauważ, że masz 2C 4.6GHz vs 4C 2.3 GHz. Teoretycznie to dokładnie ta sama moc obliczeniowa. W tym momencie obie hipotezy nie tłumaczą tak znacznego wzrostu wydajności.
Hipoteza 1 też nie sprawdza się w np. Rome II/SC2. Gdzie z oczywistych względów masz własnie tutaj wlasnie żyłowany sterownik graficzny na maxa (najwięcej drawcall).
Swoją drogą można odmienić sformułowanie 'optymalizacja wielowątkowa' przez wszystkie przypadki, ale jeśli w 2 przypadkach procesor 2,3GHz + HT zapewnia lepszą wydajność od procesora 4,6GHz bez HT to...dla mnie jest to po prostu zepsute oprogramowanie. Grzech dużo większego kalibru niż powszechnie krytykowany brak wsparcia wielu rdzeni w niektórych nowych engine'ach.
Prawda. Pamietam swego czasu takie rozwazania gdzie sie liczylo to i owo. Z rozwiazaniem problemu dwa slabsze (rowno o polowe) rdzenie powinny poradzic sobie zawsze wolniej od jednego (ze wzgledu na konieczny narzut komunikacyjny i synchronizacje chocby). Natomiast mogly lepiej wypadac w czasie reakcji - gdzie moze sie zdarzyc, ze ten czas bedzie srednio krotszy.
To oczywiscie zakladajac ze porownujemy idealna implementacje rozwiazania na jeden rdzen z idealna implementacja rozwiazania na dwa rdzenie (no i pomijamy takie problemy jak np. fakt ze szybszy procesor byc moze bedzie musial tracic bezczynnie czas na oczekiwanie na dane z pamieci podczas gdy 2x wolniejszy bedzie tracil tego czasu mniej).
Pamiętaj, że obecnie miejsca gdzie robotę ma CPU(wybuchy, fizyka obiektów, AI) zazwyczaj pokrywają się z wieloma postaciami, złożonymi obiektami, efektami cząsteczkowymi, dymem itd.
Dlatego testować karty graficzne powinno się w miejscach ogólnie obciążających - takich które oddają realną rozgrywkę.(przykład BF4 multiplayer)
No dobrze ja się z tym zgadzam, ale najczęściej tak nie jest, do GPU wybiera się miejsca gdzie najwięcej do roboty ma GPU i tam sprawdza się ich wydajność (co jest słuszne z punktu widzenia oceny samej wydajności GPU), do CPU miejsca zależne od CPU. Zgodzę się jednak że powinno się testować głównie kombinacje bo to ona mówi nam jak gra faktycznie działa, tylko jak uzasadnić taki test ? Nie testujemy CPU, nie testujemy GPU, to co dany zestaw pod dany sterownik ? Gdyby nie problemy AMD z sterownikiem to nie było by w ogóle tematu, wybieramy kartę z testów wydajnościowych + procesor z testów wydajnościowych i mamy kombinacje, a tutaj się okazuje że nie zawsze jest to realne zestawienie. Można np. to zobaczyć tak jak mówisz na testach z pclaba multiplayer z BF.
Najlepiej jakby focus się w tej kwestii wypowiedział
Pamiętaj, że obecnie miejsca gdzie robotę ma CPU(wybuchy, fizyka obiektów, AI) zazwyczaj pokrywają się z wieloma postaciami, złożonymi obiektami, efektami cząsteczkowymi, dymem itd.
Dlatego testować karty graficzne powinno się w miejscach ogólnie obciążających - takich które oddają realną rozgrywkę.(przykład BF4 multiplayer)
Focus mam pytanie bo piszesz że nie można porównywać przez ten artykuł działania kart i ich wydajności (oczywiście to prawda, bo ją zmierzy się na teście odnośnie samego GPU), ale jeśli gry to kombinacja GPU/CPU to nadal wychodzi nam na to że w miejscach krytycznych GPU od NV w większości przypadków lepiej działa niż GPU od AMD dla wybranych przykładów np. na 4C+HT, co więcej najprawdopodobniej osoby o zestawie np. 4770K+780 będą miał większy min. fps przez całą grę, w większości gier niż osoby z 290X przez to realna wydajność samego GPU mało znaczy w takim przypadku (ponieważ zazwyczaj trzeba czekać na bardziej poprawione/zoptymalizowane sterowniki). Mylę się ?
gregotsw @ 2013.12.09 22:23
...
przecież do testów GPU wybiera się miejsca zależne od GPU albo bardzo zależne, tak samo jak dla testów CPU szuka się miejsc zależnych od CPU. Mało kiedy albo i chyba w ogóle nie robi się testów kombinacji, prawdopodobnie ze względu na czas takiego testu. Moim zdaniem temat trudny o tyle że o ile prawdopodobnie łatwo jest dość przetestować GPU/CPU to trudniej przetestować całą grę na danym sterowniku. Wiele osób które mają np. 290X porównują wydajność tej karty do 780 i często mają niższy min. fps np. w BF3/BF4 co dla wielu osób wydaje się dziwne ze względu na to że 290X to mocniejsze GPU.
egzactly
aby zbadać jak bardzo sterownik obciąża cpu potrzebne są specjalne narzędzia. niemniej na 8-wątkowcu warto otworzyć chociaż menagera zadań i sprawdzić jak obciążone są poszczególne rdzenie dla amd a jak dla nvidii
Zgadzam się z tym, że obserwacja efektów nie jest najdoskonalszą formą badania. Z drugiej strony: jakie to ma znaczenie dla końcowego użytkownika? Przekaz jest jasny i prosty: z jakiegoś powodu jedna karta zachowuje się tak, a inna tak i nie jest to temat jednej gry.
Co do badania obciążenia procesora za pomocą task managera, to ponownie odpowiem: wg menadżera zadań różnicy pomiędzy FX-4300, a FX-6300 być nie powinno, a jednak wyniki mówią co innego. Oczywiście wszyscy wiemy dlaczego ma to miejsce, ale to tylko potwierdza tą metodę 'badawczą' jako błędną.
co do pierwszego akapitu: ale wyciągacie wnioski. warto aby te wnioski były klasy światowej jak np 'test cpu na koniec 2012' a nie takie jakie może sobie wyklikać janek w garażu w koziej wólce. macie sprzęt, ludzi, czegóż więcej brak? dodatkowo w tytule jest fraza ''naukowe podejście do wydajności procesorów''
co do drugiego akapit: byłaby to prawda gdyby cpu obciążał tylko sam proces gry. jednak czas procesora zajmuje sterownik i tu sterownik nvidii jest bardziej ''inteligentny''. nie sądzisz chyba że screen jaki wkleiłem w komentarzu nr51 to proces AC4BF obciążający 11 wątków (jeden cpu logiczny był wyłączony). jak widać ster nvidii korzysta z tylu rdzeni logicznych ile jest dostępnych, dla amd zapewne jest inaczej, strzelam: ster amd siedzi na sztywno na 2 wątkach. ale tu własnie jest pies pogrzebany, i to właśnie trzeba sprawdzić a nie bawić się w wyciąganie wniosków npdst nieznanych założeń.
i tak jak pisałem wcześniej gdyby jeszcze były dorzucone analogiczne pomiary dla 6 rdzeni z ht i bez ht z różnym taktowaniem to można by sie pokusić o analizę problemu. tak jak jest to wróżenie z fusów bo danych wsadowych jest za mało i wniosek będzie obarczony dużym błędem
To jest też ciekawa kwestia, bo wyraźnie widać, że w grach dwuwątkowych albo wielowątkowych uzaleznionych jednak od wydajności 1 rdzenia połączenie 2 wątki + Geforce wypada raczej normalnie. Tyle, że przecież w takich grach obciążenie dwuwątkowego procesora i tak dochodzi do 100%, nawet na Radeonie. Można by więc przypuszczać, że procesory 2c/2t nie radzą sobie z równoczesnym puszczeniem wielu wątków na 1 rdzeniu, tyle że jakoś w innych programach tego nie widać (w niektórych aplikacjach do renderingu nawet lepiej jest puścić więcej wątków niż rdzeni, żeby w pełni wykorzystać sprzęt)...
Nie da się da grać , bo nie istnieje taki proc na rynku jak 4770k z 2core 2.3ghz oraz z tak duża ilością cache. Każdy kto siedzi w sterach to wie , że ten test cienki d.. węża.
egzactly
aby zbadać jak bardzo sterownik obciąża cpu potrzebne są specjalne narzędzia. niemniej na 8-wątkowcu warto otworzyć chociaż menagera zadań i sprawdzić jak obciążone są poszczególne rdzenie dla amd a jak dla nvidii
Zgadzam się z tym, że obserwacja efektów nie jest najdoskonalszą formą badania. Z drugiej strony: jakie to ma znaczenie dla końcowego użytkownika? Przekaz jest jasny i prosty: z jakiegoś powodu jedna karta zachowuje się tak, a inna tak i nie jest to temat jednej gry.
Co do badania obciążenia procesora za pomocą task managera, to ponownie odpowiem: wg menadżera zadań różnicy pomiędzy FX-4300, a FX-6300 być nie powinno, a jednak wyniki mówią co innego. Oczywiście wszyscy wiemy dlaczego ma to miejsce, ale to tylko potwierdza tą metodę 'badawczą' jako błędną.
Gdyby się nam udało zrobić 5 GHz na '2-rdzeniowym' Haswellu, to byśmy przy takiej częstotliwości przeprowadzili test, ale jak widać nie przeprowadziliśmy.
No i co da się pograć na mocnych dwurdzeniowych? DA SIĘ. Oczywiście nie popadajmy w skrajności że ktoś napisze 'ale nie działa na mega ultra high z fps 120', ale podobno dwa rdzenie nieważne czy amd/intel 'nie nadają się do gier' (no... bo gry to te 3-5 wiecznie przytaczanych tytułów i ich tabelek, a nie setki, tysiące innych).
Nie da się da grać , bo nie istnieje taki proc na rynku jak 4770k z 2core 2.3ghz oraz z tak duża ilością cache. Każdy kto siedzi w sterach to wie , że ten test cienki d.. węża.
egzactly
aby zbadać jak bardzo sterownik obciąża cpu potrzebne są specjalne narzędzia. niemniej na 8-wątkowcu warto otworzyć chociaż menagera zadań i sprawdzić jak obciążone są poszczególne rdzenie dla amd a jak dla nvidii
Na wymianę po roku 2 elementów na raz ich by nie było stać.
Kilka lat temu, w erze dwurdzeniowców ( x2 i core2duo ) ten problem był mniejszy bo do grania wystarczył procesor za 200-250 zł.
Proporcje w idealnej cenie komponentów też wyglądały trochę inaczej, grafika powinna wtedy być mniej więcej dwukrotnie droższa od procesora.
Teraz do grania potrzeba i3 za 500 zł, a 6300 FX za ponad 400zł to absolutne minimum.
Za to da się grać całkiem przyjemnie na tańszych kartach grafiki niż kiedyś. Proporcje w cenie proc/grafika uległy zmianie.
Mimo deklaracji autora test ma jednak praktyczne znaczenie, właśnie dla osób które mają ograniczony budżet, oraz dla tych którzy mają choćby 2-letni 2-rdzeniowy procesor i zastanawiają się czy zmienić samą grafikę czy również procesor.
Generalnie przydałby się jakiś art na temat upgradów 2-3 letnich komputerów, (sensowność, koszty, wzrost wydajności vs koszty itp itd )
Artykuł ciekawy, choć przydałoby uzupełnić o wykastrowane i7 4xxx K , np 2 i 3 rdzeniowej konfiguracji w taktowaniu obniżonym i podwyższonym.
Nie sądzę, by C2D nadawał się wtedy do gier, zwłaszcza tych, które były dedykowane konsolom, po prostu za słaby procek to był i zbyt duża różnica go dzieliła z CPU w konsolach. Xbox 360 wprowadził tak mocny procesor, że dopiero C2Q nadawał się....
Jak pomyśleć przez ten pryzmat to do grania potrzebowałeś 2xXeonów C2D co tanie nie było
No i co da się pograć na mocnych dwurdzeniowych? DA SIĘ. Oczywiście nie popadajmy w skrajności że ktoś napisze 'ale nie działa na mega ultra high z fps 120', ale podobno dwa rdzenie nieważne czy amd/intel 'nie nadają się do gier' (no... bo gry to te 3-5 wiecznie przytaczanych tytułów i ich tabelek, a nie setki, tysiące innych).
Nie da się da grać , bo nie istnieje taki proc na rynku jak 4770k z 2core 2.3ghz oraz z tak duża ilością cache. Każdy kto siedzi w sterach to wie , że ten test cienki d.. węża.
Na wymianę po roku 2 elementów na raz ich by nie było stać.
Kilka lat temu, w erze dwurdzeniowców ( x2 i core2duo ) ten problem był mniejszy bo do grania wystarczył procesor za 200-250 zł.
Proporcje w idealnej cenie komponentów też wyglądały trochę inaczej, grafika powinna wtedy być mniej więcej dwukrotnie droższa od procesora.
Teraz do grania potrzeba i3 za 500 zł, a 6300 FX za ponad 400zł to absolutne minimum.
Za to da się grać całkiem przyjemnie na tańszych kartach grafiki niż kiedyś. Proporcje w cenie proc/grafika uległy zmianie.
Mimo deklaracji autora test ma jednak praktyczne znaczenie, właśnie dla osób które mają ograniczony budżet, oraz dla tych którzy mają choćby 2-letni 2-rdzeniowy procesor i zastanawiają się czy zmienić samą grafikę czy również procesor.
Generalnie przydałby się jakiś art na temat upgradów 2-3 letnich komputerów, (sensowność, koszty, wzrost wydajności vs koszty itp itd )
Artykuł ciekawy, choć przydałoby uzupełnić o wykastrowane i7 4xxx K , 3 rdzeniowym @3.06 ghz
No i co da się pograć na mocnych dwurdzeniowych? DA SIĘ. Oczywiście nie popadajmy w skrajności że ktoś napisze 'ale nie działa na mega ultra high z fps 120', ale podobno dwa rdzenie nieważne czy amd/intel 'nie nadają się do gier' (no... bo gry to te 3-5 wiecznie przytaczanych tytułów i ich tabelek, a nie setki, tysiące innych).
Wiesz to nie całkiem tak. Test pokazał, że da się, ale.... nie masz procesorów 2 rdzeniowych taktowanych 4.6GHz
Czyli masz rację o ile będzie to Haswell 2c@HT@4.6GHz.
No i co da się pograć na mocnych dwurdzeniowych? DA SIĘ. Oczywiście nie popadajmy w skrajności że ktoś napisze 'ale nie działa na mega ultra high z fps 120', ale podobno dwa rdzenie nieważne czy amd/intel 'nie nadają się do gier' (no... bo gry to te 3-5 wiecznie przytaczanych tytułów i ich tabelek, a nie setki, tysiące innych).
Swoją drogą można odmienić sformułowanie 'optymalizacja wielowątkowa' przez wszystkie przypadki, ale jeśli w 2 przypadkach procesor 2,3GHz + HT zapewnia lepszą wydajność od procesora 4,6GHz bez HT to...dla mnie jest to po prostu zepsute oprogramowanie. Grzech dużo większego kalibru niż powszechnie krytykowany brak wsparcia wielu rdzeni w niektórych nowych engine'ach.
Chętnie przeczytałbym też taką naukową, teoretyczną analizę działania sterowników Nvidii i AMD. Nie ukrywam, że mam swoje teorie:
- hipoteza nr 1: Nvidia wykorzystuje do obsługi API i sterownika jednostki INT procesora; dzięki HT możliwe jest jednoczesne puszczenie 2 wątków INT (sterownik, drawcalle) i 2 wątków FP (gra); w przypadku 2 rdzeni bez HT jednostki INT i FP wzajemnie się blokują i rywalizują o zasoby;
- hipoteza nr 2: sterownik Nvidii korzystając z jednostek INT procesora kompresuje bądź w inny sposób obrabia dane, przez co drawcalle nie obciążają tak bardzo pojedynczego wątku; proces kompresji potrafi wykorzystać co najmniej 8 wątków, ale w przypadku procesorów dwuwątkowych zbyt mało zasobów pozostaje na samą grę.
Ciekawe, czy to tylko wytwory mojej chorej wyobraźni, czy może jednak coś jest na rzeczy
To dalej hipoteza. Redaktorzy powinni to uzasadniać
Zauważ, że masz 2C 4.6GHz vs 4C 2.3 GHz. Teoretycznie to dokładnie ta sama moc obliczeniowa. W tym momencie obie hipotezy nie tłumaczą tak znacznego wzrostu wydajności.
Hipoteza 1 też nie sprawdza się w np. Rome II/SC2. Gdzie z oczywistych względów masz własnie tutaj wlasnie żyłowany sterownik graficzny na maxa (najwięcej drawcall).
Swoją drogą można odmienić sformułowanie 'optymalizacja wielowątkowa' przez wszystkie przypadki, ale jeśli w 2 przypadkach procesor 2,3GHz + HT zapewnia lepszą wydajność od procesora 4,6GHz bez HT to...dla mnie jest to po prostu zepsute oprogramowanie. Grzech dużo większego kalibru niż powszechnie krytykowany brak wsparcia wielu rdzeni w niektórych nowych engine'ach.
Prawda. Pamietam swego czasu takie rozwazania gdzie sie liczylo to i owo. Z rozwiazaniem problemu dwa slabsze (rowno o polowe) rdzenie powinny poradzic sobie zawsze wolniej od jednego (ze wzgledu na konieczny narzut komunikacyjny i synchronizacje chocby). Natomiast mogly lepiej wypadac w czasie reakcji - gdzie moze sie zdarzyc, ze ten czas bedzie srednio krotszy.
To oczywiscie zakladajac ze porownujemy idealna implementacje rozwiazania na jeden rdzen z idealna implementacja rozwiazania na dwa rdzenie (no i pomijamy takie problemy jak np. fakt ze szybszy procesor byc moze bedzie musial tracic bezczynnie czas na oczekiwanie na dane z pamieci podczas gdy 2x wolniejszy bedzie tracil tego czasu mniej).
Pamiętaj, że obecnie miejsca gdzie robotę ma CPU(wybuchy, fizyka obiektów, AI) zazwyczaj pokrywają się z wieloma postaciami, złożonymi obiektami, efektami cząsteczkowymi, dymem itd.
Dlatego testować karty graficzne powinno się w miejscach ogólnie obciążających - takich które oddają realną rozgrywkę.(przykład BF4 multiplayer)
No dobrze ja się z tym zgadzam, ale najczęściej tak nie jest, do GPU wybiera się miejsca gdzie najwięcej do roboty ma GPU i tam sprawdza się ich wydajność (co jest słuszne z punktu widzenia oceny samej wydajności GPU), do CPU miejsca zależne od CPU. Zgodzę się jednak że powinno się testować głównie kombinacje bo to ona mówi nam jak gra faktycznie działa, tylko jak uzasadnić taki test ? Nie testujemy CPU, nie testujemy GPU, to co dany zestaw pod dany sterownik ? Gdyby nie problemy AMD z sterownikiem to nie było by w ogóle tematu, wybieramy kartę z testów wydajnościowych + procesor z testów wydajnościowych i mamy kombinacje, a tutaj się okazuje że nie zawsze jest to realne zestawienie. Można np. to zobaczyć tak jak mówisz na testach z pclaba multiplayer z BF.
Najlepiej jakby focus się w tej kwestii wypowiedział
Pamiętaj, że obecnie miejsca gdzie robotę ma CPU(wybuchy, fizyka obiektów, AI) zazwyczaj pokrywają się z wieloma postaciami, złożonymi obiektami, efektami cząsteczkowymi, dymem itd.
Dlatego testować karty graficzne powinno się w miejscach ogólnie obciążających - takich które oddają realną rozgrywkę.(przykład BF4 multiplayer)
przecież do testów GPU wybiera się miejsca zależne od GPU albo bardzo zależne, tak samo jak dla testów CPU szuka się miejsc zależnych od CPU. Mało kiedy albo i chyba w ogóle nie robi się testów kombinacji, prawdopodobnie ze względu na czas takiego testu. Moim zdaniem temat trudny o tyle że o ile prawdopodobnie łatwo jest dość przetestować GPU/CPU to trudniej przetestować całą grę na danym sterowniku. Wiele osób które mają np. 290X porównują wydajność tej karty do 780 i często mają niższy min. fps np. w BF3/BF4 co dla wielu osób wydaje się dziwne ze względu na to że 290X to mocniejsze GPU.