Ten test ma się to nijak do rzeczywistości. Po pierwsze nie ma na rynku dwurdzeniowych proców 4,6GHz. Po drugie modele 4-rdzeniowe też się podkręcają. Dzisiaj kupowanie procesora z myślą o grach innego niż 4 rdzenie pokroju Core i5 jest strzałem w stopę. Dlatego nie bardzo rozumiem, co ten test miał pokazać.
Dokładnie ten test miałby sens jakieś 2 lata temu.Kto dziś do wydajnej karty graficznej kupi 2 rdzeniowca ?
A to nie ma przełożenia na karty pokroju Radeon HD 7850, czy GeForce GTX 650 Ti Boost? Oczywiście, że ma.
Ten test ma się to nijak do rzeczywistości. Po pierwsze nie ma na rynku dwurdzeniowych proców 4,6GHz. Po drugie modele 4-rdzeniowe też się podkręcają. Dzisiaj kupowanie procesora z myślą o grach innego niż 4 rdzenie pokroju Core i5 jest strzałem w stopę. Dlatego nie bardzo rozumiem, co ten test miał pokazać.
Dokładnie ten test miałby sens jakieś 2 lata temu.Kto dziś do wydajnej karty graficznej kupi 2 rdzeniowca ?
'Lepsza obsługa procesorów wielordzeniowych w sterownikach Nvidia GeForce jest wyraźnie widoczna. Karta graficzna Nvidii poza jednym wyjątkiem zawsze jest szybsza od konkurencyjnego produktu AMD właśnie za sprawą sterowników. Oczywiście, zaprezentowane powyżej relacje wynikają ze sposobu działania sterowników i nie należy ich przekładać na wydajność użytych kart graficznych'
W przypadku procesorów 4 rdzeniowych właśnie należy już przekładać wydajność użytych kart graficznych
Swoją drogą można odmienić sformułowanie 'optymalizacja wielowątkowa' przez wszystkie przypadki, ale jeśli w 2 przypadkach procesor 2,3GHz + HT zapewnia lepszą wydajność od procesora 4,6GHz bez HT to...dla mnie jest to po prostu zepsute oprogramowanie. Grzech dużo większego kalibru niż powszechnie krytykowany brak wsparcia wielu rdzeni w niektórych nowych engine'ach.
Chętnie przeczytałbym też taką naukową, teoretyczną analizę działania sterowników Nvidii i AMD. Nie ukrywam, że mam swoje teorie:
- hipoteza nr 1: Nvidia wykorzystuje do obsługi API i sterownika jednostek INT; dzięki HT możliwe jest jednoczesne puszczenie 2 wątków INT (sterownik, drawcalle) i 2 wątków FP (gra); w przypadku 2 rdzeni bez HT jednostki INT i FP wzajemnie się blokują i rywalizują o zasoby;
- hipoteza nr 2: sterownik Nvidii korzystając z jednostek INT procesora kompresuje bądź w inny sposób obrabia dane, przez co drawcalle nie obciążają tak bardzo pojedynczego wątku; proces kompresji potrafi wykorzystać co najmniej 8 wątków, ale w przypadku procesorów dwuwątkowych zbyt mało zasobów zostaje na samą grę.
Ciekawe, czy to tylko wytwory mojej chorej wyobraźni, jednak coś jest na rzeczy
Bardzo ciekawe spostrzeżenie, gdyż w ogólności !nigdy! procesor 4 rdzeniowy nie może być wolniejszy niż 2 rdzeniowy jeśli ma taktowanie 2 razy niższe (zakładając, że oba nie mają HT). Dlatego wyniki GeForce są nieprawdopodobne i naprawdę programiście nVidii musieli coś kompletnie zepsuć, aby tak słabo działało na 2 wątkach.
Swoją drogą można odmienić sformułowanie 'optymalizacja wielowątkowa' przez wszystkie przypadki, ale jeśli w 2 przypadkach procesor 2,3GHz + HT zapewnia lepszą wydajność od procesora 4,6GHz bez HT to...dla mnie jest to po prostu zepsute oprogramowanie. Grzech dużo większego kalibru niż powszechnie krytykowany brak wsparcia wielu rdzeni w niektórych nowych engine'ach.
Chętnie przeczytałbym też taką naukową, teoretyczną analizę działania sterowników Nvidii i AMD. Nie ukrywam, że mam swoje teorie:
- hipoteza nr 1: Nvidia wykorzystuje do obsługi API i sterownika jednostki INT procesora; dzięki HT możliwe jest jednoczesne puszczenie 2 wątków INT (sterownik, drawcalle) i 2 wątków FP (gra); w przypadku 2 rdzeni bez HT jednostki INT i FP wzajemnie się blokują i rywalizują o zasoby;
- hipoteza nr 2: sterownik Nvidii korzystając z jednostek INT procesora kompresuje bądź w inny sposób obrabia dane, przez co drawcalle nie obciążają tak bardzo pojedynczego wątku; proces kompresji potrafi wykorzystać co najmniej 8 wątków, ale w przypadku procesorów dwuwątkowych zbyt mało zasobów pozostaje na samą grę.
Ciekawe, czy to tylko wytwory mojej chorej wyobraźni, czy może jednak coś jest na rzeczy
Moc to 2x Xeon E5-2687w do tego 64GB 2133Mhz DDR3 Quad Channel i 4WaySLI GTX780Ti.
Tylko wtedy gdy będziesz na tym wirtualizował i postawić 4 maszynki dla 4 graczy na jednym kompie. W innym przypadku przerost formy nad treścią 4770k@4.4GHz będzie o wiele szybsze
7 lat i dalej 2 rdzenie, skala zapaści w rynku pecetów jest straszna, litości inteliku, gdzie twoje prawa fizyki dla procesorów dla zjadaczy chleba, w serwerach jest nawet 12 rdzeni.
Ten test utwierdził mnie w jednym, nie, nie w tym, że nv radzi sobie lepiej z 4+ rdzeniami, bo to było oczywiste już dawno, ale w tym, że po prostu lepiej obniżyć grafikę i wtedy problem będzie nam wisiał, nawet na dwóch rdzeniach.
I lepiej po prostu ładować w cpu kasę jak się ma ograniczony budżet i jest problem czy wybrać droższy cpu czy gpu, a to drugie nieco słabsze. Lepiej mieć cpu, bo jak cpu się skończy to już nic nie zrobisz, a gpu zawsze można obniżyć detale.
Sterowniki AMD nie tracą w konfiguracji z więcej niż 2 rdzeniami,tylko wymagają co najmniej dwóch MOCNYCH rdzeni,więc może być nawet i7 3930K z 6 rdzeniami i 12 wątkam(ale nie fx-8320 bo ma słabą wydajność pojedynczego rdzenia).Niemniej jednak test ukazuje prawdę,że lepiej do wielordzeniowych procesorów wybrać GeForce'a z powodu rozłożenia wymagań na wiele wątków.
@ HΛЯPΛGŌN
Jakbyś znał słowo abstrakcja i nauka, to być może byś to zrozumiał, zresztą w tekście było wyraźnie napisane, że ten artykuł nie ma żadnej wartości użytkowej. Teoria uzupełnia praktykę i vice versa, oczywiście dla niektórych do szczęścia nie potrzeba niczego więcej oprócz możliwości jedzenia, wydalania i ewentualnie grania na komputerze.
Ten test ma się to nijak do rzeczywistości. Po pierwsze nie ma na rynku dwurdzeniowych proców 4,6GHz. Po drugie modele 4-rdzeniowe też się podkręcają. Dzisiaj kupowanie procesora z myślą o grach innego niż 4 rdzenie pokroju Core i5 jest strzałem w stopę. Dlatego nie bardzo rozumiem, co ten test miał pokazać.
Ten test ma się to nijak do rzeczywistości. Po pierwsze nie ma na rynku dwurdzeniowych proców 4,6GHz. Po drugie modele 4-rdzeniowe też się podkręcają. Dzisiaj kupowanie procesora z myślą o grach innego niż 4 rdzenie pokroju Core i5 jest strzałem w stopę. Dlatego nie bardzo rozumiem, co ten test miał pokazać.
Moc to 2x Xeon E5-2687w do tego 64GB 2133Mhz DDR3 Quad Channel i 4WaySLI GTX780Ti.
W grach zysk będzie żałosny względem pojedynczej karty i procka LGA2011 czy wysoko zrobionego 4770K, pieniądze w błoto. To się nie skaluje proporcjonalnie. Moc to jest ale chyba do zwijania białek w F@H hehe
Dokładnie ten test miałby sens jakieś 2 lata temu.Kto dziś do wydajnej karty graficznej kupi 2 rdzeniowca ?
A to nie ma przełożenia na karty pokroju Radeon HD 7850, czy GeForce GTX 650 Ti Boost? Oczywiście, że ma.
Przełożenie jest czysto teoretyczne
Dokładnie ten test miałby sens jakieś 2 lata temu.Kto dziś do wydajnej karty graficznej kupi 2 rdzeniowca ?
A to nie ma przełożenia na karty pokroju Radeon HD 7850, czy GeForce GTX 650 Ti Boost? Oczywiście, że ma.
Dokładnie ten test miałby sens jakieś 2 lata temu.Kto dziś do wydajnej karty graficznej kupi 2 rdzeniowca ?
Jako kandydata do tego testu polecam Intel Core i5-655K
W przypadku procesorów 4 rdzeniowych właśnie należy już przekładać wydajność użytych kart graficznych
Swoją drogą można odmienić sformułowanie 'optymalizacja wielowątkowa' przez wszystkie przypadki, ale jeśli w 2 przypadkach procesor 2,3GHz + HT zapewnia lepszą wydajność od procesora 4,6GHz bez HT to...dla mnie jest to po prostu zepsute oprogramowanie. Grzech dużo większego kalibru niż powszechnie krytykowany brak wsparcia wielu rdzeni w niektórych nowych engine'ach.
Chętnie przeczytałbym też taką naukową, teoretyczną analizę działania sterowników Nvidii i AMD. Nie ukrywam, że mam swoje teorie:
- hipoteza nr 1: Nvidia wykorzystuje do obsługi API i sterownika jednostek INT; dzięki HT możliwe jest jednoczesne puszczenie 2 wątków INT (sterownik, drawcalle) i 2 wątków FP (gra); w przypadku 2 rdzeni bez HT jednostki INT i FP wzajemnie się blokują i rywalizują o zasoby;
- hipoteza nr 2: sterownik Nvidii korzystając z jednostek INT procesora kompresuje bądź w inny sposób obrabia dane, przez co drawcalle nie obciążają tak bardzo pojedynczego wątku; proces kompresji potrafi wykorzystać co najmniej 8 wątków, ale w przypadku procesorów dwuwątkowych zbyt mało zasobów zostaje na samą grę.
Ciekawe, czy to tylko wytwory mojej chorej wyobraźni, jednak coś jest na rzeczy
Bardzo ciekawe spostrzeżenie, gdyż w ogólności !nigdy! procesor 4 rdzeniowy nie może być wolniejszy niż 2 rdzeniowy jeśli ma taktowanie 2 razy niższe (zakładając, że oba nie mają HT). Dlatego wyniki GeForce są nieprawdopodobne i naprawdę programiście nVidii musieli coś kompletnie zepsuć, aby tak słabo działało na 2 wątkach.
Swoją drogą można odmienić sformułowanie 'optymalizacja wielowątkowa' przez wszystkie przypadki, ale jeśli w 2 przypadkach procesor 2,3GHz + HT zapewnia lepszą wydajność od procesora 4,6GHz bez HT to...dla mnie jest to po prostu zepsute oprogramowanie. Grzech dużo większego kalibru niż powszechnie krytykowany brak wsparcia wielu rdzeni w niektórych nowych engine'ach.
Chętnie przeczytałbym też taką naukową, teoretyczną analizę działania sterowników Nvidii i AMD. Nie ukrywam, że mam swoje teorie:
- hipoteza nr 1: Nvidia wykorzystuje do obsługi API i sterownika jednostki INT procesora; dzięki HT możliwe jest jednoczesne puszczenie 2 wątków INT (sterownik, drawcalle) i 2 wątków FP (gra); w przypadku 2 rdzeni bez HT jednostki INT i FP wzajemnie się blokują i rywalizują o zasoby;
- hipoteza nr 2: sterownik Nvidii korzystając z jednostek INT procesora kompresuje bądź w inny sposób obrabia dane, przez co drawcalle nie obciążają tak bardzo pojedynczego wątku; proces kompresji potrafi wykorzystać co najmniej 8 wątków, ale w przypadku procesorów dwuwątkowych zbyt mało zasobów pozostaje na samą grę.
Ciekawe, czy to tylko wytwory mojej chorej wyobraźni, czy może jednak coś jest na rzeczy
Moc to 2x Xeon E5-2687w do tego 64GB 2133Mhz DDR3 Quad Channel i 4WaySLI GTX780Ti.
Tylko wtedy gdy będziesz na tym wirtualizował i postawić 4 maszynki dla 4 graczy na jednym kompie. W innym przypadku przerost formy nad treścią 4770k@4.4GHz będzie o wiele szybsze
I lepiej po prostu ładować w cpu kasę jak się ma ograniczony budżet i jest problem czy wybrać droższy cpu czy gpu, a to drugie nieco słabsze. Lepiej mieć cpu, bo jak cpu się skończy to już nic nie zrobisz, a gpu zawsze można obniżyć detale.
Raczej gpu nv
Jakbyś znał słowo abstrakcja i nauka, to być może byś to zrozumiał, zresztą w tekście było wyraźnie napisane, że ten artykuł nie ma żadnej wartości użytkowej. Teoria uzupełnia praktykę i vice versa, oczywiście dla niektórych do szczęścia nie potrzeba niczego więcej oprócz możliwości jedzenia, wydalania i ewentualnie grania na komputerze.
Przeczytałeś chociaż pierwszą stronę?
Fajny art.
A co sądzisz o propozycji jaką ci na priv wysłałem?? Zrobisz coś z tym??
Moc to 2x Xeon E5-2687w do tego 64GB 2133Mhz DDR3 Quad Channel i 4WaySLI GTX780Ti.
W grach zysk będzie żałosny względem pojedynczej karty i procka LGA2011 czy wysoko zrobionego 4770K, pieniądze w błoto. To się nie skaluje proporcjonalnie. Moc to jest ale chyba do zwijania białek w F@H hehe