Bez zaskoczenia, w grach AMD wypada słabo, w innych testach trochę lepiej. Widać czasem, że po prostu oprogramowanie nie jest przystosowane do takiej modułowej architektury.
Przy małych różnicach cen platformy AMD i Intela wybieram, co raczej nie dziwne, Intela
Miejmy nadzieję, że AMD nie śpi i stworzy coś lepszego.
Trochę dziwnie wypadł Battlefield 3. Nie uwierzę, że w multiplayer nie ma różnic między procesorami. Tym bardziej podejrzane mi się wydaje to, że udało się Wam zrobić powtarzalny test w rozgrywce sieciowej . Crysis 2 to też dość małe różnice w wysokiej rozdzielczości, w ogóle dość dużo FPS wyszło jak na pojedynczego HD 7950.
Wielka szkoda, że tak słabo AMD (FX) radzi sobie w grach. Jeśli byłoby inaczej, brałbym go od razu. Ciągle najlepszym procesorem do gier (ze stajni AMD) jest Phenom II. Mam nadzieję, że kolejne procesory poprawią wyniki. Trzymam kciuki.
Prąd jak prąd wszystko kosztuje. Wynik był do przewidzenia. Ale wniosek końcowy prócz tego kręcenia i reszty to to że oprogramowanie musi umieć wykorzystać procesor czy grafikę. To że gra x nie chodzi jak powinna nie oznacza że procesor jest zły tylko zwyczajnie nie wykorzystany i by to nadrobić trzeba użyć najłatwiejszej metody czyli więcej MHz (powinno się pokazać obciążenie rdzeni jak wygląda w czasie takiej gry powiedzmy) tu może być ciekawie.
...najlepszym procesorem do gier (ze stajni AMD) jest Phenom II. Mam nadzieję, że kolejne procesory poprawią wyniki.
Fanboye obruszą się na słowo _poprawią_. zamiast poprawią powinno być _uczynią_jeszcze_wspanialszymi_. niestety prawda jest bardziej kuriozalna: z pustego to i salomon...
Nie widzę tu jakiejś wielkiej miazgi na FX. Dobry procesor o 200 zł tańszy od konkurencji który depcze jej po piętach w tym co dziś jest najważniejsze czyli wielowątkowości. A teraz zapytam się tak jaka płyta pod 1155 da mi takie same możliwości jak asrock 970 extreme 4 za 300 zł rok temu.
Do wykresów z grami (i dalej) wygląda to dobrze dla AMD. Niestety potem następuje zderzenie z betonową ścianą przy ogromnej prędkości. Wygrana w grach i poborze prądu jest druzgocąca. Prawdą jest, że FX jest tańszy. Jednakże kiedy idzie o podkręcanie to jest wręcz droższy (dobra płyta główna + chłodzenie), a przy tym porównywalnie wydajny w aplikacjach użytkowych a zdecydowanie gorszy w grach i poborze prądu. Jestem fanem AMD i nie mogę na to patrzeć. Skoro jednak mam oczy użytek z nich robić trzeba, aby nie dać się nabić w butelkę. Ceny dla buldków powinny wynosić 480 zł dla fx8120, 590 zł dla fx8150, 280 zł dla fx 4100 370 zł dla fx6100. Wtedy te procki można by uznać za konkurencyjne.
Trochę dziwnie wypadł Battlefield 3. Nie uwierzę, że w multiplayer nie ma różnic między procesorami. Tym bardziej podejrzane mi się wydaje to, że udało się Wam zrobić powtarzalny test w rozgrywce sieciowej . Crysis 2 to też dość małe różnice w wysokiej rozdzielczości, w ogóle dość dużo FPS wyszło jak na pojedynczego HD 7950.
Jest cholernie trudno przygotować POWTARZALNY test w BF3 na mapach multi. To wszystko, co udało się zrobić. Ale tak: test jest powtarzalny.
Nie widzę tu jakiejś wielkiej miazgi na FX. Dobry procesor o 200 zł tańszy od konkurencji który depcze jej po piętach w tym co dziś jest najważniejsze czyli wielowątkowości. A teraz zapytam się tak jaka płyta pod 1155 da mi takie same możliwości jak asrock 970 extreme 4 za 300 zł rok temu.
Chyba za bardzo zadużyłeś się oparami ze swojej płyty głównej która bardzo dobrze podgrzewa pendrajwy i urządzenia USB podczas wytężonej pracy buldożera.... Może z Nehalemem mógłby konkurować, dziś - z czym do ludzi! Odwrót do pudełka ze wstydu!
Jak to jest że procesory intela biorą więcej prądu podczas odtwarzania filmu niż przy maksymalnym obciążeniu?
Przy odtwarzaniu filmów obciążona zostaje karta graficzna, która przechodzi w tryb UVD( wyższe napięcie i zegary niż w IDLE) - stąd wyższy wynik niż przy maksymalnym obciążeniu procesora. Sam HD7950 przy odtwarzaniu filmów pobiera ok 50-60W.
Test w części dotyczącej gier (wybór tytułów, miejsca testowe) to naprawdę klasa światowa. Gratulacje!
A co do Bulldozera to zaobserwowałem pewien fenomen, który nazywam 'klątwa FX-a'. Nazwanie procesora w ten sposób równa się:
- ogromne oczekiwania,
- równie wielkie rozczarowanie,
- naiwne oczekiwanie, że będzie lepiej.
Przecież z procesorami graficznymi GeForce FX było identycznie i też jeszcze długo po premierze wielu wierzyło w nadejście sterowników, które 'naprawią DX9'. Koń jaki jest, każdy widzi. Jakiś realnych poprawek spodziewać się można dopiero w kolejnych poprawkach tej architektury. Obecne procesory nigdy cudownie nie przyspieszą, a programiści nie rzucą wszystkiego, żeby każdy program ręcznie optymalizować pod dość niszowego FX-a.
Echh widzę że najazd fanboi się szykuje... FX to dobry procek i za bardzo rozumiem czemu tak się po nim jedzie. Nie jest lepszy od Intela nie jest nawet porównywalny co nie oznacza że jest tragiczny. Ma dobry stosunek jakości do ceny i oferuje nieco lepsze możliwości dla ludzi którzy operują na programach wielowątkowych.
Przy małych różnicach cen platformy AMD i Intela wybieram, co raczej nie dziwne, Intela
Miejmy nadzieję, że AMD nie śpi i stworzy coś lepszego.
Masakra
Porównanie w grach z FX'em mogłoby wyglądać 'ciekawie'
Trzeba czasu by to wykorzystać.
Fanboye obruszą się na słowo _poprawią_. zamiast poprawią powinno być _uczynią_jeszcze_wspanialszymi_. niestety prawda jest bardziej kuriozalna: z pustego to i salomon...
Jest cholernie trudno przygotować POWTARZALNY test w BF3 na mapach multi. To wszystko, co udało się zrobić. Ale tak: test jest powtarzalny.
Chyba za bardzo zadużyłeś się oparami ze swojej płyty głównej która bardzo dobrze podgrzewa pendrajwy i urządzenia USB podczas wytężonej pracy buldożera.... Może z Nehalemem mógłby konkurować, dziś - z czym do ludzi! Odwrót do pudełka ze wstydu!
Przy odtwarzaniu filmów obciążona zostaje karta graficzna, która przechodzi w tryb UVD( wyższe napięcie i zegary niż w IDLE) - stąd wyższy wynik niż przy maksymalnym obciążeniu procesora. Sam HD7950 przy odtwarzaniu filmów pobiera ok 50-60W.
A co do Bulldozera to zaobserwowałem pewien fenomen, który nazywam 'klątwa FX-a'. Nazwanie procesora w ten sposób równa się:
- ogromne oczekiwania,
- równie wielkie rozczarowanie,
- naiwne oczekiwanie, że będzie lepiej.
Przecież z procesorami graficznymi GeForce FX było identycznie i też jeszcze długo po premierze wielu wierzyło w nadejście sterowników, które 'naprawią DX9'. Koń jaki jest, każdy widzi. Jakiś realnych poprawek spodziewać się można dopiero w kolejnych poprawkach tej architektury. Obecne procesory nigdy cudownie nie przyspieszą, a programiści nie rzucą wszystkiego, żeby każdy program ręcznie optymalizować pod dość niszowego FX-a.