Podobnie jak w wielu innych grach obniżenie szczegółowości obrazu w opcjach zmniejsza wymagania nie tylko względem karty graficznej, ale i procesora
Ale które konkretnie opcje zmniejszają obciążenie CPU? Na razie wiemy że szczegółowość cieni, ale które jeszcze? W takim np. Starcrafcie 2 już w samym menu pisze która opcja zmienia obciążenie GPU a która CPU.
Telvas @ 2012.09.09 17:18
Bah, nadal brakuje testów z wykorzystaniem budżetowego Phenoma II... Np. dwurdzeniowej dwieściepięćdziesiątki.
Jak już to coś z pułapu 250 zł (Athlon x3 lub 631 x4). I oczywiście podkręcone o te 30% (a tańszych s1155 się praktycznie nie podkręci).
HΛЯPΛGŌN @ 2012.09.09 20:10
Ten FX to porażka po całej linii. Widać, że ta architektura kompletnie zawodzi.
Pewną nadzieją dla FX-ów są przyszłe gry, które będą wykorzystywać więcej niż 4 rdzenie. Widać to na przykładzie Max Payne 3. Choć i w takim przypadku conajwyżej dorównają i5.
Mnie z tym Bulldozerem jedna kwestia zastanawia.... Skoro samo AMD się przyznaje, że Steamroller będzie tym czy od początku miał być Bulldozer to... CZEMU Bullldozer od początku taki nie był?
AMD opracowywało tę architekturę dobre 5 lat albo i więcej, więc jeżeli po 5 latach wychodzi crap, a po 2 latach od premiery tego crapa ma być już bdb CPU, to pytanie czy rzeczywiście nie dało się od początku dać dwóch dekoderów instrukcji - osobny dla każdego wątka i innych poprawek?- przecież było tyle czasu....
Moim zdaniem niestety ten nieudany Bulldozer to ... paradoksalnie ŚWIADOME granie na zwłokę, aby czymś zapchać roadmapy na najbliższe kilka lat specjalnie się nie wysilając.
Nie wierze, że poprawki wprowadzone w Steamrollerze były niemożliwe do wprowadzenia w 2011.
Oczywiście Intel robi tak samo, ale jednak AMD ma do nadrobienia dystans w wydajności więc powinno bardziej się starać i bardziej 'agresywnie' wprowadzać ulepszenia. Sam Rory to zapowiadał, że AMD będzie 'drapieżnikiem', a coś tego nie widać...
Mnie z tym Bulldozerem jedna kwestia zastanawia.... Skoro samo AMD się przyznaje, że Steamroller będzie tym czy od początku miał być Bulldozer to... CZEMU Bullldozer od początku taki nie był?
AMD opracowywało tę architekturę dobre 5 lat albo i więcej, więc jeżeli po 5 latach wychodzi crap, a po 2 latach od premiery tego crapa ma być już bdb CPU, to pytanie czy rzeczywiście nie dało się od początku dać dwóch dekoderów instrukcji - osobny dla każdego wątka i innych poprawek?- przecież było tyle czasu....
Moim zdaniem niestety ten nieudany Bulldozer to ... paradoksalnie ŚWIADOME granie na zwłokę, aby czymś zapchać roadmapy na najbliższe kilka lat specjalnie się nie wysilając.
Nie wierze, że poprawki wprowadzone w Steamrollerze były niemożliwe do wprowadzenia w 2011.
Oczywiście Intel robi tak samo, ale jednak AMD ma do nadrobienia dystans w wydajności więc powinno bardziej się starać.
nie do końca ta architektura ma 5lat
próba stworzenia bulda sięga jeszcze wcześniej bo pierwszym FX miał być Phenom II ale został przyśpieszony ze względu na porażającą wydajność Phenoma 1 (oczywiście słabą)
słyszałem kiedyś na uczelni ze z arch PII dało by się spokojnie wyciągnąć jeszcze 15% wydajności bo sam procek wypuszczony był nie dokończony... w llano tego rdzenia też nie poprawili...
między czasie kombinowali z bobcat-em ale w końcu zrobili z niego brazosa (ponoć było kilka próbek bobcat-a z tpd 90W wiec raczej bardziej to mit niż fakt)
arch. modułowa ma max. 4lata i właśnie przez PII była wymyślona na szybko...
ale to tez nie usprawiedliwia tak wysokiego poboru prądu
Podobnie jak w wielu innych grach obniżenie szczegółowości obrazu w opcjach zmniejsza wymagania nie tylko względem karty graficznej, ale i procesora
Ale które konkretnie opcje zmniejszają obciążenie CPU? Na razie wiemy że szczegółowość cieni, ale które jeszcze? W takim np. Starcrafcie 2 już w samym menu pisze która opcja zmienia obciążenie GPU a która CPU.
Kup książkę o tym jak działa DX i OGL po co mamy dostarczać ci podstawową wiedzę opisaną w tomiskach na tacy.
szybszy bo radek jest na stocku 860 mhz co to jest chlopie u mnie 1220 na rdzeniu lepsze wyniki niz 7870 a co do ht to daje w kazdej ktora wykorzystuje wiecej niz 4 rdzenie proste np far cry 2
Mnie z tym Bulldozerem jedna kwestia zastanawia.... Skoro samo AMD się przyznaje, że Steamroller będzie tym czy od początku miał być Bulldozer to... CZEMU Bullldozer od początku taki nie był?
AMD opracowywało tę architekturę dobre 5 lat albo i więcej, więc jeżeli po 5 latach wychodzi crap, a po 2 latach od premiery tego crapa ma być już bdb CPU, to pytanie czy rzeczywiście nie dało się od początku dać dwóch dekoderów instrukcji - osobny dla każdego wątka i innych poprawek?- przecież było tyle czasu....
Moim zdaniem niestety ten nieudany Bulldozer to ... paradoksalnie ŚWIADOME granie na zwłokę, aby czymś zapchać roadmapy na najbliższe kilka lat specjalnie się nie wysilając.
Nie wierze, że poprawki wprowadzone w Steamrollerze były niemożliwe do wprowadzenia w 2011.
Oczywiście Intel robi tak samo, ale jednak AMD ma do nadrobienia dystans w wydajności więc powinno bardziej się starać.
nie do końca ta architektura ma 5lat
próba stworzenia bulda sięga jeszcze wcześniej bo pierwszym FX miał być Phenom II ale został przyśpieszony ze względu na porażającą wydajność Phenoma 1 (oczywiście słabą)
słyszałem kiedyś na uczelni ze z arch PII dało by się spokojnie wyciągnąć jeszcze 15% wydajności bo sam procek wypuszczony był nie dokończony... w llano tego rdzenia też nie poprawili...
między czasie kombinowali z bobcat-em ale w końcu zrobili z niego brazosa (ponoć było kilka próbek bobcat-a z tpd 90W wiec raczej bardziej to mit niż fakt)
arch. modułowa ma max. 4lata i właśnie przez PII była wymyślona na szybko...
ale to tez nie usprawiedliwia tak wysokiego poboru prądu
z czerwca 2007 z konferencji a prace zaczeły się dużo wcześniej
Spider prace szły w tym samym czasie jak i pozniejsze Dragon rozwinięcie Spidera
Gram na PII 940 3.0 Ghz +R6850 , jedynie zamiast supersampling jest native , reszta na max w Full HD , gra jest zwykle całkowicie płynna (30-40) , jedynie w WvW gra zwalnia , ale też nie na tyle żeby nie dało się grać (ok 20 klatek). Z supersamplingiem mam zwykle 20-25 , czyli mniej więcej tak jak na teście.
Probowal ktos grac na q6600 jak on sobie poradzi w zatloczonych miejscach ? wycisne +30 fps na 1028x1024
Zależy z jaką kartą graficzną w tandemie , bo i z dobrą to na 'prawie max' w full HD on powinien zapewnić płynność. (skoro mój staroć zapewnia , a na stocku nie różni się jakoś kosmicznie od q6600) Chyba tylko mniej rdzeni niż 4 będzie miało niedostatek mocy (no , i podejrzanie wolne Bulldożery...)
szybszy bo radek jest na stocku 860 mhz co to jest chlopie u mnie 1220 na rdzeniu lepsze wyniki niz 7870 a co do ht to daje w kazdej ktora wykorzystuje wiecej niz 4 rdzenie proste np far cry 2
ale nigdy go nie podkrecisz do takich wartosci i nigdy nie bedzie sie tak skalowal jak radek po oc rozumiesz ta roznice ? mowie wydajnosc 7870+ po oc 1200+ na rdzeniu
no tylko 301.42 to nie zalecane stery dla kart NV jeśli o GW2 chodzi...
no i po co supersampling włączony? sprawdzałem, porównywałem, różnica widoczna TYLKO jak się zatrzymamy w miejscu i wlepimy ślepia w ekran
Kiedys AMD oświadczyło że nie będzie się koncentrować na budowie potężnych GPU, że będą konstuować układy o wydajności mocnego mainstream, a z najwydajniejszymi układami konkurencji beda konkurować karty o połaczonej mocy dwóch GPU.
Paradoskalnie, GPU AMD doskonale radzą sobie w konkurowaniu z najwydajniejszymi układami konkurencji, za to tego typu polityka chyba przydałaby sie w CPU. Patrząc na możliwości topowych CPU AMD, aż prosi sie o spopularyzowanie platformy umozliwiającej instalacje dwóch CPU na jednej płycie. Może takie coś w łacznej cenie topowych Core i7 byłoby wstanie z nimi konkurować.
Patrząc na możliwości topowych CPU AMD, aż prosi sie o spopularyzowanie platformy umozliwiającej instalacje dwóch CPU na jednej płycie. Może takie coś w łacznej cenie topowych Core i7 byłoby wstanie z nimi konkurować.
Genialny pomysł !! Jeszcze więcej słabych rdzeni w jednym miejscu.
Kiedys AMD oświadczyło że nie będzie się koncentrować na budowie potężnych GPU, że będą konstuować układy o wydajności mocnego mainstream, a z najwydajniejszymi układami konkurencji beda konkurować karty o połaczonej mocy dwóch GPU.
Paradoskalnie, GPU AMD doskonale radzą sobie w konkurowaniu z najwydajniejszymi układami konkurencji, za to tego typu polityka chyba przydałaby sie w CPU. Patrząc na możliwości topowych CPU AMD, aż prosi sie o spopularyzowanie platformy umozliwiającej instalacje dwóch CPU na jednej płycie. Może takie coś w łacznej cenie topowych Core i7 byłoby wstanie z nimi konkurować.
AMD potrzeba powtórki z rozgrywki , tak jak zrobili za czasów Athlonów 64 - postawić na IPC zamiast na gigaherce. Zegar w zegar roznosił i konkurencję i swojego poprzednika. Na razie tą drogą podąża tylko Intel
Ale które konkretnie opcje zmniejszają obciążenie CPU? Na razie wiemy że szczegółowość cieni, ale które jeszcze? W takim np. Starcrafcie 2 już w samym menu pisze która opcja zmienia obciążenie GPU a która CPU.
Jak już to coś z pułapu 250 zł (Athlon x3 lub 631 x4). I oczywiście podkręcone o te 30% (a tańszych s1155 się praktycznie nie podkręci).
Pewną nadzieją dla FX-ów są przyszłe gry, które będą wykorzystywać więcej niż 4 rdzenie. Widać to na przykładzie Max Payne 3. Choć i w takim przypadku conajwyżej dorównają i5.
AMD opracowywało tę architekturę dobre 5 lat albo i więcej, więc jeżeli po 5 latach wychodzi crap, a po 2 latach od premiery tego crapa ma być już bdb CPU, to pytanie czy rzeczywiście nie dało się od początku dać dwóch dekoderów instrukcji - osobny dla każdego wątka i innych poprawek?- przecież było tyle czasu....
Moim zdaniem niestety ten nieudany Bulldozer to ... paradoksalnie ŚWIADOME granie na zwłokę, aby czymś zapchać roadmapy na najbliższe kilka lat specjalnie się nie wysilając.
Nie wierze, że poprawki wprowadzone w Steamrollerze były niemożliwe do wprowadzenia w 2011.
Oczywiście Intel robi tak samo, ale jednak AMD ma do nadrobienia dystans w wydajności więc powinno bardziej się starać i bardziej 'agresywnie' wprowadzać ulepszenia. Sam Rory to zapowiadał, że AMD będzie 'drapieżnikiem', a coś tego nie widać...
AMD opracowywało tę architekturę dobre 5 lat albo i więcej, więc jeżeli po 5 latach wychodzi crap, a po 2 latach od premiery tego crapa ma być już bdb CPU, to pytanie czy rzeczywiście nie dało się od początku dać dwóch dekoderów instrukcji - osobny dla każdego wątka i innych poprawek?- przecież było tyle czasu....
Moim zdaniem niestety ten nieudany Bulldozer to ... paradoksalnie ŚWIADOME granie na zwłokę, aby czymś zapchać roadmapy na najbliższe kilka lat specjalnie się nie wysilając.
Nie wierze, że poprawki wprowadzone w Steamrollerze były niemożliwe do wprowadzenia w 2011.
Oczywiście Intel robi tak samo, ale jednak AMD ma do nadrobienia dystans w wydajności więc powinno bardziej się starać.
nie do końca ta architektura ma 5lat
próba stworzenia bulda sięga jeszcze wcześniej bo pierwszym FX miał być Phenom II ale został przyśpieszony ze względu na porażającą wydajność Phenoma 1 (oczywiście słabą)
słyszałem kiedyś na uczelni ze z arch PII dało by się spokojnie wyciągnąć jeszcze 15% wydajności bo sam procek wypuszczony był nie dokończony... w llano tego rdzenia też nie poprawili...
między czasie kombinowali z bobcat-em ale w końcu zrobili z niego brazosa (ponoć było kilka próbek bobcat-a z tpd 90W wiec raczej bardziej to mit niż fakt)
arch. modułowa ma max. 4lata i właśnie przez PII była wymyślona na szybko...
ale to tez nie usprawiedliwia tak wysokiego poboru prądu
Ale które konkretnie opcje zmniejszają obciążenie CPU? Na razie wiemy że szczegółowość cieni, ale które jeszcze? W takim np. Starcrafcie 2 już w samym menu pisze która opcja zmienia obciążenie GPU a która CPU.
Kup książkę o tym jak działa DX i OGL po co mamy dostarczać ci podstawową wiedzę opisaną w tomiskach na tacy.
AMD opracowywało tę architekturę dobre 5 lat albo i więcej, więc jeżeli po 5 latach wychodzi crap, a po 2 latach od premiery tego crapa ma być już bdb CPU, to pytanie czy rzeczywiście nie dało się od początku dać dwóch dekoderów instrukcji - osobny dla każdego wątka i innych poprawek?- przecież było tyle czasu....
Moim zdaniem niestety ten nieudany Bulldozer to ... paradoksalnie ŚWIADOME granie na zwłokę, aby czymś zapchać roadmapy na najbliższe kilka lat specjalnie się nie wysilając.
Nie wierze, że poprawki wprowadzone w Steamrollerze były niemożliwe do wprowadzenia w 2011.
Oczywiście Intel robi tak samo, ale jednak AMD ma do nadrobienia dystans w wydajności więc powinno bardziej się starać.
nie do końca ta architektura ma 5lat
próba stworzenia bulda sięga jeszcze wcześniej bo pierwszym FX miał być Phenom II ale został przyśpieszony ze względu na porażającą wydajność Phenoma 1 (oczywiście słabą)
słyszałem kiedyś na uczelni ze z arch PII dało by się spokojnie wyciągnąć jeszcze 15% wydajności bo sam procek wypuszczony był nie dokończony... w llano tego rdzenia też nie poprawili...
między czasie kombinowali z bobcat-em ale w końcu zrobili z niego brazosa (ponoć było kilka próbek bobcat-a z tpd 90W wiec raczej bardziej to mit niż fakt)
arch. modułowa ma max. 4lata i właśnie przez PII była wymyślona na szybko...
ale to tez nie usprawiedliwia tak wysokiego poboru prądu
z czerwca 2007 z konferencji a prace zaczeły się dużo wcześniej
Spider prace szły w tym samym czasie jak i pozniejsze Dragon rozwinięcie Spidera
http://finance.yahoo.com/q?s=AMD
Zależy z jaką kartą graficzną w tandemie , bo i z dobrą to na 'prawie max' w full HD on powinien zapewnić płynność. (skoro mój staroć zapewnia , a na stocku nie różni się jakoś kosmicznie od q6600) Chyba tylko mniej rdzeni niż 4 będzie miało niedostatek mocy (no , i podejrzanie wolne Bulldożery...)
gtx też jest na stocku...
no i po co supersampling włączony? sprawdzałem, porównywałem, różnica widoczna TYLKO jak się zatrzymamy w miejscu i wlepimy ślepia w ekran
Paradoskalnie, GPU AMD doskonale radzą sobie w konkurowaniu z najwydajniejszymi układami konkurencji, za to tego typu polityka chyba przydałaby sie w CPU. Patrząc na możliwości topowych CPU AMD, aż prosi sie o spopularyzowanie platformy umozliwiającej instalacje dwóch CPU na jednej płycie. Może takie coś w łacznej cenie topowych Core i7 byłoby wstanie z nimi konkurować.
Genialny pomysł !! Jeszcze więcej słabych rdzeni w jednym miejscu.
:f
http://forums.guru3d.com/showthread.php?t=367954.
Zainstalujcie CAP'y do ATI i zobaczycie boost.
http://downloads.guru3d.com/AMD-Catalyst-A...nload-2909.html
Paradoskalnie, GPU AMD doskonale radzą sobie w konkurowaniu z najwydajniejszymi układami konkurencji, za to tego typu polityka chyba przydałaby sie w CPU. Patrząc na możliwości topowych CPU AMD, aż prosi sie o spopularyzowanie platformy umozliwiającej instalacje dwóch CPU na jednej płycie. Może takie coś w łacznej cenie topowych Core i7 byłoby wstanie z nimi konkurować.
AMD potrzeba powtórki z rozgrywki , tak jak zrobili za czasów Athlonów 64 - postawić na IPC zamiast na gigaherce. Zegar w zegar roznosił i konkurencję i swojego poprzednika. Na razie tą drogą podąża tylko Intel
Zainstalujcie CAP'y do ATI i zobaczycie boost.
tia. szczegolnie, ze CAPy sa dla multi gpu. nie ma to jak autosugestia, lepsza od najlepszych sterow i cfg
Zainstalujcie CAP'y do ATI i zobaczycie boost.
tia. szczegolnie, ze CAPy sa dla multi gpu. nie ma to jak autosugestia, lepsza od najlepszych sterow i cfg
Niby tak tylko jak wyjaśnisz boost fps w gw2 ? Nie instalowałem nic innego.