Mam takie pytanie - nigdy na PCLab nie ma testów procesorów w niższych detalach. Rozumiem, że wynika to z faktu, że ustawione detale w grze nie wpływają na obciążenie procesora?
Chyba musi mieć. Na medium w Bostonie radeony mają różną wydajność, na high i ultra - praktycznie płaski wykres.
He he, widzę, że za słaby procesor do mojego R9 290 kupiłem. Ewidentnie zamiast i7 4790k trzeba było kupić i7 5820k albo wręcz 5690x
Paranoja, już nigdy nie kupię Radeona. Mam dosyć problemów z każdą premierą.
U mnie z kolei jest odwrotny problem, do stareńkiego Phenoma 965 mam 970. W zasadzie daje radę, lepiej jak na czystym AMD (wcześniej była grafa 7850), wiele gier nie potrzebuje potężnego proca i gra! Ale prosi się o jakiegokolwiek nawet współczesnego i5... Cena nieco zabójcza z płytą ale co robić?
Gra zrobiona pod nvidia i intel, posiadacze procesora albo karty od AMD nie pograją. Ja osobiście nigdy nie rozumiałem fenomenu tej gry, według mnie to jest nudna gra i jakoś nigdy mnie nie kręciła, jak innym się podoba to dobrze. Mam tylko nadzieję, że odbije to się na sprzedaż, wszyscy z sprzętem AMD nie powinni kupować tej gry, po co wspierać Bethesda, skoro mają gdzieś ludzi z sprzętem AMD, a ogólne wymagania są bardzo wysokie jak na taką grafikę.
Gra zrobiona pod nvidia i intel, posiadacze procesora albo karty od AMD nie pograją. Ja osobiście nigdy nie rozumiałem
Bawią mnie tego typu teksty. Gra robiona jest pod platformę PC, która składa się z różnych komponentów, a to, że jeden sprzęt jest wydajnieszy, od drugiego, nie jest niczym dziwnym, więc pisanie, że gra robiona jest pod 'procesor A' oraz 'kartę B' to zwykła bzdura. Nie chce mi się przytaczać porównań motoryzacyjnych, ale pare znalazłoby się...(to tak, jakbym np. producentowi parownika z sekwencyjnej instalacji gazowej zarzucał to, że w innym silniku, o większej mocy...mam większą moc !
Bo to nie jest gra, w przypadku której potrzebna jest aż taka płynność.
Pozwolisz, że o tym zadecyduje kupujący? Od czegoś jest g-sync, od czegoś są monitory 144Hz i mocniejsze grafiki...
OK, możemy to zrobić, ale wówczas wywalimy z zestawienia połowę kart graficznych. Czy w takiej sytuacji ZAGWARANTUJESZ mi, że nikt nie będzie miał pretensji, że 'akurat jego 7770 albo 660' nie ma w zestawieniu?
Mam takie pytanie - nigdy na PCLab nie ma testów procesorów w niższych detalach. Rozumiem, że wynika to z faktu, że ustawione detale w grze nie wpływają na obciążenie procesora?
Po pierwsze, to nie nigdy, bo: http://pclab.pl/art61159-9.html http://pclab.pl/art63572.html http://pclab.pl/art61577.html
Po drugie: ustawienia oczywiście wpływają na obciążenie CPU, ale jak już ktoś napisał wcześniej - nie zmienia się relacja między nimi (zwykle). Po trzecie: nie ma na tyle czasu by przetestować przeszło 30 procesorów w kilku ustawieniach. Oczywiście możemy to zrobić, ale wówczas proszę nie pytać np. o Sandy Bridge'a.
Pozwolisz, że o tym zadecyduje kupujący? Od czegoś jest g-sync, od czegoś są monitory 144Hz i mocniejsze grafiki...
OK, możemy to zrobić, ale wówczas wywalimy z zestawienia połowę kart graficznych. Czy w takiej sytuacji ZAGWARANTUJESZ mi, że nikt nie będzie miał pretensji, że 'akurat jego 7770 albo 660' nie ma w zestawieniu?
W sensie zrobienie 30 testów w high (10 kart*3 miejsca testowe) = wywalenie ~180 testów?
Gra zrobiona pod nvidia i intel, posiadacze procesora albo karty od AMD nie pograją. Ja osobiście nigdy nie rozumiałem fenomenu tej gry, według mnie to jest nudna gra i jakoś nigdy mnie nie kręciła, jak innym się podoba to dobrze. Mam tylko nadzieję, że odbije to się na sprzedaż, wszyscy z sprzętem AMD nie powinni kupować tej gry, po co wspierać Bethesda, skoro mają gdzieś ludzi z sprzętem AMD, a ogólne wymagania są bardzo wysokie jak na taką grafikę.
Ja to myślę że samo AMD ma wylane na ludzi którzy kupili ich sprzęt. Do AM3+ i FM2+ nie ma co wepchnąć nowego od 2-3 lat, a sterowniki dobrze zoptymalizowane i gotowe na premierę gry to się naprawdę rzadko zdarzają. I nie zmienia się nic od lat
Tak minimalnie lepszy efekt potrafi drastycznie podnieść wymaganą moc, a wydajność GPU nie rośnie tak bardzo jak kiedyś, więc wrażenie takie, że musisz mieć TOPową kartę...
Ale jak spojrzysz na historię to masz ogromne spowolnienie i dziś to sprzęt nie nadąża za softem-> czytaj moc procesorów, moc GPU rośnie za wolno w stosunku do wymagań.
Dwa jeszcze 10 lat temu nikt nie myślał o graniu w 4k, a topowe karty dźwigały gry co prawda we większym FPSie to jednak były to rozdzielczości ~1600x1200.
Inna sprawa, że dziś TOPowe gpu w tej rozdzielczości nie zapewni Ci dużego FPSu przez słabe procesory.
Upraszam sprawę, bo wiadomo wielowątkowe wykorzystanie procesorów jest problemem... ale kiedyś wydajność wątku rosła o parę razy na generację i problemu nie było, dziś to parę naście procent i problem jest.
O ile sprawa z GPU jest dyskusyjna (zależy czy uwzględnimy mało popularne UHD czy nie), to w przypadku CPU całkowicie się z Tobą nie zgadzam.
Obecne procesory są wystarczające do obecnych gier oprócz serii Total War i skopanych tytułów jak ostatni COD czy komentowany F4.
Problemem nie jest sprzęt tylko sposób w jaki jest on wykorzystywany, a najlepszym tego potwierdzeniem jest różnica FPS pomiędzy detalami medium i high w Bostonie w w/w tytule (czyżby God Rays od Nvidii)?
wrekawek @ 2015.11.10 15:44
Chyba musi mieć. Na medium w Bostonie radeony mają różną wydajność, na high i ultra - praktycznie płaski wykres.
Gra zrobiona pod nvidia i intel, posiadacze procesora albo karty od AMD nie pograją. Ja osobiście nigdy nie rozumiałem fenomenu tej gry, według mnie to jest nudna gra i jakoś nigdy mnie nie kręciła, jak innym się podoba to dobrze. Mam tylko nadzieję, że odbije to się na sprzedaż, wszyscy z sprzętem AMD nie powinni kupować tej gry, po co wspierać Bethesda, skoro mają gdzieś ludzi z sprzętem AMD, a ogólne wymagania są bardzo wysokie jak na taką grafikę.
Ja to myślę że samo AMD ma wylane na ludzi którzy kupili ich sprzęt. Do AM3+ i FM2+ nie ma co wepchnąć nowego od 2-3 lat, a sterowniki dobrze zoptymalizowane i gotowe na premierę gry to się naprawdę rzadko zdarzają. I nie zmienia się nic od lat
Poza tym, nikt przy zdrowych zmysłach nie będzie optymalizował swojej gry pod producenta zapuchniętego na margines. To normalne, że w pierwszej kolejności optymalizują pod Nvidię, a pod AMD to o tyle o ile.
Nie wiem czy sie smiac czy plakac. Zapowiedzi betesda byly obiecujace, zdawalo mi sie ze zainstaluje na laptopie i spedze dlugie godziny przy tej grze. Rzeczywistosc wyglada tak, ze gra nie bedzie dzialac nawet na i7 4770k, bo beda spadki do 55 fps czyli szarpana animacja. Jak mozna tak spieprzyc gre, ktora powinna chodzic na spinaczu do papieru?
Już na pierwszy rzut oka widać, że gra wręcz płacze o zastosowanie DX12.
W dx12 byloby pewnie 15-20 fps na co wskazuja wszystkie tech dema. Ja widze powtorke z rewolucyjnego dx11, ktory poza niezliczonymi dodatkowymi efektami graficznymi uzyskiwanymi praktycznie za darmo mial uwolnic potencjal wielordzeniowych cpu i zwiekszyc wydajnosc a w praktyce gry, po przelaczeniu na dx9 dzialaly dwa razy wydajniej i wygladaly tak samo. Nie ma powodow aby wierzyc, ze tym razem bedzie inaczej. Mantle tez tego nie pokazalo, gdzie finalnie okazalo sie ze gladka animacja jest mozliwa do uzyskania tylko w dx11.
Gra zrobiona pod nvidia i intel, posiadacze procesora albo karty od AMD nie pograją. Ja osobiście nigdy nie rozumiałem
Bawią mnie tego typu teksty. Gra robiona jest pod platformę PC, która składa się z różnych komponentów, a to, że jeden sprzęt jest wydajnieszy, od drugiego, nie jest niczym dziwnym, więc pisanie, że gra robiona jest pod 'procesor A' oraz 'kartę B' to zwykła bzdura. Nie chce mi się przytaczać porównań motoryzacyjnych, ale pare znalazłoby się...(to tak, jakbym np. producentowi parownika z sekwencyjnej instalacji gazowej zarzucał to, że w innym silniku, o większej mocy...mam większą moc !
Nie bzdura tylko całą prawda, twoja wina skoro tego nie widzisz. W dodatku twoje porównanie jest jak suchar, z którego można się śmiać dniami i nocami. Przynajmniej udało Ci się mnie rozbawić
Chyba musi mieć. Na medium w Bostonie radeony mają różną wydajność, na high i ultra - praktycznie płaski wykres.
Przydałby się test procesorów na medium.
Paranoja, już nigdy nie kupię Radeona. Mam dosyć problemów z każdą premierą.
U mnie z kolei jest odwrotny problem, do stareńkiego Phenoma 965 mam 970. W zasadzie daje radę, lepiej jak na czystym AMD (wcześniej była grafa 7850), wiele gier nie potrzebuje potężnego proca i gra! Ale prosi się o jakiegokolwiek nawet współczesnego i5... Cena nieco zabójcza z płytą ale co robić?
Bawią mnie tego typu teksty. Gra robiona jest pod platformę PC, która składa się z różnych komponentów, a to, że jeden sprzęt jest wydajnieszy, od drugiego, nie jest niczym dziwnym, więc pisanie, że gra robiona jest pod 'procesor A' oraz 'kartę B' to zwykła bzdura. Nie chce mi się przytaczać porównań motoryzacyjnych, ale pare znalazłoby się...(to tak, jakbym np. producentowi parownika z sekwencyjnej instalacji gazowej zarzucał to, że w innym silniku, o większej mocy...mam większą moc !
Bo to nie jest gra, w przypadku której potrzebna jest aż taka płynność.
Pozwolisz, że o tym zadecyduje kupujący? Od czegoś jest g-sync, od czegoś są monitory 144Hz i mocniejsze grafiki...
OK, możemy to zrobić, ale wówczas wywalimy z zestawienia połowę kart graficznych. Czy w takiej sytuacji ZAGWARANTUJESZ mi, że nikt nie będzie miał pretensji, że 'akurat jego 7770 albo 660' nie ma w zestawieniu?
Po pierwsze, to nie nigdy, bo:
http://pclab.pl/art61159-9.html
http://pclab.pl/art63572.html
http://pclab.pl/art61577.html
Po drugie: ustawienia oczywiście wpływają na obciążenie CPU, ale jak już ktoś napisał wcześniej - nie zmienia się relacja między nimi (zwykle). Po trzecie: nie ma na tyle czasu by przetestować przeszło 30 procesorów w kilku ustawieniach. Oczywiście możemy to zrobić, ale wówczas proszę nie pytać np. o Sandy Bridge'a.
Pokazuje tylko, kto więcej kasy sypnął firmie odpowiedzialnej za grę.
Oczywiście towarzyszu Macierewicz heheszki
Pozwolisz, że o tym zadecyduje kupujący? Od czegoś jest g-sync, od czegoś są monitory 144Hz i mocniejsze grafiki...
OK, możemy to zrobić, ale wówczas wywalimy z zestawienia połowę kart graficznych. Czy w takiej sytuacji ZAGWARANTUJESZ mi, że nikt nie będzie miał pretensji, że 'akurat jego 7770 albo 660' nie ma w zestawieniu?
W sensie zrobienie 30 testów w high (10 kart*3 miejsca testowe) = wywalenie ~180 testów?
Ja to myślę że samo AMD ma wylane na ludzi którzy kupili ich sprzęt. Do AM3+ i FM2+ nie ma co wepchnąć nowego od 2-3 lat, a sterowniki dobrze zoptymalizowane i gotowe na premierę gry to się naprawdę rzadko zdarzają. I nie zmienia się nic od lat
Tak minimalnie lepszy efekt potrafi drastycznie podnieść wymaganą moc, a wydajność GPU nie rośnie tak bardzo jak kiedyś, więc wrażenie takie, że musisz mieć TOPową kartę...
Ale jak spojrzysz na historię to masz ogromne spowolnienie i dziś to sprzęt nie nadąża za softem-> czytaj moc procesorów, moc GPU rośnie za wolno w stosunku do wymagań.
Dwa jeszcze 10 lat temu nikt nie myślał o graniu w 4k, a topowe karty dźwigały gry co prawda we większym FPSie to jednak były to rozdzielczości ~1600x1200.
Inna sprawa, że dziś TOPowe gpu w tej rozdzielczości nie zapewni Ci dużego FPSu przez słabe procesory.
Upraszam sprawę, bo wiadomo wielowątkowe wykorzystanie procesorów jest problemem... ale kiedyś wydajność wątku rosła o parę razy na generację i problemu nie było, dziś to parę naście procent i problem jest.
O ile sprawa z GPU jest dyskusyjna (zależy czy uwzględnimy mało popularne UHD czy nie), to w przypadku CPU całkowicie się z Tobą nie zgadzam.
Obecne procesory są wystarczające do obecnych gier oprócz serii Total War i skopanych tytułów jak ostatni COD czy komentowany F4.
Problemem nie jest sprzęt tylko sposób w jaki jest on wykorzystywany, a najlepszym tego potwierdzeniem jest różnica FPS pomiędzy detalami medium i high w Bostonie w w/w tytule (czyżby God Rays od Nvidii)?
Chyba musi mieć. Na medium w Bostonie radeony mają różną wydajność, na high i ultra - praktycznie płaski wykres.
Przydałby się test procesorów na medium.
Dołączam się do prośby.
Ja to myślę że samo AMD ma wylane na ludzi którzy kupili ich sprzęt. Do AM3+ i FM2+ nie ma co wepchnąć nowego od 2-3 lat, a sterowniki dobrze zoptymalizowane i gotowe na premierę gry to się naprawdę rzadko zdarzają. I nie zmienia się nic od lat
Poza tym, nikt przy zdrowych zmysłach nie będzie optymalizował swojej gry pod producenta zapuchniętego na margines. To normalne, że w pierwszej kolejności optymalizują pod Nvidię, a pod AMD to o tyle o ile.
Jak pisałem komentarz to jeszcze nie było
W dx12 byloby pewnie 15-20 fps na co wskazuja wszystkie tech dema. Ja widze powtorke z rewolucyjnego dx11, ktory poza niezliczonymi dodatkowymi efektami graficznymi uzyskiwanymi praktycznie za darmo mial uwolnic potencjal wielordzeniowych cpu i zwiekszyc wydajnosc a w praktyce gry, po przelaczeniu na dx9 dzialaly dwa razy wydajniej i wygladaly tak samo. Nie ma powodow aby wierzyc, ze tym razem bedzie inaczej. Mantle tez tego nie pokazalo, gdzie finalnie okazalo sie ze gladka animacja jest mozliwa do uzyskania tylko w dx11.
Bawią mnie tego typu teksty. Gra robiona jest pod platformę PC, która składa się z różnych komponentów, a to, że jeden sprzęt jest wydajnieszy, od drugiego, nie jest niczym dziwnym, więc pisanie, że gra robiona jest pod 'procesor A' oraz 'kartę B' to zwykła bzdura. Nie chce mi się przytaczać porównań motoryzacyjnych, ale pare znalazłoby się...(to tak, jakbym np. producentowi parownika z sekwencyjnej instalacji gazowej zarzucał to, że w innym silniku, o większej mocy...mam większą moc !
Nie bzdura tylko całą prawda, twoja wina skoro tego nie widzisz. W dodatku twoje porównanie jest jak suchar, z którego można się śmiać dniami i nocami. Przynajmniej udało Ci się mnie rozbawić