Ciekawi mnie kto kupuje te cale APU od AMD ? Bo ktoś musi skoro jeszcze z nich nie zrezygnowali.
Nie mam pojęcia, ale skoro można wcisnąć takie dziadostwo jak intelowska integra, to można jeszcze większe, czyli apu.
AMD pokazuje plany tylko na przyszły rok i jak potem będą kontynuować dalej architekturę cpu opartą na modułach to już wszyscy o nich zapomną.
Ciekawi mnie kto kupuje te cale APU od AMD ? Bo ktoś musi skoro jeszcze z nich nie zrezygnowali.
Zapewne ci, których gry wcale albo niewiele interesują, a takich osób jest sporo.
A8-7600 zapewnia przyzwoitą wydajność za rozsądne pieniądze, niestety póki co nie ma go jeszcze na rynku.
Niewątpliwie zaś łączenie APU takiego jak A10-7850 z dedykowaną kartą graficzną na potrzeby gier jest póki co marnym pomysłem i wcale nie potrzeba tutaj platformy Intel+Nvidia (wystarczy samo AMD).
Btw, cena nie jest bynajmniej bez znaczenia - gdyby topowy Kaveri kosztował 400-450 złotych sytuacja mimo wszystko wyglądałaby lepiej.
Kupuje się np Athlon X4 760k 4,1GHz + GTX 750 Ti i sprzęcik hula aż miło niż bawić się w głupotę typu A10 7850K + R7 250 .
To ten procesor, co na 4,5GHz jest wolniejszy od podkręconego szyną G2120? A gdzie jeszcze do Haswella.
Ten twój nadaje się do biura co najwyżej i zabytków typu WOT oraz im podobnych co działają na max 2 rdzeniach a nie nowych gier co widać dobitnie tutaj http://pclab.pl/art55318-3.html Jedyny wyjątek to nie używać połączenia AMD + AMD a AMD + Nvidia .Widać tutaj dobitnie jakie te 2 twoje rdzenie to kupa .Spójrz po oc i idź się jeszcze poduczyć w tym temacie .Wyskoczyłeś jak głupek z konopi
Oby AMD wykorzystało kasę z rynku konsol na R&D. Wiadomo, że jakiś mega kokosów na konsolach nie zarobią, ale mimo wszystko zawsze to jakiś stabilny i pewny przychód pozwalający planować coś na przyszłość. W tym momencie są mocno z tyłu względem Nvidii.
Męcz osoby, które zajmuj się tym i mają oficjalny kontakt z EA i AMD. Sprawa była poruszona tylko i wyłącznie w komentarzach, mimo, że nawet osoby testujące wiedziały o różnicach w generowanym obrazie.
Pytania padały pod testami i była informacja że roznic nie ma. Na PPC zrobili porownanie grafiki. Przeczytaj sobie
Taka ciekawostka od chaostheory:
ponieważ EA stwierdziło, że źle ustawili parametry związane z widocznoscią i mgłą co poprawią w patchu.
Jak tu skomentować taką porażkę na całej linii? AMD coś tam próbuje, coś tam starają się zmienić, ale wychodzi jak zawsze. Mam tylko nadzieję, że AMD kończy już projekt następcy arch. Bulldozer bo nie wróżę im różowej przyszłości z tym co teraz wypuszczają. A10 7850K (i cała reszta) powinna być tańsza o przynajmniej 50$. Bez tej obniżki to tylko ignoranci są w stanie coś takiego kupić.
Męcz osoby, które zajmuj się tym i mają oficjalny kontakt z EA i AMD. Sprawa była poruszona tylko i wyłącznie w komentarzach, mimo, że nawet osoby testujące wiedziały o różnicach w generowanym obrazie.
Pytania padały pod testami i była informacja że roznic nie ma. Na PPC zrobili porownanie grafiki. Przeczytaj sobie
Męcz osoby, które zajmuj się tym i mają oficjalny kontakt z EA i AMD. Sprawa była poruszona tylko i wyłącznie w komentarzach, mimo, że nawet osoby testujące wiedziały o różnicach w generowanym obrazie.
Nie interesuje mnie kwestia obrazu a raczej to jak to działa czy jest jakaś różnica w DG między DX a mantle. Ot jako ciekawostka i czy to jest spójna strategia AMD czyli DG plus mantle daje lepsze efekty.
Ale jak chcesz porównywać wydajność skoro jedna z wersji odstaje graficznie od drugiej?
Do tej pory nie ma rozwiązanej kwestii jakości obrazu.
Nie interesuje mnie kwestia obrazu a raczej to jak to działa czy jest jakaś różnica w DG między DX a mantle. Ot jako ciekawostka i czy to jest spójna strategia AMD czyli DG plus mantle daje lepsze efekty.
Ale jak chcesz porównywać wydajność skoro jedna z wersji odstaje graficznie od drugiej?
Nie raz już to pisałem, ale napisze jeszcze raz. Dual Graphics jest ofiara błędnych założeń, prób zsynchronizowania czegoś, czego nie da się zsynchronizować. Idealnie byłoby, gdyby AMD na sztywno przypisało konkretne zadania związane z generowanie grafiki 3D pod IGP i dGPU (IGP mogłoby dostać np. wszystko co związane z geometrią, gdzie ścisła współpraca z CPU jest niezbędna; ewentualnie zapewniać chociaż bezstratny filtr antyaliasingowy).
W ostateczności, gdyby powyższe okazało się za trudne do realizacji, powinno to działać jak Lucid Virtu albo Nvidia Optimus, czyli podłączamy monitor pod IGP, korzystamy z HSA, w czasie odtwarzania filmów dGPU jest nieaktywne itd. W razie włączenia gry następuje automatyczne przełączenie na dGPU.
Decydując się na Dual Graphics, czyli tandem APU i zewnętrznej karty graficznej, możemy podłączyć zestaw do monitora na dwa sposoby, zyskując lub tracąc różne opcje.
Jest trzeci sposób pozwalający ominąć wady dwóch pierwszych. Wiele monitorów ma dwa wejścia, więc można podłączyć do monitora obie karty jednocześnie.
To tak nie działa. Wejścia (jedno na karcie, drugie na płycie głównej) nie działają równolegle. Raz skonfigurowane Dual Graphics gdzie monitor jest podłączony do płyty głównej trzeba:
1. 'rozpiąć' w sterownikach,
2. zamknąć system,
3. przełączyć kabelek lecący do monitora z płyty głównej na kartę graficzną,
4. włączyć PC,
5. skonfigurować ponownie Dual Graphics.
Innymi słowy: trzeci sposób na połączenie o którym mówisz w praktyce nie istnieje.
Avitr @ 2014.03.10 22:15
Z testów jednoznacznie wynika, że łączenie APU z kartami GDDR5 nie ma żadnego sensu!
Skoro porównaliście iGPU+GPU@DDR3 oraz iGPU+GPU@DDR5 i to pierwsze okazało się szybsze to mogliście jeszcze dorzucić test samego GPU@DDR5 (z wyłączonym iGPU). Jestem pewien że sama 250 na DDR5 byłaby szybsza niż tandem integry i 250 na DDR3.
Bardzo możliwe, ale z drugiej strony nikt kto kupił APU nie będzie teraz nagle wyłączał rdzenia graficznego zintegrowanego (za który przecież zapłacił!) i próbował standardowej konfiguracji Steamrollerowa część CPU + osobne GPU. Z tego powodu ta konfiguracja nie miała sensu.
Avitr @ 2014.03.10 22:15
Core i3-4130 oraz GTX 750 Ti po fabrycznym podkręceniu – alternatywna opcja za 1000 zł
Żeby było 'sprawiedliwie' to mogliście jeszcze dać konkurencyjny zestaw z FX6300 zamiast i3 (FX6300 w przeciwieństwie do i3 da się sporo podkręcić) oraz odpowiednią kartę AMD.
[/quote]
Kręcony FX-6300 może i byłby przeciwnikiem dla Core i3, ale nie w momencie kiedy mówimy o budowie energooszczędnego zestawu, który się nie będzie zwyczajnie gotował w ciasnej obudowie. Sam kręcony FX-6300 potrzebuje dwa razy więcej energii niż Core i3...
McMenel @ 2014.03.11 08:59
SunTzu @ 2014.03.11 06:28
(...)
grach....
Ile tych gier?
W grze. Ale to było by ciekawe porównanie. DG z DX i Mantle. CPU z API od AMD mniej się spoci i będą lepsze efekty. Z chęcią zobaczyłbym porównanie.
Obecnie na Mantle można wykonać pomiar wyłącznie programowy. Z poprzedniego artykułu o FCAT wiemy już, że FRAPS (pomiar programowy) wykłada się na całej linii. Jak na Mantle będzie można uruchomić FCAT-owy overlay z kolorowymi paseczkami to wtedy przeprowadzimy test
W tej chwili to ciekawostka, a pliczkom 'wannabe FCAT' z czasem generowania klatek, które są wypluwane przez narzędzie do benchmarkowania EA raczej słabo wierzę
Nie mam pojęcia, ale skoro można wcisnąć takie dziadostwo jak intelowska integra, to można jeszcze większe, czyli apu.
AMD pokazuje plany tylko na przyszły rok i jak potem będą kontynuować dalej architekturę cpu opartą na modułach to już wszyscy o nich zapomną.
Zapewne ci, których gry wcale albo niewiele interesują, a takich osób jest sporo.
A8-7600 zapewnia przyzwoitą wydajność za rozsądne pieniądze, niestety póki co nie ma go jeszcze na rynku.
Niewątpliwie zaś łączenie APU takiego jak A10-7850 z dedykowaną kartą graficzną na potrzeby gier jest póki co marnym pomysłem i wcale nie potrzeba tutaj platformy Intel+Nvidia (wystarczy samo AMD).
Btw, cena nie jest bynajmniej bez znaczenia - gdyby topowy Kaveri kosztował 400-450 złotych sytuacja mimo wszystko wyglądałaby lepiej.
http://pclab.pl/art56751-29.html
To ten procesor, co na 4,5GHz jest wolniejszy od podkręconego szyną G2120? A gdzie jeszcze do Haswella.
Pytania padały pod testami i była informacja że roznic nie ma. Na PPC zrobili porownanie grafiki. Przeczytaj sobie
Taka ciekawostka od chaostheory:
Ale mowimy o roznicy w grafice a nie dystansie czy mgle.
To co wcześniej wkleiłeś to jest fake. Różnice sprowadzają sie do różnicy w oświetleniu niektorych lokacji oraz przekłamań w niektórych cieniach.
Pytania padały pod testami i była informacja że roznic nie ma. Na PPC zrobili porownanie grafiki. Przeczytaj sobie
Taka ciekawostka od chaostheory:
Pytania padały pod testami i była informacja że roznic nie ma. Na PPC zrobili porownanie grafiki. Przeczytaj sobie
To jest fake a roznice sprowadzają się tak naprawdę do oświetlenia niektorych scen oraz do pewnych przekłamaniach w cieniach.
Zapytaj się osób pracujących na tym portalu, bo mi nie chce się szukać odniesienia do tej kwestii po komentarzach. Pozdrawiam.
no wlasnie poszuka bo roznice są ale nie takie jak na tamtym portalu...
http://forum.hardwarepal.com/battlefield-4...ity-comparison/
To jest fake a roznice sprowadzają się tak naprawdę do oświetlenia niektorych scen oraz do pewnych przekłamaniach w cieniach.
Zapytaj się osób pracujących na tym portalu, bo mi nie chce się szukać odniesienia do tej kwestii po komentarzach. Pozdrawiam.
Skąd ta informacja??
http://forum.hardwarepal.com/battlefield-4...ity-comparison/
To jest fake a roznice sprowadzają się tak naprawdę do oświetlenia niektorych scen oraz do pewnych przekłamaniach w cieniach.
Ale jak chcesz porównywać wydajność skoro jedna z wersji odstaje graficznie od drugiej?
Skąd ta informacja??
http://forum.hardwarepal.com/battlefield-4...ity-comparison/
To ten procesor, co na 4,5GHz jest wolniejszy od podkręconego szyną G2120? A gdzie jeszcze do Haswella.
Nie interesuje mnie kwestia obrazu a raczej to jak to działa czy jest jakaś różnica w DG między DX a mantle. Ot jako ciekawostka i czy to jest spójna strategia AMD czyli DG plus mantle daje lepsze efekty.
Ale jak chcesz porównywać wydajność skoro jedna z wersji odstaje graficznie od drugiej?
Skąd ta informacja??
Do tej pory nie ma rozwiązanej kwestii jakości obrazu.
Nie interesuje mnie kwestia obrazu a raczej to jak to działa czy jest jakaś różnica w DG między DX a mantle. Ot jako ciekawostka i czy to jest spójna strategia AMD czyli DG plus mantle daje lepsze efekty.
Ale jak chcesz porównywać wydajność skoro jedna z wersji odstaje graficznie od drugiej?
W ostateczności, gdyby powyższe okazało się za trudne do realizacji, powinno to działać jak Lucid Virtu albo Nvidia Optimus, czyli podłączamy monitor pod IGP, korzystamy z HSA, w czasie odtwarzania filmów dGPU jest nieaktywne itd. W razie włączenia gry następuje automatyczne przełączenie na dGPU.
Jest trzeci sposób pozwalający ominąć wady dwóch pierwszych. Wiele monitorów ma dwa wejścia, więc można podłączyć do monitora obie karty jednocześnie.
To tak nie działa. Wejścia (jedno na karcie, drugie na płycie głównej) nie działają równolegle. Raz skonfigurowane Dual Graphics gdzie monitor jest podłączony do płyty głównej trzeba:
1. 'rozpiąć' w sterownikach,
2. zamknąć system,
3. przełączyć kabelek lecący do monitora z płyty głównej na kartę graficzną,
4. włączyć PC,
5. skonfigurować ponownie Dual Graphics.
Innymi słowy: trzeci sposób na połączenie o którym mówisz w praktyce nie istnieje.
Skoro porównaliście iGPU+GPU@DDR3 oraz iGPU+GPU@DDR5 i to pierwsze okazało się szybsze to mogliście jeszcze dorzucić test samego GPU@DDR5 (z wyłączonym iGPU). Jestem pewien że sama 250 na DDR5 byłaby szybsza niż tandem integry i 250 na DDR3.
Bardzo możliwe, ale z drugiej strony nikt kto kupił APU nie będzie teraz nagle wyłączał rdzenia graficznego zintegrowanego (za który przecież zapłacił!) i próbował standardowej konfiguracji Steamrollerowa część CPU + osobne GPU. Z tego powodu ta konfiguracja nie miała sensu.
Żeby było 'sprawiedliwie' to mogliście jeszcze dać konkurencyjny zestaw z FX6300 zamiast i3 (FX6300 w przeciwieństwie do i3 da się sporo podkręcić) oraz odpowiednią kartę AMD.
Kręcony FX-6300 może i byłby przeciwnikiem dla Core i3, ale nie w momencie kiedy mówimy o budowie energooszczędnego zestawu, który się nie będzie zwyczajnie gotował w ciasnej obudowie. Sam kręcony FX-6300 potrzebuje dwa razy więcej energii niż Core i3...
grach....
Ile tych gier?
W grze. Ale to było by ciekawe porównanie. DG z DX i Mantle. CPU z API od AMD mniej się spoci i będą lepsze efekty. Z chęcią zobaczyłbym porównanie.
Obecnie na Mantle można wykonać pomiar wyłącznie programowy. Z poprzedniego artykułu o FCAT wiemy już, że FRAPS (pomiar programowy) wykłada się na całej linii. Jak na Mantle będzie można uruchomić FCAT-owy overlay z kolorowymi paseczkami to wtedy przeprowadzimy test
W tej chwili to ciekawostka, a pliczkom 'wannabe FCAT' z czasem generowania klatek, które są wypluwane przez narzędzie do benchmarkowania EA raczej słabo wierzę