AMD Dual Graphics miało by sens gdyby AMD technologie HSA zintegrowało również w swoich GPU a nie tylko w APU i nie stawiało bzdurnych ograniczeń co do wydajności montowanych kart graficznych.
iGPU spokojnie wystarczy do GPGPU, wydajniej by było, by dedykować dGPU=>Grafika, iGPU GPGPU.
AMD Dual Graphics miało by sens gdyby AMD technologie HSA zintegrowało również w swoich GPU a nie tylko w APU i nie stawiało bzdurnych ograniczeń co do wydajności montowanych kart graficznych.
Ale mowimy o roznicy w grafice a nie dystansie czy mgle.
Polecam uruchomić arme 2 i zwiększyć sobie 'widzialny horyzont'.
Pozdrawiam, bez odbioru.
Zresztą co tu dużo mówić... LOD to jest różnica w grafice i trudno o większy wpływ niż zmiana jego ustawień w grach typu FPS
Nie wpływa tak bardzo na jakość grafiki czasem, a czasem bardzo... ale ma to ogromny wpływ na ilość FPSów.
Jest trzeci sposób pozwalający ominąć wady dwóch pierwszych. Wiele monitorów ma dwa wejścia, więc można podłączyć do monitora obie karty jednocześnie.
To tak nie działa. Wejścia (jedno na karcie, drugie na płycie głównej) nie działają równolegle. Raz skonfigurowane Dual Graphics gdzie monitor jest podłączony do płyty głównej trzeba:
1. 'rozpiąć' w sterownikach,
2. zamknąć system,
3. przełączyć kabelek lecący do monitora z płyty głównej na kartę graficzną,
4. włączyć PC,
5. skonfigurować ponownie Dual Graphics.
Innymi słowy: trzeci sposób na połączenie o którym mówisz w praktyce nie istnieje.
Ale przecież iGPU i dGPU mogą działać niezależnie (niespięte w żadne DG) i można je podłączyć (dwoma oddzielnymi kablami) do jednego monitora (w monitorze przełączając źródło sygnału). Więc skoro mogą niespięte działać z jednym monitorem to mogą działać i spięte. Tyle że wymaga to restartu kompa przy przełączaniu trybu DG.
Zresztą nawet jakby wymagało przełączenia kabelka to HDMI jest hot-swap (DVI już nie) i można je przełączać w czasie pracy komputera.
Kazubin @ 2014.03.11 09:18
McMenel @ 2014.03.11 08:59
(...)
W grze. Ale to było by ciekawe porównanie. DG z DX i Mantle. CPU z API od AMD mniej się spoci i będą lepsze efekty. Z chęcią zobaczyłbym porównanie.
Do tej pory nie ma rozwiązanej kwestii jakości obrazu.
Nie chodzi o jakość obrazu. Chodzi o to czy pod Mantle byłby podobny co przy DirecX wzrost wydajności po dodaniu drugiej karty.
Smutne jest to, że od czasu wprowadzenia architektury modułowej AMD dostaje po tyłku w każdym teście. Pomysł na dual graphics jest moim zdaniem świetny. Szkoda, że wykonanie leży.. Może HSA coś poprawi w tej kwestii...
Ciekawi mnie kto kupuje te cale APU od AMD ? Bo ktoś musi skoro jeszcze z nich nie zrezygnowali.
Zapewne ci, których gry wcale albo niewiele interesują, a takich osób jest sporo.
A8-7600 zapewnia przyzwoitą wydajność za rozsądne pieniądze, niestety póki co nie ma go jeszcze na rynku.
Niewątpliwie zaś łączenie APU takiego jak A10-7850 z dedykowaną kartą graficzną na potrzeby gier jest póki co marnym pomysłem i wcale nie potrzeba tutaj platformy Intel+Nvidia (wystarczy samo AMD).
Btw, cena nie jest bynajmniej bez znaczenia - gdyby topowy Kaveri kosztował 400-450 złotych sytuacja mimo wszystko wyglądałaby lepiej.
Właśnie w świetle nawet tylko tych argumentów, lepszym wyborem jest układ Intela, nawet te Pentium czy I3. jak dla mnie jedynym argumentem dla ludzi którzy rozważają APU AMD jest tylko chyba magiczny Radeon, który siedzi w środku.
Ten twój nadaje się do biura co najwyżej i zabytków typu WOT oraz im podobnych co działają na max 2 rdzeniach a nie nowych gier co widać dobitnie tutaj http://pclab.pl/art55318-3.html Jedyny wyjątek to nie używać połączenia AMD + AMD a AMD + Nvidia .Widać tutaj dobitnie jakie te 2 twoje rdzenie to kupa .Spójrz po oc i idź się jeszcze poduczyć w tym temacie .Wyskoczyłeś jak głupek z konopi
Chciałeś powiedzieć, że jak gra obsługuje 4 rdzenie to Athlon daje radę dogonić Pentiuma, no rozumiem.
Ja bym miał grać na pentium to wolał bym jaką kolwiek używkę i 3 pierwszej generacji .Sam od lat używam tylko i7 .Nie wysilaj się bo ci żyłka może z tyłu w 4 literach pęknąć .Pentium jest i pozostanie szrotem dla biedaków jeśli idzie o granie .W każdej nowoczesnej grze złoi tego 2 rdzenie .Patrz choćby Crysis 2 http://pclab.pl/art51367-13.html Wiem że to takich zapatrzonych ślepo idiotów nigdy obiektywna prawda nie dotrze
Ale mowimy o roznicy w grafice a nie dystansie czy mgle.
To co wcześniej wkleiłeś to jest fake. Różnice sprowadzają sie do różnicy w oświetleniu niektorych lokacji oraz przekłamań w niektórych cieniach.
Ja nawet nie patrze na roznice w efektach, bo to ma wplyw tylko na wydajnosc gpu i przy porownaniu obciazenie cpu nie ma takiego znaczenia. Faktem jest, ze odleglosc rysowania jest mniejsza, co wplywa na ilosc widocznych elementow, jesli nie sa one obliczane to na pewno zmniejsza to obciazenie cpu podbijajac wyniki.
Widac na prostych wykresach z monitoringu, ze wykorzystanie cpu jest lepsze, wiec wydajnosc api powinna byc lepsza, to fakt. Ale w obecnej formie cos jest ewidentnie nie tak i wymaga dopracowania, moze to miec duzy wplyw na wydajnosc teoretycznie najslabszych cpu takich jak np. pentiumy, celerony, jedno modulowe apu.
Chodzi o to że możesz mieć GT640 z zegarem 1500MHz i GTX780Ti z zegarem 500MHz. Sam sobie odpowiedź która karta będzie szybsza.
Wydaje mi się że dlatego właśnie posługujemy się odnośnikami modelowymi aby porównać wydajność.
dobrze to do czego mam porownywac poddkreconego a10tke za 658zl? do i5 4430 z wykrecona karta intela za 675zl lub i3 4130 za 405zl plus wykrecony r7 250 ddr3 za 269zl?
dobrze to poprosze o takie porownanie
dobra to glupie. nie bylo tematu.
nie kumam. aco maja nie miec? chyba im szybciej taktowane gpu tym szybciej obrabia zadanie. seria zdaje sie ciagnie tylko na 720mhz.
a teraz widze. niewlasciwie sie wyrazilem. chodzilo mi o oc gpu.
Chodzi o to że możesz mieć GT640 z zegarem 1500MHz i GTX780Ti z zegarem 500MHz. Sam sobie odpowiedź która karta będzie szybsza.
Wydaje mi się że dlatego właśnie posługujemy się odnośnikami modelowymi aby porównać wydajność.
nie kumam. aco maja nie miec? chyba im szybciej taktowane gpu tym szybciej obrabia zadanie. seria zdaje sie ciagnie tylko na 720mhz.
a teraz widze. niewlasciwie sie wyrazilem. chodzilo mi o oc gpu.
Ciekawi mnie kto kupuje te cale APU od AMD ? Bo ktoś musi skoro jeszcze z nich nie zrezygnowali.
Nie mam pojęcia, ale skoro można wcisnąć takie dziadostwo jak intelowska integra, to można jeszcze większe, czyli apu.
AMD pokazuje plany tylko na przyszły rok i jak potem będą kontynuować dalej architekturę cpu opartą na modułach to już wszyscy o nich zapomną.
Może planują upadłość ?
Daaajcie jeszcze FX 6300 + gf 750 ti i radeojn 260x plisssssss.
Swoją drogą widzę, że gf 750 ti jest w tym momencie kartą nie posiadającą bezpośredniego konkurenta. Podobnie wydajny, ale już troszkę przestarzały w stosunku do 750 ti radeon 7850 jest 70 - 100 zł droższy.
To ten procesor, co na 4,5GHz jest wolniejszy od podkręconego szyną G2120? A gdzie jeszcze do Haswella.
Ten twój nadaje się do biura co najwyżej i zabytków typu WOT oraz im podobnych co działają na max 2 rdzeniach a nie nowych gier co widać dobitnie tutaj http://pclab.pl/art55318-3.html Jedyny wyjątek to nie używać połączenia AMD + AMD a AMD + Nvidia .Widać tutaj dobitnie jakie te 2 twoje rdzenie to kupa .Spójrz po oc i idź się jeszcze poduczyć w tym temacie .Wyskoczyłeś jak głupek z konopi
Chciałeś powiedzieć, że jak gra obsługuje 4 rdzenie to Athlon daje radę dogonić Pentiuma, no rozumiem.
iGPU spokojnie wystarczy do GPGPU, wydajniej by było, by dedykować dGPU=>Grafika, iGPU GPGPU.
Ale mowimy o roznicy w grafice a nie dystansie czy mgle.
Polecam uruchomić arme 2 i zwiększyć sobie 'widzialny horyzont'.
Pozdrawiam, bez odbioru.
Zresztą co tu dużo mówić... LOD to jest różnica w grafice i trudno o większy wpływ niż zmiana jego ustawień w grach typu FPS
Nie wpływa tak bardzo na jakość grafiki czasem, a czasem bardzo... ale ma to ogromny wpływ na ilość FPSów.
Taka ciekawostka od chaostheory:
Ale mowimy o roznicy w grafice a nie dystansie czy mgle.
Polecam uruchomić arme 2 i zwiększyć sobie 'widzialny horyzont'.
Pozdrawiam, bez odbioru.
Jest trzeci sposób pozwalający ominąć wady dwóch pierwszych. Wiele monitorów ma dwa wejścia, więc można podłączyć do monitora obie karty jednocześnie.
To tak nie działa. Wejścia (jedno na karcie, drugie na płycie głównej) nie działają równolegle. Raz skonfigurowane Dual Graphics gdzie monitor jest podłączony do płyty głównej trzeba:
1. 'rozpiąć' w sterownikach,
2. zamknąć system,
3. przełączyć kabelek lecący do monitora z płyty głównej na kartę graficzną,
4. włączyć PC,
5. skonfigurować ponownie Dual Graphics.
Innymi słowy: trzeci sposób na połączenie o którym mówisz w praktyce nie istnieje.
Ale przecież iGPU i dGPU mogą działać niezależnie (niespięte w żadne DG) i można je podłączyć (dwoma oddzielnymi kablami) do jednego monitora (w monitorze przełączając źródło sygnału). Więc skoro mogą niespięte działać z jednym monitorem to mogą działać i spięte. Tyle że wymaga to restartu kompa przy przełączaniu trybu DG.
Zresztą nawet jakby wymagało przełączenia kabelka to HDMI jest hot-swap (DVI już nie) i można je przełączać w czasie pracy komputera.
W grze. Ale to było by ciekawe porównanie. DG z DX i Mantle. CPU z API od AMD mniej się spoci i będą lepsze efekty. Z chęcią zobaczyłbym porównanie.
Do tej pory nie ma rozwiązanej kwestii jakości obrazu.
Nie chodzi o jakość obrazu. Chodzi o to czy pod Mantle byłby podobny co przy DirecX wzrost wydajności po dodaniu drugiej karty.
Zapewne ci, których gry wcale albo niewiele interesują, a takich osób jest sporo.
A8-7600 zapewnia przyzwoitą wydajność za rozsądne pieniądze, niestety póki co nie ma go jeszcze na rynku.
Niewątpliwie zaś łączenie APU takiego jak A10-7850 z dedykowaną kartą graficzną na potrzeby gier jest póki co marnym pomysłem i wcale nie potrzeba tutaj platformy Intel+Nvidia (wystarczy samo AMD).
Btw, cena nie jest bynajmniej bez znaczenia - gdyby topowy Kaveri kosztował 400-450 złotych sytuacja mimo wszystko wyglądałaby lepiej.
Właśnie w świetle nawet tylko tych argumentów, lepszym wyborem jest układ Intela, nawet te Pentium czy I3. jak dla mnie jedynym argumentem dla ludzi którzy rozważają APU AMD jest tylko chyba magiczny Radeon, który siedzi w środku.
Chciałeś powiedzieć, że jak gra obsługuje 4 rdzenie to Athlon daje radę dogonić Pentiuma, no rozumiem.
To co wcześniej wkleiłeś to jest fake. Różnice sprowadzają sie do różnicy w oświetleniu niektorych lokacji oraz przekłamań w niektórych cieniach.
Ja nawet nie patrze na roznice w efektach, bo to ma wplyw tylko na wydajnosc gpu i przy porownaniu obciazenie cpu nie ma takiego znaczenia. Faktem jest, ze odleglosc rysowania jest mniejsza, co wplywa na ilosc widocznych elementow, jesli nie sa one obliczane to na pewno zmniejsza to obciazenie cpu podbijajac wyniki.
Widac na prostych wykresach z monitoringu, ze wykorzystanie cpu jest lepsze, wiec wydajnosc api powinna byc lepsza, to fakt. Ale w obecnej formie cos jest ewidentnie nie tak i wymaga dopracowania, moze to miec duzy wplyw na wydajnosc teoretycznie najslabszych cpu takich jak np. pentiumy, celerony, jedno modulowe apu.
Wydaje mi się że dlatego właśnie posługujemy się odnośnikami modelowymi aby porównać wydajność.
dobrze to do czego mam porownywac poddkreconego a10tke za 658zl? do i5 4430 z wykrecona karta intela za 675zl lub i3 4130 za 405zl plus wykrecony r7 250 ddr3 za 269zl?
dobrze to poprosze o takie porownanie
dobra to glupie. nie bylo tematu.
nie kumam. aco maja nie miec? chyba im szybciej taktowane gpu tym szybciej obrabia zadanie. seria zdaje sie ciagnie tylko na 720mhz.
a teraz widze. niewlasciwie sie wyrazilem. chodzilo mi o oc gpu.
Chodzi o to że możesz mieć GT640 z zegarem 1500MHz i GTX780Ti z zegarem 500MHz. Sam sobie odpowiedź która karta będzie szybsza.
Wydaje mi się że dlatego właśnie posługujemy się odnośnikami modelowymi aby porównać wydajność.
nie kumam. aco maja nie miec? chyba im szybciej taktowane gpu tym szybciej obrabia zadanie. seria zdaje sie ciagnie tylko na 720mhz.
a teraz widze. niewlasciwie sie wyrazilem. chodzilo mi o oc gpu.
A co mają MHz do wydajności kart??
Btw, cena nie jest bynajmniej bez znaczenia - gdyby topowy Kaveri kosztował 400-450 złotych sytuacja mimo wszystko wyglądałaby lepiej.
Niestety AMD z ceną zaszalło, jakby nie patrzeć drożej niż FX83xx. Co im odbiło nie mam pojęcia, kto to kupi też nie....
Zapewne ci, których gry wcale albo niewiele interesują, a takich osób jest sporo.
Tym wystarczy i Kabini. Albo nie wystarczy nawet FX 83xx.
Nie mam pojęcia, ale skoro można wcisnąć takie dziadostwo jak intelowska integra, to można jeszcze większe, czyli apu.
AMD pokazuje plany tylko na przyszły rok i jak potem będą kontynuować dalej architekturę cpu opartą na modułach to już wszyscy o nich zapomną.
Może planują upadłość ?
Daaajcie jeszcze FX 6300 + gf 750 ti i radeojn 260x plisssssss.
Swoją drogą widzę, że gf 750 ti jest w tym momencie kartą nie posiadającą bezpośredniego konkurenta. Podobnie wydajny, ale już troszkę przestarzały w stosunku do 750 ti radeon 7850 jest 70 - 100 zł droższy.
To ten procesor, co na 4,5GHz jest wolniejszy od podkręconego szyną G2120? A gdzie jeszcze do Haswella.
Chciałeś powiedzieć, że jak gra obsługuje 4 rdzenie to Athlon daje radę dogonić Pentiuma, no rozumiem.