Super test! Wielkie dzięki! Akurat jestem w trakcie składania komputera do biura i nie mam już wątpliwości co wybrać za około 1100zł można super komputer biurowy złożyć.
mi nie musicie nic tlumaczyc, mi do niczego ta wiedza nie jest potrzebna [PCL to nie jedyny serwis ktorego wynikami sie sugeruje], to o innych [mniej zorientowanych] mi chodzi. oni tych komentarzy nie czytaja, zapewne w polowie by przestali bo mozna sie w tym pogubic [a dlaczego nie geforce, a dlaczego silna karta nie ma znaczenia].
mi nie musicie nic tlumaczyc, mi do niczego ta wiedza nie jest potrzebna [PCL to nie jedyny serwis ktorego wynikami sie sugeruje], to o innych [mniej zorientowanych] mi chodzi. oni tych komentarzy nie czytaja, zapewne w polowie by przestali bo mozna sie w tym pogubic [a dlaczego nie geforce, a dlaczego silna karta nie ma znaczenia].
Mniej zorientowani polecą do mediaka i kupią i3 z gt520 8GB ramu bo karta ma... 8GB ramu i BF3 na maksa im poleci.
Ci co czytaja serwisy typu PCLab wiedzą co sie z czym je. Zaś ci co cos kumają ale nie boją sie pytać skorzystają z forum.
Czy autor artykułu jest absolutnie pewien poniższego stwierdzenia?
' APU przeznaczone są dla innego rodzaju klienta, tego który wymaga dużo wyższej wydajności w grach, a mały rozmiar obudowy czy niski pobór energii są na dalszych miejscach na liście priorytetów.'
Mogli byście zrobic test DUAL GRAPHICS z konfiguracjami kart z różną pamięcią i ze zrównanymi zegarami bo nigdzie nie ma takiego testu.
Zapewne wiele osób jest ciekawa a ja sam zastanawiam sie czy lepiej jest kupic hd6570 z ddr3 1866 czy ddr5?!
A po co w ogóle robić test Dual Graphics skoro działa to tak: http://pclab.pl/art51168-26.html
Przyrost FPS we frapsie w żaden sposób nie przekłada się na płynność rozgrywki. Totalny bezsens i na tą chwilę rozwiązanie gorsze niż z samym APU/pojedynczą kartą.
Mogli byście zrobic test DUAL GRAPHICS z konfiguracjami kart z różną pamięcią i ze zrównanymi zegarami bo nigdzie nie ma takiego testu.
Zapewne wiele osób jest ciekawa a ja sam zastanawiam sie czy lepiej jest kupic hd6570 z ddr3 1866 czy ddr5?!
A po co w ogóle robić test Dual Graphics skoro działa to tak: http://pclab.pl/art51168-26.html
Przyrost FPS we frapsie w żaden sposób nie przekłada się na płynność rozgrywki. Totalny bezsens i na tą chwilę rozwiązanie gorsze niż z samym APU/pojedynczą kartą.
Testy były ale nikt nigdy nie zagłebił sie w temat DG do tego stopnia aby sprawdzic wpływ taktów pamięci i rdzenia na wydajność.
Jest test na koreańskiej stronie ale weź traz tłumacz ich obrazki...
Ciekawi mnie czy np llano z ramem 1866 i hd6570 z ddr3 1866 oraz po zrównaniu taktowania rdzenia cos zmieni...
Twierdzenie 'A po co w ogóle robić test Dual Graphics' jest mało profesionalne i ośmiesza twoją osobe jako redaktora.
A po co w ogóle robić test Dual Graphics skoro działa to tak: http://pclab.pl/art51168-26.html
Przyrost FPS we frapsie w żaden sposób nie przekłada się na płynność rozgrywki. Totalny bezsens i na tą chwilę rozwiązanie gorsze niż z samym APU/pojedynczą kartą.
Testy były ale nikt nigdy nie zagłebił sie w temat DG do tego stopnia aby sprawdzic wpływ taktów pamięci i rdzenia na wydajność.
Jest test na koreańskiej stronie ale weź traz tłumacz ich obrazki...
Ciekawi mnie czy np llano z ramem 1866 i hd6570 z ddr3 1866 oraz po zrównaniu taktowania rdzenia cos zmieni...
Twierdzenie 'A po co w ogóle robić test Dual Graphics' jest mało profesionalne i ośmiesza twoją osobe jako redaktora.
W ogóle nie rozumiesz. Skoro korzystając z Dual Graphics nie ma żadnego odczuwalnego przyrostu FPS to po co testować różne opcje Dual Graphics? Nie ma żadnego znaczenia czy 'pustych FPS' będzie o 5 więcej czy 5 mniej - odczucia z gry będą te same, bo Dual Graphics w obecnej formie jest żartem, a nie technologią wartą uwagi. Co lepsze: AMD o tym wie!
Wstawki o ośmieszaniu zostaw dla siebie, bo z 67% ostrzeżen zrobi Ci się 100% i pożegnasz się z kontem, jak wielu przed Tobą. A, jak już zdążyłeś zauważyć po swoich 'procentach', nikt tu się z Tobą nie będzie patyczkował.
Testy były ale nikt nigdy nie zagłebił sie w temat DG do tego stopnia aby sprawdzic wpływ taktów pamięci i rdzenia na wydajność.
Jest test na koreańskiej stronie ale weź traz tłumacz ich obrazki...
Ciekawi mnie czy np llano z ramem 1866 i hd6570 z ddr3 1866 oraz po zrównaniu taktowania rdzenia cos zmieni...
Twierdzenie 'A po co w ogóle robić test Dual Graphics' jest mało profesionalne i ośmiesza twoją osobe jako redaktora.
W ogóle nie rozumiesz. Skoro korzystając z Dual Graphics nie ma żadnego odczuwalnego przyrostu FPS to po co testować różne opcje Dual Graphics? Nie ma żadnego znaczenia czy 'pustych FPS' będzie o 5 więcej czy 5 mniej - odczucia z gry będą te same, bo Dual Graphics w obecnej formie jest żartem, a nie technologią wartą uwagi. Co lepsze: AMD o tym wie!
Wstawki o ośmieszaniu zostaw dla siebie, bo z 67% ostrzeżen zrobi Ci się 100% i pożegnasz się z kontem, jak wielu przed Tobą. A, jak już zdążyłeś zauważyć po swoich 'procentach', nikt tu się z Tobą nie będzie patyczkował.
Naucz sie czytac ze zrozumieniem i jeszcze raz przeczytaj zdanie z ośmieszaniem... a nie straszysz. Po za tym wykorzystywanie ostrzerzeń do tego celu potwierdza to co napisałem.
Co do testu - po czym wnosisz że nie bedzie przyrostu w takiej konfiguracji skoro tego nie przetestowałeś - wróżką jesteś??
'Trzeba przyznać, że to działa! Po dodaniu mocy Radeona HD 6670 APU AMD osiąga bardzo dobre rezultaty. Wydajność w grach zdecydowanie przewyższa wyniki samego Turksa. Taki tandem niebezpiecznie blisko zbliża się pod względem wydajności do GeForce'a 550 Ti, a więc karty kosztującej obecnie 500 zł!' - zaprzeczysz??
@up
Nawet nie muszę wchodzić, to była era przed Focusem. Focus trzyma swoją łapę na szczegółach i sprawdza. Jak widać na filmie wyraźnie FPS jest podobny.
Tak dokładnie masz rację w tym arcie troszku oszukali czytelników. Podobnie zrobił Anadtech i reszta. Tylko Focusowi chciało się drążyć temat bardziej...
Chyba trzeba to pochwalić?
Sorry SunTzu, czyli karty i proce są testowane w RÓŻNYCH miejscach, tak? Bo jeśli tak, to oczywiście dobrze i powinno tak być, a 'dupowato' odnosi się do tego, iż poprzednio zrozumiałem jakoby były testowane w miejscach tych samych. Jeśli zrozumiałem źle - my bad tudzież no offense
@mlodybe
Pomiar fps to najłatwiejsza metoda sprawdzenia wydajności GPU, ale jeszcze ważniejsze są odstępy między poszczególnymi klatkami. Przykładowo karta może generować grafikę z szybkością 60 kl./s, ale 45 klatek wyświetlone zostaje w ciągu pierwszej 0,4 sekundy. W taki przypadku nie może być mowy o płynności. Nierówne odstępy między klatkami to główny problem multi-GPU i szczególnie właśnie DualGraphics ma już z tym gigantyczne problemy. Pomiary klatek na sekundę w starszych artykułach są prawidłowe, ale tylko w nowszym zmierzono rzeczywistą płynność i wyniki są dla DG kompromitujące.
Także zajmowanie się ta technologią rzeczywiście nie ma sensu., W artykułach powinna być tylko przestroga dla czytelników, żeby w to nie inwestowali. Rozumiem pomysł z synchronizacją dGPU i iGPU, ale naprawdę nie trzeba być jasnowidzem żeby wiedzieć, że ten pomysł nie wypali. CF w DG to inny tryb, inny algorytm podziału pracy na GPU. Poza tym pełna synchronizacja nie jest możliwa, bo pamięć ma zupełnie inne opóźnienia oraz iGPU musi dzielić przepustowość z CPU (a potrzeby CPU w tym zakresie są różne, w zależności od konkretnej gry).
@mlodybe
Pomiar fps to najłatwiejsza metoda sprawdzenia wydajności GPU, ale jeszcze ważniejsze są odstępy między poszczególnymi klatkami. Przykładowo karta może generować grafikę z szybkością 60 kl./s, ale 45 klatek wyświetlone zostaje w ciągu pierwszej 0,4 sekundy. W taki przypadku nie może być mowy o płynności. Nierówne odstępy między klatkami to główny problem multi-GPU i szczególnie właśnie DualGraphics ma już z tym gigantyczne problemy. Pomiary klatek na sekundę w starszych artykułach są prawidłowe, ale tylko w nowszym zmierzono rzeczywistą płynność i wyniki są dla DG kompromitujące.
Także zajmowanie się ta technologią rzeczywiście nie ma sensu., W artykułach powinna być tylko przestroga dla czytelników, żeby w to nie inwestowali. Rozumiem pomysł z synchronizacją dGPU i iGPU, ale naprawdę nie trzeba być jasnowidzem żeby wiedzieć, że ten pomysł nie wypali. CF w DG to inny tryb, inny algorytm podziału pracy na GPU. Poza tym pełna synchronizacja nie jest możliwa, bo pamięć ma zupełnie inne opóźnienia oraz iGPU musi dzielić przepustowość z CPU (a potrzeby CPU w tym zakresie są różne, w zależności od konkretnej gry).
Ale to nie zmienia faktu ze taki art zagłębiający sie w tą kwestie by sie przydał.
A straszenie banem jest wręcz dziecinne - coś w stylu 'jesteś u mojej mamy'
@up
Masz opinię funboy-a Jak widać problem Vaio Cyrix-a został szybko rozwiązany przez focus-a. Nowa administracja nie toleruje takich zachowań, ale jak widać nie przekraczasz granicy, dlatego cały czas masz prawo się swobodnie wypowiadać. Tak to powinieneś rozumieć (troszku w drugą stronę przeciągnąłem linię).... Innymi słowy, jak zapuścisz się w granice absurdu i będziesz męczył górę, to góra odwdzięczy Ci się pięknym...
Art może by się przydał... może trzeba poczekać....
... Czy nie dałoby się zrobić tak by jednego GPU renderowało pół klatki, a drugie GPU drugie pół?
miekrzy @ 2012.10.21 19:59
Pioy @ 2012.10.21 19:56
czyli karty i proce są testowane w RÓŻNYCH miejscach, tak?
Tak, proce w miejscach maksymalnie ciężkich i nieskalujących się z GPU, a grafy w miejscach maksymalnie możliwie niezależnych od CPU.
ale tylko w nowszym zmierzono rzeczywistą płynność
Eeeej, ja od zawsze mówiłem, że multiGPU i wszystkie hybrydy są przereklamowane
Ty tak, ale nie wszyscy...
Multi GPU chyba nigdy nie będzie działać. Na rynku PRO nie istnieje, na rynku konsumenckim nikt tego nie robi....
Jedyne rozwiązanie popularne jaki ma sens to Dual Graphics, ale to 'nie' działa.
@mlodybe
Pomiar fps to najłatwiejsza metoda sprawdzenia wydajności GPU, ale jeszcze ważniejsze są odstępy między poszczególnymi klatkami. Przykładowo karta może generować grafikę z szybkością 60 kl./s, ale 45 klatek wyświetlone zostaje w ciągu pierwszej 0,4 sekundy. W taki przypadku nie może być mowy o płynności. Nierówne odstępy między klatkami to główny problem multi-GPU i szczególnie właśnie DualGraphics ma już z tym gigantyczne problemy. Pomiary klatek na sekundę w starszych artykułach są prawidłowe, ale tylko w nowszym zmierzono rzeczywistą płynność i wyniki są dla DG kompromitujące.
Także zajmowanie się ta technologią rzeczywiście nie ma sensu., W artykułach powinna być tylko przestroga dla czytelników, żeby w to nie inwestowali. Rozumiem pomysł z synchronizacją dGPU i iGPU, ale naprawdę nie trzeba być jasnowidzem żeby wiedzieć, że ten pomysł nie wypali. CF w DG to inny tryb, inny algorytm podziału pracy na GPU. Poza tym pełna synchronizacja nie jest możliwa, bo pamięć ma zupełnie inne opóźnienia oraz iGPU musi dzielić przepustowość z CPU (a potrzeby CPU w tym zakresie są różne, w zależności od konkretnej gry).
Ale to nie zmienia faktu ze taki art zagłębiający sie w tą kwestie by sie przydał.
A straszenie banem jest wręcz dziecinne - coś w stylu 'jesteś u mojej mamy'
Nie, nie przydałby się bezużyteczny art o zależności Dual Graphics od pamięci/taktowań/whatever. I takiego nie będzie aż do następnej generacji APU gdzie ponownie sprawdzimy jak DG działa. Jak będzie działało ŹLE, czyli tak jak to wygląda teraz, to ponownie nie będzie artu na temat zależności Dual Graphics od pamięci/taktowań/whatever. I tak do znudzenia.
Straszenie banem jest bardzo skuteczne przeciwko fanbojstwu jakie prezentujesz. Wstawianie sobie loga AMD czy jakiejkolwiek innej firmy w avatarze wg mnie nie jest normalne, a szczególnie dziwnie to pachnie, kiedy na siłę domagasz się testów produktów tej firmy (najpierw forsowanie pomysłu testowania llano w grach jako kolejnej platformy, a teraz dual graphics). Strata czasu.
Mniej zorientowani polecą do mediaka i kupią i3 z gt520 8GB ramu bo karta ma... 8GB ramu i BF3 na maksa im poleci.
Ci co czytaja serwisy typu PCLab wiedzą co sie z czym je. Zaś ci co cos kumają ale nie boją sie pytać skorzystają z forum.
h61 + i5-2400 + 2x4 gb adata + cd-rw + seagate 1 tb + gtx 660 + aerocool 450w + CM elite 333
Cena 2400 zl, jest sens szukac kompromisow za 2000 zl czyli B75 + i3 IB + 7770? Moim zdaniem nie.
Tak, bo padło jakim jest GTX660 nie jest kartą bezkompromisową.
Mogli byście zrobic test DUAL GRAPHICS z konfiguracjami kart z różną pamięcią i ze zrównanymi zegarami bo nigdzie nie ma takiego testu.
Zapewne wiele osób jest ciekawa a ja sam zastanawiam sie czy lepiej jest kupic hd6570 z ddr3 1866 czy ddr5?!
point taken. i dzieki za zniszczenie mojej wiary w ludzkosc
' APU przeznaczone są dla innego rodzaju klienta, tego który wymaga dużo wyższej wydajności w grach, a mały rozmiar obudowy czy niski pobór energii są na dalszych miejscach na liście priorytetów.'
Mogli byście zrobic test DUAL GRAPHICS z konfiguracjami kart z różną pamięcią i ze zrównanymi zegarami bo nigdzie nie ma takiego testu.
Zapewne wiele osób jest ciekawa a ja sam zastanawiam sie czy lepiej jest kupic hd6570 z ddr3 1866 czy ddr5?!
A po co w ogóle robić test Dual Graphics skoro działa to tak: http://pclab.pl/art51168-26.html
Przyrost FPS we frapsie w żaden sposób nie przekłada się na płynność rozgrywki. Totalny bezsens i na tą chwilę rozwiązanie gorsze niż z samym APU/pojedynczą kartą.
wielokrotnie wałkowane... tak właśnie jest.
To w takim razie dupowato.
Mogli byście zrobic test DUAL GRAPHICS z konfiguracjami kart z różną pamięcią i ze zrównanymi zegarami bo nigdzie nie ma takiego testu.
Zapewne wiele osób jest ciekawa a ja sam zastanawiam sie czy lepiej jest kupic hd6570 z ddr3 1866 czy ddr5?!
A po co w ogóle robić test Dual Graphics skoro działa to tak: http://pclab.pl/art51168-26.html
Przyrost FPS we frapsie w żaden sposób nie przekłada się na płynność rozgrywki. Totalny bezsens i na tą chwilę rozwiązanie gorsze niż z samym APU/pojedynczą kartą.
Testy były ale nikt nigdy nie zagłebił sie w temat DG do tego stopnia aby sprawdzic wpływ taktów pamięci i rdzenia na wydajność.
Jest test na koreańskiej stronie ale weź traz tłumacz ich obrazki...
Ciekawi mnie czy np llano z ramem 1866 i hd6570 z ddr3 1866 oraz po zrównaniu taktowania rdzenia cos zmieni...
Twierdzenie 'A po co w ogóle robić test Dual Graphics' jest mało profesionalne i ośmiesza twoją osobe jako redaktora.
A po co w ogóle robić test Dual Graphics skoro działa to tak: http://pclab.pl/art51168-26.html
Przyrost FPS we frapsie w żaden sposób nie przekłada się na płynność rozgrywki. Totalny bezsens i na tą chwilę rozwiązanie gorsze niż z samym APU/pojedynczą kartą.
Testy były ale nikt nigdy nie zagłebił sie w temat DG do tego stopnia aby sprawdzic wpływ taktów pamięci i rdzenia na wydajność.
Jest test na koreańskiej stronie ale weź traz tłumacz ich obrazki...
Ciekawi mnie czy np llano z ramem 1866 i hd6570 z ddr3 1866 oraz po zrównaniu taktowania rdzenia cos zmieni...
Twierdzenie 'A po co w ogóle robić test Dual Graphics' jest mało profesionalne i ośmiesza twoją osobe jako redaktora.
W ogóle nie rozumiesz. Skoro korzystając z Dual Graphics nie ma żadnego odczuwalnego przyrostu FPS to po co testować różne opcje Dual Graphics? Nie ma żadnego znaczenia czy 'pustych FPS' będzie o 5 więcej czy 5 mniej - odczucia z gry będą te same, bo Dual Graphics w obecnej formie jest żartem, a nie technologią wartą uwagi. Co lepsze: AMD o tym wie!
Wstawki o ośmieszaniu zostaw dla siebie, bo z 67% ostrzeżen zrobi Ci się 100% i pożegnasz się z kontem, jak wielu przed Tobą. A, jak już zdążyłeś zauważyć po swoich 'procentach', nikt tu się z Tobą nie będzie patyczkował.
wielokrotnie wałkowane... tak właśnie jest.
To w takim razie dupowato.
A co chciałbyś by pclab wykazał różnicę pomiędzy SB-E, a FX-em w wielkości trzech FPSów, czyli jakieś 5%??
Albo inaczej chciał byś by Pclab wykazał różnicę rzędu 8FPSów pomiędzy 7970, a 7850 czyli załóżmy 10%
Testy były ale nikt nigdy nie zagłebił sie w temat DG do tego stopnia aby sprawdzic wpływ taktów pamięci i rdzenia na wydajność.
Jest test na koreańskiej stronie ale weź traz tłumacz ich obrazki...
Ciekawi mnie czy np llano z ramem 1866 i hd6570 z ddr3 1866 oraz po zrównaniu taktowania rdzenia cos zmieni...
Twierdzenie 'A po co w ogóle robić test Dual Graphics' jest mało profesionalne i ośmiesza twoją osobe jako redaktora.
W ogóle nie rozumiesz. Skoro korzystając z Dual Graphics nie ma żadnego odczuwalnego przyrostu FPS to po co testować różne opcje Dual Graphics? Nie ma żadnego znaczenia czy 'pustych FPS' będzie o 5 więcej czy 5 mniej - odczucia z gry będą te same, bo Dual Graphics w obecnej formie jest żartem, a nie technologią wartą uwagi. Co lepsze: AMD o tym wie!
Wstawki o ośmieszaniu zostaw dla siebie, bo z 67% ostrzeżen zrobi Ci się 100% i pożegnasz się z kontem, jak wielu przed Tobą. A, jak już zdążyłeś zauważyć po swoich 'procentach', nikt tu się z Tobą nie będzie patyczkował.
Naucz sie czytac ze zrozumieniem i jeszcze raz przeczytaj zdanie z ośmieszaniem... a nie straszysz. Po za tym wykorzystywanie ostrzerzeń do tego celu potwierdza to co napisałem.
Co do testu - po czym wnosisz że nie bedzie przyrostu w takiej konfiguracji skoro tego nie przetestowałeś - wróżką jesteś??
to znaczy że w tym arcie http://pclab.pl/art44600-20.html oszukaliście czytelników czy mi sie tylko tak zdaje:
'Trzeba przyznać, że to działa! Po dodaniu mocy Radeona HD 6670 APU AMD osiąga bardzo dobre rezultaty. Wydajność w grach zdecydowanie przewyższa wyniki samego Turksa. Taki tandem niebezpiecznie blisko zbliża się pod względem wydajności do GeForce'a 550 Ti, a więc karty kosztującej obecnie 500 zł!' - zaprzeczysz??
Nawet nie muszę wchodzić, to była era przed Focusem. Focus trzyma swoją łapę na szczegółach i sprawdza. Jak widać na filmie wyraźnie FPS jest podobny.
Tak dokładnie masz rację w tym arcie troszku oszukali czytelników. Podobnie zrobił Anadtech i reszta. Tylko Focusowi chciało się drążyć temat bardziej...
Chyba trzeba to pochwalić?
Pomiar fps to najłatwiejsza metoda sprawdzenia wydajności GPU, ale jeszcze ważniejsze są odstępy między poszczególnymi klatkami. Przykładowo karta może generować grafikę z szybkością 60 kl./s, ale 45 klatek wyświetlone zostaje w ciągu pierwszej 0,4 sekundy. W taki przypadku nie może być mowy o płynności. Nierówne odstępy między klatkami to główny problem multi-GPU i szczególnie właśnie DualGraphics ma już z tym gigantyczne problemy. Pomiary klatek na sekundę w starszych artykułach są prawidłowe, ale tylko w nowszym zmierzono rzeczywistą płynność i wyniki są dla DG kompromitujące.
Także zajmowanie się ta technologią rzeczywiście nie ma sensu., W artykułach powinna być tylko przestroga dla czytelników, żeby w to nie inwestowali. Rozumiem pomysł z synchronizacją dGPU i iGPU, ale naprawdę nie trzeba być jasnowidzem żeby wiedzieć, że ten pomysł nie wypali. CF w DG to inny tryb, inny algorytm podziału pracy na GPU. Poza tym pełna synchronizacja nie jest możliwa, bo pamięć ma zupełnie inne opóźnienia oraz iGPU musi dzielić przepustowość z CPU (a potrzeby CPU w tym zakresie są różne, w zależności od konkretnej gry).
Tak, proce w miejscach maksymalnie ciężkich i nieskalujących się z GPU, a grafy w miejscach maksymalnie możliwie niezależnych od CPU.
Eeeej, ja od zawsze mówiłem, że multiGPU i wszystkie hybrydy są przereklamowane
Pomiar fps to najłatwiejsza metoda sprawdzenia wydajności GPU, ale jeszcze ważniejsze są odstępy między poszczególnymi klatkami. Przykładowo karta może generować grafikę z szybkością 60 kl./s, ale 45 klatek wyświetlone zostaje w ciągu pierwszej 0,4 sekundy. W taki przypadku nie może być mowy o płynności. Nierówne odstępy między klatkami to główny problem multi-GPU i szczególnie właśnie DualGraphics ma już z tym gigantyczne problemy. Pomiary klatek na sekundę w starszych artykułach są prawidłowe, ale tylko w nowszym zmierzono rzeczywistą płynność i wyniki są dla DG kompromitujące.
Także zajmowanie się ta technologią rzeczywiście nie ma sensu., W artykułach powinna być tylko przestroga dla czytelników, żeby w to nie inwestowali. Rozumiem pomysł z synchronizacją dGPU i iGPU, ale naprawdę nie trzeba być jasnowidzem żeby wiedzieć, że ten pomysł nie wypali. CF w DG to inny tryb, inny algorytm podziału pracy na GPU. Poza tym pełna synchronizacja nie jest możliwa, bo pamięć ma zupełnie inne opóźnienia oraz iGPU musi dzielić przepustowość z CPU (a potrzeby CPU w tym zakresie są różne, w zależności od konkretnej gry).
Ale to nie zmienia faktu ze taki art zagłębiający sie w tą kwestie by sie przydał.
A straszenie banem jest wręcz dziecinne - coś w stylu 'jesteś u mojej mamy'
Masz opinię funboy-a
Art może by się przydał... może trzeba poczekać....
... Czy nie dałoby się zrobić tak by jednego GPU renderowało pół klatki, a drugie GPU drugie pół?
Tak, proce w miejscach maksymalnie ciężkich i nieskalujących się z GPU, a grafy w miejscach maksymalnie możliwie niezależnych od CPU.
Eeeej, ja od zawsze mówiłem, że multiGPU i wszystkie hybrydy są przereklamowane
Ty tak, ale nie wszyscy...
Multi GPU chyba nigdy nie będzie działać. Na rynku PRO nie istnieje, na rynku konsumenckim nikt tego nie robi....
Jedyne rozwiązanie popularne jaki ma sens to Dual Graphics, ale to 'nie' działa.
Pomiar fps to najłatwiejsza metoda sprawdzenia wydajności GPU, ale jeszcze ważniejsze są odstępy między poszczególnymi klatkami. Przykładowo karta może generować grafikę z szybkością 60 kl./s, ale 45 klatek wyświetlone zostaje w ciągu pierwszej 0,4 sekundy. W taki przypadku nie może być mowy o płynności. Nierówne odstępy między klatkami to główny problem multi-GPU i szczególnie właśnie DualGraphics ma już z tym gigantyczne problemy. Pomiary klatek na sekundę w starszych artykułach są prawidłowe, ale tylko w nowszym zmierzono rzeczywistą płynność i wyniki są dla DG kompromitujące.
Także zajmowanie się ta technologią rzeczywiście nie ma sensu., W artykułach powinna być tylko przestroga dla czytelników, żeby w to nie inwestowali. Rozumiem pomysł z synchronizacją dGPU i iGPU, ale naprawdę nie trzeba być jasnowidzem żeby wiedzieć, że ten pomysł nie wypali. CF w DG to inny tryb, inny algorytm podziału pracy na GPU. Poza tym pełna synchronizacja nie jest możliwa, bo pamięć ma zupełnie inne opóźnienia oraz iGPU musi dzielić przepustowość z CPU (a potrzeby CPU w tym zakresie są różne, w zależności od konkretnej gry).
Ale to nie zmienia faktu ze taki art zagłębiający sie w tą kwestie by sie przydał.
A straszenie banem jest wręcz dziecinne - coś w stylu 'jesteś u mojej mamy'
Nie, nie przydałby się bezużyteczny art o zależności Dual Graphics od pamięci/taktowań/whatever. I takiego nie będzie aż do następnej generacji APU gdzie ponownie sprawdzimy jak DG działa. Jak będzie działało ŹLE, czyli tak jak to wygląda teraz, to ponownie nie będzie artu na temat zależności Dual Graphics od pamięci/taktowań/whatever. I tak do znudzenia.
Straszenie banem jest bardzo skuteczne przeciwko fanbojstwu jakie prezentujesz. Wstawianie sobie loga AMD czy jakiejkolwiek innej firmy w avatarze wg mnie nie jest normalne, a szczególnie dziwnie to pachnie, kiedy na siłę domagasz się testów produktów tej firmy (najpierw forsowanie pomysłu testowania llano w grach jako kolejnej platformy, a teraz dual graphics). Strata czasu.