tak się testów nie robi, pisane już po raz setny, średni fps można włozyć między bajki, i poźniej wychodzi że g860 jest o wydajności x4 965 hahahah
posiadam swoje realne testy które udowadniają wyższość x4 631 oc od g860 o 33% (passmark, re5 be, 3d mark vantage)
Powiedzcie jakim cudem jak u was jest 3% roznicy między g860 a x4 631 oc, to u mnie w każdym z testów 33% na korzyść athlona???? powtarzalność idealna u mnie.
Sory ale to cu tu testujecie i wypisujecie to dla mnie są bajki.
A może passmark, 3d mark vantage, i re 5 be kłamią?
Coś chyba nie tak z tym waszym testowaniem procesorów.
Ostatnio spotkałem się z news-em że prawdziwy potencjal FX-ów pokaże się dopiero z Win8, natomist MS wydał dwa pache do W7 które zwiększają jego wydajność do 10%:
Ostatnio spotkałem się z news-em że prawdziwy potencjal FX-ów pokaże się dopiero z Win8, natomist MS wydał dwa pache do W7 które zwiększają jego wydajność do 10%:
Niech mi ktoś wytłumaczy jak można dać jednemu procesorowi zaletę 'Bardzo dobry stosunek wydajności do ceny' i jednocześnie wadę 'Relatywnie niska wydajność'.
EDIT: 7 minusów, lecz nikt nie raczył wyjaśnić, dlaczego nie mam racji uznaję zatem, że każdy minusujący nie zna języka polskiego
To znaczy, że cena jest bardzo niska. Stosunek jakość/cena -> mała wydajność/bardzo mała cena = niezły stosunek jakość/cena.
uznaję zatem, że prochu, chłopie, to ty raczej nie wymyślisz
Tak, ale 'relatywnie' to złe słowo. Bo 'relatywnie' to informacja, że w tej właśnie cenie są wydajniejsze procki.
Niech mi ktoś wytłumaczy jak można dać jednemu procesorowi zaletę 'Bardzo dobry stosunek wydajności do ceny' i jednocześnie wadę 'Relatywnie niska wydajność'.
EDIT: 7 minusów, lecz nikt nie raczył wyjaśnić, dlaczego nie mam racji uznaję zatem, że każdy minusujący nie zna języka polskiego
To znaczy, że cena jest bardzo niska. Stosunek jakość/cena -> mała wydajność/bardzo mała cena = niezły stosunek jakość/cena.
uznaję zatem, że prochu, chłopie, to ty raczej nie wymyślisz
Ale to nie zmienia faktu ze taki art zagłębiający sie w tą kwestie by sie przydał.
A straszenie banem jest wręcz dziecinne - coś w stylu 'jesteś u mojej mamy'
Nie, nie przydałby się bezużyteczny art o zależności Dual Graphics od pamięci/taktowań/whatever. I takiego nie będzie aż do następnej generacji APU gdzie ponownie sprawdzimy jak DG działa. Jak będzie działało ŹLE, czyli tak jak to wygląda teraz, to ponownie nie będzie artu na temat zależności Dual Graphics od pamięci/taktowań/whatever. I tak do znudzenia.
Straszenie banem jest bardzo skuteczne przeciwko fanbojstwu jakie prezentujesz. Wstawianie sobie loga AMD czy jakiejkolwiek innej firmy w avatarze wg mnie nie jest normalne, a szczególnie dziwnie to pachnie, kiedy na siłę domagasz się testów produktów tej firmy (najpierw forsowanie pomysłu testowania llano w grach jako kolejnej platformy, a teraz dual graphics). Strata czasu.
Ale taki test odstępu między wyświetlanymi klatkami dla CPU AMD i Intela oraz GPU AMD i NVIDII by się przydał, nie jakiś wielki, taki skromny poglądowy. Powiedzmy dla Athlon II x4 651 albo Athlon II X4 640 (jako przedstawiciele bez L3) i FX-8150 oraz Intel Core i5-2320, do tego po jednym GPU nV i AMD ze średniej półki i fajny test.
A ja bym jeszcze chętnie zobaczył test ustawień graficznych w sterownikach NVIDII i AMD, też w sumie przydatny jakby pokazać na przykładzie kilku gier ile FPS zyskuje się włączając pewne 'pogarszacze' obrazu i jak bardzo traci się na jakości. Ja wiem, że takich poradników to dużo jest, ale myślę, że nigdy za wiele, bo są dość popularne i w sumie niektórzy często do nich wracają. Poza tym opcje w sterach się zmieniają a do tego chyba nie ma za bardzo testów tych ustawień popartych porównaniem w jakości obrazu i do tego porównaniem zysku w FPSach. Kiedyś nawet pamiętam, że takie mity chodziły, że włączając niektóre z tych opcji nie dość że traci się na jakości to i na FPSach.
Jeżeli nowe Efiksy nie wniosą zbyt wiele do niskiego segmentu to nie będzie pozostawało nic innego jak rzucić się na Phenoma II X4 bo pewnie zacznie znikać z rynku. Tak właściwie ile ten procesor ma lat?
Ale to nie zmienia faktu ze taki art zagłębiający sie w tą kwestie by sie przydał.
A straszenie banem jest wręcz dziecinne - coś w stylu 'jesteś u mojej mamy'
Nie, nie przydałby się bezużyteczny art o zależności Dual Graphics od pamięci/taktowań/whatever. I takiego nie będzie aż do następnej generacji APU gdzie ponownie sprawdzimy jak DG działa. Jak będzie działało ŹLE, czyli tak jak to wygląda teraz, to ponownie nie będzie artu na temat zależności Dual Graphics od pamięci/taktowań/whatever. I tak do znudzenia.
Straszenie banem jest bardzo skuteczne przeciwko fanbojstwu jakie prezentujesz. Wstawianie sobie loga AMD czy jakiejkolwiek innej firmy w avatarze wg mnie nie jest normalne, a szczególnie dziwnie to pachnie, kiedy na siłę domagasz się testów produktów tej firmy (najpierw forsowanie pomysłu testowania llano w grach jako kolejnej platformy, a teraz dual graphics). Strata czasu.
Straszenie banem nie jest wcale skuteczne bo zawsze można sobie załozyć inne konto...
Co do profesionalizmu to jeśli twierdzisz że cos jest złe to to udowodnij.
Vaio i cyrix jechali po jednej firmie a drugą wychwalali ja zaś nie wypowiadam sie z zasady o NV i Intelu bo lataja mi obok ... a jak sie wypowiadam to nie jest to twierdzenie że to jest złe albo AMD jest lepsze czyba że jest to w pełni uzasadnione jak np tutaj http://pclab.pl/news51371.html .
@mlodybe
Pomiar fps to najłatwiejsza metoda sprawdzenia wydajności GPU, ale jeszcze ważniejsze są odstępy między poszczególnymi klatkami. Przykładowo karta może generować grafikę z szybkością 60 kl./s, ale 45 klatek wyświetlone zostaje w ciągu pierwszej 0,4 sekundy. W taki przypadku nie może być mowy o płynności. Nierówne odstępy między klatkami to główny problem multi-GPU i szczególnie właśnie DualGraphics ma już z tym gigantyczne problemy. Pomiary klatek na sekundę w starszych artykułach są prawidłowe, ale tylko w nowszym zmierzono rzeczywistą płynność i wyniki są dla DG kompromitujące.
Także zajmowanie się ta technologią rzeczywiście nie ma sensu., W artykułach powinna być tylko przestroga dla czytelników, żeby w to nie inwestowali. Rozumiem pomysł z synchronizacją dGPU i iGPU, ale naprawdę nie trzeba być jasnowidzem żeby wiedzieć, że ten pomysł nie wypali. CF w DG to inny tryb, inny algorytm podziału pracy na GPU. Poza tym pełna synchronizacja nie jest możliwa, bo pamięć ma zupełnie inne opóźnienia oraz iGPU musi dzielić przepustowość z CPU (a potrzeby CPU w tym zakresie są różne, w zależności od konkretnej gry).
Ale to nie zmienia faktu ze taki art zagłębiający sie w tą kwestie by sie przydał.
A straszenie banem jest wręcz dziecinne - coś w stylu 'jesteś u mojej mamy'
Nie, nie przydałby się bezużyteczny art o zależności Dual Graphics od pamięci/taktowań/whatever. I takiego nie będzie aż do następnej generacji APU gdzie ponownie sprawdzimy jak DG działa. Jak będzie działało ŹLE, czyli tak jak to wygląda teraz, to ponownie nie będzie artu na temat zależności Dual Graphics od pamięci/taktowań/whatever. I tak do znudzenia.
Straszenie banem jest bardzo skuteczne przeciwko fanbojstwu jakie prezentujesz. Wstawianie sobie loga AMD czy jakiejkolwiek innej firmy w avatarze wg mnie nie jest normalne, a szczególnie dziwnie to pachnie, kiedy na siłę domagasz się testów produktów tej firmy (najpierw forsowanie pomysłu testowania llano w grach jako kolejnej platformy, a teraz dual graphics). Strata czasu.
@up
Masz opinię funboy-a Jak widać problem Vaio Cyrix-a został szybko rozwiązany przez focus-a. Nowa administracja nie toleruje takich zachowań, ale jak widać nie przekraczasz granicy, dlatego cały czas masz prawo się swobodnie wypowiadać. Tak to powinieneś rozumieć (troszku w drugą stronę przeciągnąłem linię).... Innymi słowy, jak zapuścisz się w granice absurdu i będziesz męczył górę, to góra odwdzięczy Ci się pięknym...
Art może by się przydał... może trzeba poczekać....
... Czy nie dałoby się zrobić tak by jednego GPU renderowało pół klatki, a drugie GPU drugie pół?
miekrzy @ 2012.10.21 19:59
Pioy @ 2012.10.21 19:56
czyli karty i proce są testowane w RÓŻNYCH miejscach, tak?
Tak, proce w miejscach maksymalnie ciężkich i nieskalujących się z GPU, a grafy w miejscach maksymalnie możliwie niezależnych od CPU.
ale tylko w nowszym zmierzono rzeczywistą płynność
Eeeej, ja od zawsze mówiłem, że multiGPU i wszystkie hybrydy są przereklamowane
Ty tak, ale nie wszyscy...
Multi GPU chyba nigdy nie będzie działać. Na rynku PRO nie istnieje, na rynku konsumenckim nikt tego nie robi....
Jedyne rozwiązanie popularne jaki ma sens to Dual Graphics, ale to 'nie' działa.
@mlodybe
Pomiar fps to najłatwiejsza metoda sprawdzenia wydajności GPU, ale jeszcze ważniejsze są odstępy między poszczególnymi klatkami. Przykładowo karta może generować grafikę z szybkością 60 kl./s, ale 45 klatek wyświetlone zostaje w ciągu pierwszej 0,4 sekundy. W taki przypadku nie może być mowy o płynności. Nierówne odstępy między klatkami to główny problem multi-GPU i szczególnie właśnie DualGraphics ma już z tym gigantyczne problemy. Pomiary klatek na sekundę w starszych artykułach są prawidłowe, ale tylko w nowszym zmierzono rzeczywistą płynność i wyniki są dla DG kompromitujące.
Także zajmowanie się ta technologią rzeczywiście nie ma sensu., W artykułach powinna być tylko przestroga dla czytelników, żeby w to nie inwestowali. Rozumiem pomysł z synchronizacją dGPU i iGPU, ale naprawdę nie trzeba być jasnowidzem żeby wiedzieć, że ten pomysł nie wypali. CF w DG to inny tryb, inny algorytm podziału pracy na GPU. Poza tym pełna synchronizacja nie jest możliwa, bo pamięć ma zupełnie inne opóźnienia oraz iGPU musi dzielić przepustowość z CPU (a potrzeby CPU w tym zakresie są różne, w zależności od konkretnej gry).
Ale to nie zmienia faktu ze taki art zagłębiający sie w tą kwestie by sie przydał.
A straszenie banem jest wręcz dziecinne - coś w stylu 'jesteś u mojej mamy'
@mlodybe
Pomiar fps to najłatwiejsza metoda sprawdzenia wydajności GPU, ale jeszcze ważniejsze są odstępy między poszczególnymi klatkami. Przykładowo karta może generować grafikę z szybkością 60 kl./s, ale 45 klatek wyświetlone zostaje w ciągu pierwszej 0,4 sekundy. W taki przypadku nie może być mowy o płynności. Nierówne odstępy między klatkami to główny problem multi-GPU i szczególnie właśnie DualGraphics ma już z tym gigantyczne problemy. Pomiary klatek na sekundę w starszych artykułach są prawidłowe, ale tylko w nowszym zmierzono rzeczywistą płynność i wyniki są dla DG kompromitujące.
Także zajmowanie się ta technologią rzeczywiście nie ma sensu., W artykułach powinna być tylko przestroga dla czytelników, żeby w to nie inwestowali. Rozumiem pomysł z synchronizacją dGPU i iGPU, ale naprawdę nie trzeba być jasnowidzem żeby wiedzieć, że ten pomysł nie wypali. CF w DG to inny tryb, inny algorytm podziału pracy na GPU. Poza tym pełna synchronizacja nie jest możliwa, bo pamięć ma zupełnie inne opóźnienia oraz iGPU musi dzielić przepustowość z CPU (a potrzeby CPU w tym zakresie są różne, w zależności od konkretnej gry).
Sorry SunTzu, czyli karty i proce są testowane w RÓŻNYCH miejscach, tak? Bo jeśli tak, to oczywiście dobrze i powinno tak być, a 'dupowato' odnosi się do tego, iż poprzednio zrozumiałem jakoby były testowane w miejscach tych samych. Jeśli zrozumiałem źle - my bad tudzież no offense
@up
Nawet nie muszę wchodzić, to była era przed Focusem. Focus trzyma swoją łapę na szczegółach i sprawdza. Jak widać na filmie wyraźnie FPS jest podobny.
Tak dokładnie masz rację w tym arcie troszku oszukali czytelników. Podobnie zrobił Anadtech i reszta. Tylko Focusowi chciało się drążyć temat bardziej...
Chyba trzeba to pochwalić?
przecież tam masz algorytm i dla każdego procesora takie same obciażenie hahahah lepiej się już nie da.
Cóż ten obrazek pasował by do realności testów pclab.
Mogę zrobić w 10 różnych benchmarkach i grach i wynnik będzie ten sam, więc skończ bredzić i wstawiać swoją podobizne
posiadam swoje realne testy które udowadniają wyższość x4 631 oc od g860 o 33% (passmark, re5 be, 3d mark vantage)
Powiedzcie jakim cudem jak u was jest 3% roznicy między g860 a x4 631 oc, to u mnie w każdym z testów 33% na korzyść athlona???? powtarzalność idealna u mnie.
Sory ale to cu tu testujecie i wypisujecie to dla mnie są bajki.
A może passmark, 3d mark vantage, i re 5 be kłamią?
Coś chyba nie tak z tym waszym testowaniem procesorów.
Tyle w temacie
http://blogs.amd.com/play/2012/01/11/early...heduler-update/
Pytanko, czy PcLab testuje CPU z wykorzystaniem tych łatek?
Tak, testujemy z użyciem tych łatek.
To znaczy, że cena jest bardzo niska. Stosunek jakość/cena -> mała wydajność/bardzo mała cena = niezły stosunek jakość/cena.
uznaję zatem, że prochu, chłopie, to ty raczej nie wymyślisz
Tak, ale 'relatywnie' to złe słowo. Bo 'relatywnie' to informacja, że w tej właśnie cenie są wydajniejsze procki.
W sumie trochę niefortunnie użyte to relatywnie, się niestety muszę zgodzić ;p
http://blogs.amd.com/play/2012/01/11/early...heduler-update/
Pytanko, czy PcLab testuje CPU z wykorzystaniem tych łatek?
EDIT: 7 minusów, lecz nikt nie raczył wyjaśnić, dlaczego nie mam racji
To znaczy, że cena jest bardzo niska. Stosunek jakość/cena -> mała wydajność/bardzo mała cena = niezły stosunek jakość/cena.
uznaję zatem, że prochu, chłopie, to ty raczej nie wymyślisz
Tak, ale 'relatywnie' to złe słowo. Bo 'relatywnie' to informacja, że w tej właśnie cenie są wydajniejsze procki.
EDIT: 7 minusów, lecz nikt nie raczył wyjaśnić, dlaczego nie mam racji
To znaczy, że cena jest bardzo niska. Stosunek jakość/cena -> mała wydajność/bardzo mała cena = niezły stosunek jakość/cena.
uznaję zatem, że prochu, chłopie, to ty raczej nie wymyślisz
Ale to nie zmienia faktu ze taki art zagłębiający sie w tą kwestie by sie przydał.
A straszenie banem jest wręcz dziecinne - coś w stylu 'jesteś u mojej mamy'
Nie, nie przydałby się bezużyteczny art o zależności Dual Graphics od pamięci/taktowań/whatever. I takiego nie będzie aż do następnej generacji APU gdzie ponownie sprawdzimy jak DG działa. Jak będzie działało ŹLE, czyli tak jak to wygląda teraz, to ponownie nie będzie artu na temat zależności Dual Graphics od pamięci/taktowań/whatever. I tak do znudzenia.
Straszenie banem jest bardzo skuteczne przeciwko fanbojstwu jakie prezentujesz. Wstawianie sobie loga AMD czy jakiejkolwiek innej firmy w avatarze wg mnie nie jest normalne, a szczególnie dziwnie to pachnie, kiedy na siłę domagasz się testów produktów tej firmy (najpierw forsowanie pomysłu testowania llano w grach jako kolejnej platformy, a teraz dual graphics). Strata czasu.
Ale taki test odstępu między wyświetlanymi klatkami dla CPU AMD i Intela oraz GPU AMD i NVIDII by się przydał, nie jakiś wielki, taki skromny poglądowy. Powiedzmy dla Athlon II x4 651 albo Athlon II X4 640 (jako przedstawiciele bez L3) i FX-8150 oraz Intel Core i5-2320, do tego po jednym GPU nV i AMD ze średniej półki i fajny test.
A ja bym jeszcze chętnie zobaczył test ustawień graficznych w sterownikach NVIDII i AMD, też w sumie przydatny jakby pokazać na przykładzie kilku gier ile FPS zyskuje się włączając pewne 'pogarszacze' obrazu i jak bardzo traci się na jakości. Ja wiem, że takich poradników to dużo jest, ale myślę, że nigdy za wiele, bo są dość popularne i w sumie niektórzy często do nich wracają. Poza tym opcje w sterach się zmieniają a do tego chyba nie ma za bardzo testów tych ustawień popartych porównaniem w jakości obrazu i do tego porównaniem zysku w FPSach. Kiedyś nawet pamiętam, że takie mity chodziły, że włączając niektóre z tych opcji nie dość że traci się na jakości to i na FPSach.
Pozdrawiam.
Eeeej, ja od zawsze mówiłem, że multiGPU i wszystkie hybrydy są przereklamowane
Ale to nie zmienia faktu ze taki art zagłębiający sie w tą kwestie by sie przydał.
A straszenie banem jest wręcz dziecinne - coś w stylu 'jesteś u mojej mamy'
Nie, nie przydałby się bezużyteczny art o zależności Dual Graphics od pamięci/taktowań/whatever. I takiego nie będzie aż do następnej generacji APU gdzie ponownie sprawdzimy jak DG działa. Jak będzie działało ŹLE, czyli tak jak to wygląda teraz, to ponownie nie będzie artu na temat zależności Dual Graphics od pamięci/taktowań/whatever. I tak do znudzenia.
Straszenie banem jest bardzo skuteczne przeciwko fanbojstwu jakie prezentujesz. Wstawianie sobie loga AMD czy jakiejkolwiek innej firmy w avatarze wg mnie nie jest normalne, a szczególnie dziwnie to pachnie, kiedy na siłę domagasz się testów produktów tej firmy (najpierw forsowanie pomysłu testowania llano w grach jako kolejnej platformy, a teraz dual graphics). Strata czasu.
Straszenie banem nie jest wcale skuteczne bo zawsze można sobie załozyć inne konto...
Co do profesionalizmu to jeśli twierdzisz że cos jest złe to to udowodnij.
Vaio i cyrix jechali po jednej firmie a drugą wychwalali ja zaś nie wypowiadam sie z zasady o NV i Intelu bo lataja mi obok ... a jak sie wypowiadam to nie jest to twierdzenie że to jest złe albo AMD jest lepsze czyba że jest to w pełni uzasadnione jak np tutaj http://pclab.pl/news51371.html .
Pomiar fps to najłatwiejsza metoda sprawdzenia wydajności GPU, ale jeszcze ważniejsze są odstępy między poszczególnymi klatkami. Przykładowo karta może generować grafikę z szybkością 60 kl./s, ale 45 klatek wyświetlone zostaje w ciągu pierwszej 0,4 sekundy. W taki przypadku nie może być mowy o płynności. Nierówne odstępy między klatkami to główny problem multi-GPU i szczególnie właśnie DualGraphics ma już z tym gigantyczne problemy. Pomiary klatek na sekundę w starszych artykułach są prawidłowe, ale tylko w nowszym zmierzono rzeczywistą płynność i wyniki są dla DG kompromitujące.
Także zajmowanie się ta technologią rzeczywiście nie ma sensu., W artykułach powinna być tylko przestroga dla czytelników, żeby w to nie inwestowali. Rozumiem pomysł z synchronizacją dGPU i iGPU, ale naprawdę nie trzeba być jasnowidzem żeby wiedzieć, że ten pomysł nie wypali. CF w DG to inny tryb, inny algorytm podziału pracy na GPU. Poza tym pełna synchronizacja nie jest możliwa, bo pamięć ma zupełnie inne opóźnienia oraz iGPU musi dzielić przepustowość z CPU (a potrzeby CPU w tym zakresie są różne, w zależności od konkretnej gry).
Ale to nie zmienia faktu ze taki art zagłębiający sie w tą kwestie by sie przydał.
A straszenie banem jest wręcz dziecinne - coś w stylu 'jesteś u mojej mamy'
Nie, nie przydałby się bezużyteczny art o zależności Dual Graphics od pamięci/taktowań/whatever. I takiego nie będzie aż do następnej generacji APU gdzie ponownie sprawdzimy jak DG działa. Jak będzie działało ŹLE, czyli tak jak to wygląda teraz, to ponownie nie będzie artu na temat zależności Dual Graphics od pamięci/taktowań/whatever. I tak do znudzenia.
Straszenie banem jest bardzo skuteczne przeciwko fanbojstwu jakie prezentujesz. Wstawianie sobie loga AMD czy jakiejkolwiek innej firmy w avatarze wg mnie nie jest normalne, a szczególnie dziwnie to pachnie, kiedy na siłę domagasz się testów produktów tej firmy (najpierw forsowanie pomysłu testowania llano w grach jako kolejnej platformy, a teraz dual graphics). Strata czasu.
Masz opinię funboy-a
Art może by się przydał... może trzeba poczekać....
... Czy nie dałoby się zrobić tak by jednego GPU renderowało pół klatki, a drugie GPU drugie pół?
Tak, proce w miejscach maksymalnie ciężkich i nieskalujących się z GPU, a grafy w miejscach maksymalnie możliwie niezależnych od CPU.
Eeeej, ja od zawsze mówiłem, że multiGPU i wszystkie hybrydy są przereklamowane
Ty tak, ale nie wszyscy...
Multi GPU chyba nigdy nie będzie działać. Na rynku PRO nie istnieje, na rynku konsumenckim nikt tego nie robi....
Jedyne rozwiązanie popularne jaki ma sens to Dual Graphics, ale to 'nie' działa.
Pomiar fps to najłatwiejsza metoda sprawdzenia wydajności GPU, ale jeszcze ważniejsze są odstępy między poszczególnymi klatkami. Przykładowo karta może generować grafikę z szybkością 60 kl./s, ale 45 klatek wyświetlone zostaje w ciągu pierwszej 0,4 sekundy. W taki przypadku nie może być mowy o płynności. Nierówne odstępy między klatkami to główny problem multi-GPU i szczególnie właśnie DualGraphics ma już z tym gigantyczne problemy. Pomiary klatek na sekundę w starszych artykułach są prawidłowe, ale tylko w nowszym zmierzono rzeczywistą płynność i wyniki są dla DG kompromitujące.
Także zajmowanie się ta technologią rzeczywiście nie ma sensu., W artykułach powinna być tylko przestroga dla czytelników, żeby w to nie inwestowali. Rozumiem pomysł z synchronizacją dGPU i iGPU, ale naprawdę nie trzeba być jasnowidzem żeby wiedzieć, że ten pomysł nie wypali. CF w DG to inny tryb, inny algorytm podziału pracy na GPU. Poza tym pełna synchronizacja nie jest możliwa, bo pamięć ma zupełnie inne opóźnienia oraz iGPU musi dzielić przepustowość z CPU (a potrzeby CPU w tym zakresie są różne, w zależności od konkretnej gry).
Ale to nie zmienia faktu ze taki art zagłębiający sie w tą kwestie by sie przydał.
A straszenie banem jest wręcz dziecinne - coś w stylu 'jesteś u mojej mamy'
Tak, proce w miejscach maksymalnie ciężkich i nieskalujących się z GPU, a grafy w miejscach maksymalnie możliwie niezależnych od CPU.
Eeeej, ja od zawsze mówiłem, że multiGPU i wszystkie hybrydy są przereklamowane
Pomiar fps to najłatwiejsza metoda sprawdzenia wydajności GPU, ale jeszcze ważniejsze są odstępy między poszczególnymi klatkami. Przykładowo karta może generować grafikę z szybkością 60 kl./s, ale 45 klatek wyświetlone zostaje w ciągu pierwszej 0,4 sekundy. W taki przypadku nie może być mowy o płynności. Nierówne odstępy między klatkami to główny problem multi-GPU i szczególnie właśnie DualGraphics ma już z tym gigantyczne problemy. Pomiary klatek na sekundę w starszych artykułach są prawidłowe, ale tylko w nowszym zmierzono rzeczywistą płynność i wyniki są dla DG kompromitujące.
Także zajmowanie się ta technologią rzeczywiście nie ma sensu., W artykułach powinna być tylko przestroga dla czytelników, żeby w to nie inwestowali. Rozumiem pomysł z synchronizacją dGPU i iGPU, ale naprawdę nie trzeba być jasnowidzem żeby wiedzieć, że ten pomysł nie wypali. CF w DG to inny tryb, inny algorytm podziału pracy na GPU. Poza tym pełna synchronizacja nie jest możliwa, bo pamięć ma zupełnie inne opóźnienia oraz iGPU musi dzielić przepustowość z CPU (a potrzeby CPU w tym zakresie są różne, w zależności od konkretnej gry).
Nawet nie muszę wchodzić, to była era przed Focusem. Focus trzyma swoją łapę na szczegółach i sprawdza. Jak widać na filmie wyraźnie FPS jest podobny.
Tak dokładnie masz rację w tym arcie troszku oszukali czytelników. Podobnie zrobił Anadtech i reszta. Tylko Focusowi chciało się drążyć temat bardziej...
Chyba trzeba to pochwalić?