Artykul zrobiony na szybko na kolanie - niby mowa o wlasciwym wyborze procesowa, a brak podstawowego zagadnienia - do jakiej rozdzielczosci i do jakiego odswierzania?
Twój post też jest do odświeŻenia.
Ten art jest pobieżny, bo to nie dogłębna analiza, a wytypowanie sensownych roziwiązań i ma użytkownim dać ogólny pogląd na sytuację na rynku.
Wmawiajcie ludziom ,którzy lubią grać na wysokich ustawieniach graficznych gdzie moc CPU stanowi ważny element a za dwa lata będą wyklinać ,że te 5lat coś szybko minęło.
Przez błędne informacje ludzie będą mieli co pisać bo każdy myśli ,że taki i7 -8700k będzie starczył na tyle lat co i7-2600k.
Jeżeli testowanie procesora powinno się odbywać w niskiej rozdzielczości bo wtedy karta graficzna nie jest wąskim gardłem i widać które CPU jest szybsze, to niech mi ktoś teraz powie jaki pożytek jest z informacji, że na jednym CPU mamy 220fps a na drugim 300 ? Skoro obie wartości są grubo ponad to, co jest wymagane do płynnej rozgrywki. Test owszem pokazuje różnicę ale nie jest miarodajny w praktycznym ujęciu bo nikt nie gra na takich ustawieniach.
Nie ma takiego procesora, który nawet w niższej rozdzielczości na 720p w Crysis 3 da ci 220 czy 300 FPS na ULTRA.
Wszyscy graja na rozdzielczosci 1080p albo wiekszej, więc testowac powinno sie CPU i GPU minimum w 1080p - ba powiem wiecej powinny byc dodatkowo robione testy w 4k - i nie ma to znaczenia , ze w wielu grach pokaze ledwo 30 czy 20 FPS ale 4k powoli staje sie standardem.
Na PS4 PRO wiele gier juz jest w 4k - co prawda jest to skalowane do 4k ale za kilka lat 4k bedzie juz standardem.
Do grania w 4k wystarczy i7 7700k + GTX 1080, wiec nie ma tak, ze nie da sie konfigu do 4k zlozyc w sensownych pieniadzach.
Jeżeli testowanie procesora powinno się odbywać w niskiej rozdzielczości bo wtedy karta graficzna nie jest wąskim gardłem i widać które CPU jest szybsze, to niech mi ktoś teraz powie jaki pożytek jest z informacji, że na jednym CPU mamy 220fps a na drugim 300 ? Skoro obie wartości są grubo ponad to, co jest wymagane do płynnej rozgrywki. Test owszem pokazuje różnicę ale nie jest miarodajny w praktycznym ujęciu bo nikt nie gra na takich ustawieniach.
Z drugiej strony testując na wysokiej rozdzielczości natrafiamy na wąskie gardło karty graficznej, ale za to test jest bardziej praktyczny bo takich ustawień będzie używać 99,9% użytkowników. Jeżeli w takich ustawieniach wynikną różnice to jest to sygnał który CPU wybrać a jeżeli obie jednostki dają podobne wyniki to po prostu znaczy, ze w grach oba procesory są wystarczające i lepiej podeprzeć się nieco innymi testami np w programach użytkowych
Intel od 20 lat tłucze tą samą architekturę, z mniejszymi bądź większymi zmianami. AMD miało w tym czasie kilka architektur, Intel jedynie przerwę na NetBurst. Więc widać, że albo nie potrafią zrobić czegoś innowacyjnego i wydajnego, albo im się nie opłaca. Ja w dalszym ciągu liczę na reaktywacje projektu 'Tejas' i taktowania 10GHz na rdzeniu
to sobie wyobraź taki procesor który na 5lat do przodu zapewnia w każdej grze min300fps . Jakie były by obecnie wyniki sprzedaży procesorów gdyby nadal do wszystkiego wystarczał pentium3?
Intel od 20 lat tłucze tą samą architekturę, z mniejszymi bądź większymi zmianami. AMD miało w tym czasie kilka architektur, Intel jedynie przerwę na NetBurst. Więc widać, że albo nie potrafią zrobić czegoś innowacyjnego i wydajnego, albo im się nie opłaca. Ja w dalszym ciągu liczę na reaktywacje projektu 'Tejas' i taktowania 10GHz na rdzeniu
Patrząc na test poboru energii elektrycznej pod względem oferowanych możliwości u INTELA można powiedzieć ,że architektura jest w każdym momencie wykorzystywana maksymalnie 100% zaś u AMD nawet w zastosowaniach profesjonalnych jest jest coś do osiągnięcia.
Czym może Nas zaskoczyć INTEL gdy swój proces produkcji mają dopracowany perfekcyjnie i w starciu z ZEN pierwszej generacji wygrywa głównie przez niskie zegary taktujące tego drugiego więc można być pewnym kolejnych przetasowań na rynku konsumenckim gdy już RYZEN+ się pojawi.
Jak mielibyśmy pisać jaki najgorszy proces produkcji jest w tej chwili na rynku jeżeli chodzi o układy z wysokim poborem energii elektrycznej to bez dwóch zdań będzie to 14nm LPP od Global Foudries a dalej można sobie odpowiedzieć jakie piękne czasy ma przed sobą AMD patrząc na możliwości ich układów CPU i GPU. https://zapodaj.net/cdc7dae51d363.png.html
No ale czytać komentarze by się przydało -
'Those 'Stutters' has appeared after recording'. Wiele osób już wali drzwiami do Ubi z powodu nadmiernego wykorzystania CPU bo Ubi ma wywalone na optymalizację więc branie pod uwagę AS:O jest nie na miejscu. Reszta gier, czyli jakieś 98% nie ma problemu z optymalizacją pod 4/4.
spoko, ale shadowplay korzysta z gpu, co mu wytkneli również w komentarzach. Dziwne, że akurat na 8350k i to na całej długości filmu. Inną sprawa, że powinien to nagrywać kamerą bo tak to faktycznie należy ufać na słowo.
Btw mam podobny stutter na i5 4590, fps powyżej 60.
No ale czytać komentarze by się przydało -
'Those 'Stutters' has appeared after recording'. Wiele osób już wali drzwiami do Ubi z powodu nadmiernego wykorzystania CPU bo Ubi ma wywalone na optymalizację więc branie pod uwagę AS:O jest nie na miejscu. Reszta gier, czyli jakieś 98% nie ma problemu z optymalizacją pod 4/4.
Jeszcze większy wpływ (na obciążenie procesora) od zmiany rozdzielczości ma zmiana proporcji. Np. z 16:9 na 4:3. Różnica wydajności potrafi wyjść i 10% (w C3). Przyczyną jest oczywiście to że wraz z proporcjami zmienia się FOV, a co za tym idzie widać na monitorze mniej lub więcej obiektów, za których fizyką stoi procesor.
Tak to prawda u mnie różnice ponad 20% między 4:3 i 16:9, ścina boki i procesor ma mniej do liczenia. Tylko w sumie to bez znaczenia proporcje 4:3 i 5:4 już dawno wyszły z użytku.
Możliwość zmiany proporcji czasem się przydaje:
1. Coraz więcej jest użytkowników monitorów 21:9. O ile takie monitory świetnie nadają się do pracy i oglądania filmów to z grami już bywa problem. Bo albo GPU okazuje się za wolne na tą rozdziałkę albo po prostu obraz jest za szeroki (użytkownik nie ogarnia go wzrokiem). W takiej sytuacji przełączenie w grach proporcji na 16:9 owocuje wzrostem wydajności w miejscach zależnych od GPU, ale przy okazji wzrasta i wydajność w miejscach procesorowych.
2. Nawet używając standardowego monitora Full HD po zmianie rozdzielczości na 1280x1024 rośnie wydajność i w miejscach graficznych i procesorowych. Co prawda rozdzielczość 1280x1024 na monitorze 1920x1080 oznacza że poza czarnymi pasami po bokach będą wąziutkie pasy na dole i górze, ale za to rozdziałka 1280x1024 to format 5:4, jeszcze mniejszy od 4:3, a więc wzrost wydajności w miejscach procesorowych będzie jeszcze większy.
3. Nawet jak mamy szybkiego kompa który w 16:9 utrzymuje 60 fps to czasem zdarza się że w krytycznych momentach framerate spada do 50-55 fps (zwykle są to miejsca procesorowe, np. walki z dużą liczbą przeciwników). W takim przypadku przełączenie na 4:3 (choćby tylko na czas przejścia tego newralgicznego etapu) z powrotem winduje wydajność do 60 fps (ważne szczególnie dla grających z vsync, bo tam spadek wydajności do 50-55 fps oznacza, przy podwójnym buforowaniu, automatyczny drop do 30 fps).
No i kiedy już masz taką konfigurację i maksymalną rozdzielczość w jakiej GPU ma zapas mocy można zacząć obniżać rozdzielczość i sprawdzać czy coś mniej obciąży CPU - jeżeli coś go mniej obciąży to FPS skoczy.
Ok, chyba już obczaiłem o Co chodzi. Taki test był już robiony z Pentiumem G4560 na którymś kanale YT, już nie pamiętam gdzie dokładnie, ale oglądałem. Okazało się, że przy użyciu Pentium G4560 FPS'y skalowały się dobrze do GTX 1060 włącznie, później wyniki były takie prawie takie same nawet dla GTX 1080TI.
Chodzi o to, że ktoś powinien sparować Atoma z Titanem i wtedy testować różne rozdzielczości. Atom nie wykarmi pewnie w żadnym momencie Titana a jeżeli coś ciut mocniej obciąży Atoma to od razu to da się zobaczyć. Jeżeli procesor jest wstanie wykarmić GPU przy takim teście to automatycznie jest przekłamanie w wynikach które chcemy uzyskać, bo wtedy GPU (które odpowiada za rozdzielczość właśnie) dla różnych rozdzielczości może lepiej się skalować - ale nas CPU interesuje.
Ciężki dzień miałem w pracy, więc może jestem zbyt zmęczony aby zrozumieć, co chcesz przez to powiedzieć.
To co napisałeś jest prawdą, tylko nie wiem co ma wspólnego z tym filmikiem. Mamy te same CPU, te same GPU, różni się rozdziałka. Oczywiście nie wiemy jak procentowo rozkładało się obciążenie poszczególnych części sprzętu, ale nie to jest tutaj moim zdaniem najważniejsze. Najważniejsze jest to, że ten sam CPU na tej samej karcie przy jednej rozdziałce jest lepszy, a przy drugiej jest gorszy. To, jakie było obciążenie sprzętu gra tutaj drugoznaczną rolę, gdyż tylko zmieniając rozdziałkę w danej grze mamy lepszy wynik niż rywal, a w innej gorszy. Skoro nie zmienialiśmy nic innego w sprzęcie (sterownik ten sam, karta ta sama, detale gry te sam), więc wyraźnie widać, że rozdziałka spowodowała, że cpu wpłynął pozytywnie/negatywnie na sterownik grafiki bądź na silnik gry w danej rozdziałce. Na pewno procesor grał tu rolę, a pytanie, czy lepiej wpłynął na sterownik grafy, silnik gry, itp. nic imho tutaj nie zmienia.
OK, spróbuję jeszcze raz
Porównanie wyników procesorów o dwóch różnych architekturach do siebie (o ilości wątków nie wspominając), w tej sytuacji nie ma sensu ponieważ sterownik może np. lepiej skalować się na CPU z większą ilością wątków (albo lepszą wydajnością na jednym wątku, w zależności od gry).
Ten sam procek i ten sam GPU przy dwóch różnych rozdzielczościach i tych samych detalach pokażą ile grafika (tj. GPU), traci na wydajności przy przejściu między nimi.
Aby przetestować wpływ rozdzielczości na CPU, wypada stworzyć sytuację kiedy procek ogranicza grafikę w 100% na obu testowanych rozdzielczościach.
Zatem ponawiam pytanie :
Czemu wynik GPU/ogólny Celerona D, nie spadł po zwielokrotnieniu rozdzielczości ?
Jej zwiększenie powinno spowodować jeszcze większe ograniczenie wydajności grafiki, czyż nie ?
Hmm, przyznam, że nie zrozumiałem tej części. Na tym filmiku od Raven01 właśnie są porównane wydajności tych samych procesorów na tych samych grafikach, a jedyną różnicą była rozdziałka. W niektórych grach wyraźnie widać, że role procesorów odwróciły się tylko po zmianie rozdzielczości (na tej samej karcie graficznej), ten co przy 1080p przegrywał zaczął wygrywać przy 1440p. Było więc tak jak mówisz - jedyną zmienną była rozdziałka.
Jedyną zmienną była rozdziałka...
Tylko jak chcesz oddzielić różnicę wynikającą z niewyrabiającej grafiki, od tej wynikającej z przeciążonego procka ?
1) Wyższa rozdziałka = wyższe obciążenie GPU.
2) Niższy FPS* = niższe obciążenie CPU + GPU
*FPS określa ile czasu [ms], ma CPU na wykonanie swoich obliczeń i dostarczenie ich do GPU.
Jak CPU zdąży - wszystko jest cacy, jak nie - masz ścinki, spowolnienia i inne tego typu kwiatki.
Ciężki dzień miałem w pracy, więc może jestem zbyt zmęczony aby zrozumieć, co chcesz przez to powiedzieć.
To co napisałeś jest prawdą, tylko nie wiem co ma wspólnego z tym filmikiem. Mamy te same CPU, te same GPU, różni się rozdziałka. Oczywiście nie wiemy jak procentowo rozkładało się obciążenie poszczególnych części sprzętu, ale nie to jest tutaj moim zdaniem najważniejsze. Najważniejsze jest to, że ten sam CPU na tej samej karcie przy jednej rozdziałce jest lepszy, a przy drugiej jest gorszy. To, jakie było obciążenie sprzętu gra tutaj drugoznaczną rolę, gdyż tylko zmieniając rozdziałkę w danej grze mamy lepszy wynik niż rywal, a w innej gorszy. Skoro nie zmienialiśmy nic innego w sprzęcie (sterownik ten sam, karta ta sama, detale gry te sam), więc wyraźnie widać, że rozdziałka spowodowała, że cpu wpłynął pozytywnie/negatywnie na sterownik grafiki bądź na silnik gry w danej rozdziałce. Na pewno procesor grał tu rolę, a pytanie, czy lepiej wpłynął na sterownik grafy, silnik gry, itp. nic imho tutaj nie zmienia.
Hmm, przyznam, że nie zrozumiałem tej części. Na tym filmiku od Raven01 właśnie są porównane wydajności tych samych procesorów na tych samych grafikach, a jedyną różnicą była rozdziałka. W niektórych grach wyraźnie widać, że role procesorów odwróciły się tylko po zmianie rozdzielczości (na tej samej karcie graficznej), ten co przy 1080p przegrywał zaczął wygrywać przy 1440p. Było więc tak jak mówisz - jedyną zmienną była rozdziałka.
Jedyną zmienną była rozdziałka...
Tylko jak chcesz oddzielić różnicę wynikającą z niewyrabiającej grafiki, od tej wynikającej z przeciążonego procka ?
1) Wyższa rozdziałka = wyższe obciążenie GPU.
2) Niższy FPS* = niższe obciążenie CPU + GPU
*FPS określa ile czasu [ms], ma CPU na wykonanie swoich obliczeń i dostarczenie ich do GPU.
Jak CPU zdąży - wszystko jest cacy, jak nie - masz ścinki, spowolnienia i inne tego typu kwiatki.
Wyjaśnij mi : Skoro wydajność na wyższych rozdzielczościach zależy od CPU, dlaczego jej zwielokrotnienie w moim teście (i dorzucenie AA/AF), nie wpłynęło na wynik zestawu który jest w 100% ograniczany przez użyty procesor ?
Chcesz mi powiedzieć, że Celeron D 326 ma więcej mocy przerobowych na wyższej rozdziałce i po użyciu dodatkowych efektów graficznych ?
Twój post też jest do odświeŻenia.
Ten art jest pobieżny, bo to nie dogłębna analiza, a wytypowanie sensownych roziwiązań i ma użytkownim dać ogólny pogląd na sytuację na rynku.
Przez błędne informacje ludzie będą mieli co pisać bo każdy myśli ,że taki i7 -8700k będzie starczył na tyle lat co i7-2600k.
Nie ma takiego procesora, który nawet w niższej rozdzielczości na 720p w Crysis 3 da ci 220 czy 300 FPS na ULTRA.
Wszyscy graja na rozdzielczosci 1080p albo wiekszej, więc testowac powinno sie CPU i GPU minimum w 1080p - ba powiem wiecej powinny byc dodatkowo robione testy w 4k - i nie ma to znaczenia , ze w wielu grach pokaze ledwo 30 czy 20 FPS ale 4k powoli staje sie standardem.
Na PS4 PRO wiele gier juz jest w 4k - co prawda jest to skalowane do 4k ale za kilka lat 4k bedzie juz standardem.
Do grania w 4k wystarczy i7 7700k + GTX 1080, wiec nie ma tak, ze nie da sie konfigu do 4k zlozyc w sensownych pieniadzach.
Wielu graczy ma 1080 Ti i 8700k.
Z drugiej strony testując na wysokiej rozdzielczości natrafiamy na wąskie gardło karty graficznej, ale za to test jest bardziej praktyczny bo takich ustawień będzie używać 99,9% użytkowników. Jeżeli w takich ustawieniach wynikną różnice to jest to sygnał który CPU wybrać a jeżeli obie jednostki dają podobne wyniki to po prostu znaczy, ze w grach oba procesory są wystarczające i lepiej podeprzeć się nieco innymi testami np w programach użytkowych
Aktualnie, w obliczu cen procesorów i5 i płyt głównych do OC Coffee Lake'ów, nie ma sensu inwestować w i3-8350K.
bo muisz kupić dobrą płytę do OC i sam procesor to około 750pln, zbyt blisko i5 się znajduje, a 4c/4t obecnie to 'średnia' opcja.
to sobie wyobraź taki procesor który na 5lat do przodu zapewnia w każdej grze min300fps
Czym może Nas zaskoczyć INTEL gdy swój proces produkcji mają dopracowany perfekcyjnie i w starciu z ZEN pierwszej generacji wygrywa głównie przez niskie zegary taktujące tego drugiego więc można być pewnym kolejnych przetasowań na rynku konsumenckim gdy już RYZEN+ się pojawi.
Jak mielibyśmy pisać jaki najgorszy proces produkcji jest w tej chwili na rynku jeżeli chodzi o układy z wysokim poborem energii elektrycznej to bez dwóch zdań będzie to 14nm LPP od Global Foudries a dalej można sobie odpowiedzieć jakie piękne czasy ma przed sobą AMD patrząc na możliwości ich układów CPU i GPU.
https://zapodaj.net/cdc7dae51d363.png.html
https://www.youtube.com/watch?v=jCW-4tH0KcU
zwróć uwagę jak np w 1:37 pomimo około 80FPS stutteruje i3 8350K, no ale jak dla ciebie najwazniejsze cyferki to nie mam pytań.
No ale czytać komentarze by się przydało -
'Those 'Stutters' has appeared after recording'. Wiele osób już wali drzwiami do Ubi z powodu nadmiernego wykorzystania CPU bo Ubi ma wywalone na optymalizację więc branie pod uwagę AS:O jest nie na miejscu. Reszta gier, czyli jakieś 98% nie ma problemu z optymalizacją pod 4/4.
spoko, ale shadowplay korzysta z gpu, co mu wytkneli również w komentarzach. Dziwne, że akurat na 8350k i to na całej długości filmu. Inną sprawa, że powinien to nagrywać kamerą bo tak to faktycznie należy ufać na słowo.
Btw mam podobny stutter na i5 4590, fps powyżej 60.
https://www.youtube.com/watch?v=jCW-4tH0KcU
zwróć uwagę jak np w 1:37 pomimo około 80FPS stutteruje i3 8350K, no ale jak dla ciebie najwazniejsze cyferki to nie mam pytań.
No ale czytać komentarze by się przydało -
'Those 'Stutters' has appeared after recording'. Wiele osób już wali drzwiami do Ubi z powodu nadmiernego wykorzystania CPU bo Ubi ma wywalone na optymalizację więc branie pod uwagę AS:O jest nie na miejscu. Reszta gier, czyli jakieś 98% nie ma problemu z optymalizacją pod 4/4.
Jeszcze większy wpływ (na obciążenie procesora) od zmiany rozdzielczości ma zmiana proporcji. Np. z 16:9 na 4:3. Różnica wydajności potrafi wyjść i 10% (w C3). Przyczyną jest oczywiście to że wraz z proporcjami zmienia się FOV, a co za tym idzie widać na monitorze mniej lub więcej obiektów, za których fizyką stoi procesor.
Tak to prawda u mnie różnice ponad 20% między 4:3 i 16:9, ścina boki i procesor ma mniej do liczenia. Tylko w sumie to bez znaczenia proporcje 4:3 i 5:4 już dawno wyszły z użytku.
Możliwość zmiany proporcji czasem się przydaje:
1. Coraz więcej jest użytkowników monitorów 21:9. O ile takie monitory świetnie nadają się do pracy i oglądania filmów to z grami już bywa problem. Bo albo GPU okazuje się za wolne na tą rozdziałkę albo po prostu obraz jest za szeroki (użytkownik nie ogarnia go wzrokiem). W takiej sytuacji przełączenie w grach proporcji na 16:9 owocuje wzrostem wydajności w miejscach zależnych od GPU, ale przy okazji wzrasta i wydajność w miejscach procesorowych.
2. Nawet używając standardowego monitora Full HD po zmianie rozdzielczości na 1280x1024 rośnie wydajność i w miejscach graficznych i procesorowych. Co prawda rozdzielczość 1280x1024 na monitorze 1920x1080 oznacza że poza czarnymi pasami po bokach będą wąziutkie pasy na dole i górze, ale za to rozdziałka 1280x1024 to format 5:4, jeszcze mniejszy od 4:3, a więc wzrost wydajności w miejscach procesorowych będzie jeszcze większy.
3. Nawet jak mamy szybkiego kompa który w 16:9 utrzymuje 60 fps to czasem zdarza się że w krytycznych momentach framerate spada do 50-55 fps (zwykle są to miejsca procesorowe, np. walki z dużą liczbą przeciwników). W takim przypadku przełączenie na 4:3 (choćby tylko na czas przejścia tego newralgicznego etapu) z powrotem winduje wydajność do 60 fps (ważne szczególnie dla grających z vsync, bo tam spadek wydajności do 50-55 fps oznacza, przy podwójnym buforowaniu, automatyczny drop do 30 fps).
To co napisałeś jest prawdą, tylko nie wiem co ma wspólnego z tym filmikiem. Mamy te same CPU, te same GPU, różni się rozdziałka. Oczywiście nie wiemy jak procentowo rozkładało się obciążenie poszczególnych części sprzętu, ale nie to jest tutaj moim zdaniem najważniejsze. Najważniejsze jest to, że ten sam CPU na tej samej karcie przy jednej rozdziałce jest lepszy, a przy drugiej jest gorszy. To, jakie było obciążenie sprzętu gra tutaj drugoznaczną rolę, gdyż tylko zmieniając rozdziałkę w danej grze mamy lepszy wynik niż rywal, a w innej gorszy. Skoro nie zmienialiśmy nic innego w sprzęcie (sterownik ten sam, karta ta sama, detale gry te sam), więc wyraźnie widać, że rozdziałka spowodowała, że cpu wpłynął pozytywnie/negatywnie na sterownik grafiki bądź na silnik gry w danej rozdziałce. Na pewno procesor grał tu rolę, a pytanie, czy lepiej wpłynął na sterownik grafy, silnik gry, itp. nic imho tutaj nie zmienia.
OK, spróbuję jeszcze raz
Porównanie wyników procesorów o dwóch różnych architekturach do siebie (o ilości wątków nie wspominając), w tej sytuacji nie ma sensu ponieważ sterownik może np. lepiej skalować się na CPU z większą ilością wątków (albo lepszą wydajnością na jednym wątku, w zależności od gry).
Ten sam procek i ten sam GPU przy dwóch różnych rozdzielczościach i tych samych detalach pokażą ile grafika (tj. GPU), traci na wydajności przy przejściu między nimi.
Aby przetestować wpływ rozdzielczości na CPU, wypada stworzyć sytuację kiedy procek ogranicza grafikę w 100% na obu testowanych rozdzielczościach.
Zatem ponawiam pytanie :
Czemu wynik GPU/ogólny Celerona D, nie spadł po zwielokrotnieniu rozdzielczości ?
Jej zwiększenie powinno spowodować jeszcze większe ograniczenie wydajności grafiki, czyż nie ?
Tylko jak chcesz oddzielić różnicę wynikającą z niewyrabiającej grafiki, od tej wynikającej z przeciążonego procka ?
1) Wyższa rozdziałka = wyższe obciążenie GPU.
2) Niższy FPS* = niższe obciążenie CPU + GPU
*FPS określa ile czasu [ms], ma CPU na wykonanie swoich obliczeń i dostarczenie ich do GPU.
Jak CPU zdąży - wszystko jest cacy, jak nie - masz ścinki, spowolnienia i inne tego typu kwiatki.
Ciężki dzień miałem w pracy, więc może jestem zbyt zmęczony aby zrozumieć, co chcesz przez to powiedzieć.
To co napisałeś jest prawdą, tylko nie wiem co ma wspólnego z tym filmikiem. Mamy te same CPU, te same GPU, różni się rozdziałka. Oczywiście nie wiemy jak procentowo rozkładało się obciążenie poszczególnych części sprzętu, ale nie to jest tutaj moim zdaniem najważniejsze. Najważniejsze jest to, że ten sam CPU na tej samej karcie przy jednej rozdziałce jest lepszy, a przy drugiej jest gorszy. To, jakie było obciążenie sprzętu gra tutaj drugoznaczną rolę, gdyż tylko zmieniając rozdziałkę w danej grze mamy lepszy wynik niż rywal, a w innej gorszy. Skoro nie zmienialiśmy nic innego w sprzęcie (sterownik ten sam, karta ta sama, detale gry te sam), więc wyraźnie widać, że rozdziałka spowodowała, że cpu wpłynął pozytywnie/negatywnie na sterownik grafiki bądź na silnik gry w danej rozdziałce. Na pewno procesor grał tu rolę, a pytanie, czy lepiej wpłynął na sterownik grafy, silnik gry, itp. nic imho tutaj nie zmienia.
Tylko jak chcesz oddzielić różnicę wynikającą z niewyrabiającej grafiki, od tej wynikającej z przeciążonego procka ?
1) Wyższa rozdziałka = wyższe obciążenie GPU.
2) Niższy FPS* = niższe obciążenie CPU + GPU
*FPS określa ile czasu [ms], ma CPU na wykonanie swoich obliczeń i dostarczenie ich do GPU.
Jak CPU zdąży - wszystko jest cacy, jak nie - masz ścinki, spowolnienia i inne tego typu kwiatki.
Wyjaśnij mi : Skoro wydajność na wyższych rozdzielczościach zależy od CPU, dlaczego jej zwielokrotnienie w moim teście (i dorzucenie AA/AF), nie wpłynęło na wynik zestawu który jest w 100% ograniczany przez użyty procesor ?
Chcesz mi powiedzieć, że Celeron D 326 ma więcej mocy przerobowych na wyższej rozdziałce i po użyciu dodatkowych efektów graficznych ?