Tyle, że ja widziałem na własne oczy ten błąd i wiem, co się dokładnie dzieje, czyli spada obciążenie CPU i wtedy możesz sobie wkładać GPU jakie chcesz i testować w rozdzielczości jakiej chcesz, a i tak wyjdą Ci bardzo niskie wyniki na Ryzenie (oczywiście dopóki nie nadziejesz się na limit karty, co z testem procesora nie ma nic wspólnego). A co do tłumaczeń, to jakbyś się tłumaczył, gdybyś właśnie sobie zdał sprawę z tego, że przez kilka miesięcy żeniłeś swoim czytelnikom totalny kit, a rozwiązanie było banalne, czyli postawienie czystego systemu?
Jak taki z Ciebie ekspert, to co za problem zrobić własne pomiary i je zaprezentować? Rozwiejesz wiele wątpliwości, a być może i dokonasz przełomowych odkryć.
Ty nawet czytać nie potrafisz... Napisałem Ci, że autor reinstalował system od zera wcześniej nie raz i to nie pomagało. Tak trudno to do Ciebie dociera? Cóż, widać czytać i rozumieć to Ty nie potrafisz.
Druga sprawa - przytoczyłem Ci przykład z grą ROTR, w której ta procedura wyraźnie uwypukliła błąd optymalizacyjny - tak błąd, a nie GPU bottleneck jak to sobie wmawiasz. Błąd faktycznie był, gdyż wyszedł patch do gry, gdyby błędu optymalizacyjnego nie było, to patch by nigdy nie wyszedł. A ta procedura ten błąd uwypukłiła do niespotykanych rozmiarów.
Ale Ty i tak wiesz swoje tomcug i dalej bzdury opowiadać pewnie będziesz
Miałem ten sam błąd i reinstalacja systemu nie zawsze była pomocna. Wystarczyło uruchomić dwukrotnie ten sam save, by spotkać się ze spadkiem klatek.
W końcu postawiłem nowego Wieśka bez synchronizacji z zupełnie innym zapisem gry. Wszystko działa cacy
Ty nawet czytać nie potrafisz... Napisałem Ci, że autor reinstalował system od zera wcześniej nie raz i to nie pomagało. Tak trudno to do Ciebie dociera? Cóż, widać czytać i rozumieć to Ty nie potrafisz.
Stałeś nad autorem i patrzyłeś, jak 'reinstaluje system od zera'? Trzy razy przeinstalował i nic, nagle za czwartym razem eureka i wszystko działa? Możliwe, ale prawdopodobieństwo bardzo niewielkie. Póki co to Ty pokazujesz, że łykasz jak pelikan każdą papkę, którą jeden AdoredTV czy jakiś inny misiek wypuści i to łykasz bez jakiejkolwiek weryfikacji we własnym zakresie. Byle pasowało do Twojego założenia i to wszystko, co się liczy. Do tej pory nie pokazałeś mi, gdzie Core i5 pierze w niskiej rozdzielczości Core i7 z wyższym zegarem i jest to rzekomy babol optymalizacyjny. Chyba, że chodziło Ci o przykład ze Starcraftem II, to pudło totalne. Core dla platform 'mainstream' i HEDT są na zupełnie innych architekturach nawet, gdy mają ten sam numerek z przodu. Przykładowo Core i7-6900K to Broadwell (ale bez L4!), podczas gdy Core i7-6700K to już Skylake. Tak więc nie, tamten przykład niczego nie dowodzi.
p_lider @ 2017.12.18 07:07
Druga sprawa - przytoczyłem Ci przykład z grą ROTR, w której ta procedura wyraźnie uwypukliła błąd optymalizacyjny - tak błąd, a nie GPU bottleneck jak to sobie wmawiasz. Błąd faktycznie był, gdyż wyszedł patch do gry, gdyby błędu optymalizacyjnego nie było, to patch by nigdy nie wyszedł. A ta procedura ten błąd uwypukłiła do niespotykanych rozmiarów.
Nic nie uwypukliła, tylko pokazała wydajność Ryzenów taką, jaka była w tamtym momencie. Wyszedł patch, wszyscy zaktualizowali wyniki i o co krzyk? Dopóki patch nie wyszedł, to posiadacze kart NV musieli się borykać z niską wydajnością w lokacjach takich jak 'Kompleks radziecki' czy 'Geotermiczna dolina' - to jest fakt. Za to pogrubiony fragment wypowiedzi pokazuje, że tak naprawdę zdajesz się nie wiedzieć, co w ogóle oznacza ograniczenie przez GPU. Natomiast co do testowania na kartach różnych producentów, to jestem jak najbardziej za. Para Radeon + GeForce daje szerszy pogląd na sytuację. Ale ponownie w żadnym wypadku w trybach graficznych, które sprawiają, że ograniczeniem staje się karta graficzna i wyniki się 'spłaszczają'. Tobie może się wydawać inaczej i możesz sobie szukać do tej teorii tylu 'dowodów', ile tylko chcesz, ale rozdzielczość nie powoduje wypaczenia relacji między konkurencyjnymi procesorami AMD/Intel. Co najwyżej w wyższej rozdziałce miałbyś jeszcze niższy limit procesora, a nie wyższy. Oczywiście jak ustawisz 4K Ultra na RX 580 i weźmiesz lokację graficzną, to wszystkie procesory najpewniej włącznie z Pentiumem G4600 uzyskają prawie tyle samo FPS, ale to nie ma nic wspólnego z testem procesorów. Takich 'testów' w internecie nie brakuje, gdzie nawet dwurdzeniowy Pentak daje radę i jakoś nie piszesz, że niczego lepszego do grania nie potrzeba, czyż nie? Ale przecież 'niższe rozdzielczości uwypuklają błędy optymalizacyjne' i dlatego G4560 radzi sobie słabo, to nie ma nic wspólnego z rzeczywistością . Tym optymistycznym akcentem kończę wypowiedź .
Lipton @ 2017.12.18 09:22
Miałem ten sam błąd i reinstalacja systemu nie zawsze była pomocna. Wystarczyło uruchomić dwukrotnie ten sam save, by spotkać się ze spadkiem klatek.
W końcu postawiłem nowego Wieśka bez synchronizacji z zupełnie innym zapisem gry. Wszystko działa cacy
No to u Ciebie problemem był najpewniej sam zapis gry. Ja się spotkałem z sytuacją, gdzie już od pierwszego wczytania dowolnego zapisu gry wydajność była daleko w lesie i najpewniej to samo spotkało Sebastiana. Ale głowy sobie uciąć nie dam. Zasadniczo problem jest raczej rzadko spotykany, nie widziałem, żeby gdzieś posiadacze Ryzenów narzekali na wydajność w miastach poza odnoszeniem się do starych wyników PPC.
Stałeś nad autorem i patrzyłeś, jak 'reinstaluje system od zera'? Trzy razy przeinstalował i nic, nagle za czwartym razem eureka i wszystko działa? Możliwe, ale prawdopodobieństwo bardzo niewielkie. Póki co to Ty pokazujesz, że łykasz jak pelikan każdą papkę, którą jeden AdoredTV czy jakiś inny misiek wypuści i to łykasz bez jakiejkolwiek weryfikacji we własnym zakresie.
Rozumiem, że teraz zarzucasz tamtemu autorowi jawne wprowadzanie w błąd ludzi I ich okłamywanie? Oczywiście tylko po to, aby swoją wyimaginowaną teorię podeprzeć
tomcug @ 2017.12.18 09:29
Nic nie uwypukliła, tylko pokazała wydajność Ryzenów taką, jaka była w tamtym momencie. Wyszedł patch, wszyscy zaktualizowali wyniki i o co krzyk? Dopóki patch nie wyszedł, to posiadacze kart NV musieli się borykać z niską wydajnością w lokacjach takich jak 'Kompleks radziecki' czy 'Geotermiczna dolina' - to jest fakt.
Znowu bzdury klepiesz - faktem był błąd optymalizacyjny, a nie żadne GPU bottleneck, chyba sam nie wiesz o czym już gadasz tomcug. Wyszedł patch naprawiający ten BŁĄD, a nie żadne GPU Bottleneck. Jakbyś przeczytał szczegóły tamtego patcha, to byś zauważył, że głównie poprawili sposób zarządzania transferem danych pomiędzy pamięcią RAM a pamięcią VRAM, który ze względny na CCX'y istniejące w procesorach Ryzen był we wcześniejszej wersji bardzo nieoptymalny, gdyż poprzednia wersja była pisana gdy Ryzenów nawet na rynku nie było, więc nie mogłabyć pod to zoptymalizowana z oczywistych względów.
To jest klasyczny przykład błędu optymalizacyjnego w kodzie (widać, że nigdy nie programowałeś, bo piszesz głupoty), który uwidacznia się w konkretnych warunkach - tutaj takim warunkiem było połączenie procesora Ryzen oraz bardzo wydajnej karty graficznej z zielonego obozu.
Widzę, że dla Ciebie to też będzie za trudne, ale bottleneck nie sprowadza się tylko do CPU i GPU, jest jeszcze memory bottleneck, PCI bottleneck. Jednakże w wiekszości przypadków te problemy wynikają z nieptymalnego wykorzystania tychże przez soft, przeważnie w wyniku braku optymalizacji lub jej błędnego działania.
A odnośnie zdania 'Dopóki patch nie wyszedł, to posiadacze kart NV musieli się borykać z niską wydajnością...' to tyczyło się to tylko tych, którzy mieli GTX'a 1080 w górę. Czyli znacznej mniejszości (mniejszości, pod którą robiona jest obecna procedura testowa), gdyż te problemy nie były widoczne aż w takim stopniu na mid-end. Ludzie na Radeonach w ogóle problemu nie mieli. No ale to i tak do Ciebie raczej nie dotrze.
Można prosić o tabelkę z Ryzen R7 1700/R5 1600 vs. Coffe L. (6C/6T + 6C/12T) vs. Skylake (4C/8T) vs. Haswell (4C/8T) vs. Ivy-E (6C/12T) vs. Sandy-E (6C/12T) ve. Ivy B. (4C/8T) vs. Sandy B. (4C/8T) vs. Xeon LGA 1366 (6C/12T) vs. Thuban (6C/6T) ?
PS. Gdyby jeszcze na jednym z testów wszystkie pracowały przy tej samej częstotliwości (np. 4GHz), byłoby w ogóle super
NIE dostaniesz takiek tabelki, ponieważ byłoby widac, że intel zrobił 10 % postępu prez te lata.
Rozdzielczość nie ma praktycznie wpływu na CPU, bo on bez względu na rozdzielczość przy takich samych ustawieniach obrabia taką samą liczbę danych i dostarcza GPU też tyle samo danych a to GPU generuje zadaną liczbę pikseli w zależności od tego na jaką rozdzielczość się zdecydujesz. Masz te same detale to i tyle samo obiektów i tyle samo roboty dla CPU... a to w ilu pikselach sobie to wyświetlisz to już czysta praca GPU.
Rozdzielczość nie ma praktycznie wpływu na CPU, bo on bez względu na rozdzielczość przy takich samych ustawieniach obrabia taką samą liczbę danych i dostarcza GPU też tyle samo danych a to GPU generuje zadaną liczbę pikseli w zależności od tego na jaką rozdzielczość się zdecydujesz. Masz te same detale to i tyle samo obiektów i tyle samo roboty dla CPU... a to w ilu pikselach sobie to wyświetlisz to już czysta praca GPU.
To co piszesz jest prawdą tylko w idealnym scenariuszu biorąc pod uwagę idealnie, bezbłędnie napisany silnik gry, bezbłędnie napisany sterownik karty graficznej oraz bezbłędnie napisany podsystem graficzny w samym OS. Takie coś niestety prawie nigdy nie ma miejsca.
Poza tym wystarczy wybrać rozdziałkę o innym Aspect Ratio I wtedy już narzut potrafi być znaczny.
Rozdzielczość nie ma praktycznie wpływu na CPU, bo on bez względu na rozdzielczość przy takich samych ustawieniach obrabia taką samą liczbę danych i dostarcza GPU też tyle samo danych a to GPU generuje zadaną liczbę pikseli w zależności od tego na jaką rozdzielczość się zdecydujesz. Masz te same detale to i tyle samo obiektów i tyle samo roboty dla CPU... a to w ilu pikselach sobie to wyświetlisz to już czysta praca GPU.
To co piszesz jest prawdą tylko w idealnym scenariuszu biorąc pod uwagę idealnie, bezbłędnie napisany silnik gry, bezbłędnie napisany sterownik karty graficznej oraz bezbłędnie napisany podsystem graficzny w samym OS. Takie coś niestety prawie nigdy nie ma miejsca.
Poza tym wystarczy wybrać rozdziałkę o innym Aspect Ratio I wtedy już narzut potrafi być znaczny.
Tzn. jeżeli będą błędy w silniku, błędy w sterownikach oraz błędny podsystem graficzny to obliczeniami związane z wyświetlaniem pikseli i ich ilości zajmie się CPU?
To co piszesz jest prawdą tylko w idealnym scenariuszu biorąc pod uwagę idealnie, bezbłędnie napisany silnik gry, bezbłędnie napisany sterownik karty graficznej oraz bezbłędnie napisany podsystem graficzny w samym OS. Takie coś niestety prawie nigdy nie ma miejsca.
Poza tym wystarczy wybrać rozdziałkę o innym Aspect Ratio I wtedy już narzut potrafi być znaczny.
Tzn. jeżeli będą błędy w silniku, błędy w sterownikach oraz błędny podsystem graficzny to obliczeniami związane z wyświetlaniem pikseli i ich ilości zajmie się CPU?
Owszem, może tak się stać. Wystarczy źle napisana funkcja, niepotrzebnie użyte skalowanie, gdy nie trzeba (czy to w sterowniku, czy w silniku), albo ktoś zahardkodował jakieś wartości, które są dobre dla danej rozdzielczości, a dla innych już złe, itp. Błędów w sofcie różnego typu może być masa. Dlatego jak najbardziej, może wpływać.
No ale co ja tam wiem, przecież jestem tylko programistą Testerzy pewnie wiedzą lepiej.
EDIT: zresztą sobie spójrz na materiał podlinkowany Przez Raven01: https://youtu.be/t8K2yc11eC4?t=17m9s
Skoro nagle na tej samej karcie zmiana rozdzielczości przy tym samym CPU potrafiła odwrócić sytuację w niektórych grach, powinno dać Ci coś do myslenia. Jak i dla @tomcug.
Jesli myślisz, że CPU zajmuje się tylko i wyłącznie obróbka samego materiału i wysłaniu do grafiki, to się zdziwisz. Taki AsyncCompute w sterowniku nVidii jest całkowicie softwareowy, są to dodatkowe obliczenia, których ilość zależy od rozdzielczości, które CPU musi wykonać. A to tylko 1 przykład dodatkowych obliczeń zależnych od rozdziałki. Skalowanie softwareowe jest drugim z nich, a bynajmniej nie ostatnim, które można by znaleźc.
Artykul zrobiony na szybko na kolanie - niby mowa o wlasciwym wyborze procesowa, a brak podstawowego zagadnienia - do jakiej rozdzielczosci i do jakiego odswierzania?
A przydalby sie w internecie chociaz jeden taki test, ktory dokladniej bada sprawe i pokazal roznicze w poszczegolnych rozdzielczosciach/Hz, a nie klepanie wiecznie tego przestarzalego 1080p, gdzie do 60Hz to i zwykle i3 wystarcz, za to do do 200Hz to jak najbardziej najnowszy (krecony) 8700K ma racje bytu. Z kolei w 4K gdzie pierwsze skrzypce gra GPU wcale bym sie nie zdziwil, gdyby leciwy i5 2500K nie ustepowal najnowszym i7. Itp. Itd.
A tak to wszystkie te 'testy' CPU w internecie sa na jedno kopyto i wygladaja jak artykul sponsorowany Intela, ktory mowi jedno - bierzy najnowsze i7, reszta sie nie liczy...
PS. Zeby nie bylo siedze na 4790K @4.7GH z niedawno dorzuconym 1080Ti, i teraz uwazam go za strate pieniedzy - do dzisiaj malo gier faktycznie korzysta z tych 8 watkow, a nawet jesli to i tak nic to nie zmienia, bo obecne gry sa niesamowicie prymitywne, fizyka i AI od lat leza i kwicza, i do pojawienia sie nowych konsol to sie nie zmieni - moglem faktycznie wziac wtedy i5 ktory na owe czasy byl 'w sam raz', a teraz dorzycic wlasnie nowe GPU i zmienic rozdzielke na 4K60Hz.
Oj tam marudzisz Skoro twierdzisz że 4/8 jest nie potrzebne to przesiądź się na 4/4 albo 2/4 i będziesz happy i parę stówek w kieszeni. Zależy też w co grasz, w takim BF1 multi na 64 graczy 4/8 przydaje się bardzo mocno, na 4/4 są ścinki i minimalny fps dużo niższy niż na 4/8.
To co piszesz jest prawdą tylko w idealnym scenariuszu biorąc pod uwagę idealnie, bezbłędnie napisany silnik gry, bezbłędnie napisany sterownik karty graficznej oraz bezbłędnie napisany podsystem graficzny w samym OS. Takie coś niestety prawie nigdy nie ma miejsca... ...zresztą sobie spójrz na materiał podlinkowany Przez Raven01: https://youtu.be/t8K2yc11eC4?t=17m9s
Najlepiej to sprawdzić przy ograniczaniu grafiki przez procka (uwypukli ono dodatkowe cykle procesora stracone na przetwarzanie tych pikseli, zmniejszając jego wydajność) :
3DMark 06 + Celeron D 346 + GTX 780 Ti :
Standard : https://i.imgur.com/QbnlAK7.png,
3360x2100 + MSAA x8 + AFx16 : https://i.imgur.com/Pna8pHA.png.
Jak widać, ilość punktów uzyskana przez grafikę pozostała niezmieniona (w granicach błędu pomiarowego).
Dlatego zgadzam się z brakiem zależności między rozdzielczością, a ilością pikseli na ekranie.
Na procka większy wpływ ma LOD, proporcje obrazu na jakich grasz (albo FOV), ilość klatek na sekundę jaką ogarnia grafika, oraz sam jej sterownik.
Filmik = Test kart graficznych. Nie da się wywnioskować z niego jaką wpływ ma rozdzielczość na samego procka, ponieważ porównanie tyczy się dwóch różnych procesory albo test został przeprowadzony na dwóch różnych grafikach.
Do wiarygodnego testu potrzebujesz aby jedyną zmienną w dwóch testach była rozdzielczość (czyli wymagane są ten sam procek, grafika, taktowania, detale, itd.).
Filmik = Test kart graficznych. Nie da się wywnioskować z niego jaką wpływ ma rozdzielczość na samego procka, ponieważ porównanie tyczy się dwóch różnych procesory albo test został przeprowadzony na dwóch różnych grafikach.
Do wiarygodnego testu potrzebujesz aby jedyną zmienną w dwóch testach była rozdzielczość (czyli wymagane są ten sam procek, grafika, taktowania, detale, itd.).
Hmm, przyznam, że nie zrozumiałem tej części. Na tym filmiku od Raven01 właśnie są porównane wydajności tych samych procesorów na tych samych grafikach, a jedyną różnicą była rozdziałka. W niektórych grach wyraźnie widać, żerole procesorów odwróciły się tylko po zmianie rozdzielczości (na tej samej karcie graficznej), ten co przy 1080p przegrywał zaczął wygrywać przy 1440p. Było więc tak jak mówisz - jedyną zmienną była rozdziałka.
Hmm, przyznam, że nie zrozumiałem tej części. Na tym filmiku od Raven01 właśnie są porównane wydajności tych samych procesorów na tych samych grafikach, a jedyną różnicą była rozdziałka. W niektórych grach wyraźnie widać, że role procesorów odwróciły się tylko po zmianie rozdzielczości (na tej samej karcie graficznej), ten co przy 1080p przegrywał zaczął wygrywać przy 1440p. Było więc tak jak mówisz - jedyną zmienną była rozdziałka.
Jedyną zmienną była rozdziałka...
Tylko jak chcesz oddzielić różnicę wynikającą z niewyrabiającej grafiki, od tej wynikającej z przeciążonego procka ?
1) Wyższa rozdziałka = wyższe obciążenie GPU.
2) Niższy FPS* = niższe obciążenie CPU + GPU
*FPS określa ile czasu [ms], ma CPU na wykonanie swoich obliczeń i dostarczenie ich do GPU.
Jak CPU zdąży - wszystko jest cacy, jak nie - masz ścinki, spowolnienia i inne tego typu kwiatki.
Wyjaśnij mi : Skoro wydajność na wyższych rozdzielczościach zależy od CPU, dlaczego jej zwielokrotnienie w moim teście (i dorzucenie AA/AF), nie wpłynęło na wynik zestawu który jest w 100% ograniczany przez użyty procesor ?
Chcesz mi powiedzieć, że Celeron D 326 ma więcej mocy przerobowych na wyższej rozdziałce i po użyciu dodatkowych efektów graficznych ?
Hmm, przyznam, że nie zrozumiałem tej części. Na tym filmiku od Raven01 właśnie są porównane wydajności tych samych procesorów na tych samych grafikach, a jedyną różnicą była rozdziałka. W niektórych grach wyraźnie widać, że role procesorów odwróciły się tylko po zmianie rozdzielczości (na tej samej karcie graficznej), ten co przy 1080p przegrywał zaczął wygrywać przy 1440p. Było więc tak jak mówisz - jedyną zmienną była rozdziałka.
Jedyną zmienną była rozdziałka...
Tylko jak chcesz oddzielić różnicę wynikającą z niewyrabiającej grafiki, od tej wynikającej z przeciążonego procka ?
1) Wyższa rozdziałka = wyższe obciążenie GPU.
2) Niższy FPS* = niższe obciążenie CPU + GPU
*FPS określa ile czasu [ms], ma CPU na wykonanie swoich obliczeń i dostarczenie ich do GPU.
Jak CPU zdąży - wszystko jest cacy, jak nie - masz ścinki, spowolnienia i inne tego typu kwiatki.
Ciężki dzień miałem w pracy, więc może jestem zbyt zmęczony aby zrozumieć, co chcesz przez to powiedzieć.
To co napisałeś jest prawdą, tylko nie wiem co ma wspólnego z tym filmikiem. Mamy te same CPU, te same GPU, różni się rozdziałka. Oczywiście nie wiemy jak procentowo rozkładało się obciążenie poszczególnych części sprzętu, ale nie to jest tutaj moim zdaniem najważniejsze. Najważniejsze jest to, że ten sam CPU na tej samej karcie przy jednej rozdziałce jest lepszy, a przy drugiej jest gorszy. To, jakie było obciążenie sprzętu gra tutaj drugoznaczną rolę, gdyż tylko zmieniając rozdziałkę w danej grze mamy lepszy wynik niż rywal, a w innej gorszy. Skoro nie zmienialiśmy nic innego w sprzęcie (sterownik ten sam, karta ta sama, detale gry te sam), więc wyraźnie widać, że rozdziałka spowodowała, że cpu wpłynął pozytywnie/negatywnie na sterownik grafiki bądź na silnik gry w danej rozdziałce. Na pewno procesor grał tu rolę, a pytanie, czy lepiej wpłynął na sterownik grafy, silnik gry, itp. nic imho tutaj nie zmienia.
Ciężki dzień miałem w pracy, więc może jestem zbyt zmęczony aby zrozumieć, co chcesz przez to powiedzieć.
To co napisałeś jest prawdą, tylko nie wiem co ma wspólnego z tym filmikiem. Mamy te same CPU, te same GPU, różni się rozdziałka. Oczywiście nie wiemy jak procentowo rozkładało się obciążenie poszczególnych części sprzętu, ale nie to jest tutaj moim zdaniem najważniejsze. Najważniejsze jest to, że ten sam CPU na tej samej karcie przy jednej rozdziałce jest lepszy, a przy drugiej jest gorszy. To, jakie było obciążenie sprzętu gra tutaj drugoznaczną rolę, gdyż tylko zmieniając rozdziałkę w danej grze mamy lepszy wynik niż rywal, a w innej gorszy. Skoro nie zmienialiśmy nic innego w sprzęcie (sterownik ten sam, karta ta sama, detale gry te sam), więc wyraźnie widać, że rozdziałka spowodowała, że cpu wpłynął pozytywnie/negatywnie na sterownik grafiki bądź na silnik gry w danej rozdziałce. Na pewno procesor grał tu rolę, a pytanie, czy lepiej wpłynął na sterownik grafy, silnik gry, itp. nic imho tutaj nie zmienia.
OK, spróbuję jeszcze raz
Porównanie wyników procesorów o dwóch różnych architekturach do siebie (o ilości wątków nie wspominając), w tej sytuacji nie ma sensu ponieważ sterownik może np. lepiej skalować się na CPU z większą ilością wątków (albo lepszą wydajnością na jednym wątku, w zależności od gry).
Ten sam procek i ten sam GPU przy dwóch różnych rozdzielczościach i tych samych detalach pokażą ile grafika (tj. GPU), traci na wydajności przy przejściu między nimi.
Aby przetestować wpływ rozdzielczości na CPU, wypada stworzyć sytuację kiedy procek ogranicza grafikę w 100% na obu testowanych rozdzielczościach.
Zatem ponawiam pytanie :
Czemu wynik GPU/ogólny Celerona D, nie spadł po zwielokrotnieniu rozdzielczości ?
Jej zwiększenie powinno spowodować jeszcze większe ograniczenie wydajności grafiki, czyż nie ?
Chodzi o to, że ktoś powinien sparować Atoma z Titanem i wtedy testować różne rozdzielczości. Atom nie wykarmi pewnie w żadnym momencie Titana a jeżeli coś ciut mocniej obciąży Atoma to od razu to da się zobaczyć. Jeżeli procesor jest wstanie wykarmić GPU przy takim teście to automatycznie jest przekłamanie w wynikach które chcemy uzyskać, bo wtedy GPU (które odpowiada za rozdzielczość właśnie) dla różnych rozdzielczości może lepiej się skalować - ale nas CPU interesuje.
Ok, chyba już obczaiłem o Co chodzi. Taki test był już robiony z Pentiumem G4560 na którymś kanale YT, już nie pamiętam gdzie dokładnie, ale oglądałem. Okazało się, że przy użyciu Pentium G4560 FPS'y skalowały się dobrze do GTX 1060 włącznie, później wyniki były takie prawie takie same nawet dla GTX 1080TI.
No i kiedy już masz taką konfigurację i maksymalną rozdzielczość w jakiej GPU ma zapas mocy można zacząć obniżać rozdzielczość i sprawdzać czy coś mniej obciąży CPU - jeżeli coś go mniej obciąży to FPS skoczy.
To punkty szpanu w gimnazjum
Nie ma już gmnazjów
Jeszcze są
Tyle, że ja widziałem na własne oczy ten błąd i wiem, co się dokładnie dzieje, czyli spada obciążenie CPU i wtedy możesz sobie wkładać GPU jakie chcesz i testować w rozdzielczości jakiej chcesz, a i tak wyjdą Ci bardzo niskie wyniki na Ryzenie (oczywiście dopóki nie nadziejesz się na limit karty, co z testem procesora nie ma nic wspólnego). A co do tłumaczeń, to jakbyś się tłumaczył, gdybyś właśnie sobie zdał sprawę z tego, że przez kilka miesięcy żeniłeś swoim czytelnikom totalny kit, a rozwiązanie było banalne, czyli postawienie czystego systemu?
Jak taki z Ciebie ekspert, to co za problem zrobić własne pomiary i je zaprezentować? Rozwiejesz wiele wątpliwości, a być może i dokonasz przełomowych odkryć.
Ty nawet czytać nie potrafisz... Napisałem Ci, że autor reinstalował system od zera wcześniej nie raz i to nie pomagało. Tak trudno to do Ciebie dociera? Cóż, widać czytać i rozumieć to Ty nie potrafisz.
Druga sprawa - przytoczyłem Ci przykład z grą ROTR, w której ta procedura wyraźnie uwypukliła błąd optymalizacyjny - tak błąd, a nie GPU bottleneck jak to sobie wmawiasz. Błąd faktycznie był, gdyż wyszedł patch do gry, gdyby błędu optymalizacyjnego nie było, to patch by nigdy nie wyszedł. A ta procedura ten błąd uwypukłiła do niespotykanych rozmiarów.
Ale Ty i tak wiesz swoje tomcug i dalej bzdury opowiadać pewnie będziesz
Miałem ten sam błąd i reinstalacja systemu nie zawsze była pomocna. Wystarczyło uruchomić dwukrotnie ten sam save, by spotkać się ze spadkiem klatek.
W końcu postawiłem nowego Wieśka bez synchronizacji z zupełnie innym zapisem gry. Wszystko działa cacy
Co za bzdura. Jak ci CPU nie nadąży z danymi to ci GPU nie da dużo kostek za to zawsze detale można obniżyć.
Stałeś nad autorem i patrzyłeś, jak 'reinstaluje system od zera'? Trzy razy przeinstalował i nic, nagle za czwartym razem eureka i wszystko działa? Możliwe, ale prawdopodobieństwo bardzo niewielkie. Póki co to Ty pokazujesz, że łykasz jak pelikan każdą papkę, którą jeden AdoredTV czy jakiś inny misiek wypuści i to łykasz bez jakiejkolwiek weryfikacji we własnym zakresie. Byle pasowało do Twojego założenia i to wszystko, co się liczy. Do tej pory nie pokazałeś mi, gdzie Core i5 pierze w niskiej rozdzielczości Core i7 z wyższym zegarem i jest to rzekomy babol optymalizacyjny. Chyba, że chodziło Ci o przykład ze Starcraftem II, to pudło totalne. Core dla platform 'mainstream' i HEDT są na zupełnie innych architekturach nawet, gdy mają ten sam numerek z przodu. Przykładowo Core i7-6900K to Broadwell (ale bez L4!), podczas gdy Core i7-6700K to już Skylake. Tak więc nie, tamten przykład niczego nie dowodzi.
Nic nie uwypukliła, tylko pokazała wydajność Ryzenów taką, jaka była w tamtym momencie. Wyszedł patch, wszyscy zaktualizowali wyniki i o co krzyk? Dopóki patch nie wyszedł, to posiadacze kart NV musieli się borykać z niską wydajnością w lokacjach takich jak 'Kompleks radziecki' czy 'Geotermiczna dolina' - to jest fakt. Za to pogrubiony fragment wypowiedzi pokazuje, że tak naprawdę zdajesz się nie wiedzieć, co w ogóle oznacza ograniczenie przez GPU. Natomiast co do testowania na kartach różnych producentów, to jestem jak najbardziej za. Para Radeon + GeForce daje szerszy pogląd na sytuację. Ale ponownie w żadnym wypadku w trybach graficznych, które sprawiają, że ograniczeniem staje się karta graficzna i wyniki się 'spłaszczają'. Tobie może się wydawać inaczej i możesz sobie szukać do tej teorii tylu 'dowodów', ile tylko chcesz, ale rozdzielczość nie powoduje wypaczenia relacji między konkurencyjnymi procesorami AMD/Intel. Co najwyżej w wyższej rozdziałce miałbyś jeszcze niższy limit procesora, a nie wyższy. Oczywiście jak ustawisz 4K Ultra na RX 580 i weźmiesz lokację graficzną, to wszystkie procesory najpewniej włącznie z Pentiumem G4600 uzyskają prawie tyle samo FPS, ale to nie ma nic wspólnego z testem procesorów. Takich 'testów' w internecie nie brakuje, gdzie nawet dwurdzeniowy Pentak daje radę i jakoś nie piszesz, że niczego lepszego do grania nie potrzeba, czyż nie? Ale przecież 'niższe rozdzielczości uwypuklają błędy optymalizacyjne' i dlatego G4560 radzi sobie słabo, to nie ma nic wspólnego z rzeczywistością
W końcu postawiłem nowego Wieśka bez synchronizacji z zupełnie innym zapisem gry. Wszystko działa cacy
No to u Ciebie problemem był najpewniej sam zapis gry. Ja się spotkałem z sytuacją, gdzie już od pierwszego wczytania dowolnego zapisu gry wydajność była daleko w lesie i najpewniej to samo spotkało Sebastiana. Ale głowy sobie uciąć nie dam. Zasadniczo problem jest raczej rzadko spotykany, nie widziałem, żeby gdzieś posiadacze Ryzenów narzekali na wydajność w miastach poza odnoszeniem się do starych wyników PPC.
Rozumiem, że teraz zarzucasz tamtemu autorowi jawne wprowadzanie w błąd ludzi I ich okłamywanie? Oczywiście tylko po to, aby swoją wyimaginowaną teorię podeprzeć
Nic nie uwypukliła, tylko pokazała wydajność Ryzenów taką, jaka była w tamtym momencie. Wyszedł patch, wszyscy zaktualizowali wyniki i o co krzyk? Dopóki patch nie wyszedł, to posiadacze kart NV musieli się borykać z niską wydajnością w lokacjach takich jak 'Kompleks radziecki' czy 'Geotermiczna dolina' - to jest fakt.
Znowu bzdury klepiesz - faktem był błąd optymalizacyjny, a nie żadne GPU bottleneck, chyba sam nie wiesz o czym już gadasz tomcug. Wyszedł patch naprawiający ten BŁĄD, a nie żadne GPU Bottleneck. Jakbyś przeczytał szczegóły tamtego patcha, to byś zauważył, że głównie poprawili sposób zarządzania transferem danych pomiędzy pamięcią RAM a pamięcią VRAM, który ze względny na CCX'y istniejące w procesorach Ryzen był we wcześniejszej wersji bardzo nieoptymalny, gdyż poprzednia wersja była pisana gdy Ryzenów nawet na rynku nie było, więc nie mogłabyć pod to zoptymalizowana z oczywistych względów.
To jest klasyczny przykład błędu optymalizacyjnego w kodzie (widać, że nigdy nie programowałeś, bo piszesz głupoty), który uwidacznia się w konkretnych warunkach - tutaj takim warunkiem było połączenie procesora Ryzen oraz bardzo wydajnej karty graficznej z zielonego obozu.
Widzę, że dla Ciebie to też będzie za trudne, ale bottleneck nie sprowadza się tylko do CPU i GPU, jest jeszcze memory bottleneck, PCI bottleneck. Jednakże w wiekszości przypadków te problemy wynikają z nieptymalnego wykorzystania tychże przez soft, przeważnie w wyniku braku optymalizacji lub jej błędnego działania.
A odnośnie zdania 'Dopóki patch nie wyszedł, to posiadacze kart NV musieli się borykać z niską wydajnością...' to tyczyło się to tylko tych, którzy mieli GTX'a 1080 w górę. Czyli znacznej mniejszości (mniejszości, pod którą robiona jest obecna procedura testowa), gdyż te problemy nie były widoczne aż w takim stopniu na mid-end. Ludzie na Radeonach w ogóle problemu nie mieli. No ale to i tak do Ciebie raczej nie dotrze.
PS. Gdyby jeszcze na jednym z testów wszystkie pracowały przy tej samej częstotliwości (np. 4GHz), byłoby w ogóle super
NIE dostaniesz takiek tabelki, ponieważ byłoby widac, że intel zrobił 10 % postępu prez te lata.
Rozdzielczość nie ma praktycznie wpływu na CPU, bo on bez względu na rozdzielczość przy takich samych ustawieniach obrabia taką samą liczbę danych i dostarcza GPU też tyle samo danych a to GPU generuje zadaną liczbę pikseli w zależności od tego na jaką rozdzielczość się zdecydujesz. Masz te same detale to i tyle samo obiektów i tyle samo roboty dla CPU... a to w ilu pikselach sobie to wyświetlisz to już czysta praca GPU.
Rozdzielczość nie ma praktycznie wpływu na CPU, bo on bez względu na rozdzielczość przy takich samych ustawieniach obrabia taką samą liczbę danych i dostarcza GPU też tyle samo danych a to GPU generuje zadaną liczbę pikseli w zależności od tego na jaką rozdzielczość się zdecydujesz. Masz te same detale to i tyle samo obiektów i tyle samo roboty dla CPU... a to w ilu pikselach sobie to wyświetlisz to już czysta praca GPU.
To co piszesz jest prawdą tylko w idealnym scenariuszu biorąc pod uwagę idealnie, bezbłędnie napisany silnik gry, bezbłędnie napisany sterownik karty graficznej oraz bezbłędnie napisany podsystem graficzny w samym OS. Takie coś niestety prawie nigdy nie ma miejsca.
Poza tym wystarczy wybrać rozdziałkę o innym Aspect Ratio I wtedy już narzut potrafi być znaczny.
Rozdzielczość nie ma praktycznie wpływu na CPU, bo on bez względu na rozdzielczość przy takich samych ustawieniach obrabia taką samą liczbę danych i dostarcza GPU też tyle samo danych a to GPU generuje zadaną liczbę pikseli w zależności od tego na jaką rozdzielczość się zdecydujesz. Masz te same detale to i tyle samo obiektów i tyle samo roboty dla CPU... a to w ilu pikselach sobie to wyświetlisz to już czysta praca GPU.
To co piszesz jest prawdą tylko w idealnym scenariuszu biorąc pod uwagę idealnie, bezbłędnie napisany silnik gry, bezbłędnie napisany sterownik karty graficznej oraz bezbłędnie napisany podsystem graficzny w samym OS. Takie coś niestety prawie nigdy nie ma miejsca.
Poza tym wystarczy wybrać rozdziałkę o innym Aspect Ratio I wtedy już narzut potrafi być znaczny.
Tzn. jeżeli będą błędy w silniku, błędy w sterownikach oraz błędny podsystem graficzny to obliczeniami związane z wyświetlaniem pikseli i ich ilości zajmie się CPU?
To co piszesz jest prawdą tylko w idealnym scenariuszu biorąc pod uwagę idealnie, bezbłędnie napisany silnik gry, bezbłędnie napisany sterownik karty graficznej oraz bezbłędnie napisany podsystem graficzny w samym OS. Takie coś niestety prawie nigdy nie ma miejsca.
Poza tym wystarczy wybrać rozdziałkę o innym Aspect Ratio I wtedy już narzut potrafi być znaczny.
Tzn. jeżeli będą błędy w silniku, błędy w sterownikach oraz błędny podsystem graficzny to obliczeniami związane z wyświetlaniem pikseli i ich ilości zajmie się CPU?
Owszem, może tak się stać. Wystarczy źle napisana funkcja, niepotrzebnie użyte skalowanie, gdy nie trzeba (czy to w sterowniku, czy w silniku), albo ktoś zahardkodował jakieś wartości, które są dobre dla danej rozdzielczości, a dla innych już złe, itp. Błędów w sofcie różnego typu może być masa. Dlatego jak najbardziej, może wpływać.
No ale co ja tam wiem, przecież jestem tylko programistą
EDIT: zresztą sobie spójrz na materiał podlinkowany Przez Raven01: https://youtu.be/t8K2yc11eC4?t=17m9s
Skoro nagle na tej samej karcie zmiana rozdzielczości przy tym samym CPU potrafiła odwrócić sytuację w niektórych grach, powinno dać Ci coś do myslenia. Jak i dla @tomcug.
Jesli myślisz, że CPU zajmuje się tylko i wyłącznie obróbka samego materiału i wysłaniu do grafiki, to się zdziwisz. Taki AsyncCompute w sterowniku nVidii jest całkowicie softwareowy, są to dodatkowe obliczenia, których ilość zależy od rozdzielczości, które CPU musi wykonać. A to tylko 1 przykład dodatkowych obliczeń zależnych od rozdziałki. Skalowanie softwareowe jest drugim z nich, a bynajmniej nie ostatnim, które można by znaleźc.
A przydalby sie w internecie chociaz jeden taki test, ktory dokladniej bada sprawe i pokazal roznicze w poszczegolnych rozdzielczosciach/Hz, a nie klepanie wiecznie tego przestarzalego 1080p, gdzie do 60Hz to i zwykle i3 wystarcz, za to do do 200Hz to jak najbardziej najnowszy (krecony) 8700K ma racje bytu. Z kolei w 4K gdzie pierwsze skrzypce gra GPU wcale bym sie nie zdziwil, gdyby leciwy i5 2500K nie ustepowal najnowszym i7. Itp. Itd.
A tak to wszystkie te 'testy' CPU w internecie sa na jedno kopyto i wygladaja jak artykul sponsorowany Intela, ktory mowi jedno - bierzy najnowsze i7, reszta sie nie liczy...
PS. Zeby nie bylo siedze na 4790K @4.7GH z niedawno dorzuconym 1080Ti, i teraz uwazam go za strate pieniedzy - do dzisiaj malo gier faktycznie korzysta z tych 8 watkow, a nawet jesli to i tak nic to nie zmienia, bo obecne gry sa niesamowicie prymitywne, fizyka i AI od lat leza i kwicza, i do pojawienia sie nowych konsol to sie nie zmieni - moglem faktycznie wziac wtedy i5 ktory na owe czasy byl 'w sam raz', a teraz dorzycic wlasnie nowe GPU i zmienic rozdzielke na 4K60Hz.
Oj tam marudzisz
3DMark 06 + Celeron D 346 + GTX 780 Ti :
Standard : https://i.imgur.com/QbnlAK7.png,
3360x2100 + MSAA x8 + AFx16 : https://i.imgur.com/Pna8pHA.png.
Jak widać, ilość punktów uzyskana przez grafikę pozostała niezmieniona (w granicach błędu pomiarowego).
Dlatego zgadzam się z brakiem zależności między rozdzielczością, a ilością pikseli na ekranie.
Na procka większy wpływ ma LOD, proporcje obrazu na jakich grasz (albo FOV), ilość klatek na sekundę jaką ogarnia grafika, oraz sam jej sterownik.
Filmik = Test kart graficznych. Nie da się wywnioskować z niego jaką wpływ ma rozdzielczość na samego procka, ponieważ porównanie tyczy się dwóch różnych procesory albo test został przeprowadzony na dwóch różnych grafikach.
Do wiarygodnego testu potrzebujesz aby jedyną zmienną w dwóch testach była rozdzielczość (czyli wymagane są ten sam procek, grafika, taktowania, detale, itd.).
Filmik = Test kart graficznych. Nie da się wywnioskować z niego jaką wpływ ma rozdzielczość na samego procka, ponieważ porównanie tyczy się dwóch różnych procesory albo test został przeprowadzony na dwóch różnych grafikach.
Do wiarygodnego testu potrzebujesz aby jedyną zmienną w dwóch testach była rozdzielczość (czyli wymagane są ten sam procek, grafika, taktowania, detale, itd.).
Hmm, przyznam, że nie zrozumiałem tej części. Na tym filmiku od Raven01 właśnie są porównane wydajności tych samych procesorów na tych samych grafikach, a jedyną różnicą była rozdziałka. W niektórych grach wyraźnie widać, żerole procesorów odwróciły się tylko po zmianie rozdzielczości (na tej samej karcie graficznej), ten co przy 1080p przegrywał zaczął wygrywać przy 1440p. Było więc tak jak mówisz - jedyną zmienną była rozdziałka.
Tylko jak chcesz oddzielić różnicę wynikającą z niewyrabiającej grafiki, od tej wynikającej z przeciążonego procka ?
1) Wyższa rozdziałka = wyższe obciążenie GPU.
2) Niższy FPS* = niższe obciążenie CPU + GPU
*FPS określa ile czasu [ms], ma CPU na wykonanie swoich obliczeń i dostarczenie ich do GPU.
Jak CPU zdąży - wszystko jest cacy, jak nie - masz ścinki, spowolnienia i inne tego typu kwiatki.
Wyjaśnij mi : Skoro wydajność na wyższych rozdzielczościach zależy od CPU, dlaczego jej zwielokrotnienie w moim teście (i dorzucenie AA/AF), nie wpłynęło na wynik zestawu który jest w 100% ograniczany przez użyty procesor ?
Chcesz mi powiedzieć, że Celeron D 326 ma więcej mocy przerobowych na wyższej rozdziałce i po użyciu dodatkowych efektów graficznych ?
Tylko jak chcesz oddzielić różnicę wynikającą z niewyrabiającej grafiki, od tej wynikającej z przeciążonego procka ?
1) Wyższa rozdziałka = wyższe obciążenie GPU.
2) Niższy FPS* = niższe obciążenie CPU + GPU
*FPS określa ile czasu [ms], ma CPU na wykonanie swoich obliczeń i dostarczenie ich do GPU.
Jak CPU zdąży - wszystko jest cacy, jak nie - masz ścinki, spowolnienia i inne tego typu kwiatki.
Ciężki dzień miałem w pracy, więc może jestem zbyt zmęczony aby zrozumieć, co chcesz przez to powiedzieć.
To co napisałeś jest prawdą, tylko nie wiem co ma wspólnego z tym filmikiem. Mamy te same CPU, te same GPU, różni się rozdziałka. Oczywiście nie wiemy jak procentowo rozkładało się obciążenie poszczególnych części sprzętu, ale nie to jest tutaj moim zdaniem najważniejsze. Najważniejsze jest to, że ten sam CPU na tej samej karcie przy jednej rozdziałce jest lepszy, a przy drugiej jest gorszy. To, jakie było obciążenie sprzętu gra tutaj drugoznaczną rolę, gdyż tylko zmieniając rozdziałkę w danej grze mamy lepszy wynik niż rywal, a w innej gorszy. Skoro nie zmienialiśmy nic innego w sprzęcie (sterownik ten sam, karta ta sama, detale gry te sam), więc wyraźnie widać, że rozdziałka spowodowała, że cpu wpłynął pozytywnie/negatywnie na sterownik grafiki bądź na silnik gry w danej rozdziałce. Na pewno procesor grał tu rolę, a pytanie, czy lepiej wpłynął na sterownik grafy, silnik gry, itp. nic imho tutaj nie zmienia.
To co napisałeś jest prawdą, tylko nie wiem co ma wspólnego z tym filmikiem. Mamy te same CPU, te same GPU, różni się rozdziałka. Oczywiście nie wiemy jak procentowo rozkładało się obciążenie poszczególnych części sprzętu, ale nie to jest tutaj moim zdaniem najważniejsze. Najważniejsze jest to, że ten sam CPU na tej samej karcie przy jednej rozdziałce jest lepszy, a przy drugiej jest gorszy. To, jakie było obciążenie sprzętu gra tutaj drugoznaczną rolę, gdyż tylko zmieniając rozdziałkę w danej grze mamy lepszy wynik niż rywal, a w innej gorszy. Skoro nie zmienialiśmy nic innego w sprzęcie (sterownik ten sam, karta ta sama, detale gry te sam), więc wyraźnie widać, że rozdziałka spowodowała, że cpu wpłynął pozytywnie/negatywnie na sterownik grafiki bądź na silnik gry w danej rozdziałce. Na pewno procesor grał tu rolę, a pytanie, czy lepiej wpłynął na sterownik grafy, silnik gry, itp. nic imho tutaj nie zmienia.
OK, spróbuję jeszcze raz
Porównanie wyników procesorów o dwóch różnych architekturach do siebie (o ilości wątków nie wspominając), w tej sytuacji nie ma sensu ponieważ sterownik może np. lepiej skalować się na CPU z większą ilością wątków (albo lepszą wydajnością na jednym wątku, w zależności od gry).
Ten sam procek i ten sam GPU przy dwóch różnych rozdzielczościach i tych samych detalach pokażą ile grafika (tj. GPU), traci na wydajności przy przejściu między nimi.
Aby przetestować wpływ rozdzielczości na CPU, wypada stworzyć sytuację kiedy procek ogranicza grafikę w 100% na obu testowanych rozdzielczościach.
Zatem ponawiam pytanie :
Czemu wynik GPU/ogólny Celerona D, nie spadł po zwielokrotnieniu rozdzielczości ?
Jej zwiększenie powinno spowodować jeszcze większe ograniczenie wydajności grafiki, czyż nie ?