Filmik = Test kart graficznych. Nie da się wywnioskować z niego jaką wpływ ma rozdzielczość na samego procka, ponieważ porównanie tyczy się dwóch różnych procesory albo test został przeprowadzony na dwóch różnych grafikach.
Do wiarygodnego testu potrzebujesz aby jedyną zmienną w dwóch testach była rozdzielczość (czyli wymagane są ten sam procek, grafika, taktowania, detale, itd.).
Hmm, przyznam, że nie zrozumiałem tej części. Na tym filmiku od Raven01 właśnie są porównane wydajności tych samych procesorów na tych samych grafikach, a jedyną różnicą była rozdziałka. W niektórych grach wyraźnie widać, żerole procesorów odwróciły się tylko po zmianie rozdzielczości (na tej samej karcie graficznej), ten co przy 1080p przegrywał zaczął wygrywać przy 1440p. Było więc tak jak mówisz - jedyną zmienną była rozdziałka.
To co piszesz jest prawdą tylko w idealnym scenariuszu biorąc pod uwagę idealnie, bezbłędnie napisany silnik gry, bezbłędnie napisany sterownik karty graficznej oraz bezbłędnie napisany podsystem graficzny w samym OS. Takie coś niestety prawie nigdy nie ma miejsca... ...zresztą sobie spójrz na materiał podlinkowany Przez Raven01: https://youtu.be/t8K2yc11eC4?t=17m9s
Najlepiej to sprawdzić przy ograniczaniu grafiki przez procka (uwypukli ono dodatkowe cykle procesora stracone na przetwarzanie tych pikseli, zmniejszając jego wydajność) :
3DMark 06 + Celeron D 346 + GTX 780 Ti :
Standard : https://i.imgur.com/QbnlAK7.png,
3360x2100 + MSAA x8 + AFx16 : https://i.imgur.com/Pna8pHA.png.
Jak widać, ilość punktów uzyskana przez grafikę pozostała niezmieniona (w granicach błędu pomiarowego).
Dlatego zgadzam się z brakiem zależności między rozdzielczością, a ilością pikseli na ekranie.
Na procka większy wpływ ma LOD, proporcje obrazu na jakich grasz (albo FOV), ilość klatek na sekundę jaką ogarnia grafika, oraz sam jej sterownik.
Filmik = Test kart graficznych. Nie da się wywnioskować z niego jaką wpływ ma rozdzielczość na samego procka, ponieważ porównanie tyczy się dwóch różnych procesory albo test został przeprowadzony na dwóch różnych grafikach.
Do wiarygodnego testu potrzebujesz aby jedyną zmienną w dwóch testach była rozdzielczość (czyli wymagane są ten sam procek, grafika, taktowania, detale, itd.).
Artykul zrobiony na szybko na kolanie - niby mowa o wlasciwym wyborze procesowa, a brak podstawowego zagadnienia - do jakiej rozdzielczosci i do jakiego odswierzania?
A przydalby sie w internecie chociaz jeden taki test, ktory dokladniej bada sprawe i pokazal roznicze w poszczegolnych rozdzielczosciach/Hz, a nie klepanie wiecznie tego przestarzalego 1080p, gdzie do 60Hz to i zwykle i3 wystarcz, za to do do 200Hz to jak najbardziej najnowszy (krecony) 8700K ma racje bytu. Z kolei w 4K gdzie pierwsze skrzypce gra GPU wcale bym sie nie zdziwil, gdyby leciwy i5 2500K nie ustepowal najnowszym i7. Itp. Itd.
A tak to wszystkie te 'testy' CPU w internecie sa na jedno kopyto i wygladaja jak artykul sponsorowany Intela, ktory mowi jedno - bierzy najnowsze i7, reszta sie nie liczy...
PS. Zeby nie bylo siedze na 4790K @4.7GH z niedawno dorzuconym 1080Ti, i teraz uwazam go za strate pieniedzy - do dzisiaj malo gier faktycznie korzysta z tych 8 watkow, a nawet jesli to i tak nic to nie zmienia, bo obecne gry sa niesamowicie prymitywne, fizyka i AI od lat leza i kwicza, i do pojawienia sie nowych konsol to sie nie zmieni - moglem faktycznie wziac wtedy i5 ktory na owe czasy byl 'w sam raz', a teraz dorzycic wlasnie nowe GPU i zmienic rozdzielke na 4K60Hz.
Oj tam marudzisz Skoro twierdzisz że 4/8 jest nie potrzebne to przesiądź się na 4/4 albo 2/4 i będziesz happy i parę stówek w kieszeni. Zależy też w co grasz, w takim BF1 multi na 64 graczy 4/8 przydaje się bardzo mocno, na 4/4 są ścinki i minimalny fps dużo niższy niż na 4/8.
To co piszesz jest prawdą tylko w idealnym scenariuszu biorąc pod uwagę idealnie, bezbłędnie napisany silnik gry, bezbłędnie napisany sterownik karty graficznej oraz bezbłędnie napisany podsystem graficzny w samym OS. Takie coś niestety prawie nigdy nie ma miejsca.
Poza tym wystarczy wybrać rozdziałkę o innym Aspect Ratio I wtedy już narzut potrafi być znaczny.
Tzn. jeżeli będą błędy w silniku, błędy w sterownikach oraz błędny podsystem graficzny to obliczeniami związane z wyświetlaniem pikseli i ich ilości zajmie się CPU?
Owszem, może tak się stać. Wystarczy źle napisana funkcja, niepotrzebnie użyte skalowanie, gdy nie trzeba (czy to w sterowniku, czy w silniku), albo ktoś zahardkodował jakieś wartości, które są dobre dla danej rozdzielczości, a dla innych już złe, itp. Błędów w sofcie różnego typu może być masa. Dlatego jak najbardziej, może wpływać.
No ale co ja tam wiem, przecież jestem tylko programistą Testerzy pewnie wiedzą lepiej.
EDIT: zresztą sobie spójrz na materiał podlinkowany Przez Raven01: https://youtu.be/t8K2yc11eC4?t=17m9s
Skoro nagle na tej samej karcie zmiana rozdzielczości przy tym samym CPU potrafiła odwrócić sytuację w niektórych grach, powinno dać Ci coś do myslenia. Jak i dla @tomcug.
Jesli myślisz, że CPU zajmuje się tylko i wyłącznie obróbka samego materiału i wysłaniu do grafiki, to się zdziwisz. Taki AsyncCompute w sterowniku nVidii jest całkowicie softwareowy, są to dodatkowe obliczenia, których ilość zależy od rozdzielczości, które CPU musi wykonać. A to tylko 1 przykład dodatkowych obliczeń zależnych od rozdziałki. Skalowanie softwareowe jest drugim z nich, a bynajmniej nie ostatnim, które można by znaleźc.
Rozdzielczość nie ma praktycznie wpływu na CPU, bo on bez względu na rozdzielczość przy takich samych ustawieniach obrabia taką samą liczbę danych i dostarcza GPU też tyle samo danych a to GPU generuje zadaną liczbę pikseli w zależności od tego na jaką rozdzielczość się zdecydujesz. Masz te same detale to i tyle samo obiektów i tyle samo roboty dla CPU... a to w ilu pikselach sobie to wyświetlisz to już czysta praca GPU.
To co piszesz jest prawdą tylko w idealnym scenariuszu biorąc pod uwagę idealnie, bezbłędnie napisany silnik gry, bezbłędnie napisany sterownik karty graficznej oraz bezbłędnie napisany podsystem graficzny w samym OS. Takie coś niestety prawie nigdy nie ma miejsca.
Poza tym wystarczy wybrać rozdziałkę o innym Aspect Ratio I wtedy już narzut potrafi być znaczny.
Tzn. jeżeli będą błędy w silniku, błędy w sterownikach oraz błędny podsystem graficzny to obliczeniami związane z wyświetlaniem pikseli i ich ilości zajmie się CPU?
Rozdzielczość nie ma praktycznie wpływu na CPU, bo on bez względu na rozdzielczość przy takich samych ustawieniach obrabia taką samą liczbę danych i dostarcza GPU też tyle samo danych a to GPU generuje zadaną liczbę pikseli w zależności od tego na jaką rozdzielczość się zdecydujesz. Masz te same detale to i tyle samo obiektów i tyle samo roboty dla CPU... a to w ilu pikselach sobie to wyświetlisz to już czysta praca GPU.
To co piszesz jest prawdą tylko w idealnym scenariuszu biorąc pod uwagę idealnie, bezbłędnie napisany silnik gry, bezbłędnie napisany sterownik karty graficznej oraz bezbłędnie napisany podsystem graficzny w samym OS. Takie coś niestety prawie nigdy nie ma miejsca.
Poza tym wystarczy wybrać rozdziałkę o innym Aspect Ratio I wtedy już narzut potrafi być znaczny.
Rozdzielczość nie ma praktycznie wpływu na CPU, bo on bez względu na rozdzielczość przy takich samych ustawieniach obrabia taką samą liczbę danych i dostarcza GPU też tyle samo danych a to GPU generuje zadaną liczbę pikseli w zależności od tego na jaką rozdzielczość się zdecydujesz. Masz te same detale to i tyle samo obiektów i tyle samo roboty dla CPU... a to w ilu pikselach sobie to wyświetlisz to już czysta praca GPU.
Można prosić o tabelkę z Ryzen R7 1700/R5 1600 vs. Coffe L. (6C/6T + 6C/12T) vs. Skylake (4C/8T) vs. Haswell (4C/8T) vs. Ivy-E (6C/12T) vs. Sandy-E (6C/12T) ve. Ivy B. (4C/8T) vs. Sandy B. (4C/8T) vs. Xeon LGA 1366 (6C/12T) vs. Thuban (6C/6T) ?
PS. Gdyby jeszcze na jednym z testów wszystkie pracowały przy tej samej częstotliwości (np. 4GHz), byłoby w ogóle super
NIE dostaniesz takiek tabelki, ponieważ byłoby widac, że intel zrobił 10 % postępu prez te lata.
Stałeś nad autorem i patrzyłeś, jak 'reinstaluje system od zera'? Trzy razy przeinstalował i nic, nagle za czwartym razem eureka i wszystko działa? Możliwe, ale prawdopodobieństwo bardzo niewielkie. Póki co to Ty pokazujesz, że łykasz jak pelikan każdą papkę, którą jeden AdoredTV czy jakiś inny misiek wypuści i to łykasz bez jakiejkolwiek weryfikacji we własnym zakresie.
Rozumiem, że teraz zarzucasz tamtemu autorowi jawne wprowadzanie w błąd ludzi I ich okłamywanie? Oczywiście tylko po to, aby swoją wyimaginowaną teorię podeprzeć
tomcug @ 2017.12.18 09:29
Nic nie uwypukliła, tylko pokazała wydajność Ryzenów taką, jaka była w tamtym momencie. Wyszedł patch, wszyscy zaktualizowali wyniki i o co krzyk? Dopóki patch nie wyszedł, to posiadacze kart NV musieli się borykać z niską wydajnością w lokacjach takich jak 'Kompleks radziecki' czy 'Geotermiczna dolina' - to jest fakt.
Znowu bzdury klepiesz - faktem był błąd optymalizacyjny, a nie żadne GPU bottleneck, chyba sam nie wiesz o czym już gadasz tomcug. Wyszedł patch naprawiający ten BŁĄD, a nie żadne GPU Bottleneck. Jakbyś przeczytał szczegóły tamtego patcha, to byś zauważył, że głównie poprawili sposób zarządzania transferem danych pomiędzy pamięcią RAM a pamięcią VRAM, który ze względny na CCX'y istniejące w procesorach Ryzen był we wcześniejszej wersji bardzo nieoptymalny, gdyż poprzednia wersja była pisana gdy Ryzenów nawet na rynku nie było, więc nie mogłabyć pod to zoptymalizowana z oczywistych względów.
To jest klasyczny przykład błędu optymalizacyjnego w kodzie (widać, że nigdy nie programowałeś, bo piszesz głupoty), który uwidacznia się w konkretnych warunkach - tutaj takim warunkiem było połączenie procesora Ryzen oraz bardzo wydajnej karty graficznej z zielonego obozu.
Widzę, że dla Ciebie to też będzie za trudne, ale bottleneck nie sprowadza się tylko do CPU i GPU, jest jeszcze memory bottleneck, PCI bottleneck. Jednakże w wiekszości przypadków te problemy wynikają z nieptymalnego wykorzystania tychże przez soft, przeważnie w wyniku braku optymalizacji lub jej błędnego działania.
A odnośnie zdania 'Dopóki patch nie wyszedł, to posiadacze kart NV musieli się borykać z niską wydajnością...' to tyczyło się to tylko tych, którzy mieli GTX'a 1080 w górę. Czyli znacznej mniejszości (mniejszości, pod którą robiona jest obecna procedura testowa), gdyż te problemy nie były widoczne aż w takim stopniu na mid-end. Ludzie na Radeonach w ogóle problemu nie mieli. No ale to i tak do Ciebie raczej nie dotrze.
Ty nawet czytać nie potrafisz... Napisałem Ci, że autor reinstalował system od zera wcześniej nie raz i to nie pomagało. Tak trudno to do Ciebie dociera? Cóż, widać czytać i rozumieć to Ty nie potrafisz.
Stałeś nad autorem i patrzyłeś, jak 'reinstaluje system od zera'? Trzy razy przeinstalował i nic, nagle za czwartym razem eureka i wszystko działa? Możliwe, ale prawdopodobieństwo bardzo niewielkie. Póki co to Ty pokazujesz, że łykasz jak pelikan każdą papkę, którą jeden AdoredTV czy jakiś inny misiek wypuści i to łykasz bez jakiejkolwiek weryfikacji we własnym zakresie. Byle pasowało do Twojego założenia i to wszystko, co się liczy. Do tej pory nie pokazałeś mi, gdzie Core i5 pierze w niskiej rozdzielczości Core i7 z wyższym zegarem i jest to rzekomy babol optymalizacyjny. Chyba, że chodziło Ci o przykład ze Starcraftem II, to pudło totalne. Core dla platform 'mainstream' i HEDT są na zupełnie innych architekturach nawet, gdy mają ten sam numerek z przodu. Przykładowo Core i7-6900K to Broadwell (ale bez L4!), podczas gdy Core i7-6700K to już Skylake. Tak więc nie, tamten przykład niczego nie dowodzi.
p_lider @ 2017.12.18 07:07
Druga sprawa - przytoczyłem Ci przykład z grą ROTR, w której ta procedura wyraźnie uwypukliła błąd optymalizacyjny - tak błąd, a nie GPU bottleneck jak to sobie wmawiasz. Błąd faktycznie był, gdyż wyszedł patch do gry, gdyby błędu optymalizacyjnego nie było, to patch by nigdy nie wyszedł. A ta procedura ten błąd uwypukłiła do niespotykanych rozmiarów.
Nic nie uwypukliła, tylko pokazała wydajność Ryzenów taką, jaka była w tamtym momencie. Wyszedł patch, wszyscy zaktualizowali wyniki i o co krzyk? Dopóki patch nie wyszedł, to posiadacze kart NV musieli się borykać z niską wydajnością w lokacjach takich jak 'Kompleks radziecki' czy 'Geotermiczna dolina' - to jest fakt. Za to pogrubiony fragment wypowiedzi pokazuje, że tak naprawdę zdajesz się nie wiedzieć, co w ogóle oznacza ograniczenie przez GPU. Natomiast co do testowania na kartach różnych producentów, to jestem jak najbardziej za. Para Radeon + GeForce daje szerszy pogląd na sytuację. Ale ponownie w żadnym wypadku w trybach graficznych, które sprawiają, że ograniczeniem staje się karta graficzna i wyniki się 'spłaszczają'. Tobie może się wydawać inaczej i możesz sobie szukać do tej teorii tylu 'dowodów', ile tylko chcesz, ale rozdzielczość nie powoduje wypaczenia relacji między konkurencyjnymi procesorami AMD/Intel. Co najwyżej w wyższej rozdziałce miałbyś jeszcze niższy limit procesora, a nie wyższy. Oczywiście jak ustawisz 4K Ultra na RX 580 i weźmiesz lokację graficzną, to wszystkie procesory najpewniej włącznie z Pentiumem G4600 uzyskają prawie tyle samo FPS, ale to nie ma nic wspólnego z testem procesorów. Takich 'testów' w internecie nie brakuje, gdzie nawet dwurdzeniowy Pentak daje radę i jakoś nie piszesz, że niczego lepszego do grania nie potrzeba, czyż nie? Ale przecież 'niższe rozdzielczości uwypuklają błędy optymalizacyjne' i dlatego G4560 radzi sobie słabo, to nie ma nic wspólnego z rzeczywistością . Tym optymistycznym akcentem kończę wypowiedź .
Lipton @ 2017.12.18 09:22
Miałem ten sam błąd i reinstalacja systemu nie zawsze była pomocna. Wystarczyło uruchomić dwukrotnie ten sam save, by spotkać się ze spadkiem klatek.
W końcu postawiłem nowego Wieśka bez synchronizacji z zupełnie innym zapisem gry. Wszystko działa cacy
No to u Ciebie problemem był najpewniej sam zapis gry. Ja się spotkałem z sytuacją, gdzie już od pierwszego wczytania dowolnego zapisu gry wydajność była daleko w lesie i najpewniej to samo spotkało Sebastiana. Ale głowy sobie uciąć nie dam. Zasadniczo problem jest raczej rzadko spotykany, nie widziałem, żeby gdzieś posiadacze Ryzenów narzekali na wydajność w miastach poza odnoszeniem się do starych wyników PPC.
Tyle, że ja widziałem na własne oczy ten błąd i wiem, co się dokładnie dzieje, czyli spada obciążenie CPU i wtedy możesz sobie wkładać GPU jakie chcesz i testować w rozdzielczości jakiej chcesz, a i tak wyjdą Ci bardzo niskie wyniki na Ryzenie (oczywiście dopóki nie nadziejesz się na limit karty, co z testem procesora nie ma nic wspólnego). A co do tłumaczeń, to jakbyś się tłumaczył, gdybyś właśnie sobie zdał sprawę z tego, że przez kilka miesięcy żeniłeś swoim czytelnikom totalny kit, a rozwiązanie było banalne, czyli postawienie czystego systemu?
Jak taki z Ciebie ekspert, to co za problem zrobić własne pomiary i je zaprezentować? Rozwiejesz wiele wątpliwości, a być może i dokonasz przełomowych odkryć.
Ty nawet czytać nie potrafisz... Napisałem Ci, że autor reinstalował system od zera wcześniej nie raz i to nie pomagało. Tak trudno to do Ciebie dociera? Cóż, widać czytać i rozumieć to Ty nie potrafisz.
Druga sprawa - przytoczyłem Ci przykład z grą ROTR, w której ta procedura wyraźnie uwypukliła błąd optymalizacyjny - tak błąd, a nie GPU bottleneck jak to sobie wmawiasz. Błąd faktycznie był, gdyż wyszedł patch do gry, gdyby błędu optymalizacyjnego nie było, to patch by nigdy nie wyszedł. A ta procedura ten błąd uwypukłiła do niespotykanych rozmiarów.
Ale Ty i tak wiesz swoje tomcug i dalej bzdury opowiadać pewnie będziesz
Miałem ten sam błąd i reinstalacja systemu nie zawsze była pomocna. Wystarczyło uruchomić dwukrotnie ten sam save, by spotkać się ze spadkiem klatek.
W końcu postawiłem nowego Wieśka bez synchronizacji z zupełnie innym zapisem gry. Wszystko działa cacy
I kolejne bzdury tomcug. Na PPC sam autor napisał w artykule, w którym nagle pojawiły się dobre wyniki W3, że nie wie jaka jest przyczyna. Napisał również, że wiele razy reinstalował system od zera i wyniki cały czas były złe. Po prostu nagle zaczęły być dobre po którymś tam z rzędu przeinstalowaniu systemu. Nie wprowadzaj więc ludzi w błąd, że to tego wina była, bo nie była. Dotąd autor nie powiedział jaka była przyczyna.
Tyle, że ja widziałem na własne oczy ten błąd i wiem, co się dokładnie dzieje, czyli spada obciążenie CPU i wtedy możesz sobie wkładać GPU jakie chcesz i testować w rozdzielczości jakiej chcesz, a i tak wyjdą Ci bardzo niskie wyniki na Ryzenie (oczywiście dopóki nie nadziejesz się na limit karty, co z testem procesora nie ma nic wspólnego). A co do tłumaczeń, to jakbyś się tłumaczył, gdybyś właśnie sobie zdał sprawę z tego, że przez kilka miesięcy żeniłeś swoim czytelnikom totalny kit, a rozwiązanie było banalne, czyli postawienie czystego systemu?
Jak taki z Ciebie ekspert, to co za problem zrobić własne pomiary i je zaprezentować? Rozwiejesz wiele wątpliwości, a być może i dokonasz przełomowych odkryć.
Ty nawet czytać nie potrafisz... Napisałem Ci, że autor reinstalował system od zera wcześniej nie raz i to nie pomagało. Tak trudno to do Ciebie dociera? Cóż, widać czytać i rozumieć to Ty nie potrafisz.
Druga sprawa - przytoczyłem Ci przykład z grą ROTR, w której ta procedura wyraźnie uwypukliła błąd optymalizacyjny - tak błąd, a nie GPU bottleneck jak to sobie wmawiasz. Błąd faktycznie był, gdyż wyszedł patch do gry, gdyby błędu optymalizacyjnego nie było, to patch by nigdy nie wyszedł. A ta procedura ten błąd uwypukłiła do niespotykanych rozmiarów.
Ale Ty i tak wiesz swoje tomcug i dalej bzdury opowiadać pewnie będziesz
Nie wiem, czy wiesz, ale na PPC przez prawie pół roku test Wiedźmina 3 na ryzenach wychodził gorzej niż na starych FX'ach przez użycie takiej właśnie procedury. Nagle pewnego dnia sami się zreflektowali i powiedzieli, że już jest dobrze, nie wiadomo czemu... - W badaniach naukowych gdyby coś takiego miało miejsce w przypadku procedury pomiarowej, z miejsca zostałaby wyrzucona do kosza. A tutaj przechodzimy na tym do porządku dziennego jakby nic się nie stało.
Bzdury odnośnie wydajności Ryzenów w Wieśminie 3 nie wynikały z błędnej procedury testowej, tylko z zasyfionego systemu. Sam się z tym spotkałem i kilka razy już o tym pisałem, mianowicie może się zdarzyć, że gra zacznie źle wykrywać wątki CPU (?) i efekt jest taki, że spada obciążenie i liczba FPS. Próbowałem z tym walczyć czyszczeniem sterowników (czysta instalacji w instalatorze NV i/lub DDU), ale nie udało się naprawić, więc u siebie zrobiłem popularny format i po krzyku - wyniki wróciły do normy. Jakoś nie chciało mi się szukać dokładnej przyczyny, ale może kiedyś do tego wrócę, bo mam obrazy systemów bez i z 'bugiem'.
Prawda jest taka, że to co Ty nazywasz uwypuklaniem błędów optymalizacji poprzez testowanie w niskiej vs wysokiej rozdzielczości to tak naprawdę testowanie na limicie GPU, czasem jeszcze z dochodzącymi do tego błędami pomiarowymi. A błyskotliwe wnioski AdoredTV na podstawie porównywania testów z okresu kilku lat, robionych przez inne redakcje, pod innymi systemami, sterownikami, ustawieniami graficznymi i zupełnie inną procedurą i wniosek, że to wszystko efekt większej rozdzielczości to po prostu szkoda komentować, jak traktujesz takie bajdurzenia za pewnik i prawdę objawioną. Póki co nie dostałem od Ciebie żadnych konkretów, poza błędnymi wnioskami wyciąganymi dosłownie z powietrza.
sideband @ 2017.12.17 20:54
Win10 1703, ale prędzej to kwestia tego, że sprawdzane OCAT-em. Raczej nikt tak nieoptymalnie nie dobiera CPU do GPU by tą różnice mógł wyłapać
Ps. prawdpodobnie różnice na Win7 spadną do bliska zeru ze względu właśnie na sterowniki i draw calls wyższy o ponad 20%.
No do zera to nie, ale ~2,5% wyszło przed chwilą na 7900X @ 4C/8T przy porównaniu 1080p vs 720p. 4:3 vs 16:9 mam ~17,5% przewagi tego pierwszego. Z tym, że sprawdzam FRAPS-em.
Spróbuj skręcić CPU, ale bez ruszania Uncore. Różnica powinna się pogłębić, jeżeli nie to różnice najpewniej wynikają z innego miejsca testowego. Sprawdzając frapsem i tak różnice są na poziomie 22%. Ale patrząc, że testowane w innym miejscu, innej platformie i innym GPU do tego może jeszcze inne sterowniki to i tak różnice są stosunkowo niewielkie.
Filmik = Test kart graficznych. Nie da się wywnioskować z niego jaką wpływ ma rozdzielczość na samego procka, ponieważ porównanie tyczy się dwóch różnych procesory albo test został przeprowadzony na dwóch różnych grafikach.
Do wiarygodnego testu potrzebujesz aby jedyną zmienną w dwóch testach była rozdzielczość (czyli wymagane są ten sam procek, grafika, taktowania, detale, itd.).
Hmm, przyznam, że nie zrozumiałem tej części. Na tym filmiku od Raven01 właśnie są porównane wydajności tych samych procesorów na tych samych grafikach, a jedyną różnicą była rozdziałka. W niektórych grach wyraźnie widać, żerole procesorów odwróciły się tylko po zmianie rozdzielczości (na tej samej karcie graficznej), ten co przy 1080p przegrywał zaczął wygrywać przy 1440p. Było więc tak jak mówisz - jedyną zmienną była rozdziałka.
3DMark 06 + Celeron D 346 + GTX 780 Ti :
Standard : https://i.imgur.com/QbnlAK7.png,
3360x2100 + MSAA x8 + AFx16 : https://i.imgur.com/Pna8pHA.png.
Jak widać, ilość punktów uzyskana przez grafikę pozostała niezmieniona (w granicach błędu pomiarowego).
Dlatego zgadzam się z brakiem zależności między rozdzielczością, a ilością pikseli na ekranie.
Na procka większy wpływ ma LOD, proporcje obrazu na jakich grasz (albo FOV), ilość klatek na sekundę jaką ogarnia grafika, oraz sam jej sterownik.
Filmik = Test kart graficznych. Nie da się wywnioskować z niego jaką wpływ ma rozdzielczość na samego procka, ponieważ porównanie tyczy się dwóch różnych procesory albo test został przeprowadzony na dwóch różnych grafikach.
Do wiarygodnego testu potrzebujesz aby jedyną zmienną w dwóch testach była rozdzielczość (czyli wymagane są ten sam procek, grafika, taktowania, detale, itd.).
A przydalby sie w internecie chociaz jeden taki test, ktory dokladniej bada sprawe i pokazal roznicze w poszczegolnych rozdzielczosciach/Hz, a nie klepanie wiecznie tego przestarzalego 1080p, gdzie do 60Hz to i zwykle i3 wystarcz, za to do do 200Hz to jak najbardziej najnowszy (krecony) 8700K ma racje bytu. Z kolei w 4K gdzie pierwsze skrzypce gra GPU wcale bym sie nie zdziwil, gdyby leciwy i5 2500K nie ustepowal najnowszym i7. Itp. Itd.
A tak to wszystkie te 'testy' CPU w internecie sa na jedno kopyto i wygladaja jak artykul sponsorowany Intela, ktory mowi jedno - bierzy najnowsze i7, reszta sie nie liczy...
PS. Zeby nie bylo siedze na 4790K @4.7GH z niedawno dorzuconym 1080Ti, i teraz uwazam go za strate pieniedzy - do dzisiaj malo gier faktycznie korzysta z tych 8 watkow, a nawet jesli to i tak nic to nie zmienia, bo obecne gry sa niesamowicie prymitywne, fizyka i AI od lat leza i kwicza, i do pojawienia sie nowych konsol to sie nie zmieni - moglem faktycznie wziac wtedy i5 ktory na owe czasy byl 'w sam raz', a teraz dorzycic wlasnie nowe GPU i zmienic rozdzielke na 4K60Hz.
Oj tam marudzisz
To co piszesz jest prawdą tylko w idealnym scenariuszu biorąc pod uwagę idealnie, bezbłędnie napisany silnik gry, bezbłędnie napisany sterownik karty graficznej oraz bezbłędnie napisany podsystem graficzny w samym OS. Takie coś niestety prawie nigdy nie ma miejsca.
Poza tym wystarczy wybrać rozdziałkę o innym Aspect Ratio I wtedy już narzut potrafi być znaczny.
Tzn. jeżeli będą błędy w silniku, błędy w sterownikach oraz błędny podsystem graficzny to obliczeniami związane z wyświetlaniem pikseli i ich ilości zajmie się CPU?
Owszem, może tak się stać. Wystarczy źle napisana funkcja, niepotrzebnie użyte skalowanie, gdy nie trzeba (czy to w sterowniku, czy w silniku), albo ktoś zahardkodował jakieś wartości, które są dobre dla danej rozdzielczości, a dla innych już złe, itp. Błędów w sofcie różnego typu może być masa. Dlatego jak najbardziej, może wpływać.
No ale co ja tam wiem, przecież jestem tylko programistą
EDIT: zresztą sobie spójrz na materiał podlinkowany Przez Raven01: https://youtu.be/t8K2yc11eC4?t=17m9s
Skoro nagle na tej samej karcie zmiana rozdzielczości przy tym samym CPU potrafiła odwrócić sytuację w niektórych grach, powinno dać Ci coś do myslenia. Jak i dla @tomcug.
Jesli myślisz, że CPU zajmuje się tylko i wyłącznie obróbka samego materiału i wysłaniu do grafiki, to się zdziwisz. Taki AsyncCompute w sterowniku nVidii jest całkowicie softwareowy, są to dodatkowe obliczenia, których ilość zależy od rozdzielczości, które CPU musi wykonać. A to tylko 1 przykład dodatkowych obliczeń zależnych od rozdziałki. Skalowanie softwareowe jest drugim z nich, a bynajmniej nie ostatnim, które można by znaleźc.
Rozdzielczość nie ma praktycznie wpływu na CPU, bo on bez względu na rozdzielczość przy takich samych ustawieniach obrabia taką samą liczbę danych i dostarcza GPU też tyle samo danych a to GPU generuje zadaną liczbę pikseli w zależności od tego na jaką rozdzielczość się zdecydujesz. Masz te same detale to i tyle samo obiektów i tyle samo roboty dla CPU... a to w ilu pikselach sobie to wyświetlisz to już czysta praca GPU.
To co piszesz jest prawdą tylko w idealnym scenariuszu biorąc pod uwagę idealnie, bezbłędnie napisany silnik gry, bezbłędnie napisany sterownik karty graficznej oraz bezbłędnie napisany podsystem graficzny w samym OS. Takie coś niestety prawie nigdy nie ma miejsca.
Poza tym wystarczy wybrać rozdziałkę o innym Aspect Ratio I wtedy już narzut potrafi być znaczny.
Tzn. jeżeli będą błędy w silniku, błędy w sterownikach oraz błędny podsystem graficzny to obliczeniami związane z wyświetlaniem pikseli i ich ilości zajmie się CPU?
Rozdzielczość nie ma praktycznie wpływu na CPU, bo on bez względu na rozdzielczość przy takich samych ustawieniach obrabia taką samą liczbę danych i dostarcza GPU też tyle samo danych a to GPU generuje zadaną liczbę pikseli w zależności od tego na jaką rozdzielczość się zdecydujesz. Masz te same detale to i tyle samo obiektów i tyle samo roboty dla CPU... a to w ilu pikselach sobie to wyświetlisz to już czysta praca GPU.
To co piszesz jest prawdą tylko w idealnym scenariuszu biorąc pod uwagę idealnie, bezbłędnie napisany silnik gry, bezbłędnie napisany sterownik karty graficznej oraz bezbłędnie napisany podsystem graficzny w samym OS. Takie coś niestety prawie nigdy nie ma miejsca.
Poza tym wystarczy wybrać rozdziałkę o innym Aspect Ratio I wtedy już narzut potrafi być znaczny.
Rozdzielczość nie ma praktycznie wpływu na CPU, bo on bez względu na rozdzielczość przy takich samych ustawieniach obrabia taką samą liczbę danych i dostarcza GPU też tyle samo danych a to GPU generuje zadaną liczbę pikseli w zależności od tego na jaką rozdzielczość się zdecydujesz. Masz te same detale to i tyle samo obiektów i tyle samo roboty dla CPU... a to w ilu pikselach sobie to wyświetlisz to już czysta praca GPU.
PS. Gdyby jeszcze na jednym z testów wszystkie pracowały przy tej samej częstotliwości (np. 4GHz), byłoby w ogóle super
NIE dostaniesz takiek tabelki, ponieważ byłoby widac, że intel zrobił 10 % postępu prez te lata.
Rozumiem, że teraz zarzucasz tamtemu autorowi jawne wprowadzanie w błąd ludzi I ich okłamywanie? Oczywiście tylko po to, aby swoją wyimaginowaną teorię podeprzeć
Nic nie uwypukliła, tylko pokazała wydajność Ryzenów taką, jaka była w tamtym momencie. Wyszedł patch, wszyscy zaktualizowali wyniki i o co krzyk? Dopóki patch nie wyszedł, to posiadacze kart NV musieli się borykać z niską wydajnością w lokacjach takich jak 'Kompleks radziecki' czy 'Geotermiczna dolina' - to jest fakt.
Znowu bzdury klepiesz - faktem był błąd optymalizacyjny, a nie żadne GPU bottleneck, chyba sam nie wiesz o czym już gadasz tomcug. Wyszedł patch naprawiający ten BŁĄD, a nie żadne GPU Bottleneck. Jakbyś przeczytał szczegóły tamtego patcha, to byś zauważył, że głównie poprawili sposób zarządzania transferem danych pomiędzy pamięcią RAM a pamięcią VRAM, który ze względny na CCX'y istniejące w procesorach Ryzen był we wcześniejszej wersji bardzo nieoptymalny, gdyż poprzednia wersja była pisana gdy Ryzenów nawet na rynku nie było, więc nie mogłabyć pod to zoptymalizowana z oczywistych względów.
To jest klasyczny przykład błędu optymalizacyjnego w kodzie (widać, że nigdy nie programowałeś, bo piszesz głupoty), który uwidacznia się w konkretnych warunkach - tutaj takim warunkiem było połączenie procesora Ryzen oraz bardzo wydajnej karty graficznej z zielonego obozu.
Widzę, że dla Ciebie to też będzie za trudne, ale bottleneck nie sprowadza się tylko do CPU i GPU, jest jeszcze memory bottleneck, PCI bottleneck. Jednakże w wiekszości przypadków te problemy wynikają z nieptymalnego wykorzystania tychże przez soft, przeważnie w wyniku braku optymalizacji lub jej błędnego działania.
A odnośnie zdania 'Dopóki patch nie wyszedł, to posiadacze kart NV musieli się borykać z niską wydajnością...' to tyczyło się to tylko tych, którzy mieli GTX'a 1080 w górę. Czyli znacznej mniejszości (mniejszości, pod którą robiona jest obecna procedura testowa), gdyż te problemy nie były widoczne aż w takim stopniu na mid-end. Ludzie na Radeonach w ogóle problemu nie mieli. No ale to i tak do Ciebie raczej nie dotrze.
Stałeś nad autorem i patrzyłeś, jak 'reinstaluje system od zera'? Trzy razy przeinstalował i nic, nagle za czwartym razem eureka i wszystko działa? Możliwe, ale prawdopodobieństwo bardzo niewielkie. Póki co to Ty pokazujesz, że łykasz jak pelikan każdą papkę, którą jeden AdoredTV czy jakiś inny misiek wypuści i to łykasz bez jakiejkolwiek weryfikacji we własnym zakresie. Byle pasowało do Twojego założenia i to wszystko, co się liczy. Do tej pory nie pokazałeś mi, gdzie Core i5 pierze w niskiej rozdzielczości Core i7 z wyższym zegarem i jest to rzekomy babol optymalizacyjny. Chyba, że chodziło Ci o przykład ze Starcraftem II, to pudło totalne. Core dla platform 'mainstream' i HEDT są na zupełnie innych architekturach nawet, gdy mają ten sam numerek z przodu. Przykładowo Core i7-6900K to Broadwell (ale bez L4!), podczas gdy Core i7-6700K to już Skylake. Tak więc nie, tamten przykład niczego nie dowodzi.
Nic nie uwypukliła, tylko pokazała wydajność Ryzenów taką, jaka była w tamtym momencie. Wyszedł patch, wszyscy zaktualizowali wyniki i o co krzyk? Dopóki patch nie wyszedł, to posiadacze kart NV musieli się borykać z niską wydajnością w lokacjach takich jak 'Kompleks radziecki' czy 'Geotermiczna dolina' - to jest fakt. Za to pogrubiony fragment wypowiedzi pokazuje, że tak naprawdę zdajesz się nie wiedzieć, co w ogóle oznacza ograniczenie przez GPU. Natomiast co do testowania na kartach różnych producentów, to jestem jak najbardziej za. Para Radeon + GeForce daje szerszy pogląd na sytuację. Ale ponownie w żadnym wypadku w trybach graficznych, które sprawiają, że ograniczeniem staje się karta graficzna i wyniki się 'spłaszczają'. Tobie może się wydawać inaczej i możesz sobie szukać do tej teorii tylu 'dowodów', ile tylko chcesz, ale rozdzielczość nie powoduje wypaczenia relacji między konkurencyjnymi procesorami AMD/Intel. Co najwyżej w wyższej rozdziałce miałbyś jeszcze niższy limit procesora, a nie wyższy. Oczywiście jak ustawisz 4K Ultra na RX 580 i weźmiesz lokację graficzną, to wszystkie procesory najpewniej włącznie z Pentiumem G4600 uzyskają prawie tyle samo FPS, ale to nie ma nic wspólnego z testem procesorów. Takich 'testów' w internecie nie brakuje, gdzie nawet dwurdzeniowy Pentak daje radę i jakoś nie piszesz, że niczego lepszego do grania nie potrzeba, czyż nie? Ale przecież 'niższe rozdzielczości uwypuklają błędy optymalizacyjne' i dlatego G4560 radzi sobie słabo, to nie ma nic wspólnego z rzeczywistością
W końcu postawiłem nowego Wieśka bez synchronizacji z zupełnie innym zapisem gry. Wszystko działa cacy
No to u Ciebie problemem był najpewniej sam zapis gry. Ja się spotkałem z sytuacją, gdzie już od pierwszego wczytania dowolnego zapisu gry wydajność była daleko w lesie i najpewniej to samo spotkało Sebastiana. Ale głowy sobie uciąć nie dam. Zasadniczo problem jest raczej rzadko spotykany, nie widziałem, żeby gdzieś posiadacze Ryzenów narzekali na wydajność w miastach poza odnoszeniem się do starych wyników PPC.
Co za bzdura. Jak ci CPU nie nadąży z danymi to ci GPU nie da dużo kostek za to zawsze detale można obniżyć.
Tyle, że ja widziałem na własne oczy ten błąd i wiem, co się dokładnie dzieje, czyli spada obciążenie CPU i wtedy możesz sobie wkładać GPU jakie chcesz i testować w rozdzielczości jakiej chcesz, a i tak wyjdą Ci bardzo niskie wyniki na Ryzenie (oczywiście dopóki nie nadziejesz się na limit karty, co z testem procesora nie ma nic wspólnego). A co do tłumaczeń, to jakbyś się tłumaczył, gdybyś właśnie sobie zdał sprawę z tego, że przez kilka miesięcy żeniłeś swoim czytelnikom totalny kit, a rozwiązanie było banalne, czyli postawienie czystego systemu?
Jak taki z Ciebie ekspert, to co za problem zrobić własne pomiary i je zaprezentować? Rozwiejesz wiele wątpliwości, a być może i dokonasz przełomowych odkryć.
Ty nawet czytać nie potrafisz... Napisałem Ci, że autor reinstalował system od zera wcześniej nie raz i to nie pomagało. Tak trudno to do Ciebie dociera? Cóż, widać czytać i rozumieć to Ty nie potrafisz.
Druga sprawa - przytoczyłem Ci przykład z grą ROTR, w której ta procedura wyraźnie uwypukliła błąd optymalizacyjny - tak błąd, a nie GPU bottleneck jak to sobie wmawiasz. Błąd faktycznie był, gdyż wyszedł patch do gry, gdyby błędu optymalizacyjnego nie było, to patch by nigdy nie wyszedł. A ta procedura ten błąd uwypukłiła do niespotykanych rozmiarów.
Ale Ty i tak wiesz swoje tomcug i dalej bzdury opowiadać pewnie będziesz
Miałem ten sam błąd i reinstalacja systemu nie zawsze była pomocna. Wystarczyło uruchomić dwukrotnie ten sam save, by spotkać się ze spadkiem klatek.
W końcu postawiłem nowego Wieśka bez synchronizacji z zupełnie innym zapisem gry. Wszystko działa cacy
To punkty szpanu w gimnazjum
Nie ma już gmnazjów
Jeszcze są
Tyle, że ja widziałem na własne oczy ten błąd i wiem, co się dokładnie dzieje, czyli spada obciążenie CPU i wtedy możesz sobie wkładać GPU jakie chcesz i testować w rozdzielczości jakiej chcesz, a i tak wyjdą Ci bardzo niskie wyniki na Ryzenie (oczywiście dopóki nie nadziejesz się na limit karty, co z testem procesora nie ma nic wspólnego). A co do tłumaczeń, to jakbyś się tłumaczył, gdybyś właśnie sobie zdał sprawę z tego, że przez kilka miesięcy żeniłeś swoim czytelnikom totalny kit, a rozwiązanie było banalne, czyli postawienie czystego systemu?
Jak taki z Ciebie ekspert, to co za problem zrobić własne pomiary i je zaprezentować? Rozwiejesz wiele wątpliwości, a być może i dokonasz przełomowych odkryć.
Ty nawet czytać nie potrafisz... Napisałem Ci, że autor reinstalował system od zera wcześniej nie raz i to nie pomagało. Tak trudno to do Ciebie dociera? Cóż, widać czytać i rozumieć to Ty nie potrafisz.
Druga sprawa - przytoczyłem Ci przykład z grą ROTR, w której ta procedura wyraźnie uwypukliła błąd optymalizacyjny - tak błąd, a nie GPU bottleneck jak to sobie wmawiasz. Błąd faktycznie był, gdyż wyszedł patch do gry, gdyby błędu optymalizacyjnego nie było, to patch by nigdy nie wyszedł. A ta procedura ten błąd uwypukłiła do niespotykanych rozmiarów.
Ale Ty i tak wiesz swoje tomcug i dalej bzdury opowiadać pewnie będziesz
W CPU-Z?
W tym. http://s10.ifotos.pl/img/Bezsdsdty_qxwwern.jpg
W CPU-Z?
To punkty szpanu w gimnazjum
Nie ma już gmnazjów
W CPU-Z?
To punkty szpanu w gimnazjum
Bzdury odnośnie wydajności Ryzenów w Wieśminie 3 nie wynikały z błędnej procedury testowej, tylko z zasyfionego systemu. Sam się z tym spotkałem i kilka razy już o tym pisałem, mianowicie może się zdarzyć, że gra zacznie źle wykrywać wątki CPU (?) i efekt jest taki, że spada obciążenie i liczba FPS. Próbowałem z tym walczyć czyszczeniem sterowników (czysta instalacji w instalatorze NV i/lub DDU), ale nie udało się naprawić, więc u siebie zrobiłem popularny format i po krzyku - wyniki wróciły do normy. Jakoś nie chciało mi się szukać dokładnej przyczyny, ale może kiedyś do tego wrócę, bo mam obrazy systemów bez i z 'bugiem'.
Prawda jest taka, że to co Ty nazywasz uwypuklaniem błędów optymalizacji poprzez testowanie w niskiej vs wysokiej rozdzielczości to tak naprawdę testowanie na limicie GPU, czasem jeszcze z dochodzącymi do tego błędami pomiarowymi. A błyskotliwe wnioski AdoredTV na podstawie porównywania testów z okresu kilku lat, robionych przez inne redakcje, pod innymi systemami, sterownikami, ustawieniami graficznymi i zupełnie inną procedurą i wniosek, że to wszystko efekt większej rozdzielczości to po prostu szkoda komentować, jak traktujesz takie bajdurzenia za pewnik i prawdę objawioną. Póki co nie dostałem od Ciebie żadnych konkretów, poza błędnymi wnioskami wyciąganymi dosłownie z powietrza.
Ps. prawdpodobnie różnice na Win7 spadną do bliska zeru ze względu właśnie na sterowniki i draw calls wyższy o ponad 20%.
No do zera to nie, ale ~2,5% wyszło przed chwilą na 7900X @ 4C/8T przy porównaniu 1080p vs 720p. 4:3 vs 16:9 mam ~17,5% przewagi tego pierwszego. Z tym, że sprawdzam FRAPS-em.
Spróbuj skręcić CPU, ale bez ruszania Uncore. Różnica powinna się pogłębić, jeżeli nie to różnice najpewniej wynikają z innego miejsca testowego. Sprawdzając frapsem i tak różnice są na poziomie 22%. Ale patrząc, że testowane w innym miejscu, innej platformie i innym GPU do tego może jeszcze inne sterowniki to i tak różnice są stosunkowo niewielkie.
W CPU-Z?
To punkty szpanu w gimnazjum