Ehhe, argumenty macie jakości takiej, że normalnie nic, tylko się z Wami zgodzić. AMD ponad wszystko i każdy inny wybór jest karygodną pomyłką.
Po pierwsze, gra kompletnie nie nadaje się do testowania CPU - wyniki są niemal spłaszczone.
Po drugie, gra na wszystkich CPU działa w zasadzie tak samo - powyżej granicy 60 fps, za mało na monitory 120/144 Hz.
Po trzecie, wyniki sugerują wyraźnie, że gra ma problem z technologią SMT - nie jest normalne, że i5-8400 jest szybszy od podkręconego do ~5 GHz i7-8700K. Skoro tak, jest bardzo prawdopodobne, że po wyłączeniu SMT wyniki Ryzena by wzrosły.
Po czwarte, jak wyżej, skoro gra jest niezoptymalizowana - SMT zamiast wzrostu przynosi spadek fps, jest niemiarodajna do porównań wydajności.
Po piąte, gra ma dostępny tryb DX11, który jest wydajniejszy na AMD i całkowicie niweluje i tak niewielkie różnice w wydajności. Do porównań należałoby wybrać raczej najbardziej korzystny dla danego CPU tryb.
Nie. Ale pisanie w drugą stronę 'że jak gry to tylko Intel' też jest naciągane. Da się fajnie pograć na AMD.
Co z tego jak na intelu da się fajniej i przede wszystkim taniej. Poza tym nie dość, że w aplikacjach też żadnej przewagi nie ma, a jak odejmiesz wyniki benchmarków typu cinebench to nawet mityczni renderowcy mają zgryz bo jest zauważalnie wolniej. Amd i tak ma kupę szczęścia, że avx ciągle jest traktowany bardzo po macoszemu, gdyby nie był to dopiero byłby zonk.
To trochę jak z tesselacją, amd reklamowało wraz z dx11 tą technologię, były tam też slajdy o multithreadingu - olali kompletnie te swoje slajdy do dzisiaj i zamiast wziąć się do roboty, dostosować produkt do rynku to pojawiła się armia trolli próbująca wmówić, że to wina nv bo postanowiła skorzystać z dobrodziejstw tych technologii i zwiększać wydajność swoich produktów w ich stosowaniu.
Zobacz ile mitów wyrosło - optymalizacja schedulera, mityczne agesy, mityczne optymalizacje, sterowniki i inne tego typu banialuki, minęło półtora roku i nic się nie zmieniło. Paradoksalnie zyskał na tym intel i to dlatego, że amd zawsze próbuje zrzucić tą pracę na firmy trzecie. Najlepiej pod karkołomnym hasłem 'otwarte standardy'. A oni są zawsze otwarci, ale na to by robotę wykonał ktoś inny. Jestem niemal pewien, że jak intel rzuci 8-core do mainstreamu to z czasem pojawi się narracja, że intel jest winny temu, że gry korzystają z wielu wątków bo przewaga nad amd się tylko zwiększy. Nie takie cuda już tutaj czytaliśmy.
Po pierwsze, gra kompletnie nie nadaje się do testowania CPU - wyniki są niemal spłaszczone.
No i dokładnie o to, i tylko o to, chodziło w tamtym komentarzu.
'tutaj w testach masz dużo pomiarów limitowanych wydajnością karty graficznej'
'Takie testy strasznie wypłaszczają średnią wydajność, niczego sobą nie wnosząc.'
Gdzie przykładem drugiego cytatu był znajdujący się wyżej test w Deus Ex. Natomiast ten fragment:
'Biorąc pod uwagę, że nawet w takich warunkach 2600X po OC i z szybszymi pamięciami odstaje od 8400'
Odnosił się do średniej wydajności, którą testy ograniczone GPU zdecydowanie wypłaszczają. Było to istotnie nieprecyzyjne, więc dopisałem.
Jednakowoż z tej jednej gry wysnułeś wniosek, że źle to świadczy o ofercie AMD dla graczy. Wręcz nawet 'bardzo źle'. Ciężko dla mnie uznać to za bezstronne - tym bardziej skoro zgadzasz się, że gra jest kompletnie niemiarodajna. Poza tym 8700K, który też jest wolniejszy przy 5 GHz od 8400, jakoś umyka twojej krytyce. Jak dla mnie wykres świadczy po prostu, że gra jest niezoptymalizowana, źle rozkłada obciążenie na wątki (pewnie dlatego SMT obniża wydajność). Sytuacja, gdy 8400 jest wydajniejszy od 8700K@4,9 GHz nie jest chyba normalna?
@Tomcug daj sobie spokój, tu się nie da dyskutować na argumenty. AMD jest królem i tyle, koniec dyskusji albo Cię zakopią.
O jakich argumentach mowa? Chyba nie o tym, że 2600X jest marginalnie wolniejszy od 8400 w jednej niezoptymalizowanej GPU-zależnej grze (z czym nawet tomcug się zgadza)? I to tylko w trybie DX12 - przy DX11 różnice się zacierają. Równie dobrze na postawie tej gry można powiedzieć, że 8400 jest wydajniejszy niż 8700K, a przecież chwilę wcześniej nie można było tak pisać.
Nie. Ale pisanie w drugą stronę 'że jak gry to tylko Intel' też jest naciągane. Da się fajnie pograć na AMD.
Zobacz ile mitów wyrosło - optymalizacja schedulera, mityczne agesy, mityczne optymalizacje, sterowniki i inne tego typu banialuki, minęło półtora roku i nic się nie zmieniło. Paradoksalnie zyskał na tym intel i to dlatego, że amd zawsze próbuje zrzucić tą pracę na firmy trzecie. Najlepiej pod karkołomnym hasłem 'otwarte standardy'. A oni są zawsze otwarci, ale na to by robotę wykonał ktoś inny. Jestem niemal pewien, że jak intel rzuci 8-core do mainstreamu to z czasem pojawi się narracja, że intel jest winny temu, że gry korzystają z wielu wątków bo przewaga nad amd się tylko zwiększy. Nie takie cuda już tutaj czytaliśmy.
Może porównajmy:
Jak widzimy, przewaga Core i7-7700K nad Ryzen 7 1800X wynosi ok. 22,8%, natomiast przewaga 8700K nad 2700X wynosi ok. 16,7%. Jak widać, pomimo dołożenia dwóch rdzeni, przewaga w wydajności zmalała. Skąd pewność, że po dodaniu kolejnych dwóch rdzeni nie będzie tak samo?
Jednakowoż z tej jednej gry wysnułeś wniosek, że źle to świadczy o ofercie AMD dla graczy.
tomcug @ 2018.07.08 16:04
'Biorąc pod uwagę, że nawet w takich warunkach 2600X po OC i z szybszymi pamięciami odstaje od 8400'
Odnosił się do średniej wydajności, którą testy ograniczone GPU zdecydowanie wypłaszczają. Było to istotnie nieprecyzyjne, więc dopisałem.
Powtarzam się, ale skoro trzeba...
Nie, nie należy powtarzać bzdur. Jak rozumiem pomijasz zupełnie negatywny wpływ SMT, wyższą wydajność Ryzena przy DX11? Pomijasz również to, że w tym scenariuszu 8700K też jest mniej wydajny od 8400? Wolno mi napisać, że w grach GPU-zależnych 8400 jest średnio bardziej wydajny od 8700K po OC?
Wyjaśnię więc po raz kolejny, skoro do Ciebie nie dociera. Wykres z Deus Exa był tylko i wyłącznie ilustracją faktu, że część testów jedzie na limicie GPU. Niczym więcej! Zaś cały czas komentuję średnią wydajność, tę właśnie oto:
Jeżeli trzeba będzie po raz n-ty powtarzać to samo, to chyba wymięknę...
Wyjaśnię więc po raz kolejny, skoro do Ciebie nie dociera. Wykres z Deus Exa był tylko i wyłącznie ilustracją faktu, że część testów jedzie na limicie GPU. Niczym więcej! Zaś cały czas komentuję średnią wydajność, tę właśnie oto:
Bardzo to wygodne załączyć wykres z niezoptymalizowanej gry i pod spodem napisać, że AMD odstaje. Odstawanie 'występuje' oczywiście na innym, nielinkowanym wykresie, ale kto by się tym przejmował. Przynajmniej dało radę ocalić honor Intela, gdzie 8700K OC było mniej wydajne niż 8400 w Deus Exie. Poza tym nie, nie jest to dobra ilustracja sytuacji GPU-zależnej, skoro gra źle wykorzystuje SMT. Po wyłączeniu tego sporo mogłoby się zmienić. Po prostu ta gra nie nadaje się do testów CPU. Dawanie tego jako przykład jest śmieszne.
PS. Ta gra (Deus Ex) w trybie DX11 lepiej ilustruje sytuację GPU-zależną. Dlaczego nie użyłeś tego wykresu? Za mało AMD odstawało?
PPS. Gdzie na wykresie średniej wydajności widzisz odstawanie 2600X po OC wobec 8400 na wolnych pamięciach? Jak dla mnie wydajność jest równa.
Dodam jeszcze, ze pracuje w PCLabie od lekko ponad pol roku. Nikt mi nigdy nie powiedzial co mam napisac/jak mam napisac/jakie mam wnioski miec/cokolwiek w tym sensie. Po prostu dostaje sprzet, oddaje artykul, the end. Jedyny warunek jest taki zeby moje wyniki byly powtarzalne, a wnioski oparte na tych wynikach. I wszyscy tak tu pracujemy wiec ciagle mowienie o naszej 'zaleznosci'/'niezaleznosci' zaczyna byc irytujace. Napiszemy dobrze o nviidii - 'aa nvidia was kupila!!!11', napiszemy dobrze o AMD - 'aa amd was kupilo!!!11' i tak dalej.
To tak samo jak na Onecie. Nikt tam nie zmusza redaktorów żeby o jednych (PO) pisali dobrze, a o innych (PiS) źle. Dlatego Onet znany jest jako symbol obiektywności, bezstronności i niezależności.
P.S.
No i za co te minusy, za co? Czyżby ktoś poddawał w wątpliwość że Onet jest bezstronny i niezależny ?
Onet i obiektywizm ? Masz pojęcie o czym Ty piszesz ?
Macie mały ale ciekawy historycznie błąd na pierwszej stronie (zdjęciu właściwie). Otóż układ scalony który położyliście obok I7-8086K to, tak naprawdę mikrokomputer jedno układowy oparty o rdzeń x86. 80C188, który oprócz samego rdzenia I8088 posiada 3-16 bitowe TIMERy, kontroler DMA, przerwań i generator. To taki mały komputer w jednym CHIPie, były popularne w dyskach SCASI, mam kilka nawet w domu.
Ale rozumiem że ciężko dziś zdobyć oryginalny I8088, ja mam ale od AMD.
Bardzo to wygodne załączyć wykres z niezoptymalizowanej gry i pod spodem napisać, że AMD odstaje. Odstawanie 'występuje' oczywiście na innym, nielinkowanym wykresie, ale kto by się tym przejmował. Przynajmniej dało radę ocalić honor Intela, gdzie 8700K OC było mniej wydajne niż 8400 w Deus Exie. Poza tym nie, nie jest to dobra ilustracja sytuacji GPU-zależnej, skoro gra źle wykorzystuje SMT. Po wyłączeniu tego sporo mogłoby się zmienić. Po prostu ta gra nie nadaje się do testów CPU. Dawanie tego jako przykład jest śmieszne.
PS. Ta gra (Deus Ex) w trybie DX11 lepiej ilustruje sytuację GPU-zależną. Dlaczego nie użyłeś tego wykresu? Za mało AMD odstawało?
PPS. Gdzie na wykresie średniej wydajności widzisz odstawanie 2600X po OC wobec 8400 na wolnych pamięciach? Jak dla mnie wydajność jest równa.
Wykres średniej wydajności był wklejany kilka komentarzy wyżej, po co miałem to robić ponownie? Co więcej, przed wykresem z Deus Exa wyraźnie napisałem, czego dotyczy uwaga, czyli testów na limicie GPU. Co więcej, dopisałem w tamtym komentarzu, że uwaga o 2600X wolniejszym od 8400 dotyczy średniej wydajności. Coś jeszcze nie pasuje? DX11/12, żadna różnica - tu i tu na limicie GPU test. Co do 2600X, to nawet dopakowany pamięciami 3200 MHz i po OC jest wolniejszy od 8400. Co prawda jest to tylko ~1% średnio, ale za zauważalnie wyższe pieniądze (przede wszystkim CPU, ale i RAM). Biorąc pod uwagę, że miał handicap w postaci kilku testów, gdzie przynajmniej Intele były limitowane przez GPU (np. Wiedźmin 3), to ciężko napisać, że jest to rezultat satysfakcjonujący. A 8400 to dopiero początek sześciordzeniowej oferty Intela, więc czas skończyć zaciemniać rzeczywistość... Ryzeny są świetne do pracy wielowątkowej, do gier... nie są.
Wykres średniej wydajności był wklejany kilka komentarzy wyżej, po co miałem to robić ponownie? Co więcej, przed wykresem z Deus Exa wyraźnie napisałem, czego dotyczy uwaga, czyli testów na limicie GPU. Co więcej, dopisałem w tamtym komentarzu, że uwaga o 2600X wolniejszym od 8400 dotyczy średniej wydajności. Coś jeszcze nie pasuje? DX11/12, żadna różnica - tu i tu na limicie GPU test. Co do 2600X, to nawet dopakowany pamięciami 3200 MHz i po OC jest wolniejszy od 8400. Co prawda jest to tylko ~1% średnio, ale za zauważalnie wyższe pieniądze (przede wszystkim CPU, ale i RAM). Biorąc pod uwagę, że miał handicap w postaci kilku testów, gdzie przynajmniej Intele były limitowane przez GPU (np. Wiedźmin 3), to ciężko napisać, że jest to rezultat satysfakcjonujący. A 8400 to dopiero początek sześciordzeniowej oferty Intela, więc czas skończyć zaciemniać rzeczywistość... Ryzeny są świetne do pracy wielowątkowej, do gier... nie są.
Jest duża różnica między DX11 a DX12 - w drugim przypadku błędnie działa SMT na czym traci i Ryzen, i 8700K. Błędnie działająca gra nie może nic ilustrować - chyba, że fuszerkę programistów. Deus Ex DX12 działa na minus, nie na plus AMD.
Różnica 1% jest na granicy niepewności pomiarowej i po części wynika z Deus Ex DX12, który faworyzuje procesory bez SMT. Zdecydowanie unikałbym tu stwierdzeń, że któryś procesor jest wydajniejszy. A tym bardziej pisania o 'odstawaniu' co ma negatywny wydźwięk. Żeby zachować minimum obiektywności wystarczyło porównać te CPU na def, albo na tym samym RAM - wtedy faktycznie AMD odstaje. Wygląda to tak, jakbyś chciał na siłę dopiec AMD punktując każdy możliwy drobiazg. Nawet kosztem wyszukiwania tych śmiesznych, procentowych różnic.
Nie działa na minus AMD, bo gdyby nie było limitu GPU, to Ryzeny oberwałyby mocniej niż obrywają przy teście ograniczonym kartą.
qas1 @ 2018.07.08 22:02
Różnica 1% jest na granicy niepewności pomiarowej i po części wynika z Deus Ex DX12, który faworyzuje procesory bez SMT.
Gdyby nie testy na limicie GPU (w tym Deus Ex - także DX12), to ta różnica byłaby większa a nie mniejsza.
I nie, nie punktuję na siłę AMD. To raczej fani marki próbują wybielić każdy aspekt mimo, że testy jasno pokazują, gdzie czerwoni stoją z rozwojem swojej architektury. Gdzie bardzo dobrze, a gdzie wciąż przeciętnie.
Nie działa na minus AMD, bo gdyby nie było limitu GPU, to Ryzeny oberwałyby mocniej niż obrywają przy teście ograniczonym kartą.
qas1 @ 2018.07.08 22:02
Różnica 1% jest na granicy niepewności pomiarowej i po części wynika z Deus Ex DX12, który faworyzuje procesory bez SMT.
Gdyby nie testy na limicie GPU (w tym Deus Ex - także DX12), to ta różnica byłaby większa a nie mniejsza.
I nie, nie punktuję na siłę AMD. To raczej fani marki próbują wybielić każdy aspekt mimo, że testy jasno pokazują, gdzie czerwoni stoją z rozwojem swojej architektury. Gdzie bardzo dobrze, a gdzie wciąż przeciętnie.
Oj, nie powiedziałbym tak. Jak najbardziej Deus Ex DX12 działa na niekorzyść Ryzenów - gdyby grę wywalić z procedury testowej różnica między 2600x a 8400 zmalałaby do zera - ta gra faworyzuje 8400, różnica wynosi trochę więcej niż 1% - 'aż' 4-5%. Gdyby nie było limitu GPU, byłaby to zupełnie inna gra, nie sądzisz? Nic nie poradzę, że tak się ekscytujesz tym czymś.
Co do kwestii architektury - chyba AMD nie stoi wcale tak źle. IPC jest niewiele niższe, pewnie gdzieś na poziomie Haswella. Gdyby Ryzeny osiągały 4,5 GHz+ po OC, różnice byłyby jeszcze bardziej marginalne niż są.
Nie. Ale pisanie w drugą stronę 'że jak gry to tylko Intel' też jest naciągane. Da się fajnie pograć na AMD.
Po pierwsze, gra kompletnie nie nadaje się do testowania CPU - wyniki są niemal spłaszczone.
Po drugie, gra na wszystkich CPU działa w zasadzie tak samo - powyżej granicy 60 fps, za mało na monitory 120/144 Hz.
Po trzecie, wyniki sugerują wyraźnie, że gra ma problem z technologią SMT - nie jest normalne, że i5-8400 jest szybszy od podkręconego do ~5 GHz i7-8700K. Skoro tak, jest bardzo prawdopodobne, że po wyłączeniu SMT wyniki Ryzena by wzrosły.
Po czwarte, jak wyżej, skoro gra jest niezoptymalizowana - SMT zamiast wzrostu przynosi spadek fps, jest niemiarodajna do porównań wydajności.
Po piąte, gra ma dostępny tryb DX11, który jest wydajniejszy na AMD i całkowicie niweluje i tak niewielkie różnice w wydajności. Do porównań należałoby wybrać raczej najbardziej korzystny dla danego CPU tryb.
Nie. Ale pisanie w drugą stronę 'że jak gry to tylko Intel' też jest naciągane. Da się fajnie pograć na AMD.
Co z tego jak na intelu da się fajniej i przede wszystkim taniej. Poza tym nie dość, że w aplikacjach też żadnej przewagi nie ma, a jak odejmiesz wyniki benchmarków typu cinebench to nawet mityczni renderowcy mają zgryz bo jest zauważalnie wolniej. Amd i tak ma kupę szczęścia, że avx ciągle jest traktowany bardzo po macoszemu, gdyby nie był to dopiero byłby zonk.
To trochę jak z tesselacją, amd reklamowało wraz z dx11 tą technologię, były tam też slajdy o multithreadingu - olali kompletnie te swoje slajdy do dzisiaj i zamiast wziąć się do roboty, dostosować produkt do rynku to pojawiła się armia trolli próbująca wmówić, że to wina nv bo postanowiła skorzystać z dobrodziejstw tych technologii i zwiększać wydajność swoich produktów w ich stosowaniu.
Zobacz ile mitów wyrosło - optymalizacja schedulera, mityczne agesy, mityczne optymalizacje, sterowniki i inne tego typu banialuki, minęło półtora roku i nic się nie zmieniło. Paradoksalnie zyskał na tym intel i to dlatego, że amd zawsze próbuje zrzucić tą pracę na firmy trzecie. Najlepiej pod karkołomnym hasłem 'otwarte standardy'. A oni są zawsze otwarci, ale na to by robotę wykonał ktoś inny. Jestem niemal pewien, że jak intel rzuci 8-core do mainstreamu to z czasem pojawi się narracja, że intel jest winny temu, że gry korzystają z wielu wątków bo przewaga nad amd się tylko zwiększy. Nie takie cuda już tutaj czytaliśmy.
No i dokładnie o to, i tylko o to, chodziło w tamtym komentarzu.
'tutaj w testach masz dużo pomiarów limitowanych wydajnością karty graficznej'
'Takie testy strasznie wypłaszczają średnią wydajność, niczego sobą nie wnosząc.'
Gdzie przykładem drugiego cytatu był znajdujący się wyżej test w Deus Ex. Natomiast ten fragment:
'Biorąc pod uwagę, że nawet w takich warunkach 2600X po OC i z szybszymi pamięciami odstaje od 8400'
Odnosił się do średniej wydajności, którą testy ograniczone GPU zdecydowanie wypłaszczają. Było to istotnie nieprecyzyjne, więc dopisałem.
No i dokładnie o to, i tylko o to, chodziło w tamtym komentarzu.
'tutaj w testach masz dużo pomiarów limitowanych wydajnością karty graficznej'
'Takie testy strasznie wypłaszczają średnią wydajność, niczego sobą nie wnosząc.'
Gdzie przykładem drugiego cytatu był znajdujący się wyżej test w Deus Ex. Natomiast ten fragment:
'Biorąc pod uwagę, że nawet w takich warunkach 2600X po OC i z szybszymi pamięciami odstaje od 8400'
Odnosił się do średniej wydajności, którą testy ograniczone GPU zdecydowanie wypłaszczają. Było to istotnie nieprecyzyjne, więc dopisałem.
Jednakowoż z tej jednej gry wysnułeś wniosek, że źle to świadczy o ofercie AMD dla graczy. Wręcz nawet 'bardzo źle'. Ciężko dla mnie uznać to za bezstronne - tym bardziej skoro zgadzasz się, że gra jest kompletnie niemiarodajna. Poza tym 8700K, który też jest wolniejszy przy 5 GHz od 8400, jakoś umyka twojej krytyce. Jak dla mnie wykres świadczy po prostu, że gra jest niezoptymalizowana, źle rozkłada obciążenie na wątki (pewnie dlatego SMT obniża wydajność). Sytuacja, gdy 8400 jest wydajniejszy od 8700K@4,9 GHz nie jest chyba normalna?
O jakich argumentach mowa? Chyba nie o tym, że 2600X jest marginalnie wolniejszy od 8400 w jednej niezoptymalizowanej GPU-zależnej grze (z czym nawet tomcug się zgadza)? I to tylko w trybie DX12 - przy DX11 różnice się zacierają. Równie dobrze na postawie tej gry można powiedzieć, że 8400 jest wydajniejszy niż 8700K, a przecież chwilę wcześniej nie można było tak pisać.
Odnosił się do średniej wydajności, którą testy ograniczone GPU zdecydowanie wypłaszczają. Było to istotnie nieprecyzyjne, więc dopisałem.
Powtarzam się, ale skoro trzeba...
Nie. Ale pisanie w drugą stronę 'że jak gry to tylko Intel' też jest naciągane. Da się fajnie pograć na AMD.
Zobacz ile mitów wyrosło - optymalizacja schedulera, mityczne agesy, mityczne optymalizacje, sterowniki i inne tego typu banialuki, minęło półtora roku i nic się nie zmieniło. Paradoksalnie zyskał na tym intel i to dlatego, że amd zawsze próbuje zrzucić tą pracę na firmy trzecie. Najlepiej pod karkołomnym hasłem 'otwarte standardy'. A oni są zawsze otwarci, ale na to by robotę wykonał ktoś inny. Jestem niemal pewien, że jak intel rzuci 8-core do mainstreamu to z czasem pojawi się narracja, że intel jest winny temu, że gry korzystają z wielu wątków bo przewaga nad amd się tylko zwiększy. Nie takie cuda już tutaj czytaliśmy.
Może porównajmy:
Jak widzimy, przewaga Core i7-7700K nad Ryzen 7 1800X wynosi ok. 22,8%, natomiast przewaga 8700K nad 2700X wynosi ok. 16,7%. Jak widać, pomimo dołożenia dwóch rdzeni, przewaga w wydajności zmalała. Skąd pewność, że po dodaniu kolejnych dwóch rdzeni nie będzie tak samo?
Odnosił się do średniej wydajności, którą testy ograniczone GPU zdecydowanie wypłaszczają. Było to istotnie nieprecyzyjne, więc dopisałem.
Powtarzam się, ale skoro trzeba...
Nie, nie należy powtarzać bzdur. Jak rozumiem pomijasz zupełnie negatywny wpływ SMT, wyższą wydajność Ryzena przy DX11? Pomijasz również to, że w tym scenariuszu 8700K też jest mniej wydajny od 8400? Wolno mi napisać, że w grach GPU-zależnych 8400 jest średnio bardziej wydajny od 8700K po OC?
Wyjaśnię więc po raz kolejny, skoro do Ciebie nie dociera. Wykres z Deus Exa był tylko i wyłącznie ilustracją faktu, że część testów jedzie na limicie GPU. Niczym więcej! Zaś cały czas komentuję średnią wydajność, tę właśnie oto:
Jeżeli trzeba będzie po raz n-ty powtarzać to samo, to chyba wymięknę...
Wyjaśnię więc po raz kolejny, skoro do Ciebie nie dociera. Wykres z Deus Exa był tylko i wyłącznie ilustracją faktu, że część testów jedzie na limicie GPU. Niczym więcej! Zaś cały czas komentuję średnią wydajność, tę właśnie oto:
https://pclab.pl/zdjecia/artykuly/mbrzoste...srednia_gry.png
Jeżeli trzeba będzie po raz n-ty powtarzać to samo, to chyba wymięknę...
Bardzo to wygodne załączyć wykres z niezoptymalizowanej gry i pod spodem napisać, że AMD odstaje. Odstawanie 'występuje' oczywiście na innym, nielinkowanym wykresie, ale kto by się tym przejmował. Przynajmniej dało radę ocalić honor Intela, gdzie 8700K OC było mniej wydajne niż 8400 w Deus Exie. Poza tym nie, nie jest to dobra ilustracja sytuacji GPU-zależnej, skoro gra źle wykorzystuje SMT. Po wyłączeniu tego sporo mogłoby się zmienić. Po prostu ta gra nie nadaje się do testów CPU. Dawanie tego jako przykład jest śmieszne.
PS. Ta gra (Deus Ex) w trybie DX11 lepiej ilustruje sytuację GPU-zależną. Dlaczego nie użyłeś tego wykresu? Za mało AMD odstawało?
PPS. Gdzie na wykresie średniej wydajności widzisz odstawanie 2600X po OC wobec 8400 na wolnych pamięciach? Jak dla mnie wydajność jest równa.
Dodam jeszcze, ze pracuje w PCLabie od lekko ponad pol roku. Nikt mi nigdy nie powiedzial co mam napisac/jak mam napisac/jakie mam wnioski miec/cokolwiek w tym sensie. Po prostu dostaje sprzet, oddaje artykul, the end. Jedyny warunek jest taki zeby moje wyniki byly powtarzalne, a wnioski oparte na tych wynikach. I wszyscy tak tu pracujemy wiec ciagle mowienie o naszej 'zaleznosci'/'niezaleznosci' zaczyna byc irytujace. Napiszemy dobrze o nviidii - 'aa nvidia was kupila!!!11', napiszemy dobrze o AMD - 'aa amd was kupilo!!!11' i tak dalej.
To tak samo jak na Onecie. Nikt tam nie zmusza redaktorów żeby o jednych (PO) pisali dobrze, a o innych (PiS) źle. Dlatego Onet znany jest jako symbol obiektywności, bezstronności i niezależności.
P.S.
No i za co te minusy, za co? Czyżby ktoś poddawał w wątpliwość że Onet jest bezstronny i niezależny
Onet i obiektywizm ?
Ale rozumiem że ciężko dziś zdobyć oryginalny I8088, ja mam ale od AMD.
PS. Ta gra (Deus Ex) w trybie DX11 lepiej ilustruje sytuację GPU-zależną. Dlaczego nie użyłeś tego wykresu? Za mało AMD odstawało?
PPS. Gdzie na wykresie średniej wydajności widzisz odstawanie 2600X po OC wobec 8400 na wolnych pamięciach? Jak dla mnie wydajność jest równa.
Wykres średniej wydajności był wklejany kilka komentarzy wyżej, po co miałem to robić ponownie? Co więcej, przed wykresem z Deus Exa wyraźnie napisałem, czego dotyczy uwaga, czyli testów na limicie GPU. Co więcej, dopisałem w tamtym komentarzu, że uwaga o 2600X wolniejszym od 8400 dotyczy średniej wydajności. Coś jeszcze nie pasuje? DX11/12, żadna różnica - tu i tu na limicie GPU test. Co do 2600X, to nawet dopakowany pamięciami 3200 MHz i po OC jest wolniejszy od 8400. Co prawda jest to tylko ~1% średnio, ale za zauważalnie wyższe pieniądze (przede wszystkim CPU, ale i RAM). Biorąc pod uwagę, że miał handicap w postaci kilku testów, gdzie przynajmniej Intele były limitowane przez GPU (np. Wiedźmin 3), to ciężko napisać, że jest to rezultat satysfakcjonujący. A 8400 to dopiero początek sześciordzeniowej oferty Intela, więc czas skończyć zaciemniać rzeczywistość... Ryzeny są świetne do pracy wielowątkowej, do gier... nie są.
Wykres średniej wydajności był wklejany kilka komentarzy wyżej, po co miałem to robić ponownie? Co więcej, przed wykresem z Deus Exa wyraźnie napisałem, czego dotyczy uwaga, czyli testów na limicie GPU. Co więcej, dopisałem w tamtym komentarzu, że uwaga o 2600X wolniejszym od 8400 dotyczy średniej wydajności. Coś jeszcze nie pasuje? DX11/12, żadna różnica - tu i tu na limicie GPU test. Co do 2600X, to nawet dopakowany pamięciami 3200 MHz i po OC jest wolniejszy od 8400. Co prawda jest to tylko ~1% średnio, ale za zauważalnie wyższe pieniądze (przede wszystkim CPU, ale i RAM). Biorąc pod uwagę, że miał handicap w postaci kilku testów, gdzie przynajmniej Intele były limitowane przez GPU (np. Wiedźmin 3), to ciężko napisać, że jest to rezultat satysfakcjonujący. A 8400 to dopiero początek sześciordzeniowej oferty Intela, więc czas skończyć zaciemniać rzeczywistość... Ryzeny są świetne do pracy wielowątkowej, do gier... nie są.
Jest duża różnica między DX11 a DX12 - w drugim przypadku błędnie działa SMT na czym traci i Ryzen, i 8700K. Błędnie działająca gra nie może nic ilustrować - chyba, że fuszerkę programistów. Deus Ex DX12 działa na minus, nie na plus AMD.
Różnica 1% jest na granicy niepewności pomiarowej i po części wynika z Deus Ex DX12, który faworyzuje procesory bez SMT. Zdecydowanie unikałbym tu stwierdzeń, że któryś procesor jest wydajniejszy. A tym bardziej pisania o 'odstawaniu' co ma negatywny wydźwięk. Żeby zachować minimum obiektywności wystarczyło porównać te CPU na def, albo na tym samym RAM - wtedy faktycznie AMD odstaje. Wygląda to tak, jakbyś chciał na siłę dopiec AMD punktując każdy możliwy drobiazg. Nawet kosztem wyszukiwania tych śmiesznych, procentowych różnic.
Nie działa na minus AMD, bo gdyby nie było limitu GPU, to Ryzeny oberwałyby mocniej niż obrywają przy teście ograniczonym kartą.
Gdyby nie testy na limicie GPU (w tym Deus Ex - także DX12), to ta różnica byłaby większa a nie mniejsza.
I nie, nie punktuję na siłę AMD. To raczej fani marki próbują wybielić każdy aspekt mimo, że testy jasno pokazują, gdzie czerwoni stoją z rozwojem swojej architektury. Gdzie bardzo dobrze, a gdzie wciąż przeciętnie.
Nie działa na minus AMD, bo gdyby nie było limitu GPU, to Ryzeny oberwałyby mocniej niż obrywają przy teście ograniczonym kartą.
Gdyby nie testy na limicie GPU (w tym Deus Ex - także DX12), to ta różnica byłaby większa a nie mniejsza.
I nie, nie punktuję na siłę AMD. To raczej fani marki próbują wybielić każdy aspekt mimo, że testy jasno pokazują, gdzie czerwoni stoją z rozwojem swojej architektury. Gdzie bardzo dobrze, a gdzie wciąż przeciętnie.
Oj, nie powiedziałbym tak. Jak najbardziej Deus Ex DX12 działa na niekorzyść Ryzenów - gdyby grę wywalić z procedury testowej różnica między 2600x a 8400 zmalałaby do zera - ta gra faworyzuje 8400, różnica wynosi trochę więcej niż 1% - 'aż' 4-5%. Gdyby nie było limitu GPU, byłaby to zupełnie inna gra, nie sądzisz? Nic nie poradzę, że tak się ekscytujesz tym czymś.
Co do kwestii architektury - chyba AMD nie stoi wcale tak źle. IPC jest niewiele niższe, pewnie gdzieś na poziomie Haswella. Gdyby Ryzeny osiągały 4,5 GHz+ po OC, różnice byłyby jeszcze bardziej marginalne niż są.
'W przypadku gier, które są testowane w dwóch trybach (DirectX 11 i DirectX 12), do średniej będzie wliczany tylko jeden wynik – ten lepszy.'
'W przypadku gier, które są testowane w dwóch trybach (DirectX 11 i DirectX 12), do średniej będzie wliczany tylko jeden wynik – ten lepszy.'
Przepraszam, nie doczytałem tego.