Charakterystyka obciążenia na low może być zupełnie inna niż na ultra. To nie jest tak, że wszystkie elementy gry są np. pisane tak by wykorzystywać powiedzmy 4 wątki procesora. Część jest tak pisana, a część wykorzystuje np. tylko 1 rdzeń procesora. Zmniejszając szczegółowość grafiki np. możesz wyłączyć jakiś tam rodzaj fizyki przez co nagle zmienia się kolejność CPU. Po drugie w takim przypadku testuje się głównie szybkość dostarczania danych do karty graficznej, a nie fizykę czy S.I. W przypadku niektórych gier (pierwszy left 4 dead taki był) w takiej sytuacji obserwuje się niemal idealne skalowanie między 4 a 2 rdzeniami, podczas gdy obciążysz CPU fizyką to już procesory takie się zrównują. Również zupełnie inny udział jest sterownika karty graficznej.
To jest jasne, a waćpan nie zauważasz tego co tam napisałem i odtwarzasz nieco już zdarta płytę.
Bo dlatego napisałem, ze mogli robić to 640x480 nie na Low. Albo inaczej, zrobić na Low i High i może nawet na Ultra i od razu wszystko byłoby widać - przynajmniej jeśli chodzi o CPU - a przecież o to chodzi tutaj ponoć.
I nie byłoby zgadywania, które tutaj zapodajesz - ze może 1 albo 2 rdzenie, może fizyka a może chemia. To trzeba sprawdzić po prostu a nie gdybać. Będą wyniki można będzie wyciągnąć wnioski.
Bo w tej chwili to jest rozdwojenie jaźni. Z jednej strony szukasz miejsc procesorowych (co wielu podkreśla, ze ze świecą szukać i to może 1% czasu gry) co sugeruje, ze priorytet testu CPU 'Uber alles'. Z drugiej strony testowanie w niskich rozdziałkach (gdzie CPU daje na 100%) jest 'be', bo kto tak gra. No i wychodzi z tego wszystkiego nie wiadomo co - bo ani nie wiemy jak się będzie grało ani tak do jak z tymi CPU jest. Mamy tylko jakąś wieczną wojnę o efemeryczne miejsca procesorowe, które wszyscy przyjmują, że są ale mało kto potrafi je zidentyfikować.
Wskaż mi proszę, w którym miejscu napisałem, że testowanie w niskiej rozdzielczości z ustawieniami ultra jest be.
A czemu to zły? Jesli chodzi ci o pokazanie ktory CPU jest szybszy to chyba bardzo dobry wlasnie.
Testuja w 640x480 - tyle, ze moze powinni jednak dac ustawienia inne niz Low (i to ich grzech). Najlepiej takie, żeby szczegółowość świata w grze była wysoka bo to pociaga wymagania na CPU (trzeba te obiekty przygotowac, wyliczyc, itd).
No ale poza tym 'mankamentem' to co ci sie nie podoba?
Charakterystyka obciążenia na low może być zupełnie inna niż na ultra. To nie jest tak, że wszystkie elementy gry są np. pisane tak by wykorzystywać powiedzmy 4 wątki procesora. Część jest tak pisana, a część wykorzystuje np. tylko 1 rdzeń procesora. Zmniejszając szczegółowość grafiki np. możesz wyłączyć jakiś tam rodzaj fizyki przez co nagle zmienia się kolejność CPU. Po drugie w takim przypadku testuje się głównie szybkość dostarczania danych do karty graficznej, a nie fizykę czy S.I. W przypadku niektórych gier (pierwszy left 4 dead taki był) w takiej sytuacji obserwuje się niemal idealne skalowanie między 4 a 2 rdzeniami, podczas gdy obciążysz CPU fizyką to już procesory takie się zrównują. Również zupełnie inny udział jest sterownika karty graficznej.
To jest jasne, a waćpan nie zauważasz tego co tam napisałem i odtwarzasz nieco już zdarta płytę.
Bo dlatego napisałem, ze mogli robić to 640x480 nie na Low. Albo inaczej, zrobić na Low i High i może nawet na Ultra i od razu wszystko byłoby widać - przynajmniej jeśli chodzi o CPU - a przecież o to chodzi tutaj ponoć.
I nie byłoby zgadywania, które tutaj zapodajesz - ze może 1 albo 2 rdzenie, może fizyka a może chemia. To trzeba sprawdzić po prostu a nie gdybać. Będą wyniki można będzie wyciągnąć wnioski.
Bo w tej chwili to jest rozdwojenie jaźni. Z jednej strony szukasz miejsc procesorowych (co wielu podkreśla, ze ze świecą szukać i to może 1% czasu gry) co sugeruje, ze priorytet testu CPU 'Uber alles'. Z drugiej strony testowanie w niskich rozdziałkach (gdzie CPU daje na 100%) jest 'be', bo kto tak gra. No i wychodzi z tego wszystkiego nie wiadomo co - bo ani nie wiemy jak się będzie grało ani tak do jak z tymi CPU jest. Mamy tylko jakąś wieczną wojnę o efemeryczne miejsca procesorowe, które wszyscy przyjmują, że są ale mało kto potrafi je zidentyfikować.
Zróbcie test, gdzie na sztywno ustawicie zegary (bez Turbo) i5 od Sandy Bridge aż po Skylake. Wtedy skończy się psioczenie, że nie widać różnic wydajności pomiędzy coraz nowszymi architekturami procesorów. Nie trzeba robić dużych testów wystarczy Adobe, kodowanie do x264, GTA V oraz Wiedźmin3
Zróbcie test, gdzie na sztywno ustawicie zegary (bez Turbo) i5 od Sandy Bridge aż po Skylake. Wtedy skończy się psioczenie, że nie widać różnic wydajności pomiędzy coraz nowszymi architekturami procesorów. Nie trzeba robić dużych testów wystarczy Adobe, kodowanie do x264, GTA V oraz Wiedźmin3
Skoro PCLab tak świetnie rozumie temat, to dlaczego Wasze testy są lepsze od większości konkurencji, ale nie w 100% poprawne?
Bardzo proszę, namawiam i apeluję o perfekcyjny test nowych CPU:
- to, że jakaś karta jest najszybsza teraz nie ma znaczenia, bo najszybsza=/=idealna. Dlatego test powinien odbywać się w ustawieniach nie takich, w jakich większość ludzi będzie grała, a w takich, gdzie różnice między procesorami będą miały zminimalizowany wpływ GPU na wydajność tak mocno jak to możliwe. Dlatego ABSOLUTNIE nie wolno testować gier, jak Wy, na ustawieniach ultra! Najlepszym testem moim zdaniem byłby taki, gdzie tylko geometrię (najbardziej zależne od CPU) zostawiamy na max, a reszta leci na medium albo i low (poza teksturami, bo te nie mają prawie wpływu na wydajność w grach, gdzie 99% gier jest robione pod konsole mające ułamek wydajności TMU w porównaniu do kart PC. Po co psuć wyniki jakimiś skomplikowanymi shaderami, które nie dość, że mogą przestać zapychać kompa przy następnej generacji kart (tak, tak - testy będą oglądać ludzie w przyszłości, np. za rok gdy ktoś będzie chciał info co kupić do Pascala), ale i wydajność tych obliczeń może się mocno 'odetkać' po przejściu na DX12.
- gdy macie informacje na temat działania silnika gry w kwestii automatycznego dostosowywania geometrii do rozdzielczości, nawet na 980ti po OC testy CPU powinny być w 900p a nie 1080p. A nawet w 720p. O ile nie mamy do czynienia z grą, która w niższej rozdziałce po prostu renderuje mniej, z uwagi na np. algorytm regulujący LoD czy view distance, zależnie od rozdziałki, czy (co częściej spotykane) moc tesselacji, zależnie od poligonów przypadającyh na jeden piksel na ekranie. W takim przypadku zejście poniżej 900p byłoby wręcz błędem, ale nadal poza 1080p bym nie wychodził, a jeśli już, to tylko jako dodatkowy test.
- ustawienia całościowe typu lowest są tak samo nieprzydatne jak ultra, bo wycina to razem z obciążającymi GPU duperelami, także geometrię, która najbardziej zatyka CPU (jak kto nie wierzy to niech zerknie na testy w Dying Light i chociażby wpływ view distance na wydajność na tle innych ustawień )
Takie testy są bardzo ważne dla wszystkich, a szczególnie dla posiadaczy monitorów 120Hz, bo do tego przydałoby się znacznie więcej mocy niż oferuje nawet Skylake po OC, a na dobrym monitorze z trybem low persistence, 100x więcej detali widać na ustawieniach medium w 120fps niż ultra w 100fps (przy v-sync on, oczywiście), podczas normalnej gry, gdzie występuje ruch. Nie posiadanie monitora z LP przy kompie z procem za 1500 i kartą za 3000zł to coś tak przeczącego logice, że tylko można to tłumaczyć niewiedzą, ale to, że więcej ludzi sobie z czegoś nie zdaje sprawy nie powinno Was interesować. Was powinno interesować, żeby cały świat linkował do Waszego testu, jako tego wykonanego w 100% perfekcyjnie. A jesteście o krok. Tylko te nieszczęsne ultra sprawia, że Wasz test nie powiedział mi tego wszystkiego co chcę wiedzieć o Skylake'u.
- dodatkowo:
Masa ludzi, chyba najwięcej wśród tych, których interesje przesiadka na Skylake'i, posiada Sandy Bridge'a. Test byłby bardziej przydatny gdybyście w przypadku Sandy testowali na pamięciach wykręcających najlepszy czas dostępu (choćby w teście latency w AIDA64). Te 1866 CL 8-9 to nie jest szczyt możliwości kontrolerów w 2500k/2600k i są tacy, którzy osiągają lepsze wyniki na swoich Mostach Piaskowych. Potem taki spojrzy, kupi Skylake'a i się rozczaruje mniejszym niż oczekiwany przyrostem wydajności.
PS.
Kiedyś, dawno temu, gdy testy CPU na FrazPC nie miały sobie równych, tylko w ich testach pokazała się jakaś dziwnie duża róznica między C2D 2MB a C2D 6MB. Po latach okazało się, że była ona prorocza i e6300 @3GHz potrafił wykręcać 50fps tam gdzie e6600 3GHz miał nie 55fps, a 75fps. Nikt by się tego nie dowiedział, gdyby nie test poniżej ustawień ultra. Wszyscy powtarzali wtedy bzdurę, że nie ma co dopłacać do e6600 z większym cache'm. A potem się okazywało, że trzeba proca zmieniać.
Bądźcie tymi, u których pojawią się ciekawe wyniki. Nie dość, że będziecie linkowani na świecie jako najlepszy test, to jeszcze sprowokujecie ciekawe dyskusje entuzjastów, co znowu może się wielu osobom, a może i wszystkim, przydać.
Come on! To nie wymaga tak dużo wysiłku.
Focus, jeśli chcecie rozwiać wątpliwości to po prostu dodajcie do testów Haswella na normalnych pamięciach, bo nie czarujmy się, nikt nie kupuje najdroższego procesora i najtańszych pamięci 1600Mhz skoro niewiele drożej ma 2400. Porównywanie najtańszych DDR3 z drogimi DDR4 nie jest uczciwe, tym bardziej, że różnica między 1600 a 2400 nie jest wcale mała.
Dla przykładu: w Watch Dogs Haswell zyskuje na pamięciach 2400MHz ~15% wydajności.
Natomiast różnica w waszym teście między Haswellem na najtańszych pamięciach, a Skylake z DDR4 2666MHz za 700zł to...
surprise!
~15%
Dlatego proszę, przemyślcie moją propozycję, zamiast odbijać piłeczkę tłumacząc się wąskim gardłem GPU na zagranicznych serwisach. Wszytko będzie jasne i skończą się pretensje.
Mistrzu, DDR3 mieliśmy na 2133 CL10. Pokaż mi proszę te testy, o których piszesz.
Przecież masz w teście napisane jakie były pamięci:
'We wszystkich testach, w których w użyciu była pamięć DDR3, stosowaliśmy moduły DDR-1866 działające z opóźnieniami 9-9-10-24 1N. W przypadku platformy LGA1151 korzystaliśmy z modułów DDR4 typu DDR-2666 działających z opóźnieniami 16-17-17-36 2N. '
dzięki za świetną recenzję i dodatkowe wyjaśnienia. jedno mnie niepokoi: dlaczego ustawienia pamięci ddr3 i ddr4 zostały wybrane, jak się zdaje, przypadkowo (brak uzasadnienia w opisie). nie są to ani oficjalnie wspierane standardy, ani ten sam przedział cenowy (wg. cenowarki 16gb dd4 o takich parametrach kosztowałoby w PL jakieś 160zł więcej), ani zecydowanie nie jest to ta sama wydajność (dowód: porównanie ddr3 do ddr4 na z170 http://www.hardware.fr/articles/940-5/cpu-...-pratique.html)
W świetle tego zarówno wyniki porównania samych procesorów, jak i wyliczenia opłacalności, są zafałszowane, choć nieznacznie.
Panie redaktorze, powtarza Pan jak mantrę historię o doborze właściwych miejsc testowych, a na proste pytanie metodologiczne nie chce odpowiedzieć, mimo jego ponawiana. Poza tym jakie pamięci były użyte, takie jak w recenzji, czy jak w komentarzu?
Jeszcze jedno napiszę: w ogóle jestem zaskoczony, że tak dużą wagę przywiązujecie do miejsc testowych, do reprezentatywności testów względem grania w domu, a tu serwujecie testy w low i mówicie, że takie są 'spoko'. Ręce można załamać...
Teraz zauważyłem co zalinkowałeś... Niestety ale to jest bardzo zły pomysł na testowanie i jeśli takie testy są Twoim zdaniem OK, to... sorry.
A czemu to zły? Jesli chodzi ci o pokazanie ktory CPU jest szybszy to chyba bardzo dobry wlasnie.
Testuja w 640x480 - tyle, ze moze powinni jednak dac ustawienia inne niz Low (i to ich grzech). Najlepiej takie, żeby szczegółowość świata w grze była wysoka bo to pociaga wymagania na CPU (trzeba te obiekty przygotowac, wyliczyc, itd).
No ale poza tym 'mankamentem' to co ci sie nie podoba?
Charakterystyka obciążenia na low może być zupełnie inna niż na ultra. To nie jest tak, że wszystkie elementy gry są np. pisane tak by wykorzystywać powiedzmy 4 wątki procesora. Część jest tak pisana, a część wykorzystuje np. tylko 1 rdzeń procesora. Zmniejszając szczegółowość grafiki np. możesz wyłączyć jakiś tam rodzaj fizyki przez co nagle zmienia się kolejność CPU. Po drugie w takim przypadku testuje się głównie szybkość dostarczania danych do karty graficznej, a nie fizykę czy S.I. W przypadku niektórych gier (pierwszy left 4 dead taki był) w takiej sytuacji obserwuje się niemal idealne skalowanie między 4 a 2 rdzeniami, podczas gdy obciążysz CPU fizyką to już procesory takie się zrównują. Również zupełnie inny udział jest sterownika karty graficznej.
Generalnie: taki jest jest tyle samo wart, co taki na którym wszystkie CPU mają te same wyniki.
Teraz zauważyłem co zalinkowałeś... Niestety ale to jest bardzo zły pomysł na testowanie i jeśli takie testy są Twoim zdaniem OK, to... sorry.
A czemu to zły? Jesli chodzi ci o pokazanie ktory CPU jest szybszy to chyba bardzo dobry wlasnie.
Testuja w 640x480 - tyle, ze moze powinni jednak dac ustawienia inne niz Low (i to ich grzech). Najlepiej takie, żeby szczegółowość świata w grze była wysoka bo to pociaga wymagania na CPU (trzeba te obiekty przygotowac, wyliczyc, itd).
No ale poza tym 'mankamentem' to co ci sie nie podoba?
Zapewne chodzi o to, że nie jest to test, które wymaga dużo od cpu. Ot, zwyczajne, przypadkowe miejsce testowe, w którym, żeby wykazać różnicę między cpu posłużono się ekstremalnie niską rozdzielczością.
Nie zgodzę się, że jest to aż tak 'bardzo zły pomysł'. Przyznaję, że trochę słaby test i te na pcl i ppl są znacznie lepsze, lecz w natłoku innych gdzie mamy płaskie wykresy między 2500k a skylake (czasami nawet i3 i FX) to ten nie jest tak tragiczny, bo jakiś tam obraz wydajności procesorów daje...
Teraz zauważyłem co zalinkowałeś... Niestety ale to jest bardzo zły pomysł na testowanie i jeśli takie testy są Twoim zdaniem OK, to... sorry.
A czemu to zły? Jesli chodzi ci o pokazanie ktory CPU jest szybszy to chyba bardzo dobry wlasnie.
Testuja w 640x480 - tyle, ze moze powinni jednak dac ustawienia inne niz Low (i to ich grzech). Najlepiej takie, żeby szczegółowość świata w grze była wysoka bo to pociaga wymagania na CPU (trzeba te obiekty przygotowac, wyliczyc, itd).
No ale poza tym 'mankamentem' to co ci sie nie podoba?
Podsumowując: jednak dla portalu to dobrze, że jest tyle komentarzy i odsłon Jeszcze raz proszę o testy oc przez bclk (oczywiście temat zasługuje na osobny artykuł i rozumiem, że w recenzji brakło czasu). No i jakie w końcu były te ddr3 - takie jak pisał Focus w wątku, czy jak jest napisane w teście. To w sumie nie zrobi wielkiej różnicy i pewnie macie błąd w opisie w teście po prostu, ale...
Nie ma co się czepiać małych różnic a bo pamięci nie takie a bo miejsce testowe, widać że chłopy się starają testują jak mogą, jak ktoś o coś pyta dlaczego tak a nie inaczej argumentują to a nie bo tak jest.
Jakby nie było gołym okiem widać że skylake szybszy od haswel i tyle a to czy ktoś uzna że warto wymienić to już jego sprawa
cieszcie się że wszystkie procesory nie mają jednakowych wyników jak za granicą
dobra robota a podejrzewam że będzie czas to polecą testy z innymi pamięciami czy tam różnymi udziwnieniami
Nie wiem. To było przypuszczenie - najlepiej jakby sam pclab się do tego odniósł.
Pclab nie ma zamiaru komentować bezpodstawnych oskarżeń. A swoje w tej sprawie już napisał (opisał w artykułach i pokazał na filmach). Jeśli mimo to ktoś nie potrafi kulturalnie zapytać i/lub się wypowiadać na ten temat, to znaczy że takiej odpowiedzi nie oczekuje, bo 'sam już lepiej wie'. Jeszcze jedno: przypuszczenia wyraża się w inny sposób, doczytaj w internecie w jaki.
Nom, szkoda, że GTA V ciśnie proca przez grubo ponad 3/4 gry, a Wiesiek w każdej wiosce i na bagnach czyli też spora część gry.
Prawda, ale skąd wiesz jakie miejsca pokazał pclab? - może wzięli jakieś b. mocno obciążające i powtarzam - niereprezentatywne dla ogółu gry miejsca i wyniki na wykresach są przekłamane? Te serwisy co pokazały zupełny brak różnic to pewnikiem przegięły w drugą stronę i pokazały tylko jak równo karta graficzna ogranicza wszystkie testowane proce. Pclab z tego co kiedyś czytałem to do testowania procesorów stosuje miejsca 'procesorowe' a do testowania kart graficznych stosuje miejsca 'graficzne'. Wg mnie powinni brać takie miejsca które, są pokazują jednakowy wynik dla większości przebiegu gry - a w tym przypadku wątpię żeby tak zrobili.
Że tak zacytuję: 'skąd wiesz jakie miejsca pokazał pclab, że twierdzisz że nie są reprezentatywne dla większości przebiegu gry?
Co prawda nic nie wyjasniles, ale ja zauwazylem, ze sie nieco zapedzilem bo po prostu na obu wykresach limitem jest GPU.
Ale co mam wyjaśniać? Zadaj normalne, konkretne pytanie, to Ci wyjaśnię. Podałeś mi porównanie całkowicie bez sensu w wałkowanym temacie. Rozmawiamy o testach cpu i ich ewentualnego ograniczenia przez gpu a nie samych testach gpu.
tu masz raczej dobrze przeprowadzony test cpu:
Rome 2 jak wyszła była znacznie gorzej zoptymalizowana i wymagała jeszcze więcej od cpu.
Charakterystyka obciążenia na low może być zupełnie inna niż na ultra. To nie jest tak, że wszystkie elementy gry są np. pisane tak by wykorzystywać powiedzmy 4 wątki procesora. Część jest tak pisana, a część wykorzystuje np. tylko 1 rdzeń procesora. Zmniejszając szczegółowość grafiki np. możesz wyłączyć jakiś tam rodzaj fizyki przez co nagle zmienia się kolejność CPU. Po drugie w takim przypadku testuje się głównie szybkość dostarczania danych do karty graficznej, a nie fizykę czy S.I. W przypadku niektórych gier (pierwszy left 4 dead taki był) w takiej sytuacji obserwuje się niemal idealne skalowanie między 4 a 2 rdzeniami, podczas gdy obciążysz CPU fizyką to już procesory takie się zrównują. Również zupełnie inny udział jest sterownika karty graficznej.
To jest jasne, a waćpan nie zauważasz tego co tam napisałem i odtwarzasz nieco już zdarta płytę.
Bo dlatego napisałem, ze mogli robić to 640x480 nie na Low. Albo inaczej, zrobić na Low i High i może nawet na Ultra i od razu wszystko byłoby widać - przynajmniej jeśli chodzi o CPU - a przecież o to chodzi tutaj ponoć.
I nie byłoby zgadywania, które tutaj zapodajesz - ze może 1 albo 2 rdzenie, może fizyka a może chemia. To trzeba sprawdzić po prostu a nie gdybać. Będą wyniki można będzie wyciągnąć wnioski.
Bo w tej chwili to jest rozdwojenie jaźni. Z jednej strony szukasz miejsc procesorowych (co wielu podkreśla, ze ze świecą szukać i to może 1% czasu gry) co sugeruje, ze priorytet testu CPU 'Uber alles'. Z drugiej strony testowanie w niskich rozdziałkach (gdzie CPU daje na 100%) jest 'be', bo kto tak gra. No i wychodzi z tego wszystkiego nie wiadomo co - bo ani nie wiemy jak się będzie grało ani tak do jak z tymi CPU jest. Mamy tylko jakąś wieczną wojnę o efemeryczne miejsca procesorowe, które wszyscy przyjmują, że są ale mało kto potrafi je zidentyfikować.
Wskaż mi proszę, w którym miejscu napisałem, że testowanie w niskiej rozdzielczości z ustawieniami ultra jest be.
A czemu to zły? Jesli chodzi ci o pokazanie ktory CPU jest szybszy to chyba bardzo dobry wlasnie.
Testuja w 640x480 - tyle, ze moze powinni jednak dac ustawienia inne niz Low (i to ich grzech). Najlepiej takie, żeby szczegółowość świata w grze była wysoka bo to pociaga wymagania na CPU (trzeba te obiekty przygotowac, wyliczyc, itd).
No ale poza tym 'mankamentem' to co ci sie nie podoba?
Charakterystyka obciążenia na low może być zupełnie inna niż na ultra. To nie jest tak, że wszystkie elementy gry są np. pisane tak by wykorzystywać powiedzmy 4 wątki procesora. Część jest tak pisana, a część wykorzystuje np. tylko 1 rdzeń procesora. Zmniejszając szczegółowość grafiki np. możesz wyłączyć jakiś tam rodzaj fizyki przez co nagle zmienia się kolejność CPU. Po drugie w takim przypadku testuje się głównie szybkość dostarczania danych do karty graficznej, a nie fizykę czy S.I. W przypadku niektórych gier (pierwszy left 4 dead taki był) w takiej sytuacji obserwuje się niemal idealne skalowanie między 4 a 2 rdzeniami, podczas gdy obciążysz CPU fizyką to już procesory takie się zrównują. Również zupełnie inny udział jest sterownika karty graficznej.
To jest jasne, a waćpan nie zauważasz tego co tam napisałem i odtwarzasz nieco już zdarta płytę.
Bo dlatego napisałem, ze mogli robić to 640x480 nie na Low. Albo inaczej, zrobić na Low i High i może nawet na Ultra i od razu wszystko byłoby widać - przynajmniej jeśli chodzi o CPU - a przecież o to chodzi tutaj ponoć.
I nie byłoby zgadywania, które tutaj zapodajesz - ze może 1 albo 2 rdzenie, może fizyka a może chemia. To trzeba sprawdzić po prostu a nie gdybać. Będą wyniki można będzie wyciągnąć wnioski.
Bo w tej chwili to jest rozdwojenie jaźni. Z jednej strony szukasz miejsc procesorowych (co wielu podkreśla, ze ze świecą szukać i to może 1% czasu gry) co sugeruje, ze priorytet testu CPU 'Uber alles'. Z drugiej strony testowanie w niskich rozdziałkach (gdzie CPU daje na 100%) jest 'be', bo kto tak gra. No i wychodzi z tego wszystkiego nie wiadomo co - bo ani nie wiemy jak się będzie grało ani tak do jak z tymi CPU jest. Mamy tylko jakąś wieczną wojnę o efemeryczne miejsca procesorowe, które wszyscy przyjmują, że są ale mało kto potrafi je zidentyfikować.
A co jest w teście?
Bardzo proszę, namawiam i apeluję o perfekcyjny test nowych CPU:
- to, że jakaś karta jest najszybsza teraz nie ma znaczenia, bo najszybsza=/=idealna. Dlatego test powinien odbywać się w ustawieniach nie takich, w jakich większość ludzi będzie grała, a w takich, gdzie różnice między procesorami będą miały zminimalizowany wpływ GPU na wydajność tak mocno jak to możliwe. Dlatego ABSOLUTNIE nie wolno testować gier, jak Wy, na ustawieniach ultra! Najlepszym testem moim zdaniem byłby taki, gdzie tylko geometrię (najbardziej zależne od CPU) zostawiamy na max, a reszta leci na medium albo i low (poza teksturami, bo te nie mają prawie wpływu na wydajność w grach, gdzie 99% gier jest robione pod konsole mające ułamek wydajności TMU w porównaniu do kart PC. Po co psuć wyniki jakimiś skomplikowanymi shaderami, które nie dość, że mogą przestać zapychać kompa przy następnej generacji kart (tak, tak - testy będą oglądać ludzie w przyszłości, np. za rok gdy ktoś będzie chciał info co kupić do Pascala), ale i wydajność tych obliczeń może się mocno 'odetkać' po przejściu na DX12.
- gdy macie informacje na temat działania silnika gry w kwestii automatycznego dostosowywania geometrii do rozdzielczości, nawet na 980ti po OC testy CPU powinny być w 900p a nie 1080p. A nawet w 720p. O ile nie mamy do czynienia z grą, która w niższej rozdziałce po prostu renderuje mniej, z uwagi na np. algorytm regulujący LoD czy view distance, zależnie od rozdziałki, czy (co częściej spotykane) moc tesselacji, zależnie od poligonów przypadającyh na jeden piksel na ekranie. W takim przypadku zejście poniżej 900p byłoby wręcz błędem, ale nadal poza 1080p bym nie wychodził, a jeśli już, to tylko jako dodatkowy test.
- ustawienia całościowe typu lowest są tak samo nieprzydatne jak ultra, bo wycina to razem z obciążającymi GPU duperelami, także geometrię, która najbardziej zatyka CPU (jak kto nie wierzy to niech zerknie na testy w Dying Light i chociażby wpływ view distance na wydajność na tle innych ustawień )
Takie testy są bardzo ważne dla wszystkich, a szczególnie dla posiadaczy monitorów 120Hz, bo do tego przydałoby się znacznie więcej mocy niż oferuje nawet Skylake po OC, a na dobrym monitorze z trybem low persistence, 100x więcej detali widać na ustawieniach medium w 120fps niż ultra w 100fps (przy v-sync on, oczywiście), podczas normalnej gry, gdzie występuje ruch. Nie posiadanie monitora z LP przy kompie z procem za 1500 i kartą za 3000zł to coś tak przeczącego logice, że tylko można to tłumaczyć niewiedzą, ale to, że więcej ludzi sobie z czegoś nie zdaje sprawy nie powinno Was interesować. Was powinno interesować, żeby cały świat linkował do Waszego testu, jako tego wykonanego w 100% perfekcyjnie. A jesteście o krok. Tylko te nieszczęsne ultra sprawia, że Wasz test nie powiedział mi tego wszystkiego co chcę wiedzieć o Skylake'u.
- dodatkowo:
Masa ludzi, chyba najwięcej wśród tych, których interesje przesiadka na Skylake'i, posiada Sandy Bridge'a. Test byłby bardziej przydatny gdybyście w przypadku Sandy testowali na pamięciach wykręcających najlepszy czas dostępu (choćby w teście latency w AIDA64). Te 1866 CL 8-9 to nie jest szczyt możliwości kontrolerów w 2500k/2600k i są tacy, którzy osiągają lepsze wyniki na swoich Mostach Piaskowych. Potem taki spojrzy, kupi Skylake'a i się rozczaruje mniejszym niż oczekiwany przyrostem wydajności.
PS.
Kiedyś, dawno temu, gdy testy CPU na FrazPC nie miały sobie równych, tylko w ich testach pokazała się jakaś dziwnie duża róznica między C2D 2MB a C2D 6MB. Po latach okazało się, że była ona prorocza i e6300 @3GHz potrafił wykręcać 50fps tam gdzie e6600 3GHz miał nie 55fps, a 75fps. Nikt by się tego nie dowiedział, gdyby nie test poniżej ustawień ultra. Wszyscy powtarzali wtedy bzdurę, że nie ma co dopłacać do e6600 z większym cache'm. A potem się okazywało, że trzeba proca zmieniać.
Bądźcie tymi, u których pojawią się ciekawe wyniki. Nie dość, że będziecie linkowani na świecie jako najlepszy test, to jeszcze sprowokujecie ciekawe dyskusje entuzjastów, co znowu może się wielu osobom, a może i wszystkim, przydać.
Come on! To nie wymaga tak dużo wysiłku.
Dla przykładu: w Watch Dogs Haswell zyskuje na pamięciach 2400MHz ~15% wydajności.
Natomiast różnica w waszym teście między Haswellem na najtańszych pamięciach, a Skylake z DDR4 2666MHz za 700zł to...
surprise!
~15%
Dlatego proszę, przemyślcie moją propozycję, zamiast odbijać piłeczkę tłumacząc się wąskim gardłem GPU na zagranicznych serwisach. Wszytko będzie jasne i skończą się pretensje.
Mistrzu, DDR3 mieliśmy na 2133 CL10. Pokaż mi proszę te testy, o których piszesz.
'We wszystkich testach, w których w użyciu była pamięć DDR3, stosowaliśmy moduły DDR-1866 działające z opóźnieniami 9-9-10-24 1N. W przypadku platformy LGA1151 korzystaliśmy z modułów DDR4 typu DDR-2666 działających z opóźnieniami 16-17-17-36 2N. '
dzięki za świetną recenzję i dodatkowe wyjaśnienia. jedno mnie niepokoi: dlaczego ustawienia pamięci ddr3 i ddr4 zostały wybrane, jak się zdaje, przypadkowo (brak uzasadnienia w opisie). nie są to ani oficjalnie wspierane standardy, ani ten sam przedział cenowy (wg. cenowarki 16gb dd4 o takich parametrach kosztowałoby w PL jakieś 160zł więcej), ani zecydowanie nie jest to ta sama wydajność (dowód: porównanie ddr3 do ddr4 na z170 http://www.hardware.fr/articles/940-5/cpu-...-pratique.html)
W świetle tego zarówno wyniki porównania samych procesorów, jak i wyliczenia opłacalności, są zafałszowane, choć nieznacznie.
Panie redaktorze, powtarza Pan jak mantrę historię o doborze właściwych miejsc testowych, a na proste pytanie metodologiczne nie chce odpowiedzieć, mimo jego ponawiana. Poza tym jakie pamięci były użyte, takie jak w recenzji, czy jak w komentarzu?
A czemu to zły? Jesli chodzi ci o pokazanie ktory CPU jest szybszy to chyba bardzo dobry wlasnie.
Testuja w 640x480 - tyle, ze moze powinni jednak dac ustawienia inne niz Low (i to ich grzech). Najlepiej takie, żeby szczegółowość świata w grze była wysoka bo to pociaga wymagania na CPU (trzeba te obiekty przygotowac, wyliczyc, itd).
No ale poza tym 'mankamentem' to co ci sie nie podoba?
Charakterystyka obciążenia na low może być zupełnie inna niż na ultra. To nie jest tak, że wszystkie elementy gry są np. pisane tak by wykorzystywać powiedzmy 4 wątki procesora. Część jest tak pisana, a część wykorzystuje np. tylko 1 rdzeń procesora. Zmniejszając szczegółowość grafiki np. możesz wyłączyć jakiś tam rodzaj fizyki przez co nagle zmienia się kolejność CPU. Po drugie w takim przypadku testuje się głównie szybkość dostarczania danych do karty graficznej, a nie fizykę czy S.I. W przypadku niektórych gier (pierwszy left 4 dead taki był) w takiej sytuacji obserwuje się niemal idealne skalowanie między 4 a 2 rdzeniami, podczas gdy obciążysz CPU fizyką to już procesory takie się zrównują. Również zupełnie inny udział jest sterownika karty graficznej.
Generalnie: taki jest jest tyle samo wart, co taki na którym wszystkie CPU mają te same wyniki.
A czemu to zły? Jesli chodzi ci o pokazanie ktory CPU jest szybszy to chyba bardzo dobry wlasnie.
Testuja w 640x480 - tyle, ze moze powinni jednak dac ustawienia inne niz Low (i to ich grzech). Najlepiej takie, żeby szczegółowość świata w grze była wysoka bo to pociaga wymagania na CPU (trzeba te obiekty przygotowac, wyliczyc, itd).
No ale poza tym 'mankamentem' to co ci sie nie podoba?
Zapewne chodzi o to, że nie jest to test, które wymaga dużo od cpu. Ot, zwyczajne, przypadkowe miejsce testowe, w którym, żeby wykazać różnicę między cpu posłużono się ekstremalnie niską rozdzielczością.
Nie zgodzę się, że jest to aż tak 'bardzo zły pomysł'. Przyznaję, że trochę słaby test i te na pcl i ppl są znacznie lepsze, lecz w natłoku innych gdzie mamy płaskie wykresy między 2500k a skylake (czasami nawet i3 i FX) to ten nie jest tak tragiczny, bo jakiś tam obraz wydajności procesorów daje...
Przy porównywalnej wydajności pamięci idą łeb w łeb - w granicach 5%, a w Bioshocku Haswell wychodzi przed szereg.
http://www.hardocp.com/article/2015/08/05/...ocking_review/6
A czemu to zły? Jesli chodzi ci o pokazanie ktory CPU jest szybszy to chyba bardzo dobry wlasnie.
Testuja w 640x480 - tyle, ze moze powinni jednak dac ustawienia inne niz Low (i to ich grzech). Najlepiej takie, żeby szczegółowość świata w grze była wysoka bo to pociaga wymagania na CPU (trzeba te obiekty przygotowac, wyliczyc, itd).
No ale poza tym 'mankamentem' to co ci sie nie podoba?
Co prawda nic nie wyjasniles, ale ja zauwazylem, ze sie nieco zapedzilem bo po prostu na obu wykresach limitem jest GPU.
Ale co mam wyjaśniać? Zadaj normalne, konkretne pytanie, to Ci wyjaśnię.
Napisalem, ze nic nie wyjasniles, bo w zwiazku z moim zapedzeniem sie (bledem, niedopatrzeniem) nie bylo nic do wyjasniania.
Jakby nie było gołym okiem widać że skylake szybszy od haswel i tyle a to czy ktoś uzna że warto wymienić to już jego sprawa
cieszcie się że wszystkie procesory nie mają jednakowych wyników jak za granicą
dobra robota a podejrzewam że będzie czas to polecą testy z innymi pamięciami czy tam różnymi udziwnieniami
Pclab nie ma zamiaru komentować bezpodstawnych oskarżeń. A swoje w tej sprawie już napisał (opisał w artykułach i pokazał na filmach). Jeśli mimo to ktoś nie potrafi kulturalnie zapytać i/lub się wypowiadać na ten temat, to znaczy że takiej odpowiedzi nie oczekuje, bo 'sam już lepiej wie'. Jeszcze jedno: przypuszczenia wyraża się w inny sposób, doczytaj w internecie w jaki.
Nom, szkoda, że GTA V ciśnie proca przez grubo ponad 3/4 gry, a Wiesiek w każdej wiosce i na bagnach czyli też spora część gry.
Prawda, ale skąd wiesz jakie miejsca pokazał pclab? - może wzięli jakieś b. mocno obciążające i powtarzam - niereprezentatywne dla ogółu gry miejsca i wyniki na wykresach są przekłamane? Te serwisy co pokazały zupełny brak różnic to pewnikiem przegięły w drugą stronę i pokazały tylko jak równo karta graficzna ogranicza wszystkie testowane proce. Pclab z tego co kiedyś czytałem to do testowania procesorów stosuje miejsca 'procesorowe' a do testowania kart graficznych stosuje miejsca 'graficzne'. Wg mnie powinni brać takie miejsca które, są pokazują jednakowy wynik dla większości przebiegu gry - a w tym przypadku wątpię żeby tak zrobili.
Że tak zacytuję: 'skąd wiesz jakie miejsca pokazał pclab, że twierdzisz że nie są reprezentatywne dla większości przebiegu gry?
Przy porównywalnej wydajności pamięci idą łeb w łeb - w granicach 5%, a w Bioshocku Haswell wychodzi przed szereg.
http://www.hardocp.com/article/2015/08/05/...ocking_review/6
Co prawda nic nie wyjasniles, ale ja zauwazylem, ze sie nieco zapedzilem bo po prostu na obu wykresach limitem jest GPU.
Ale co mam wyjaśniać? Zadaj normalne, konkretne pytanie, to Ci wyjaśnię. Podałeś mi porównanie całkowicie bez sensu w wałkowanym temacie. Rozmawiamy o testach cpu i ich ewentualnego ograniczenia przez gpu a nie samych testach gpu.
tu masz raczej dobrze przeprowadzony test cpu:
Rome 2 jak wyszła była znacznie gorzej zoptymalizowana i wymagała jeszcze więcej od cpu.