komentarze
GromitekZobacz profil
Poziom ostrzeżenia: 0%
Gromitek2015.08.06, 20:13
Kowal @ 2015.08.06 19:51  Post: 895676
Gromitek @ 2015.08.06 19:44  Post: 895672

A wg mnie to pclab wybiera złe miejsce testowe - bo wyszukali pewnie na siłę takie, które najmocniej obciąża procesor i które pokaże różnice pomiędzy procesorami. Później Kowalski zobaczy o jest różnica 20 % czyli warto wymienić procesor, to mi wiesiek, gta będzie szybciej chodzić. A na koniec się okazuje, że miejsc które mocno wykorzystują procesor ze świecą szukać i prez 90% czasu gry nie ma różnicy miezy precesorami i że wymiana dla tych rzadkich miejsc była zupełnie niepotrzebna.

Nom, szkoda, że GTA V ciśnie proca przez grubo ponad 3/4 gry, a Wiesiek w każdej wiosce i na bagnach czyli też spora część gry.


Prawda, ale skąd wiesz jakie miejsca pokazał pclab? - może wzięli jakieś b. mocno obciążające i powtarzam - niereprezentatywne dla ogółu gry miejsca i wyniki na wykresach są przekłamane? Te serwisy co pokazały zupełny brak różnic to pewnikiem przegięły w drugą stronę i pokazały tylko jak równo karta graficzna ogranicza wszystkie testowane proce. Pclab z tego co kiedyś czytałem to do testowania procesorów stosuje miejsca 'procesorowe' a do testowania kart graficznych stosuje miejsca 'graficzne'. Wg mnie powinni brać takie miejsca które, są pokazują jednakowy wynik dla większości przebiegu gry - a w tym przypadku wątpię żeby tak zrobili.
motiffZobacz profil
Poziom ostrzeżenia: 0%
motiff2015.08.06, 20:06
Żywy @ 2015.08.06 19:59  Post: 895678
Dopoki gry nie zaczna wykorzystywac wiecej niz 2-4 watkow to byle jaki Intel sprzed ostatnich 5-6 lat @4.5-4.7GHz spokojnie starczy do odpalenia kazdej dowolnej gry. A w sumie nawet jak to nastapi to gro obliczen i tak i tak wykonuje GPU.

Nie czekaj na gry, bo kto tam palcem ruszy dla więcej jak 8 wątków, konsole nie mają tyle, w pecetach nie ma na to cienia szans.
tomcugZobacz profil
Poziom ostrzeżenia: 0%
tomcug2015.08.06, 19:59
Gromitek @ 2015.08.06 19:44  Post: 895672
A wg mnie to pclab wprowadza w błąd wybierając rzadkie i niereprezentacyjne dla ogółu gry miejsce testowe

Gwarantuję Ci, że wcale nie są takie 'niereprezentacyjne', jak próbujesz sugerować. Poza tym, innego dobrego podejścia do testowania procesorów nie ma.
wahooZobacz profil
Poziom ostrzeżenia: 0%
wahoo2015.08.06, 19:59
Nawet jeśli po procesorze przyciśnie cię jedna jedyna lokacja w grze, może się okazać że tej gry w ogóle nie ukończysz bo podczas walki z jakimś bossem framerate poleciał z 50 na 10 fps i nic nie możesz z tym zrobić poza wymianą procesora. Przypadek skrajny, ale możliwy (ostatni (sic!) boss w Crysis 1, niektórzy bossowie w Painkillerze intensywnie korzystający z fizyki otoczenia), więc skoro testujemy procesory to testujmy właśnie ich wydajność, a nie karty graficznej.
ŻywyZobacz profil
Poziom ostrzeżenia: 0%
Żywy2015.08.06, 19:59
Dopoki gry nie zaczna wykorzystywac wiecej niz 2-4 watkow to byle jaki Intel sprzed ostatnich 5-6 lat @4.5-4.7GHz spokojnie starczy do odpalenia kazdej dowolnej gry. A w sumie nawet jak to nastapi to gro obliczen i tak i tak wykonuje GPU.
KIBIC18Zobacz profil
Poziom ostrzeżenia: 0%
KIBIC182015.08.06, 19:54
unikon @ 2015.08.06 13:34  Post: 895457
focus trochę popadacie w skrajność ... już mi się nudzi słuchać Waszych wykładów na temat miejsc do testów i tego, że Wasze spojrzenie jest jedynym słusznym.

Tych Waszych 'właściwych' miejsc w grze ile jest ? Zazwyczaj kilka. Ile trwa tam test? Pewnie kilkanaście min. Jaki to jest procent gry i czasu, który spędzi tam gracz? Niewielki ...

Dlaczego, więc uważasz, że tylko Wasze testy są wiarygodne? Moim zdaniem pokazują one tylko teorie, która nie ma nic wspólnego z rzeczywistym zastosowaniem. Zresztą podobnie można traktować testy na innych portalach.

...

W obecnej formie te wykresiki nie są warte więcej niż syntetyki. One przecież też pokazują 'teoretyczną' wydajność w bardzo 'wąskim' zastosowaniu.
...


Bullshit jakich mało. Tak się składa, że testując tym sposobem mają rację. Jaki jest sens porównywania ze sobą cpu, kiedy fps jest zależny od grafiki i odwrotnie? Patrząc na te wykresy widzisz co cpu potrafi / zapewnia kiedy jest najbardziej potrzebny. Co więcej te testy pozwalają lepiej wybrać procesor. Taki laik spojrzy na test z ananda, gdzie i3 często zapewnia podobną wydajność do czterordzeniowego i5 i to kupi.

piwo1 @ 2015.08.06 13:59  Post: 895500

zgadzam sie w pelni. pclab pokazuje ktory procesor jest szybszy, a wiekszosc portali pokazuje jaki procesor wystarczy w wiekszosci wypadku w grach poza nielicznymi przycinkami (czyli poza 1% gry powiedzmy). czyli jak kogos nie wkurzaja jakies przydlawki od czasu do czasu to nie powinien sie sugerowac testami z pclaba, a bardziej spojrzec testy z anadu np.


I tu się bardzo mylisz. Bo nagle przyjdzie sytuacja (np. wyjdzie nowa gra, która siedzi na cpu), gdzie zapotrzebowanie na cpu jest ogromne i będzie płacz. Pamiętam, parę lat temu jak znajomi płakali nad multiplayerem Guild Wars 2 - normalnie miałeś tam(1080p, max ustawiania) te 40 - 60 kl/s na mid-high end karcie, nieważne czy to na FX czy 2500K. A gdzy w pewnym momencie w jednym miejscu zebrała się ponad setka graczy to FX często zapewniał mniej niż 10 klatek, podczas gdy podkręcony 2500K praktycznie zawsze trzymał ponad 20. Dlatego takie testy są ważniejsze, a nie z ananda - chyba, że kupujesz cpu pod jedną grę...

Mrow @ 2015.08.06 14:19  Post: 895515
Zrób testy z grach mmorpg, moba :)

Np. wow, tera, hots


Nie wiem, czemu Cię minusują, bo pomysł dobry, choć ciężki do wykonania.
Pogrywam ze znajomymi w tere i faktycznie, są momenty (bitwy 40-sto osobowe), gdzie 4670k wymięka i fps spada do około 30fps i jest 40% wykorzystania karty.
KowalZobacz profil
Poziom ostrzeżenia: 0%
Kowal2015.08.06, 19:51
Gromitek @ 2015.08.06 19:44  Post: 895672

A wg mnie to pclab wybiera złe miejsce testowe - bo wyszukali pewnie na siłę takie, które najmocniej obciąża procesor i które pokaże różnice pomiędzy procesorami. Później Kowalski zobaczy o jest różnica 20 % czyli warto wymienić procesor, to mi wiesiek, gta będzie szybciej chodzić. A na koniec się okazuje, że miejsc które mocno wykorzystują procesor ze świecą szukać i prez 90% czasu gry nie ma różnicy miezy precesorami i że wymiana dla tych rzadkich miejsc była zupełnie niepotrzebna.

Nom, szkoda, że GTA V ciśnie proca przez grubo ponad 3/4 gry, a Wiesiek w każdej wiosce i na bagnach czyli też spora część gry.
GromitekZobacz profil
Poziom ostrzeżenia: 0%
Gromitek2015.08.06, 19:44
DissidentAggressor @ 2015.08.06 13:08  Post: 895428


Screen z TechSpot.com z artykułu: http://www.techspot.com/article/1039-ten-y...ared/page5.html
Skoro Celeron G1820 jest tylko ciut gorszy w Crysis 3 od i7 4790k to po co przepłacać? ;d

Wyjaśnienie dla mniej doświadczonych czytelników: tak na serio to prawdopodobnie wybrali złe miejsce testowe, ponieważ wyniki w Hitmanie czy Metro wydają się bardziej prawdopodobne.

Zwróciłem im uwagę na wyniki w komentarzu, ponieważ robią po raz kolejny ten sam błąd, ale zero odzewu. Większość serwisów zagranicznych robi takie błędy, dlatego najchętniej czytam PCLab i PPC.

Edit: http://www.techspot.com/review/1041-intel-...ake/page10.html
Test Skylake z 980 GTX w ich wykonaniu ;)


A wg mnie to pclab wprowadza w błąd wybierając rzadkie i niereprezentacyjne dla ogółu gry miejsce testowe - bo wyszukali pewnie na siłę takie, które najmocniej obciąża procesor i które pokaże różnice pomiędzy procesorami. Później Kowalski zobaczy o jest różnica 20 % czyli warto wymienić procesor, to mi wiesiek, gta będzie szybciej chodzić. A na koniec się okazuje, że miejsc które mocno wykorzystują procesor ze świecą szukać i prez 90% czasu gry nie ma różnicy miezy precesorami i że wymiana dla tych rzadkich miejsc, które pokazuje na wykresach pclab była zupełnie niepotrzebna.
glorfindel007Zobacz profil
Poziom ostrzeżenia: 0%
glorfindel0072015.08.06, 18:46
to jest recenzja procesora, a nie platformy. równie dobrze można by porównać platformy z ddr3-3000 do skylake z ddr4-2133
wahooZobacz profil
Poziom ostrzeżenia: 0%
wahoo2015.08.06, 18:45
Oczywiście, że tak. Narzekałem tylko na dobór konfiguracji do porównania, bo skoro już nie bierzemy do testów najtańszych DDR4, to wypadałoby nie porównywać ich z najtańszymi DDR3 bo to tylko wypacza wyniki.
unknown_soliderZobacz profil
Poziom ostrzeżenia: 0%
unknown_solider2015.08.06, 18:40
wahoo @ 2015.08.06 18:21  Post: 895640
Nie wolniej, tylko z wyraźną różnicą.

Przy porównywalnej wydajności pamięci idą łeb w łeb - w granicach 5%, a w Bioshocku Haswell wychodzi przed szereg.
http://www.hardocp.com/article/2015/08/05/...ocking_review/6
I co dalej? Nie można porównywać cpu w oderwaniu od możliwości platformy na której pracują. Równie dobrze w celu porównania mógłbyś odpalić jakiś syntetyk. Kontroler pamięci na równi z mocą samego cpu stanowią o sile platformy w grach. Dopiero w drugiej kolejności dam ram, a na samym końcu instrukcje.
wahooZobacz profil
Poziom ostrzeżenia: 0%
wahoo2015.08.06, 18:38
unknown_solider @ 2015.08.06 18:32  Post: 895645
Obecne ddr4 prawdopodobnie są mniej wydajne niż dobre kity ddr3 2400/2666 cl10/11


Zależność wydajności Skylake od użytych pamięci jest przedstawiona w teście http://www.hardocp.com/article/2015/08/05/...ocking_review/1
A jak się mają DDR3 do DDR4 przetestowano tutaj:
http://www.hardware.fr/articles/940-5/cpu-...3-pratique.html
unknown_soliderZobacz profil
Poziom ostrzeżenia: 0%
unknown_solider2015.08.06, 18:32
Mrow @ 2015.08.06 12:21  Post: 895395
No to juz rozumiemy. Teraz takie pytanie czy pojawia sie testy z chociaz kilku tytulow w 1440p oraz 4K?

Chcialbym zobaczyc jaki jest wplyw procesora przy GTX980/ti/Titan w 1440p/4K vs 1080p

Jak to sie skaluje.
Dzieki i pozdrawiam!


W 4k na pojedynczym titanie wpływ cpu jest żaden, więc TAK!!! Do grania w 4k/30fps 2500k spokojnie wystarczy.

Testy laba chwilami cierpią na te przypadłość jaką sami prezentują na wykresach. To, że część czytelników nie wie po co nie przekreśla sensu dodawania 720p kiedy w 1080p różnice się splaszczają.

Podobno ktoś wyliczył, że skallyke jest 27% szybszy od sandiego. Ale wczytując się w test;
1. Tam gdzie skalowanie jest liniowe jest nawet licząc oc o 50+% szybszy.
2. Podkręcony 2500k był wolniejszy niż nisko taktowane zablokowane haswelle, natomiast skylake bez oc jest szybszy niż 4790k po maksymalnym oc.

Od ivy widać, że wydajność kontrolera pamięci, lub inaczej podsystemu pamięci ma kluczowe znaczenie dla wydajności w grach, co potwierdza też broadwell, wierzę że na prawidłowych pamięciach (obecne ddr4 to żenada) będzie skylake dużo wydajniejszy od haswella. Obecne ddr4 prawdopodobnie są mniej wydajne niż dobre kity ddr3 2400/2666 cl10/11
wahooZobacz profil
Poziom ostrzeżenia: 0%
wahoo2015.08.06, 18:32
Więc jednak dobrze zapamiętałem, że na PCL był ten sam przypadek co na Pure :)
glorfindel007Zobacz profil
Poziom ostrzeżenia: 0%
glorfindel0072015.08.06, 18:29
focus @ 2015.08.06 18:03  Post: 895631
wahoo @ 2015.08.06 17:58  Post: 895630
Focus, jeśli chcecie rozwiać wątpliwości to po prostu dodajcie do testów Haswella na normalnych pamięciach, bo nie czarujmy się, nikt nie kupuje najdroższego procesora i najtańszych pamięci 1600Mhz skoro niewiele drożej ma 2400. Porównywanie najtańszych DDR3 z drogimi DDR4 nie jest uczciwe, tym bardziej, że różnica między 1600 a 2400 nie jest wcale mała.

Dla przykładu: w Watch Dogs Haswell zyskuje na pamięciach 2400MHz ~15% wydajności.
Natomiast różnica w waszym teście między Haswellem na najtańszych pamięciach, a Skylake z DDR4 2666MHz za 700zł to...

surprise!

~15%

Dlatego proszę, przemyślcie moją propozycję, zamiast odbijać piłeczkę tłumacząc się wąskim gardłem GPU na zagranicznych serwisach. Wszytko będzie jasne i skończą się pretensje.

Mistrzu, DDR3 mieliśmy na 2133 CL10. Pokaż mi proszę te testy, o których piszesz.


mistrzu, to czemu w recenzji stoi 'We wszystkich testach, w których w użyciu była pamięć DDR3, stosowaliśmy moduły DDR-1866 działające z opóźnieniami 9-9-10-24 1N.'
focusZobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjifocus2015.08.06, 18:24
wahoo @ 2015.08.06 18:21  Post: 895640
Nie wolniej, tylko z wyraźną różnicą.

Z tego co widzę, to wszystkim wyszła wyraźna różnica, no chyba że ktoś nieumiejętnie testował w grach, to wtedy żadna różnica nie wyszła.
wahooZobacz profil
Poziom ostrzeżenia: 0%
wahoo2015.08.06, 18:21
Nie wolniej, tylko z wyraźną różnicą.

Przy porównywalnej wydajności pamięci idą łeb w łeb - w granicach 5%, a w Bioshocku Haswell wychodzi przed szereg.
http://www.hardocp.com/article/2015/08/05/...ocking_review/6
focusZobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjifocus2015.08.06, 18:16
wahoo @ 2015.08.06 18:14  Post: 895636
focus @ 2015.08.06 18:03  Post: 895631

Mistrzu, DDR3 mieliśmy na 2133 CL10. Pokaż mi proszę te testy, o których piszesz.

Przyznaję się do błędu, to na PPC mieli 1600CL8 vs 2666 CL13 ;)

Ale na usprawiedliwienie moich wątpliwości dodam, że u nich różnica między Haswell-Skylake w rzeczonych Watch Dogs wyniosła właśnie tych ~15%, czyli tyle, ile dałaby wymiana DDR3 na wyższy model.

W takim razie jesteście chyba jedyną redakcją w Internecie, u której na porównywalnych pamięciach Skylake jest zawsze wyraźnie szybszy...

Jedyną, której Haswell wyszedł wolniej od Skylake? Chyba żartujesz.
wahooZobacz profil
Poziom ostrzeżenia: 0%
wahoo2015.08.06, 18:14
focus @ 2015.08.06 18:03  Post: 895631

Mistrzu, DDR3 mieliśmy na 2133 CL10. Pokaż mi proszę te testy, o których piszesz.

Przyznaję się do błędu, to na PPC mieli 1600CL8 vs 2666 CL13 ;)

Ale na usprawiedliwienie moich wątpliwości dodam, że u nich różnica między Haswell-Skylake w rzeczonych Watch Dogs wyniosła właśnie tych ~15%, czyli tyle, ile dałaby wymiana DDR3 na wyższy model.

W takim razie jesteście chyba jedyną redakcją w Internecie, u której na porównywalnych pamięciach Skylake jest zawsze wyraźnie szybszy...
focusZobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjifocus2015.08.06, 18:03
wahoo @ 2015.08.06 17:58  Post: 895630
Focus, jeśli chcecie rozwiać wątpliwości to po prostu dodajcie do testów Haswella na normalnych pamięciach, bo nie czarujmy się, nikt nie kupuje najdroższego procesora i najtańszych pamięci 1600Mhz skoro niewiele drożej ma 2400. Porównywanie najtańszych DDR3 z drogimi DDR4 nie jest uczciwe, tym bardziej, że różnica między 1600 a 2400 nie jest wcale mała.

Dla przykładu: w Watch Dogs Haswell zyskuje na pamięciach 2400MHz ~15% wydajności.
Natomiast różnica w waszym teście między Haswellem na najtańszych pamięciach, a Skylake z DDR4 2666MHz za 700zł to...

surprise!

~15%

Dlatego proszę, przemyślcie moją propozycję, zamiast odbijać piłeczkę tłumacząc się wąskim gardłem GPU na zagranicznych serwisach. Wszytko będzie jasne i skończą się pretensje.

Mistrzu, DDR3 mieliśmy na 2133 CL10. Pokaż mi proszę te testy, o których piszesz.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.