Oczywistym jest ze osoby skladajace nowe kompy skusza sie na skylake. Ale posiadacze SB/Ivy/HW moga spac spokojnie.
OC ladne tyle ze nikt normalny nie bedzie trzymal CPU na 1,5V.
Wykresy smiesznie wygladaja, jak Intel sam z soba rywalizuje.
@Robb-Music - Nie zgodze sie. Napotkalismy sciane przy architekturze CPU, tam dodawanie nowych jednostek nic nie daje, a nawet potrafi obnizyc wydajnosc. Do granicy krzemu jeszcze daleko, co pokazuja duze skoki w wydajnosci GPU przy przejsciu na nizszy proces.
Nie zgodzę się. Zauważ w jakim procesie siedzą dziś karty i jakie przyrosty wydajności były w CPU gdy używało się takich procesów.
Oczywistym jest ze osoby skladajace nowe kompy skusza sie na skylake. Ale posiadacze SB/Ivy/HW moga spac spokojnie.
OC ladne tyle ze nikt normalny nie bedzie trzymal CPU na 1,5V.
Wykresy smiesznie wygladaja, jak Intel sam z soba rywalizuje.
@Robb-Music - Nie zgodze sie. Napotkalismy sciane przy architekturze CPU, tam dodawanie nowych jednostek nic nie daje, a nawet potrafi obnizyc wydajnosc. Do granicy krzemu jeszcze daleko, co pokazuja duze skoki w wydajnosci GPU przy przejsciu na nizszy proces.
Ale gadasz głupoty.
Na rynku dla zwykłych zjadaczy chleba na spokojnie mogliby produkować już w 22nm 6 rdzeniowe i5 i i7 (12 wątkowe) zamiast tego bezużytecznego iGPU. pobudziliby rynek i częściej ludzie zmieniali by swój sprzęt. działają na własną szkodę w tym momencie.
spójrzcie na rynek GPU, czy tam Nvidia albo AMD boją się dorzucać więcej rdzeni/tranzystorów i rozszerzać kolejne generacje o dodatkowe jednostki obliczeniowe?
jakby Haswell miał 6 rdzeni i5 i i7 za swoją cenę, to KAŻDY posiadacz Sandy bridge 4 rdzeniowego mocno by rozważył przerzucenie się na nową architekturę.
analogicznie, gdyby skylake posiadał już 8 rdzeni i 16 wątków, znowu, większość posiadaczy poprzednich generacji mocno rozważałaby przerzucenie się na ośmio-jajowca.
Marnują miejsce na jakieś iGPU.
Co do l4 cache - to mogłoby teoretycznie zostać, a Skylake jednak go nie ma. Najwyraźniej byłoby za wydajnie i Intelowi to nie pasuje. Nie wiem, nie rozumiem tego zjawiska. Dlaczego Broadwell ma l4 cache który daje niesamowite efekty, a Skylake nie? wtf
28% to nie jest nic, choć wiadomo oczekiwałoby się więcej po 4 latach
Może to i dobrze, posiadacze 2500k nie mają co się martwić, ten wynik to i tak jest w grach na maksa, a można zejść do high.
Nie należy też oczekiwać, że nagle twórcy gier w minimum ustalą 2500k, to byłby absurd, zwłaszcza, że w konsolach są słabsze cpu, znacznie słabsze, więc to byłoby absurdalne, że aby gra wyglądała tak jak na konsoli na pc nie starczyłby 2500k.
Naliczyłem 2 gry w których 2500k nie wyciąga 60 fps, gdzie skylake daje radę, także jak ktoś niekoniecznie musi mieć ultra, w sumie nic nie musi zmieniać.
No i sprawa dx12, bo wszelkie testy pokazują, że dx11 st/mt to kaplica i marnuje spore zasoby cpu, wraz z dx12/vulkan może się okazać, że legendarny 2500k, będzie legendarny jeszcze znacznie dłużej, jestem bardzo ciekawy wyników gier na nowym api, czy nastąpi swego rodzaju nowe otwarcie i wszystkie cpu dostaną niemałego kopa, zobaczymy.
Czy ma sens kupowanie nowych prockow skoro obiecany DX 12 ma przyniesc ich odcizenie?
Oby DX12 nie sprawił że devi staną się jeszcze bardziej leniwi i mimo 'mniejszego narzutu dzięki super DX12' proce dalej nie będą wyrabiać.
Panowie, tylko wybrane gry będą korzystały z mniejszego narzutu na CPU. Większość i tak będzie pisana korzystając z wartstwy zgodnej z DX11 bo tak łatwiej
Planujecie może zrobić test z różnym taktowaniem pamięci DDR4 i różnymi opóźnieniami, by móc określić jakie pamięci są dla Skylake najkorzystniejsze? Kiedyś już podobny test robiliście
Trochę wazeliny, ale co tam. Świetny test Skylake. Test clock-to-clock, porównanie do SB, IB, HW i BW. AMD też jest na wykresach. Test w Windows 10, dużo gier, dużo aplikacji. Tak trzymać
@Dravic - Przeciez mi chodzilo o wydajnosc 1 watka, tam juz napotkalismy sciane i zwiekszenie jednostek dla pojedynczego rdzenia nic nie daje. Masz CPU 8 rdzeniowe? Masz, w postaci Haswell-E.
@Robb-Music - Jestes w bledzie. Zarowno NV jak i AMD zapowiadaja 2 x perf/watt lub cos kolo tego, przy przejsciu na 14/16nm, bo po prostu dorzuca wiecej jednostek. Architektura GPU sie idealnie skaluje, dlatego tam mozna jeszcze cos zdzialac, czego nie mozna w CPU.
Dalej twierdze ze do granicy krzemu jeszcze mamy pare ladnych lat, 10nm, pozniej 7nm i co dalej to zobaczymy, pewnie jakies hybrydowe rozwiazania (np krzem+grafen).
Rewolucji czy nawet rewelacji nie ma, ale kto się jej spodziewał? Jest wydajniej, oszczędniej (prąd) a przy okazji z lepszym OC. Do nowego PC solidna propozycja, jako przesiadka z Sandy w miarę (choć koszt na razie jest spory) a z Ivy i Hsw nie ma sensu się przesiadać.
Test bardzo dobry, plus za szybką zmianę na W10, minusik za brak opisu architektury.
OC ladne tyle ze nikt normalny nie bedzie trzymal CPU na 1,5V.
Wykresy smiesznie wygladaja, jak Intel sam z soba rywalizuje.
@Robb-Music - Nie zgodze sie. Napotkalismy sciane przy architekturze CPU, tam dodawanie nowych jednostek nic nie daje, a nawet potrafi obnizyc wydajnosc. Do granicy krzemu jeszcze daleko, co pokazuja duze skoki w wydajnosci GPU przy przejsciu na nizszy proces.
Nie zgodzę się. Zauważ w jakim procesie siedzą dziś karty i jakie przyrosty wydajności były w CPU gdy używało się takich procesów.
Nie wiem na co i przez co patrzyłeś ale jesteś w błędzie, szczególnie gdy weźmie się pod uwagę OC Broadwella
OC ladne tyle ze nikt normalny nie bedzie trzymal CPU na 1,5V.
Wykresy smiesznie wygladaja, jak Intel sam z soba rywalizuje.
@Robb-Music - Nie zgodze sie. Napotkalismy sciane przy architekturze CPU, tam dodawanie nowych jednostek nic nie daje, a nawet potrafi obnizyc wydajnosc. Do granicy krzemu jeszcze daleko, co pokazuja duze skoki w wydajnosci GPU przy przejsciu na nizszy proces.
Ale gadasz głupoty.
Na rynku dla zwykłych zjadaczy chleba na spokojnie mogliby produkować już w 22nm 6 rdzeniowe i5 i i7 (12 wątkowe) zamiast tego bezużytecznego iGPU. pobudziliby rynek i częściej ludzie zmieniali by swój sprzęt. działają na własną szkodę w tym momencie.
spójrzcie na rynek GPU, czy tam Nvidia albo AMD boją się dorzucać więcej rdzeni/tranzystorów i rozszerzać kolejne generacje o dodatkowe jednostki obliczeniowe?
jakby Haswell miał 6 rdzeni i5 i i7 za swoją cenę, to KAŻDY posiadacz Sandy bridge 4 rdzeniowego mocno by rozważył przerzucenie się na nową architekturę.
analogicznie, gdyby skylake posiadał już 8 rdzeni i 16 wątków, znowu, większość posiadaczy poprzednich generacji mocno rozważałaby przerzucenie się na ośmio-jajowca.
Marnują miejsce na jakieś iGPU.
Co do l4 cache - to mogłoby teoretycznie zostać, a Skylake jednak go nie ma. Najwyraźniej byłoby za wydajnie i Intelowi to nie pasuje. Nie wiem, nie rozumiem tego zjawiska. Dlaczego Broadwell ma l4 cache który daje niesamowite efekty, a Skylake nie? wtf
28% to nie jest nic, choć wiadomo oczekiwałoby się więcej po 4 latach
Może to i dobrze, posiadacze 2500k nie mają co się martwić, ten wynik to i tak jest w grach na maksa, a można zejść do high.
Nie należy też oczekiwać, że nagle twórcy gier w minimum ustalą 2500k, to byłby absurd, zwłaszcza, że w konsolach są słabsze cpu, znacznie słabsze, więc to byłoby absurdalne, że aby gra wyglądała tak jak na konsoli na pc nie starczyłby 2500k.
Naliczyłem 2 gry w których 2500k nie wyciąga 60 fps, gdzie skylake daje radę, także jak ktoś niekoniecznie musi mieć ultra, w sumie nic nie musi zmieniać.
No i sprawa dx12, bo wszelkie testy pokazują, że dx11 st/mt to kaplica i marnuje spore zasoby cpu, wraz z dx12/vulkan może się okazać, że legendarny 2500k, będzie legendarny jeszcze znacznie dłużej, jestem bardzo ciekawy wyników gier na nowym api, czy nastąpi swego rodzaju nowe otwarcie i wszystkie cpu dostaną niemałego kopa, zobaczymy.
http://cenowarka.pl/eu/?cat=mbp4_1151&...DR3+DIMM#xf_top
Oby DX12 nie sprawił że devi staną się jeszcze bardziej leniwi i mimo 'mniejszego narzutu dzięki super DX12' proce dalej nie będą wyrabiać.
'mystery solved' Żadnego większego odciążenia nie będzie, ot cała tajemnica.
Oby DX12 nie sprawił że devi staną się jeszcze bardziej leniwi i mimo 'mniejszego narzutu dzięki super DX12' proce dalej nie będą wyrabiać.
Panowie, tylko wybrane gry będą korzystały z mniejszego narzutu na CPU. Większość i tak będzie pisana korzystając z wartstwy zgodnej z DX11 bo tak łatwiej
Zależy, nie ma avx lepszego, porównując na sztywno zegarowo w zasadzie to ten skajlejk jest top, ale tak mały skok, że to koniec ticktock.
@Robb-Music - Jestes w bledzie. Zarowno NV jak i AMD zapowiadaja 2 x perf/watt lub cos kolo tego, przy przejsciu na 14/16nm, bo po prostu dorzuca wiecej jednostek. Architektura GPU sie idealnie skaluje, dlatego tam mozna jeszcze cos zdzialac, czego nie mozna w CPU.
Dalej twierdze ze do granicy krzemu jeszcze mamy pare ladnych lat, 10nm, pozniej 7nm i co dalej to zobaczymy, pewnie jakies hybrydowe rozwiazania (np krzem+grafen).
http://cenowarka.pl/eu/?cat=mbp4_1151&...DR3+DIMM#xf_top
Test bardzo dobry, plus za szybką zmianę na W10, minusik za brak opisu architektury.
Doczytaj dlaczego jej nie ma.