A gdzie testy iGPU. W tym testy Youtube V9 60fps.
Mnie interesuje jakie jest obciążenie CPU przy V9 4k 60fps oraz V9 FHD 60fps.
Jak można było nie zrobić testów pierwszej grafiki Iris w CPU LGA?
Też bardziej mnie ciekawi wydajność gpu, podobno jest w stanie dorównać gtx 750.
Jeśli tak, to pokuszę się o pewien eksperyment myślowy. Odejmując cenę GTX 750 (450-550 zł) od ceny i5-5675C (1175 zł ale OEM), wychodziłoby odpowiednik BOXowego czterordzeniowca za ok. 700 zł, coś w okolicach i5-44xx. Pytanie - czy i5-44xx w parze z GTX 750 zapewniłby większą wydajność w grach, niż sam i5-5675C, czy też nie?
W związku z powyższym, w sumie szkoda, że w teście nie znalazł się żaden 'niepodkręcalny' procesor i5 - ale takie prawo redakcji Przy obecnych cenach to jednak często wybierane modele, w końcu nie każdego kręci kręcenie. Ciekaw też jestem, czy BOXowe chłodzenie ze starszych modeli jest wystarczające do normalnej (bez OC) pracy dla tego proca?
Nawet jeśli iGPU okazałoby się wydajniejsze niż u AMD, to i tak nie będą stanowić dla siebie alternatywy, z samego faktu, że najtańszy Broadwell jest blisko dwukrotnie droższy od najdroższego Kaveri! Choć pewnie cały układ będzie o niebo wydajniejszy z uwagi na sam CPU. To raczej APU dla zamożniejszych, którzy... chyba raczej APU nie kupują, tylko osobno CPU i GPU... Ale kto bogatemu zabroni...?
[Aktualizacja]
Ok - widzę powyższe diagramy i komentarze
Ale one chyba nie do końca są odpowiedzią na mój eksperyment.
Przestańcie w końcu powtarzać tą bzdurę o wydajności GTX750. Przeczytajcie jeszcze raz ten test, w którym znalazło się porównanie do karty nvidii, tylko ze zrozumieniem, a dowiecie się skąd wzięły takie wyniki.
Dokładnie. Proszę spojrzeć:
Test dla lemingów... już wyjaśniam wyniki:
Broadwell i5 i i7 z integrą kontra ATHLON x4 860k Steamroller bez l3 cache z dedykowanymi GPU, w testach CPU-bound (bo niska rozdzielczość gdzie potrzebny jest szybki procesor do produkcji dużej ilości FPS i najlepiej jeszcze niski narzut sterownika)
Podkreślę jeszcze raz: CPU w tym teście przedstawia się tak:
Czterordzeniowe i czterordzeniowe-ośmiowątkowe i5 i i7 od Intela, najnowszej generacji, wspomagane przez 128MB pamięci cache l4 + iGPU po jednej stronie.
Kontra pseudo czterordzeniowiec (a tak naprawdę dwumodułowiec), kastrat bez pamięci l3 + dedykowane GPU po drugiej stronie - ten sam procesor jest też w APU AMD 7850.
Do tego dodajmy że APU od AMD nie mają 128(!) MB l4 cache, która praktycznie jest głównym powodem niesamowitej wydajności Broadwella - zarówno iGPU jak i 'magicznego' wzrostu IPC bez zmian w architekturze CPU.
To wszystko testowane na LOW w 1280x720 aby zmaksymalizować obciążenie procesora które uwydatni jak zajefajny jest i5... facepalm, a nie rzetelny test.
Koniec wyjaśniania.
Czyli powinno się testować na zasadzie broadwell z integrą kontra broadwell z dedykowaną kartą i wtedy wyjdzie co warta jest ta integra.
Dlaczego szkoda? Jedyna szansa aby osiągnęły normalną cenę, to właśnie premiera Skylake.
Nie, skajlejk wchodzi jako normalny następca hasłeli, a ten brodłel wypuszczono w takiej marnej odmianie z eDRAM, żeby nie pokazać jego kulawego OC, w zasadzie to braku, bo powyżej 4,2 GHz leci w takie napięcia, że szybkie spalenie go jest możliwe. 4,2 GHz zadysponuje 6700K, jeśli ktoś chce poczekać na lepsze płyty z usb3.1 i L4 to w przyszłym roku będzie kabilejk z jeszcze większą integralną ściemą
Śmiem twierdzić, że brak eDRAM w Skylake jest tragedią, a mogło być pięknie.
Nie nazwałbym procesora z l4 cache 'biednym' - intel po prostu postarał się, aby Skylake nie miał za dużej wydajności. Gdyby Skylake miał 128MB l4 cache tak jak Broadwell to mielibyśmy w końcu procesor klasy 'sandy bridge', w sensie - na kolejne parę lat.
A tak będziemy mieli biedoskylake BEZ EDRAMU, 10% szybszy od Haswella.
GPU klasy GTX 750 w połączeniu z i5 Haswell zmiata z powierzchni ziemi iGPU w Skylake.
Tylko żeby to zauwazyć należałoby testować w rozdzielczości typu 1080p, gdzie Skylake na bank się rozłoży przy jakichś średnio-niskich ustawieniach w najnowszych grach, a 750 nadal będzie coś robić.
Inna sprawa, że GTX 750 i 750ti zostanie za dwa tygodnie zastąpiony GTX 950 i 950ti (chociaż zobaczymy dopiero za te dwa tygodnie jak dokładnie Nvidia je wyceni).
Bo szczerze mówiąc to GTX 750 jest strasznie biedne, ledwie 512 rdzeni CUDA. 950 będzie miał pewnie 768 , i to nowszej wersji.
Bo 750/750ti to Maxwell 1sza generacja, a 950 będzie Maxwellem drugiej generacji.
Nie, skajlejk wchodzi jako normalny następca hasłeli, a ten brodłel wypuszczono w takiej marnej odmianie z eDRAM, żeby nie pokazać jego kulawego OC, w zasadzie to braku, bo powyżej 4,2 GHz leci w takie napięcia, że szybkie spalenie go jest możliwe. 4,2 GHz zadysponuje 6700K, jeśli ktoś chce poczekać na lepsze płyty z usb3.1 i L4 to w przyszłym roku będzie kabilejk z jeszcze większą integralną ściemą
Śmiem twierdzić, że brak eDRAM w Skylake jest tragedią, a mogło być pięknie.
Nie nazwałbym procesora z l4 cache 'biednym' - intel po prostu postarał się, aby Skylake nie miał za dużej wydajności. Gdyby Skylake miał 128MB l4 cache tak jak Broadwell to mielibyśmy w końcu procesor klasy 'sandy bridge', w sensie - na kolejne parę lat.
A tak będziemy mieli biedoskylake BEZ EDRAMU, 10% szybszy od Haswella.
Bieda to jest dodawania ficzerów graficznych w procesorze, zamiast tego mógłbyś mieć brodłel-D, tak jest taki procek z 8 rdzeniami.
Jeśli tak, to pokuszę się o pewien eksperyment myślowy. Odejmując cenę GTX 750 (450-550 zł) od ceny i5-5675C (1175 zł ale OEM), wychodziłoby odpowiednik BOXowego czterordzeniowca za ok. 700 zł, coś w okolicach i5-44xx. Pytanie - czy i5-44xx w parze z GTX 750 zapewniłby większą wydajność w grach, niż sam i5-5675C, czy też nie?
[...]
[Aktualizacja]
Ok - widzę powyższe diagramy i komentarze
Ale one chyba nie do końca są odpowiedzią na mój eksperyment.
Są częściową odpowiedzą o tyle, że już wiesz żeby od ceny i5-5675C nie odejmować 450zł za GTX 750, tylko 150zł za GTS 450 który będzie odpowiednikiem Iris Pro 6200
Śmiem twierdzić, że brak eDRAM w Skylake jest tragedią, a mogło być pięknie.
Nie nazwałbym procesora z l4 cache 'biednym' - intel po prostu postarał się, aby Skylake nie miał za dużej wydajności. Gdyby Skylake miał 128MB l4 cache tak jak Broadwell to mielibyśmy w końcu procesor klasy 'sandy bridge', w sensie - na kolejne parę lat.
A tak będziemy mieli biedoskylake BEZ EDRAMU, 10% szybszy od Haswella.
Bieda to jest dodawania ficzerów graficznych w procesorze, zamiast tego mógłbyś mieć brodłel-D, tak jest taki procek z 8 rdzeniami.
Dokładnie. Albo z drugiej strony: dlaczego mam płacić za połowę powierzchni procesora, której nie potrzebuję?
Odnośnie energooszczędności to na wykresie nie widać różnicy między i5 5675c 65W a 4690k 95W, więc czyżby oszczędność na papierze czy magia cyferek?
Mogliście przetestować wydajność Iris pro na tle HD4400/4600.
Ten wykres:
A zwłaszcza ten:
Mówią wszystko.
W innych zastosowaniach jest jeszcze gorzej. A O/C to loteria z tendencją spadkową.
Pierdoły typu IGP czy pobór mocy w desktopie nie mają większego znaczenia, zwłaszcza że w poprzedniej generacji z tym ostatnim i tak było nieźle.
GPU klasy GTX 750 w połączeniu z i5 Haswell zmiata z powierzchni ziemi iGPU w Skylake.
Tylko żeby to zauwazyć należałoby testować w rozdzielczości typu 1080p, gdzie Skylake na bank się rozłoży przy jakichś średnio-niskich ustawieniach w najnowszych grach, a 750 nadal będzie coś robić.
Inna sprawa, że GTX 750 i 750ti zostanie za dwa tygodnie zastąpiony GTX 950 i 950ti (chociaż zobaczymy dopiero za te dwa tygodnie jak dokładnie Nvidia je wyceni).
Bo szczerze mówiąc to GTX 750 jest strasznie biedne, ledwie 512 rdzeni CUDA. 950 będzie miał pewnie 768 , i to nowszej wersji.
Bo 750/750ti to Maxwell 1sza generacja, a 950 będzie Maxwellem drugiej generacji.
Pytanie jaka będzie cena.
Dzięki za komentarz!
Fakt, kupienie samego tylko Broadwella do gier, chyba mija się z celem. W jego cenie można dostać i5-44xx plus np. R7 360, co jako tako pozwoli już chyba pograć przy 1650 lub 1920 na średnich?
Choć, jak widać, jakiś potencjał w Broadwellach drzemie. Oczywiście w porównaniu ze starszymi platformami jak choćby 1155.
Jeśli tak, to pokuszę się o pewien eksperyment myślowy. Odejmując cenę GTX 750 (450-550 zł) od ceny i5-5675C (1175 zł ale OEM), wychodziłoby odpowiednik BOXowego czterordzeniowca za ok. 700 zł, coś w okolicach i5-44xx. Pytanie - czy i5-44xx w parze z GTX 750 zapewniłby większą wydajność w grach, niż sam i5-5675C, czy też nie?
[...]
[Aktualizacja]
Ok - widzę powyższe diagramy i komentarze
Ale one chyba nie do końca są odpowiedzią na mój eksperyment.
Są częściową odpowiedzą o tyle, że już wiesz żeby od ceny i5-5675C nie odejmować 450zł za GTX 750, tylko 150zł za GTS 450 który będzie odpowiednikiem Iris Pro 6200
Fakt!!! Ale GTXa można wciąż kupić w sklepie jako nówkę, a GTSa już nie bardzo...
Gwarancja czasem się jednak (niestety) do czegoś przydaje...
* * *
W sumie taki Broadwell to ciekawa alternatywa dla osób, które chcą dokonać radykalnej zmiany kilkuletniego sprzętu, nie decydując się na zakup wszystkiego od razu. Przykładowo: posiadacz proca na LGA 775 (C2D, C2Q albo Xeon) i jednocześnie karty graficznej typu GTS 450, mógłby rozpocząć wymianę od zakupu zasilacza, procesora, płyty głównej i ramu. Z GPU można by poczekać chwilę, bo i tak przyrost mocy na samym procku będzie ogromny!
Mnie interesuje jakie jest obciążenie CPU przy V9 4k 60fps oraz V9 FHD 60fps.
Jak można było nie zrobić testów pierwszej grafiki Iris w CPU LGA?
Też bardziej mnie ciekawi wydajność gpu, podobno jest w stanie dorównać gtx 750.
Jeśli tak, to pokuszę się o pewien eksperyment myślowy. Odejmując cenę GTX 750 (450-550 zł) od ceny i5-5675C (1175 zł ale OEM), wychodziłoby odpowiednik BOXowego czterordzeniowca za ok. 700 zł, coś w okolicach i5-44xx. Pytanie - czy i5-44xx w parze z GTX 750 zapewniłby większą wydajność w grach, niż sam i5-5675C, czy też nie?
W związku z powyższym, w sumie szkoda, że w teście nie znalazł się żaden 'niepodkręcalny' procesor i5 - ale takie prawo redakcji
Nawet jeśli iGPU okazałoby się wydajniejsze niż u AMD, to i tak nie będą stanowić dla siebie alternatywy, z samego faktu, że najtańszy Broadwell jest blisko dwukrotnie droższy od najdroższego Kaveri! Choć pewnie cały układ będzie o niebo wydajniejszy z uwagi na sam CPU. To raczej APU dla zamożniejszych, którzy... chyba raczej APU nie kupują, tylko osobno CPU i GPU... Ale kto bogatemu zabroni...?
[Aktualizacja]
Ok - widzę powyższe diagramy i komentarze
Ale one chyba nie do końca są odpowiedzią na mój eksperyment.
Przestańcie w końcu powtarzać tą bzdurę o wydajności GTX750. Przeczytajcie jeszcze raz ten test, w którym znalazło się porównanie do karty nvidii, tylko ze zrozumieniem, a dowiecie się skąd wzięły takie wyniki.
Dokładnie. Proszę spojrzeć:
Test dla lemingów... już wyjaśniam wyniki:
Broadwell i5 i i7 z integrą kontra ATHLON x4 860k Steamroller bez l3 cache z dedykowanymi GPU, w testach CPU-bound (bo niska rozdzielczość gdzie potrzebny jest szybki procesor do produkcji dużej ilości FPS i najlepiej jeszcze niski narzut sterownika)
Podkreślę jeszcze raz: CPU w tym teście przedstawia się tak:
Czterordzeniowe i czterordzeniowe-ośmiowątkowe i5 i i7 od Intela, najnowszej generacji, wspomagane przez 128MB pamięci cache l4 + iGPU po jednej stronie.
Kontra pseudo czterordzeniowiec (a tak naprawdę dwumodułowiec), kastrat bez pamięci l3 + dedykowane GPU po drugiej stronie - ten sam procesor jest też w APU AMD 7850.
Do tego dodajmy że APU od AMD nie mają 128(!) MB l4 cache, która praktycznie jest głównym powodem niesamowitej wydajności Broadwella - zarówno iGPU jak i 'magicznego' wzrostu IPC bez zmian w architekturze CPU.
To wszystko testowane na LOW w 1280x720 aby zmaksymalizować obciążenie procesora które uwydatni jak zajefajny jest i5... facepalm, a nie rzetelny test.
Koniec wyjaśniania.
Czyli powinno się testować na zasadzie broadwell z integrą kontra broadwell z dedykowaną kartą i wtedy wyjdzie co warta jest ta integra.
Dlaczego szkoda? Jedyna szansa aby osiągnęły normalną cenę, to właśnie premiera Skylake.
Nie, skajlejk wchodzi jako normalny następca hasłeli, a ten brodłel wypuszczono w takiej marnej odmianie z eDRAM, żeby nie pokazać jego kulawego OC, w zasadzie to braku, bo powyżej 4,2 GHz leci w takie napięcia, że szybkie spalenie go jest możliwe. 4,2 GHz zadysponuje 6700K, jeśli ktoś chce poczekać na lepsze płyty z usb3.1 i L4 to w przyszłym roku będzie kabilejk z jeszcze większą integralną ściemą
Śmiem twierdzić, że brak eDRAM w Skylake jest tragedią, a mogło być pięknie.
Nie nazwałbym procesora z l4 cache 'biednym' - intel po prostu postarał się, aby Skylake nie miał za dużej wydajności. Gdyby Skylake miał 128MB l4 cache tak jak Broadwell to mielibyśmy w końcu procesor klasy 'sandy bridge', w sensie - na kolejne parę lat.
A tak będziemy mieli biedoskylake BEZ EDRAMU, 10% szybszy od Haswella.
GPU klasy GTX 750 w połączeniu z i5 Haswell zmiata z powierzchni ziemi iGPU w Skylake.
Tylko żeby to zauwazyć należałoby testować w rozdzielczości typu 1080p, gdzie Skylake na bank się rozłoży przy jakichś średnio-niskich ustawieniach w najnowszych grach, a 750 nadal będzie coś robić.
Inna sprawa, że GTX 750 i 750ti zostanie za dwa tygodnie zastąpiony GTX 950 i 950ti (chociaż zobaczymy dopiero za te dwa tygodnie jak dokładnie Nvidia je wyceni).
Bo szczerze mówiąc to GTX 750 jest strasznie biedne, ledwie 512 rdzeni CUDA. 950 będzie miał pewnie 768 , i to nowszej wersji.
Bo 750/750ti to Maxwell 1sza generacja, a 950 będzie Maxwellem drugiej generacji.
Pytanie jaka będzie cena.
Nie, skajlejk wchodzi jako normalny następca hasłeli, a ten brodłel wypuszczono w takiej marnej odmianie z eDRAM, żeby nie pokazać jego kulawego OC, w zasadzie to braku, bo powyżej 4,2 GHz leci w takie napięcia, że szybkie spalenie go jest możliwe. 4,2 GHz zadysponuje 6700K, jeśli ktoś chce poczekać na lepsze płyty z usb3.1 i L4 to w przyszłym roku będzie kabilejk z jeszcze większą integralną ściemą
Śmiem twierdzić, że brak eDRAM w Skylake jest tragedią, a mogło być pięknie.
Nie nazwałbym procesora z l4 cache 'biednym' - intel po prostu postarał się, aby Skylake nie miał za dużej wydajności. Gdyby Skylake miał 128MB l4 cache tak jak Broadwell to mielibyśmy w końcu procesor klasy 'sandy bridge', w sensie - na kolejne parę lat.
A tak będziemy mieli biedoskylake BEZ EDRAMU, 10% szybszy od Haswella.
Bieda to jest dodawania ficzerów graficznych w procesorze, zamiast tego mógłbyś mieć brodłel-D, tak jest taki procek z 8 rdzeniami.
Jeśli tak, to pokuszę się o pewien eksperyment myślowy. Odejmując cenę GTX 750 (450-550 zł) od ceny i5-5675C (1175 zł ale OEM), wychodziłoby odpowiednik BOXowego czterordzeniowca za ok. 700 zł, coś w okolicach i5-44xx. Pytanie - czy i5-44xx w parze z GTX 750 zapewniłby większą wydajność w grach, niż sam i5-5675C, czy też nie?
[...]
[Aktualizacja]
Ok - widzę powyższe diagramy i komentarze
Ale one chyba nie do końca są odpowiedzią na mój eksperyment.
Są częściową odpowiedzą o tyle, że już wiesz żeby od ceny i5-5675C nie odejmować 450zł za GTX 750, tylko 150zł za GTS 450 który będzie odpowiednikiem Iris Pro 6200
Aktualizować artykuł zamierzacie w odniesieniu do braku I7, a powyższe?
Śmiem twierdzić, że brak eDRAM w Skylake jest tragedią, a mogło być pięknie.
Nie nazwałbym procesora z l4 cache 'biednym' - intel po prostu postarał się, aby Skylake nie miał za dużej wydajności. Gdyby Skylake miał 128MB l4 cache tak jak Broadwell to mielibyśmy w końcu procesor klasy 'sandy bridge', w sensie - na kolejne parę lat.
A tak będziemy mieli biedoskylake BEZ EDRAMU, 10% szybszy od Haswella.
Bieda to jest dodawania ficzerów graficznych w procesorze, zamiast tego mógłbyś mieć brodłel-D, tak jest taki procek z 8 rdzeniami.
Dokładnie. Albo z drugiej strony: dlaczego mam płacić za połowę powierzchni procesora, której nie potrzebuję?
Mogliście przetestować wydajność Iris pro na tle HD4400/4600.
A zwłaszcza ten:
Mówią wszystko.
W innych zastosowaniach jest jeszcze gorzej. A O/C to loteria z tendencją spadkową.
Pierdoły typu IGP czy pobór mocy w desktopie nie mają większego znaczenia, zwłaszcza że w poprzedniej generacji z tym ostatnim i tak było nieźle.
Krótko mówiąc - GORZEJ ZA DROŻEJ.
GPU klasy GTX 750 w połączeniu z i5 Haswell zmiata z powierzchni ziemi iGPU w Skylake.
Tylko żeby to zauwazyć należałoby testować w rozdzielczości typu 1080p, gdzie Skylake na bank się rozłoży przy jakichś średnio-niskich ustawieniach w najnowszych grach, a 750 nadal będzie coś robić.
Inna sprawa, że GTX 750 i 750ti zostanie za dwa tygodnie zastąpiony GTX 950 i 950ti (chociaż zobaczymy dopiero za te dwa tygodnie jak dokładnie Nvidia je wyceni).
Bo szczerze mówiąc to GTX 750 jest strasznie biedne, ledwie 512 rdzeni CUDA. 950 będzie miał pewnie 768 , i to nowszej wersji.
Bo 750/750ti to Maxwell 1sza generacja, a 950 będzie Maxwellem drugiej generacji.
Pytanie jaka będzie cena.
Dzięki za komentarz!
Fakt, kupienie samego tylko Broadwella do gier, chyba mija się z celem. W jego cenie można dostać i5-44xx plus np. R7 360, co jako tako pozwoli już chyba pograć przy 1650 lub 1920 na średnich?
Choć, jak widać, jakiś potencjał w Broadwellach drzemie. Oczywiście w porównaniu ze starszymi platformami jak choćby 1155.
Jeśli tak, to pokuszę się o pewien eksperyment myślowy. Odejmując cenę GTX 750 (450-550 zł) od ceny i5-5675C (1175 zł ale OEM), wychodziłoby odpowiednik BOXowego czterordzeniowca za ok. 700 zł, coś w okolicach i5-44xx. Pytanie - czy i5-44xx w parze z GTX 750 zapewniłby większą wydajność w grach, niż sam i5-5675C, czy też nie?
[...]
[Aktualizacja]
Ok - widzę powyższe diagramy i komentarze
Ale one chyba nie do końca są odpowiedzią na mój eksperyment.
Są częściową odpowiedzą o tyle, że już wiesz żeby od ceny i5-5675C nie odejmować 450zł za GTX 750, tylko 150zł za GTS 450 który będzie odpowiednikiem Iris Pro 6200
Fakt!!! Ale GTXa można wciąż kupić w sklepie jako nówkę, a GTSa już nie bardzo...
Gwarancja czasem się jednak (niestety) do czegoś przydaje...
* * *
W sumie taki Broadwell to ciekawa alternatywa dla osób, które chcą dokonać radykalnej zmiany kilkuletniego sprzętu, nie decydując się na zakup wszystkiego od razu. Przykładowo: posiadacz proca na LGA 775 (C2D, C2Q albo Xeon) i jednocześnie karty graficznej typu GTS 450, mógłby rozpocząć wymianę od zakupu zasilacza, procesora, płyty głównej i ramu. Z GPU można by poczekać chwilę, bo i tak przyrost mocy na samym procku będzie ogromny!
A tak na marginesie:
http://ark.intel.com/pl/products/88095/Int...up-to-3_60-GHz. Czy w związku z powyższym zastosowanie innego ramu niż DDR3L będzie możliwe..?
Se tak czekać do usranej śmierci. Zen to stary ho ho daleko jeszcze