A ja bym właśnie i3 nie kupił. Nie za tę cenę. Uważam, że - niestety - pomiędzy segmentem Pentiuma a i5 u Intela jest dziura. Dlatego nabyłem ostatnio drogą kupna i5 pierwszej generacji @1156 Ale z nowych części.... pewnie bym poszedł w FX-6300, taka prawda... w wielu nowych grach bardzo fajnie wypada ten procesor, zegar w zegar dużo szybciej od Phenoma, a podkręcony niemal dogania zablokowane i5'ki... no i moja teoria - raczej z tych 'ze szklanej kuli', ale gdyby to był sprzęt dla mnie to mógłbym zaryzykować, przecież tylko sam bym stracił - jest taka, że w nowych grach mocna pozycja tego CPU będzie się nasilać
Akurat miałem FX-6300 a teraz mam i3-4340 i muszę stwierdzić, że i3 w grach jest po prostu bardziej uniwersalny. W takim BF4, grze pisanej praktycznie pod AMD, wydajność tych CPU była bardzo podobna. Ale już w Starcrafcie 2, Shogunie 2 czy (w nieco mniejszym stopniu) Cywilizacji 5 znaczna przewagę ma i3. Oczywiście mowa tutaj tylko o grach, inne aplikacje to temat na dłuższą dyskusję i trudno byłoby o jednoznaczne konkluzje.
A i5-7xx pod LGA1156 to faktycznie nadal bardzo dobre i uniwersalne procesory, zwłaszcza po oc w granice 4GHz.
Analizując tylko wyniki NV.
W teorii 2.3GHz 4c powinien być zawsze słabszy od 2C 4.6GHz
1. Gorsze skalowanie, skalowanie nie jest idealne i zawsze są tu straty.
2. Mniej cache/rdzeń
3. Sam soft nie zawsze wykorzystuje to dobrze....
Jednak jedyna sytuacja gdzie jest tak jak powinno być to Rome II, SC2 pozostałe przypadki to absurd, który wymaga wyjaśnienia, a nie ma...
Nawet teorii nie ma, czemu tak się dzieje. Choć zdaję się to właśnie te dwie gry właśnie najbardziej obciążają CPU pipeline graficzny. Pozostałe są mniej obciążone przez grafikę, a fizykę.
Miło by było gdybyś wytargał od NV tak absurdalne zachowanie się. Bo art ma forma tak jest przyjmijcie to. Ok... ale why?
Lol seconds after minus go and go? Znowu lecą, a uzasadnienia dlaczego nie ma...
@ HΛЯPΛGŌN
Jakbyś znał słowo abstrakcja i nauka, to być może byś to zrozumiał, zresztą w tekście było wyraźnie napisane, że ten artykuł nie ma żadnej wartości użytkowej.
To można było jeszcze dorzucić 8-rdzeniowego Xeona i dać mu zegar 1.15GHz. Wtedy nazwałbym to abstrakcją.
Dziwi mnie jednak to, że w części gier(zwłaszcza tych dobrze korzystających z wielu rdzeni) karta AMD także robi pożytek z czterech nisko taktowanych rdzeni.
Kolejna rzecz to inny test, Max Payne 3 na wysoko taktowanym i7.
Czy w takim wypadku do mocnego, podkręconego, czterordzeniowca najlepsza jest karta AMD?
@Pioy
To i tak dobrze, bo ja już przy premierze E8xxx/Q9xxx kręciłem nosem 'po co komu nowe dwurdzeniowce? kto to kupi?'
Ale z tym że 'trzeba iść w 4 rdzenie i basta' to się nie zgodzę. Praktyka pokazuje, że jeśli grasz i nie stać cię na 4-rdzeniowe i5, najlepszym wyborem jest procesor 2c/4t. Pomijając procesory serii K to nawet nie ma jakiejś wielkiej przepaści względem szybkich 4c/4t.
A ja bym właśnie i3 nie kupił. Nie za tę cenę. Uważam, że - niestety - pomiędzy segmentem Pentiuma a i5 u Intela jest dziura. Dlatego nabyłem ostatnio drogą kupna i5 pierwszej generacji @1156 Ale z nowych części.... pewnie bym poszedł w FX-6300, taka prawda... w wielu nowych grach bardzo fajnie wypada ten procesor, zegar w zegar dużo szybciej od Phenoma, a podkręcony niemal dogania zablokowane i5'ki... no i moja teoria - raczej z tych 'ze szklanej kuli', ale gdyby to był sprzęt dla mnie to mógłbym zaryzykować, przecież tylko sam bym stracił - jest taka, że w nowych grach mocna pozycja tego CPU będzie się nasilać
Zakładasz, że procesor w czymś pomaga jeśli akurat 'leżymy' na karcie graficznej, co nie jest prawdą: http://pclab.pl/art52167.html
Po drugie: nie rozumiem skąd wniosek, że w miejscu procesorowym Nvidia i AMD wymagają czterech rdzeni. Przykład StarCrafta 2, czy choćby Wiedźmina 2 pokazuje, że nie jest to prawdą.
No i po trzecie: gdyby na 4-rdzeniowym SB/IB/HW nie miało to znaczenia, to skąd te wyniki:
Widać to bardzo dobrze po wynikach w BF4 multiplayer, gdzie sporą rolę odgrywa procesor. Wyraźnie widać wtedy, że gra na karcie AMD robi także pożytek z czterech rdzeni, nawet nisko taktowanych.
Wniosek jest taki, że wszystko zależy od miejsca testowego i tego czy jest to miejsce stricte obciążające k. graf. czy CPU.
Tam gdzie jest to miejsce nakładające sporo na kartę, tam AMD będzie potrzebowało mocnych dwóch rdzeni, aby karta rozwinęła skrzydła. Tam gdzie jest miejsce procesorowe... Tam i Nvidia i AMD wymaga czterech rdzeni.
Sporo też zależy od konkretnej gry i za dużo występuje różnic, aby jednoznacznie ferować wyroki. Obecnie do gier i tak najlepiej zaopatrzyć się w quad-core (Sandy/Ivy/Hasw) a wtedy czy jest to karta zielona czy czerwona nie ma znaczenia - liczy się wydajność samej karty.
Przecież to jak dana gra korzysta z kilku rdzeni to zależy od tego kto tą grę produkuje....
Sterownik AMD korzysta z 2 rdzeni, czy aby przypadkiem wtedy 'gra' nie ma zwolnionych 2 pozostałych rdzeni do liczenia fizyki itp? + oczywiście.
W miejscu procesorowym, w teorii karta AMD ma przewagę, bo sterownik zostawia grze 2 rdzenie niezajęte do liczenia. IMO temat ciekawy, ale redakcja urabia do naprawdę różnych wyników i różnych miejsc testowych nieprawdziwe teorie.
Przecież to jak dana gra korzysta z kilku rdzeni to zależy od tego kto tą grę produkuje....
Sterownik AMD korzysta z 2 rdzeni, czy aby przypadkiem wtedy 'gra' nie ma zwolnionych 2 pozostałych rdzeni do liczenia fizyki itp? + oczywiście.
W miejscu procesorowym, w teorii karta AMD ma przewagę, bo sterownik zostawia grze 2 rdzenie niezajęte do liczenia. IMO temat ciekawy, ale redakcja urabia do naprawdę różnych wyników i różnych miejsc testowych nieprawdziwe teorie.
@Pioy
To i tak dobrze, bo ja już przy premierze E8xxx/Q9xxx kręciłem nosem 'po co komu nowe dwurdzeniowce? kto to kupi?'
Ale z tym że 'trzeba iść w 4 rdzenie i basta' to się nie zgodzę. Praktyka pokazuje, że jeśli grasz i nie stać cię na 4-rdzeniowe i5, najlepszym wyborem jest procesor 2c/4t. Pomijając procesory serii K to nawet nie ma jakiejś wielkiej przepaści względem szybkich 4c/4t.
No ale to przecież sprawdziliśmy Tyle że z taktowaniem 2,3 GHz, więc?
2.3GHz, a 4.6GHz to 100% różnicy w taktowaniu. Poprostu jestem ciekaw, czy taki podkręcony i3 z K miałby sens w starciu z i5 po OC do tych 4.6GHz.
Chyba że proporcje zostaną zachowane, tak jak przy @2.3GHz.
Edit:
Różnica w cenie gdyby wynosiła ~300 zł, to możnaby dopłacić wtedy do lepszego GPU.
No a dlaczego proporcje miałyby być inne? Skoro jeden i drugi procesor przyspiesza o 100% częstotliwości, to analogicznie wydajność też musi o tyle wzrosnąć w obydwu przypadkach.
Powiem wprost - ten test to czysta ciekawostka, która nijak ma się do rzeczywistości. Nie wiem po co w ogóle redakcja pclabu tworzy nowe procesory.
Co z tego, że przy dwóch rdzeniach i wątkach wydajne karty GeForce wypadają gorzej? Przeceież NIKT nie będzie pakował karty GTX 780 w Pentiuma.
A mogliście zrobić testy z dwurdzeniowymi Athlonami lub Phenomami... Przynajmniej można by było czerpać z nich jakąś wiedzę.
Z jednej strony fajny art dla kogoś 'rozmiłowanego w teorii' (czyli całkiem sporej liczby użyszkodników, aczkolwiek tylko tych bardziej 'świadomych sprzętowo". Z drugiej strony nie odpowiada na to najważniejsze pytanie zadawane w 'realnym świecie' - czy 2-rdzeniowe CPU już są za słabe do grania, czy jeszcze nie. Znaczy odpowiedź jest umieszczona w podsumowaniu, ale nijak nie wynika ona z artykułu.
Sytuacja, w której ta sama moc obliczeniowa podzielona na większą liczbę rdzeni okazuje się dawać lepsze wyniki wymaga jakiegoś ewenementu, teoretycznie nieprawidłowego działania - i tak też jest, taki efekt dają dopiero steroniki nVidii - gdyż większa liczba rdzeni musi się między sobą komunikować, wymieniać danymi, być karmiona przez kontroler pamięci (2 rdzenie mniej rywalizują o dostęp do kontrolera)... i tak dalej
Generalnie zgadzam się, że taki art byłby bardziej przydatny parę lat temu - w tej chwili przedstawia on tylko wartość teoretyczną, jako ciekawostkę do dywagacji. Najmocniejsze procesory 2-rdzeniowe są już za wolne i basta, trzeba iść w 4 rdzenie nawet jeśli nie będą one idealnie wykorzystane
Swoją drogą, pamiętam że gdzieś chyba w okolicach premiery pierwszej generacji Core iX napisałem - nie pamiętam, czy na PCLabie, czy gdzieś indziej - że oto nadchodzi era procesorów 4-rdzeniowych i E8x00 zostanie zapamiętany jako najszybszy dwurdzeniowiec w historii. O jakże się myliłem, naprawdę nie sądziłem że Intel będzie nas karmił dwurdzeniówkami jeszcze tyle lat później...
Bushman - i3@4.2GHz (załóżmy że kręciłyby się tak samo, jak 4-rdzeniowe Haswelle) miałby wydajność pomiędzy i5@2.1-2.2 a i5@prawie 4GHz plus nie dotyczyłby go 'problem nVidia', więc generalnie można powiedzieć że byłby zamiennikiem najtańszych modeli i5 (uśredniając wydajność, która miejscami byłaby nierówna). Czyli wystarczałby generalnie do grania
Swoją drogą można odmienić sformułowanie 'optymalizacja wielowątkowa' przez wszystkie przypadki, ale jeśli w 2 przypadkach procesor 2,3GHz + HT zapewnia lepszą wydajność od procesora 4,6GHz bez HT to...dla mnie jest to po prostu zepsute oprogramowanie. Grzech dużo większego kalibru niż powszechnie krytykowany brak wsparcia wielu rdzeni w niektórych nowych engine'ach.
Chętnie przeczytałbym też taką naukową, teoretyczną analizę działania sterowników Nvidii i AMD. Nie ukrywam, że mam swoje teorie:
- hipoteza nr 1: Nvidia wykorzystuje do obsługi API i sterownika jednostki INT procesora; dzięki HT możliwe jest jednoczesne puszczenie 2 wątków INT (sterownik, drawcalle) i 2 wątków FP (gra); w przypadku 2 rdzeni bez HT jednostki INT i FP wzajemnie się blokują i rywalizują o zasoby;
- hipoteza nr 2: sterownik Nvidii korzystając z jednostek INT procesora kompresuje bądź w inny sposób obrabia dane, przez co drawcalle nie obciążają tak bardzo pojedynczego wątku; proces kompresji potrafi wykorzystać co najmniej 8 wątków, ale w przypadku procesorów dwuwątkowych zbyt mało zasobów pozostaje na samą grę.
Ciekawe, czy to tylko wytwory mojej chorej wyobraźni, czy może jednak coś jest na rzeczy
Fajnie by było zobaczyć wykres obciążenia każdego z rdzeni na kartach NV i AMD.
Ten test ma się to nijak do rzeczywistości. Po pierwsze nie ma na rynku dwurdzeniowych proców 4,6GHz. Po drugie modele 4-rdzeniowe też się podkręcają. Dzisiaj kupowanie procesora z myślą o grach innego niż 4 rdzenie pokroju Core i5 jest strzałem w stopę. Dlatego nie bardzo rozumiem, co ten test miał pokazać.
Dokładnie ten test miałby sens jakieś 2 lata temu.Kto dziś do wydajnej karty graficznej kupi 2 rdzeniowca ?
Akurat miałem FX-6300 a teraz mam i3-4340 i muszę stwierdzić, że i3 w grach jest po prostu bardziej uniwersalny. W takim BF4, grze pisanej praktycznie pod AMD, wydajność tych CPU była bardzo podobna. Ale już w Starcrafcie 2, Shogunie 2 czy (w nieco mniejszym stopniu) Cywilizacji 5 znaczna przewagę ma i3. Oczywiście mowa tutaj tylko o grach, inne aplikacje to temat na dłuższą dyskusję i trudno byłoby o jednoznaczne konkluzje.
A i5-7xx pod LGA1156 to faktycznie nadal bardzo dobre i uniwersalne procesory, zwłaszcza po oc w granice 4GHz.
W teorii 2.3GHz 4c powinien być zawsze słabszy od 2C 4.6GHz
1. Gorsze skalowanie, skalowanie nie jest idealne i zawsze są tu straty.
2. Mniej cache/rdzeń
3. Sam soft nie zawsze wykorzystuje to dobrze....
Jednak jedyna sytuacja gdzie jest tak jak powinno być to Rome II, SC2 pozostałe przypadki to absurd, który wymaga wyjaśnienia, a nie ma...
Nawet teorii nie ma, czemu tak się dzieje. Choć zdaję się to właśnie te dwie gry właśnie najbardziej obciążają CPU pipeline graficzny. Pozostałe są mniej obciążone przez grafikę, a fizykę.
Miło by było gdybyś wytargał od NV tak absurdalne zachowanie się. Bo art ma forma tak jest przyjmijcie to. Ok... ale why?
Lol seconds after minus go and go? Znowu lecą, a uzasadnienia dlaczego nie ma...
Jakbyś znał słowo abstrakcja i nauka, to być może byś to zrozumiał, zresztą w tekście było wyraźnie napisane, że ten artykuł nie ma żadnej wartości użytkowej.
To można było jeszcze dorzucić 8-rdzeniowego Xeona i dać mu zegar 1.15GHz. Wtedy nazwałbym to abstrakcją.
Może masz rację, temat jest bardzo złożony.
Dziwi mnie jednak to, że w części gier(zwłaszcza tych dobrze korzystających z wielu rdzeni) karta AMD także robi pożytek z czterech nisko taktowanych rdzeni.
Kolejna rzecz to inny test, Max Payne 3 na wysoko taktowanym i7.
Czy w takim wypadku do mocnego, podkręconego, czterordzeniowca najlepsza jest karta AMD?
To i tak dobrze, bo ja już przy premierze E8xxx/Q9xxx kręciłem nosem 'po co komu nowe dwurdzeniowce? kto to kupi?'
Ale z tym że 'trzeba iść w 4 rdzenie i basta' to się nie zgodzę. Praktyka pokazuje, że jeśli grasz i nie stać cię na 4-rdzeniowe i5, najlepszym wyborem jest procesor 2c/4t. Pomijając procesory serii K to nawet nie ma jakiejś wielkiej przepaści względem szybkich 4c/4t.
A ja bym właśnie i3 nie kupił. Nie za tę cenę. Uważam, że - niestety - pomiędzy segmentem Pentiuma a i5 u Intela jest dziura. Dlatego nabyłem ostatnio drogą kupna i5 pierwszej generacji @1156
Zakładasz, że procesor w czymś pomaga jeśli akurat 'leżymy' na karcie graficznej, co nie jest prawdą: http://pclab.pl/art52167.html
Po drugie: nie rozumiem skąd wniosek, że w miejscu procesorowym Nvidia i AMD wymagają czterech rdzeni. Przykład StarCrafta 2, czy choćby Wiedźmina 2 pokazuje, że nie jest to prawdą.
No i po trzecie: gdyby na 4-rdzeniowym SB/IB/HW nie miało to znaczenia, to skąd te wyniki:
Wniosek jest taki, że wszystko zależy od miejsca testowego i tego czy jest to miejsce stricte obciążające k. graf. czy CPU.
Tam gdzie jest to miejsce nakładające sporo na kartę, tam AMD będzie potrzebowało mocnych dwóch rdzeni, aby karta rozwinęła skrzydła. Tam gdzie jest miejsce procesorowe... Tam i Nvidia i AMD wymaga czterech rdzeni.
Sporo też zależy od konkretnej gry i za dużo występuje różnic, aby jednoznacznie ferować wyroki. Obecnie do gier i tak najlepiej zaopatrzyć się w quad-core (Sandy/Ivy/Hasw) a wtedy czy jest to karta zielona czy czerwona nie ma znaczenia - liczy się wydajność samej karty.
Sterownik AMD korzysta z 2 rdzeni, czy aby przypadkiem wtedy 'gra' nie ma zwolnionych 2 pozostałych rdzeni do liczenia fizyki itp? + oczywiście.
W miejscu procesorowym, w teorii karta AMD ma przewagę, bo sterownik zostawia grze 2 rdzenie niezajęte do liczenia. IMO temat ciekawy, ale redakcja urabia do naprawdę różnych wyników i różnych miejsc testowych nieprawdziwe teorie.
Jakie są zatem Twoje wnioski?
Sterownik AMD korzysta z 2 rdzeni, czy aby przypadkiem wtedy 'gra' nie ma zwolnionych 2 pozostałych rdzeni do liczenia fizyki itp? + oczywiście.
W miejscu procesorowym, w teorii karta AMD ma przewagę, bo sterownik zostawia grze 2 rdzenie niezajęte do liczenia. IMO temat ciekawy, ale redakcja urabia do naprawdę różnych wyników i różnych miejsc testowych nieprawdziwe teorie.
To i tak dobrze, bo ja już przy premierze E8xxx/Q9xxx kręciłem nosem 'po co komu nowe dwurdzeniowce? kto to kupi?'
Ale z tym że 'trzeba iść w 4 rdzenie i basta' to się nie zgodzę. Praktyka pokazuje, że jeśli grasz i nie stać cię na 4-rdzeniowe i5, najlepszym wyborem jest procesor 2c/4t. Pomijając procesory serii K to nawet nie ma jakiejś wielkiej przepaści względem szybkich 4c/4t.
No ale to przecież sprawdziliśmy
2.3GHz, a 4.6GHz to 100% różnicy w taktowaniu. Poprostu jestem ciekaw, czy taki podkręcony i3 z K miałby sens w starciu z i5 po OC do tych 4.6GHz.
Chyba że proporcje zostaną zachowane, tak jak przy @2.3GHz.
Edit:
Różnica w cenie gdyby wynosiła ~300 zł, to możnaby dopłacić wtedy do lepszego GPU.
No a dlaczego proporcje miałyby być inne?
Co z tego, że przy dwóch rdzeniach i wątkach wydajne karty GeForce wypadają gorzej? Przeceież NIKT nie będzie pakował karty GTX 780 w Pentiuma.
A mogliście zrobić testy z dwurdzeniowymi Athlonami lub Phenomami... Przynajmniej można by było czerpać z nich jakąś wiedzę.
Sytuacja, w której ta sama moc obliczeniowa podzielona na większą liczbę rdzeni okazuje się dawać lepsze wyniki wymaga jakiegoś ewenementu, teoretycznie nieprawidłowego działania - i tak też jest, taki efekt dają dopiero steroniki nVidii
Generalnie zgadzam się, że taki art byłby bardziej przydatny parę lat temu - w tej chwili przedstawia on tylko wartość teoretyczną, jako ciekawostkę do dywagacji. Najmocniejsze procesory 2-rdzeniowe są już za wolne i basta, trzeba iść w 4 rdzenie nawet jeśli nie będą one idealnie wykorzystane
Swoją drogą, pamiętam że gdzieś chyba w okolicach premiery pierwszej generacji Core iX napisałem - nie pamiętam, czy na PCLabie, czy gdzieś indziej - że oto nadchodzi era procesorów 4-rdzeniowych i E8x00 zostanie zapamiętany jako najszybszy dwurdzeniowiec w historii. O jakże się myliłem, naprawdę nie sądziłem że Intel będzie nas karmił dwurdzeniówkami jeszcze tyle lat później...
Bushman - i3@4.2GHz (załóżmy że kręciłyby się tak samo, jak 4-rdzeniowe Haswelle) miałby wydajność pomiędzy i5@2.1-2.2 a i5@prawie 4GHz plus nie dotyczyłby go 'problem nVidia', więc generalnie można powiedzieć że byłby zamiennikiem najtańszych modeli i5 (uśredniając wydajność, która miejscami byłaby nierówna). Czyli wystarczałby generalnie do grania
No ale to przecież sprawdziliśmy
2.3GHz, a 4.6GHz to 100% różnicy w taktowaniu. Poprostu jestem ciekaw, czy taki podkręcony i3 z K miałby sens w starciu z i5 po OC do tych 4.6GHz.
Chyba że proporcje zostaną zachowane, tak jak przy @2.3GHz.
Edit:
Różnica w cenie gdyby wynosiła ~300 zł, to możnaby dopłacić wtedy do lepszego GPU.
Swoją drogą można odmienić sformułowanie 'optymalizacja wielowątkowa' przez wszystkie przypadki, ale jeśli w 2 przypadkach procesor 2,3GHz + HT zapewnia lepszą wydajność od procesora 4,6GHz bez HT to...dla mnie jest to po prostu zepsute oprogramowanie. Grzech dużo większego kalibru niż powszechnie krytykowany brak wsparcia wielu rdzeni w niektórych nowych engine'ach.
Chętnie przeczytałbym też taką naukową, teoretyczną analizę działania sterowników Nvidii i AMD. Nie ukrywam, że mam swoje teorie:
- hipoteza nr 1: Nvidia wykorzystuje do obsługi API i sterownika jednostki INT procesora; dzięki HT możliwe jest jednoczesne puszczenie 2 wątków INT (sterownik, drawcalle) i 2 wątków FP (gra); w przypadku 2 rdzeni bez HT jednostki INT i FP wzajemnie się blokują i rywalizują o zasoby;
- hipoteza nr 2: sterownik Nvidii korzystając z jednostek INT procesora kompresuje bądź w inny sposób obrabia dane, przez co drawcalle nie obciążają tak bardzo pojedynczego wątku; proces kompresji potrafi wykorzystać co najmniej 8 wątków, ale w przypadku procesorów dwuwątkowych zbyt mało zasobów pozostaje na samą grę.
Ciekawe, czy to tylko wytwory mojej chorej wyobraźni, czy może jednak coś jest na rzeczy
Fajnie by było zobaczyć wykres obciążenia każdego z rdzeni na kartach NV i AMD.
Ciekawią mnie różnic obciążenia.
No ale to przecież sprawdziliśmy
Dokładnie ten test miałby sens jakieś 2 lata temu.Kto dziś do wydajnej karty graficznej kupi 2 rdzeniowca ?
znajdą się tacy np. w TVGRY.pl =):
http://tvgry.pl/?ID=3958
A to nie ma przełożenia na karty pokroju Radeon HD 7850, czy GeForce GTX 650 Ti Boost? Oczywiście, że ma.
Przełożenie jest czysto teoretyczne
I praktyczne, trzeba tylko rozumieć również ten artykuł: http://pclab.pl/art52167.html