Przeglądając te testy na pierwszy rzut oka można by dojść do wniosku że wydajnościowo buldki nie wypadają aż tak źle. Mam jednak wrażenie że jest to artykuł sponsorowany bo w tym teście obraz fx-ów jest znacznie korzystniejszy niż w pierwszym teście bulldozera. Z kolei procesory intela wypadają słabiej. Przykłady: w teście AES dzięki instrukcjom aesin wyniki inteli zazwyczaj wybijają sufit - ale nie w przypadku tego testu, w teście kompresji 2500 wypada słabiej od i3 i autora testu to g.... obchodzi nie próbuje nawet wyjaśnić dlaczego tak się stało.
Przypadek, zbieg okoliczności czy celowe działanie?
p.s
W komentarzach jest dyskusja o rozwoju procesorów. I tym jakoby core 2 duo było tylko ulepszoną wersja P3.
To nie jest prawda. Rdzenie Core 2 duo to zupełnie nowa mikroarchitektura mogąca wykonać 4-instrukcje na cykl. Jako wersję rozwojową p3 można by ewentualnie uznać rdzeń core ale nie core 2.
Nieprawdziwe są też zdecydowanie negatywne oceny architektury netburst.
Ta architektura zupełnie dobrze sprawdzała się w swoim czasie w rdzeniach northwood gdzie 3GHz+ P4 masakrowały taktowane w okolicach 2GHz athlony xp, nieźle radziły sobie z jednordzeniowymi athlonami 64. Dopiero dwurdzeniowe wysoko taktowane athlony x2 uzyskały zdecydowaną przewagę.
Problemem netbursta okazało sie to że z przyczyn technologicznych nie udało się zrealizować idei przewodniej tej architektury - czyli osiągać bardzo wysokich zegarów w późniejszych wdrożeniach tejże architektury.
Nieprawda jest też to że rdzenie atom wywodzą się z P4. Atomy powstały jako zupełnie nowy, oddzielny projekt. Głównym założeniem projektowym było stworzenie rdzenia x86 o jak największej efektywności energetycznej i jak najmniejszym koszcie produkcji. Cel był jasny stworzyć cpu do netbooków.
SunTzu bez jaj. Czy naprawdę przy sobie zawsze masz aż taką ilość zaszyfrowanych danych aby obowiązkowe było posiadanie HW wspomagacza szyfrowania ? Wątpię. A w domu na desktopie to różnicę będziesz miał niewielką między wspomaganiem a 4 rdzeniowym prockiem. Zresztą w domu pewnie samym AES się nie zadowolisz. Zresztą zdefiniuj co to są te ważne dane i ile zajmują. Bo u mnie to max 30 GB. A zaszyfrowanie tego to nawet na C2D to nie problem.
Większość moich zadań opiera się na CPU, w momencie gdy pracuję i intensywnie korzystam z dysku mam ogromny spadek wydajności z powodu obciążenia procesora.
Jestem mile zaskoczony wydajnością nowych FX`ów. Jeżeli następna rewizja będzie w grach wydajnościowo z I5 2500k to na pewno będę zainteresowany ofertą AMD. Sentyment do firmy został
Ależ po co czekać do następnej rewizji. Już teraz możesz wziąć jakieś średniej klasy GPU (w tym wypadku najlepiej AMD, bo Radeony mają mniej teselatorów niż GeForce'y), do tego CPU FX od AMD, następnie zapuścić Crysisa 2 z detalami na max, w tym teselacją na max, AA 8x Super Sampling, Aniso 16x.
Po takim zabiegu gwarantuje Ci że FX nie tylko będzie wypadał równie dobrze 'w grach' jak i5 2500, ale też równie dobrze jak i7 2600K a nawet równie dobrze jak i7 3690X albo i lepiej!
I patrz CPU AMD za 700-900zł oferuje w grach równie wysoką wydajność jak kosztujący ponad 4x drożej topowy CPU Intela! Amazing
Zamiast Crysisa 2 dobrze też nadaje się Battlefield 3
Ciekawe jak z $ u AMD, bo myślę ,że sprzedaż udanych grafik finansuje produkcję i pokrywa straty z projektu BD. Ja też chętnie bym widział jakieś udane niedrogie Phenomy x8 ,czy x10. W teen sposób AMD mogło by konkurować jakoś z Intelem, który za swoje 6 cores na LGA2011 dyktuje bajońskie ceny. No i mogło by powstawać bardziej masowo oprogramowanie korzystające z więcej niż 4 rdzeni, co na dzień dzisiejszy dla programistów jest nieopłacalne ,by robić oprogramowanie dla 1% rynku...
Dział GPU przez 2-3 kwartały przynosi minimalne zyski/straty. Zarabiają generalnie w Q4 w tym roku Q4 był słaby. Rynek procesorów, stanowi ogromną większość obrotu AMD. Zyski jakie AMD ma z GPU można uznać za z jednej strony groszowe, a drugiej strony przy tak słabych zyskach to AMD właśnie na GPU zarabia.
AMD zarobiło 27mln w Q4 vs 68mln Q4@2010, na GPU...
Całe AMD zarobiło 71mln w Q4
SunTzu bez jaj. Czy naprawdę przy sobie zawsze masz aż taką ilość zaszyfrowanych danych aby obowiązkowe było posiadanie HW wspomagacza szyfrowania ? Wątpię. A w domu na desktopie to różnicę będziesz miał niewielką między wspomaganiem a 4 rdzeniowym prockiem. Zresztą w domu pewnie samym AES się nie zadowolisz. Zresztą zdefiniuj co to są te ważne dane i ile zajmują. Bo u mnie to max 30 GB. A zaszyfrowanie tego to nawet na C2D to nie problem.
Większość moich zadań opiera się na CPU, w momencie gdy pracuję i intensywnie korzystam z dysku mam ogromny spadek wydajności z powodu obciążenia procesora.
Tak, więc wolę mieć szyfrowanie niż nie mieć.
Otoz to, procesory bez instrukcji AES daja rade w szyfrowaniu, ale pod warunkiem ze w tym czasie nie obciazamy procesora niczym innym. Do tego stwierdzenia o ile lepszy bylby Phenom II w 32 nm sa dosc smieszne. Atholny 631 w 32 nm kreca sie dosc slabo, a przynajmniej nie lepiej niz stare 45 nm Athlony. Zegary bazowe tez sa poustawiane dosc nisko. Po buldozerach i llano nie wiedac tez jakiegos duzo wiekszego upakowania tranzystorow, wiec liczenie na 8 lub 10 rdzeniowe Phenomy, chodzace w okolichach 4 GHz to raczej Science Fiction. Buldozery nie we wszystkim bija stae Phenomy, ale w wielu zastosowaniach bija dosc znacznie. Wiec nie mozna powiedziec, ze sa wolniejsz czy gorsze od starej architektury.
Większość moich zadań opiera się na CPU, w momencie gdy pracuję i intensywnie korzystam z dysku mam ogromny spadek wydajności z powodu obciążenia procesora.
Tak, więc wolę mieć szyfrowanie niż nie mieć.
Otoz to, procesory bez instrukcji AES daja rade w szyfrowaniu, ale pod warunkiem ze w tym czasie nie obciazamy procesora niczym innym. Do tego stwierdzenia o ile lepszy bylby Phenom II w 32 nm sa dosc smieszne. Atholny 631 w 32 nm kreca sie dosc slabo, a przynajmniej nie lepiej niz stare 45 nm Athlony. Zegary bazowe tez sa poustawiane dosc nisko. Po buldozerach i llano nie wiedac tez jakiegos duzo wiekszego upakowania tranzystorow, wiec liczenie na 8 lub 10 rdzeniowe Phenomy, chodzace w okolichach 4 GHz to raczej Science Fiction. Buldozery nie we wszystkim bija stae Phenomy, ale w wielu zastosowaniach bija dosc znacznie. Wiec nie mozna powiedziec, ze sa wolniejsz czy gorsze od starej architektury.
Można na pewno powiedzieć, że wydajność single thread Bulldozera przy takim samym taktowaniu jest niższa niż wydajność Phenoma II. I w tym aspekcie nowa architektura AMD jest krokiem wstecz.
@pawełpclab - akurat trochę źle to wykombinowałeś z tymi procami. Jak Sandy Bridge jest ewolucją Nehalema, Nehalem Core 2 tak i Core 2 wyewoluowało z Core właśnie, a tenże z Pentium M. Tak samo Phenom II wylazł z Phenoma, ten z K8, a K8 z K7. K7 w części z K6, w części z alphy, a ogółem z żadnego z poprzedników. Zupełnie nowe podejścia to Pentium (superscalar, pipeline), K5, K6 (& nexgen), Pentium Pro, K7, P4. Cała reszta to ciągła ewolucja od poprzedników.
Otoz to, procesory bez instrukcji AES daja rade w szyfrowaniu, ale pod warunkiem ze w tym czasie nie obciazamy procesora niczym innym. Do tego stwierdzenia o ile lepszy bylby Phenom II w 32 nm sa dosc smieszne. Atholny 631 w 32 nm kreca sie dosc slabo, a przynajmniej nie lepiej niz stare 45 nm Athlony. Zegary bazowe tez sa poustawiane dosc nisko. Po buldozerach i llano nie wiedac tez jakiegos duzo wiekszego upakowania tranzystorow, wiec liczenie na 8 lub 10 rdzeniowe Phenomy, chodzace w okolichach 4 GHz to raczej Science Fiction. Buldozery nie we wszystkim bija stae Phenomy, ale w wielu zastosowaniach bija dosc znacznie. Wiec nie mozna powiedziec, ze sa wolniejsz czy gorsze od starej architektury.
Można na pewno powiedzieć, że wydajność single thread Bulldozera przy takim samym taktowaniu jest niższa niż wydajność Phenoma II. I w tym aspekcie nowa architektura AMD jest krokiem wstecz.
Ale liczyc sie przeciez wydajnosc koncowa, a nie wydajnosc na MHz. Jesli nowa architektura zmniejsza nieco IPC, ale pozwala osiagac duzo wyzsze zegary, to dlaczego jej nie zastosowac? Tak jak powiedzialem liczy sie wydajnosc koncow. Moim zdaniem nie bez zbaczenia jest tu kiepski proces produkcyjny 32 nm w Global Foundries.
@SunTzu - ale to przeciez nie zegary bazowe. Na jakim to chlodzeniu? No i mam momentami wrazenie, ze 45 nm osiagalo lepsze zegary niz 32 nm z GF. NA zegaru buldozerow nie ma co patrzec bo to inna architektura.
Jesli nowa architektura zmniejsza nieco IPC, ale pozwala osiagac duzo wyzsze zegary, to dlaczego jej nie zastosowac
Bo co z tego, że podjedziesz zegarem 10 czy 20% więcej od Intela i freq*ipc będzie w równowadze gdy za wzrostem freq spadnie ci wydajność na wat (bo wzrośnie zużycie prądu). Tu jest małe KO dla BLDZ w obecnej wersji. Drugie KO to niedopracowany proces technologiczny o czym wspomniałeś. A trzecie to brak wykorzystania tych wszystkich fajnych ficzerów w appsach (no oprócz AVX, ale sam AVX właśnie tutaj cudów nie sprawi). Ewolucja Phenoma II w stronę likwidacji wąskich gardeł w przetwarzaniu, zmniejszaniu opóźnień cache itp. dałaby namacalne wyniki wcale nie tak wielkim kosztem jak wdrożenie nowej arch. Żeby jeszcze ta architektura się sprawdzała dobrze, ale tak nie jest.
Można na pewno powiedzieć, że wydajność single thread Bulldozera przy takim samym taktowaniu jest niższa niż wydajność Phenoma II. I w tym aspekcie nowa architektura AMD jest krokiem wstecz.
Ale liczyc sie przeciez wydajnosc koncowa, a nie wydajnosc na MHz. Jesli nowa architektura zmniejsza nieco IPC, ale pozwala osiagac duzo wyzsze zegary, to dlaczego jej nie zastosowac? Tak jak powiedzialem liczy sie wydajnosc koncow. Moim zdaniem nie bez zbaczenia jest tu kiepski proces produkcyjny 32 nm w Global Foundries.
@SunTzu - ale to przeciez nie zegary bazowe. Na jakim to chlodzeniu? No i mam momentami wrazenie, ze 45 nm osiagalo lepsze zegary niz 32 nm z GF. NA zegaru buldozerow nie ma co patrzec bo to inna architektura.
Na powietrznym mi się wydaje. ALe to tylko po to było by uruchomić CPU-Z, a nie mowa tu o stabilnej pracy... Takie CPU się nie grzeje, a 12 rdzeniowy CPU ciągnąłby maximum 600-700W....
Z tego co wiem to do pracy kręciły się do 3-3,6GHz. 8-10 rdzeniowy CPU@32nm z pewnością dałby radę. Problem taki, że Phenom II 32nm byłby większy/droższy od Buldka. Rdzeń Phenoma II jest o wiele większy.
Nie tylko proces technologiczny liczy się przy OC. GF ma całkiem dobre 32nm. Architektura też ma znaczenie.
W kodowaniu jednoprzebiegowym Intel daje ładne baty prockom AMD. W Photoshopie to samo. W grach praktycznie deklasuje konkurenta. Mocno kręcone FXy wciąż wyraźnie przegrywają z niekręconym 2500. I jeszcze jeden bat - TPD, które w przypadku Intela jest sporo lepsze. Innymi słowy Buldożery w obecnej formie to najwyżej średniak. AMD musiałoby opuścić z ceny, bo w chwili obecnej to dość mało opłacalne procesory.
W kodowaniu jednoprzebiegowym Intel daje ładne baty prockom AMD. W Photoshopie to samo. W grach praktycznie deklasuje konkurenta. Mocno kręcone FXy wciąż wyraźnie przegrywają z niekręconym 2500. I jeszcze jeden bat - TPD, które w przypadku Intela jest sporo lepsze. Innymi słowy Buldożery w obecnej formie to najwyżej średniak. AMD musiałoby opuścić z ceny, bo w chwili obecnej to dość mało opłacalne procesory.
Racja, AMD jest zdziercą, ma tylko trochę tańsze procesory od Intela a zdecydowanie mniej wydajne. Ale to nie pierwszy raz gdy AMD zdziera kasę z klientów. Pamiętam jak co poniektórzy wymieniali płyty gdy pojawił się phenom X6 aby być bulldozer ready. Kasa wyrzucona w błoto.
Ale liczyc sie przeciez wydajnosc koncowa, a nie wydajnosc na MHz. Jesli nowa architektura zmniejsza nieco IPC, ale pozwala osiagac duzo wyzsze zegary, to dlaczego jej nie zastosowac?
Dlatego nie stosować, że pomimo tych wyższych zegarów 'rdzeń' FX-a jest słabszy od rdzenia K10.5. To raz, a dwa, że wraz z żyłowaniem taktowania rośnie lawinowo pobór energii bulldozera (ukłony w stronę Pentium 4 .
Wyżyłowane takty kosztem IPC to droga do nikąd.
Intel już tę lekcję przerobił przy okazji Pentium 4, AMD widać zamiast uczyć się na błędach konkurencji, woli uczyć się na własnych....
To single thread. Ale słaby single thread także rzutuje na wydajność multithread bo mnożymy słabe rdzenie. I tak poniżej w idealnie skalującym się cinebenchu - cały... 1% (sic!) przewagi nad Phenomem X6 taktowanym o 300MHz niższym zegarem....
Ej ludzie ludzie - czym wy się tak podniecacie - Intel vs AMD - ech trochę mi się śmiać chce - 90 % (no dobra 70 %) ludzi kupujących komputery to w sumie ludzie, którzy mają w du*ie jakieś tam benchmarki, wydajność po OC, stosunek MHz na wat i inne 'pierdy szmerdy', to w sumie jest zabawa dla komputerowych szaleńców, analizujących każdy megaherc i każdy 'frame per second'. Z komputerem ma być jak z samochodem - działa ????? - działa. Robi to co ma robić ???? Tak. A jak nie, to ... no i teraz zaczyna się 'zabawa' - wszyscy serwisanci komputerowi rączki do góry co lubi tą pracę, bo wasza praca jest najgorsza - a nie jakiegoś 'benczmarkowca'
@Xilion - jak już zarzuciłeś analogię z samochodem... jako w miarę świadomy użyszkodnik co wybierzesz? Ładne BMW palące 10/100, ze względu na przeładowanie stalą zbiera się ciężej ze skrzyżowania. A może Hyundaya palącego 6,5/100, lżejszego i zwinniejszego? Nie kłopocz się z odpowiedzią, pomijając łysych bez karku i managerów z kupą szmalu normalny człowiek weźmie to co lepsze i tańsze w użytkowaniu. A że jeden ma 5 sekund do setki, a drugi 7... a ch** to kogo obchodzi, na polskich drogach?
Ale liczyc sie przeciez wydajnosc koncowa, a nie wydajnosc na MHz. Jesli nowa architektura zmniejsza nieco IPC, ale pozwala osiagac duzo wyzsze zegary, to dlaczego jej nie zastosowac? Tak jak powiedzialem liczy sie wydajnosc koncow. Moim zdaniem nie bez zbaczenia jest tu kiepski proces produkcyjny 32 nm w Global Foundries.
@SunTzu - ale to przeciez nie zegary bazowe. Na jakim to chlodzeniu? No i mam momentami wrazenie, ze 45 nm osiagalo lepsze zegary niz 32 nm z GF. NA zegaru buldozerow nie ma co patrzec bo to inna architektura.
Na powietrznym mi się wydaje. ALe to tylko po to było by uruchomić CPU-Z, a nie mowa tu o stabilnej pracy... Takie CPU się nie grzeje, a 12 rdzeniowy CPU ciągnąłby maximum 600-700W....
Z tego co wiem to do pracy kręciły się do 3-3,6GHz. 8-10 rdzeniowy CPU@32nm z pewnością dałby radę. Problem taki, że Phenom II 32nm byłby większy/droższy od Buldka. Rdzeń Phenoma II jest o wiele większy.
Nie tylko proces technologiczny liczy się przy OC. GF ma całkiem dobre 32nm. Architektura też ma znaczenie.
Jeżeli AMD miało takie problemy z 32nm Llano i bulldożer, to zapewne z 10 rdzeniowym phenomem mieli by jeszcze większe, zapewne uzysk był by marginalny, a szanse na rozwój w stronę HSA nikłe w przypadku starego Kx.
Nie wiem co AMD chciało uzyskać wypuszczając na rynek produkt obarczony tak wieloma wadami, zaczynając od samego procesu produkcji, który jest po prostu tragiczny... te puste połacie niewykorzystanego krzemu.... jak by to po pijaku robili, przez to taki wielki chip.
PS. wie ktoś czy w tym teście był zastosowany patch microsoftu?, bo dość mocno wpływa na dziwne zachowanie aplikacji mało-wątkowych, np: gier, zwłaszcza portów z gier jak np: hard reset.
SunTzu bez jaj. Czy naprawdę przy sobie zawsze masz aż taką ilość zaszyfrowanych danych aby obowiązkowe było posiadanie HW wspomagacza szyfrowania ? Wątpię. A w domu na desktopie to różnicę będziesz miał niewielką między wspomaganiem a 4 rdzeniowym prockiem. Zresztą w domu pewnie samym AES się nie zadowolisz. Zresztą zdefiniuj co to są te ważne dane i ile zajmują. Bo u mnie to max 30 GB. A zaszyfrowanie tego to nawet na C2D to nie problem.
Większość moich zadań opiera się na CPU, w momencie gdy pracuję i intensywnie korzystam z dysku mam ogromny spadek wydajności z powodu obciążenia procesora.
Tak, więc wolę mieć szyfrowanie niż nie mieć.
Przy 10 rdzeniowym procku jeden rdzeń przeznaczasz na szyfrowanie i gotowe. Rozwiązanie z dużą ilością rdzeni jest elastyczniejsze od kilku mocnych rdzeni. Bo bądźmy szczerzy czasy pracy nad danym projektem będą podobne w obu przypadkach przy założeniu iż jednocześnie robimy coś mocno obciążającego i jednocześnie pracujemy nad czymś innym. Naprawdę chciałbym zobaczyć test kompresji z równoczesną grą w cokolwiek. Dosyć łatwe do przeprowadzenia dosyć powtarzalne te same miejsce testowe i ten sam codec/materiał/program. Bo wszak nie każdy lubi sobie patrzeć na pasek postępu.
Przypadek, zbieg okoliczności czy celowe działanie?
p.s
W komentarzach jest dyskusja o rozwoju procesorów. I tym jakoby core 2 duo było tylko ulepszoną wersja P3.
To nie jest prawda. Rdzenie Core 2 duo to zupełnie nowa mikroarchitektura mogąca wykonać 4-instrukcje na cykl. Jako wersję rozwojową p3 można by ewentualnie uznać rdzeń core ale nie core 2.
Nieprawdziwe są też zdecydowanie negatywne oceny architektury netburst.
Ta architektura zupełnie dobrze sprawdzała się w swoim czasie w rdzeniach northwood gdzie 3GHz+ P4 masakrowały taktowane w okolicach 2GHz athlony xp, nieźle radziły sobie z jednordzeniowymi athlonami 64. Dopiero dwurdzeniowe wysoko taktowane athlony x2 uzyskały zdecydowaną przewagę.
Problemem netbursta okazało sie to że z przyczyn technologicznych nie udało się zrealizować idei przewodniej tej architektury - czyli osiągać bardzo wysokich zegarów w późniejszych wdrożeniach tejże architektury.
Nieprawda jest też to że rdzenie atom wywodzą się z P4. Atomy powstały jako zupełnie nowy, oddzielny projekt. Głównym założeniem projektowym było stworzenie rdzenia x86 o jak największej efektywności energetycznej i jak najmniejszym koszcie produkcji. Cel był jasny stworzyć cpu do netbooków.
Większość moich zadań opiera się na CPU, w momencie gdy pracuję i intensywnie korzystam z dysku mam ogromny spadek wydajności z powodu obciążenia procesora.
Tak, więc wolę mieć szyfrowanie niż nie mieć.
Ależ po co czekać do następnej rewizji. Już teraz możesz wziąć jakieś średniej klasy GPU (w tym wypadku najlepiej AMD, bo Radeony mają mniej teselatorów niż GeForce'y), do tego CPU FX od AMD, następnie zapuścić Crysisa 2 z detalami na max, w tym teselacją na max, AA 8x Super Sampling, Aniso 16x.
Po takim zabiegu gwarantuje Ci że FX nie tylko będzie wypadał równie dobrze 'w grach' jak i5 2500, ale też równie dobrze jak i7 2600K a nawet równie dobrze jak i7 3690X albo i lepiej!
I patrz CPU AMD za 700-900zł oferuje w grach równie wysoką wydajność jak kosztujący ponad 4x drożej topowy CPU Intela! Amazing
Zamiast Crysisa 2 dobrze też nadaje się Battlefield 3
Dział GPU przez 2-3 kwartały przynosi minimalne zyski/straty. Zarabiają generalnie w Q4 w tym roku Q4 był słaby. Rynek procesorów, stanowi ogromną większość obrotu AMD. Zyski jakie AMD ma z GPU można uznać za z jednej strony groszowe, a drugiej strony przy tak słabych zyskach to AMD właśnie na GPU zarabia.
AMD zarobiło 27mln w Q4 vs 68mln Q4@2010, na GPU...
Całe AMD zarobiło 71mln w Q4
Większość moich zadań opiera się na CPU, w momencie gdy pracuję i intensywnie korzystam z dysku mam ogromny spadek wydajności z powodu obciążenia procesora.
Tak, więc wolę mieć szyfrowanie niż nie mieć.
Otoz to, procesory bez instrukcji AES daja rade w szyfrowaniu, ale pod warunkiem ze w tym czasie nie obciazamy procesora niczym innym. Do tego stwierdzenia o ile lepszy bylby Phenom II w 32 nm sa dosc smieszne. Atholny 631 w 32 nm kreca sie dosc slabo, a przynajmniej nie lepiej niz stare 45 nm Athlony. Zegary bazowe tez sa poustawiane dosc nisko. Po buldozerach i llano nie wiedac tez jakiegos duzo wiekszego upakowania tranzystorow, wiec liczenie na 8 lub 10 rdzeniowe Phenomy, chodzace w okolichach 4 GHz to raczej Science Fiction. Buldozery nie we wszystkim bija stae Phenomy, ale w wielu zastosowaniach bija dosc znacznie. Wiec nie mozna powiedziec, ze sa wolniejsz czy gorsze od starej architektury.
Nie??
Więc może nie x12, a x8/x10... Nie 45nm, a 32nm... ale uważam, że to możliwe.
Większość moich zadań opiera się na CPU, w momencie gdy pracuję i intensywnie korzystam z dysku mam ogromny spadek wydajności z powodu obciążenia procesora.
Tak, więc wolę mieć szyfrowanie niż nie mieć.
Otoz to, procesory bez instrukcji AES daja rade w szyfrowaniu, ale pod warunkiem ze w tym czasie nie obciazamy procesora niczym innym. Do tego stwierdzenia o ile lepszy bylby Phenom II w 32 nm sa dosc smieszne. Atholny 631 w 32 nm kreca sie dosc slabo, a przynajmniej nie lepiej niz stare 45 nm Athlony. Zegary bazowe tez sa poustawiane dosc nisko. Po buldozerach i llano nie wiedac tez jakiegos duzo wiekszego upakowania tranzystorow, wiec liczenie na 8 lub 10 rdzeniowe Phenomy, chodzace w okolichach 4 GHz to raczej Science Fiction. Buldozery nie we wszystkim bija stae Phenomy, ale w wielu zastosowaniach bija dosc znacznie. Wiec nie mozna powiedziec, ze sa wolniejsz czy gorsze od starej architektury.
Można na pewno powiedzieć, że wydajność single thread Bulldozera przy takim samym taktowaniu jest niższa niż wydajność Phenoma II. I w tym aspekcie nowa architektura AMD jest krokiem wstecz.
Otoz to, procesory bez instrukcji AES daja rade w szyfrowaniu, ale pod warunkiem ze w tym czasie nie obciazamy procesora niczym innym. Do tego stwierdzenia o ile lepszy bylby Phenom II w 32 nm sa dosc smieszne. Atholny 631 w 32 nm kreca sie dosc slabo, a przynajmniej nie lepiej niz stare 45 nm Athlony. Zegary bazowe tez sa poustawiane dosc nisko. Po buldozerach i llano nie wiedac tez jakiegos duzo wiekszego upakowania tranzystorow, wiec liczenie na 8 lub 10 rdzeniowe Phenomy, chodzace w okolichach 4 GHz to raczej Science Fiction. Buldozery nie we wszystkim bija stae Phenomy, ale w wielu zastosowaniach bija dosc znacznie. Wiec nie mozna powiedziec, ze sa wolniejsz czy gorsze od starej architektury.
Można na pewno powiedzieć, że wydajność single thread Bulldozera przy takim samym taktowaniu jest niższa niż wydajność Phenoma II. I w tym aspekcie nowa architektura AMD jest krokiem wstecz.
Ale liczyc sie przeciez wydajnosc koncowa, a nie wydajnosc na MHz. Jesli nowa architektura zmniejsza nieco IPC, ale pozwala osiagac duzo wyzsze zegary, to dlaczego jej nie zastosowac? Tak jak powiedzialem liczy sie wydajnosc koncow. Moim zdaniem nie bez zbaczenia jest tu kiepski proces produkcyjny 32 nm w Global Foundries.
@SunTzu - ale to przeciez nie zegary bazowe. Na jakim to chlodzeniu? No i mam momentami wrazenie, ze 45 nm osiagalo lepsze zegary niz 32 nm z GF. NA zegaru buldozerow nie ma co patrzec bo to inna architektura.
Bo co z tego, że podjedziesz zegarem 10 czy 20% więcej od Intela i freq*ipc będzie w równowadze gdy za wzrostem freq spadnie ci wydajność na wat (bo wzrośnie zużycie prądu). Tu jest małe KO dla BLDZ w obecnej wersji. Drugie KO to niedopracowany proces technologiczny o czym wspomniałeś. A trzecie to brak wykorzystania tych wszystkich fajnych ficzerów w appsach (no oprócz AVX, ale sam AVX właśnie tutaj cudów nie sprawi). Ewolucja Phenoma II w stronę likwidacji wąskich gardeł w przetwarzaniu, zmniejszaniu opóźnień cache itp. dałaby namacalne wyniki wcale nie tak wielkim kosztem jak wdrożenie nowej arch. Żeby jeszcze ta architektura się sprawdzała dobrze, ale tak nie jest.
Można na pewno powiedzieć, że wydajność single thread Bulldozera przy takim samym taktowaniu jest niższa niż wydajność Phenoma II. I w tym aspekcie nowa architektura AMD jest krokiem wstecz.
Ale liczyc sie przeciez wydajnosc koncowa, a nie wydajnosc na MHz. Jesli nowa architektura zmniejsza nieco IPC, ale pozwala osiagac duzo wyzsze zegary, to dlaczego jej nie zastosowac? Tak jak powiedzialem liczy sie wydajnosc koncow. Moim zdaniem nie bez zbaczenia jest tu kiepski proces produkcyjny 32 nm w Global Foundries.
@SunTzu - ale to przeciez nie zegary bazowe. Na jakim to chlodzeniu? No i mam momentami wrazenie, ze 45 nm osiagalo lepsze zegary niz 32 nm z GF. NA zegaru buldozerow nie ma co patrzec bo to inna architektura.
Na powietrznym mi się wydaje. ALe to tylko po to było by uruchomić CPU-Z, a nie mowa tu o stabilnej pracy... Takie CPU się nie grzeje, a 12 rdzeniowy CPU ciągnąłby maximum 600-700W....
Z tego co wiem to do pracy kręciły się do 3-3,6GHz. 8-10 rdzeniowy CPU@32nm z pewnością dałby radę. Problem taki, że Phenom II 32nm byłby większy/droższy od Buldka. Rdzeń Phenoma II jest o wiele większy.
Nie tylko proces technologiczny liczy się przy OC. GF ma całkiem dobre 32nm. Architektura też ma znaczenie.
Racja, AMD jest zdziercą, ma tylko trochę tańsze procesory od Intela a zdecydowanie mniej wydajne. Ale to nie pierwszy raz gdy AMD zdziera kasę z klientów. Pamiętam jak co poniektórzy wymieniali płyty gdy pojawił się phenom X6 aby być bulldozer ready. Kasa wyrzucona w błoto.
totalna klapa, dno, zero
Dlatego nie stosować, że pomimo tych wyższych zegarów 'rdzeń' FX-a jest słabszy od rdzenia K10.5. To raz, a dwa, że wraz z żyłowaniem taktowania rośnie lawinowo pobór energii bulldozera (ukłony w stronę Pentium 4
Wyżyłowane takty kosztem IPC to droga do nikąd.
Intel już tę lekcję przerobił przy okazji Pentium 4, AMD widać zamiast uczyć się na błędach konkurencji, woli uczyć się na własnych....
To single thread. Ale słaby single thread także rzutuje na wydajność multithread bo mnożymy słabe rdzenie. I tak poniżej w idealnie skalującym się cinebenchu - cały... 1% (sic!) przewagi nad Phenomem X6 taktowanym o 300MHz niższym zegarem....
Ale liczyc sie przeciez wydajnosc koncowa, a nie wydajnosc na MHz. Jesli nowa architektura zmniejsza nieco IPC, ale pozwala osiagac duzo wyzsze zegary, to dlaczego jej nie zastosowac? Tak jak powiedzialem liczy sie wydajnosc koncow. Moim zdaniem nie bez zbaczenia jest tu kiepski proces produkcyjny 32 nm w Global Foundries.
@SunTzu - ale to przeciez nie zegary bazowe. Na jakim to chlodzeniu? No i mam momentami wrazenie, ze 45 nm osiagalo lepsze zegary niz 32 nm z GF. NA zegaru buldozerow nie ma co patrzec bo to inna architektura.
Na powietrznym mi się wydaje. ALe to tylko po to było by uruchomić CPU-Z, a nie mowa tu o stabilnej pracy... Takie CPU się nie grzeje, a 12 rdzeniowy CPU ciągnąłby maximum 600-700W....
Z tego co wiem to do pracy kręciły się do 3-3,6GHz. 8-10 rdzeniowy CPU@32nm z pewnością dałby radę. Problem taki, że Phenom II 32nm byłby większy/droższy od Buldka. Rdzeń Phenoma II jest o wiele większy.
Nie tylko proces technologiczny liczy się przy OC. GF ma całkiem dobre 32nm. Architektura też ma znaczenie.
Jeżeli AMD miało takie problemy z 32nm Llano i bulldożer, to zapewne z 10 rdzeniowym phenomem mieli by jeszcze większe, zapewne uzysk był by marginalny, a szanse na rozwój w stronę HSA nikłe w przypadku starego Kx.
Nie wiem co AMD chciało uzyskać wypuszczając na rynek produkt obarczony tak wieloma wadami, zaczynając od samego procesu produkcji, który jest po prostu tragiczny... te puste połacie niewykorzystanego krzemu.... jak by to po pijaku robili, przez to taki wielki chip.
PS. wie ktoś czy w tym teście był zastosowany patch microsoftu?, bo dość mocno wpływa na dziwne zachowanie aplikacji mało-wątkowych, np: gier, zwłaszcza portów z gier jak np: hard reset.
Większość moich zadań opiera się na CPU, w momencie gdy pracuję i intensywnie korzystam z dysku mam ogromny spadek wydajności z powodu obciążenia procesora.
Tak, więc wolę mieć szyfrowanie niż nie mieć.
Przy 10 rdzeniowym procku jeden rdzeń przeznaczasz na szyfrowanie i gotowe. Rozwiązanie z dużą ilością rdzeni jest elastyczniejsze od kilku mocnych rdzeni. Bo bądźmy szczerzy czasy pracy nad danym projektem będą podobne w obu przypadkach przy założeniu iż jednocześnie robimy coś mocno obciążającego i jednocześnie pracujemy nad czymś innym. Naprawdę chciałbym zobaczyć test kompresji z równoczesną grą w cokolwiek. Dosyć łatwe do przeprowadzenia dosyć powtarzalne te same miejsce testowe i ten sam codec/materiał/program. Bo wszak nie każdy lubi sobie patrzeć na pasek postępu.