nie ma co sie kłucić bo to nie jest finalny produkt
napięcie jest zapewne podniesione bo pierwsze próbki miały taktowanie ustawione od 1,8 do 2,1 GHz wiec ten może ten procek jest nieźle podkręcony. z tego też powodu TDP może być takie wysokie.
co do aplikacji jednowątkowych jest ich coraz mniej wiec to chyba nie powinno robić problemu.
tak naprawde trzeba poczekać na spychacze drugiej generacji z IGP bo to one wyznaczą ścieżkę jaką obierze AMD i z czym tak naprawde będzie konkurować
Może sie okazać że produkt finalny bedzie wydajnościowo na poziomie lga 2011 co było by miłym zaskoczeniem za cene 320$+vat (za chyba 1000 sztuk bo taką cene podawanojakiś czas temu) więc w skepach w dniu premiery mogą stać za jakieś 500-530$
spoko tylko to jest 8 rdzeni, a w aplikacjach jednowątkowych i grach do domu wydajność leży i kwiczy... ale na serwery AMD może zarządzić
vteccorp @ 2011.07.11 13:29
8C vs 4C/8T...?!
Kurde, jak dla mnie, to nawet obróbka wideo nie wypada za super - przy takiej liczbie fizycznych rdzeni i zegarze ponad 3GHz, jednak spodziewałem się czegoś więcej.
Zobaczymy jak to się będzie spisywało 'na co dzień', czyli OS, gaming itd.
Maledict @ 2011.07.11 15:07
Ale kretyńskie porównanie ;-P 8 rdzeniowiec VS 4 rdzeniowiec Z HT
G_G @ 2011.07.11 15:51
8 rdzeni AMD TDP 186W i porównywalne wyniki z 4 rdzeniami Intela 95W.
ThePunisher @ 2011.07.11 16:34
porównanie 8 rdzeniowca z 4 rdzeniowcem, bravo
piotrGTX @ 2011.07.11 17:16
8 rdzeni AMD kontra 4 rdzenie Intel ciekawa wojna ...
Przecież Intel nie ma szans w takich starciach. Ivy Bridge chcemy
czolgista778 @ 2011.07.11 17:17
LOL, AMD potrzebuje 8 rdzeni żeby dogonić 4 Intela, co to za porównanie? Obetnijcie AMD 4 rdzenie, wyłączcie HT w Intelu i zobaczycie co wasz Buldożer jest wart.
Nawet nie chodzi mi o gry, ale o to żeby wydajność zwielokratniać w bardziej uniwersalny sposób - lepszą architekturą, a nie tylko zwielakratnianiem jednostek wykonawczych i podbijaniem TDP.....
No niestety, zarówno Intel jak i AMD dochodzą powoli do krawędzi, gdzie z poprawy architektury niewiele więcej da się wycisnąć. Dlatego producentów softu (gier w szczególności) trzeba wręcz zmusić, by wreszcie zaczęli uwzględniać wielowątkowość. Sytuacja zmienia się na lepsze, a pewnie po wejściu nowych generacji konsol zmieni się drastycznie na plus.
Wiesz nie do końca się zgodzę, SB pokazało że nawet coś tak mocnego jak Nehalem/Lynnfield da się jeszcze umocnić zegar w zegar, podbijając przy tym taktowanie. Popatrz na relacje i3 2100 - i3 540. Podobny zegar, a różnice znaczne. Mimo że x86 narzuca pewne ograniczenia mozna jeszcze pewno wiele z tej architektury wyciągnąć
Bo gdyby było tak radośnie i wielowątkowo to Phenomy x6 sprawdzały by się w każdych zastosowaniach,
A w ilu w miarę nowych grach są niewykorzystane? W ilu nowych profesjonalnych aplikacjach leżą odłogiem? Właśnie... jak z HT - im dłużej na rynku tym lepsze wykorzystanie.
a i7 z HT osiągałby wydajność 6 rdzeniowca w każdych warunkach
HT bazuje na zapełnianiu jednostek wykonawczych drugim wątkiem jeśli pierwszy ich nie wykorzystuje w danym czasie. Jeśli weźmiesz stricte wielowątkową aplikację z dobrym wykorzystaniem jednostek wykonawczych to HT nie da prawie nic. Jeśli weźmiesz wielowątkową aplikację z kodem który słabo wykorzystuje jednostki wykonawcze to HT daje prawie tyle co dodatkowy rdzeń i w tej sytuacji Intel potrafi przegonić bezproblemowo i 6 rdzeniowe układy, a nawet 8 rdzeniowym 16 wątkowym procesorem te 12 rdzeniowe układy
Normalka. A myślisz, że turbo jest po co? Po to by podciągać taktowanie dla 1-2wątkowych appsów bo wydajność pojedynczego rdzenia wzrasta zasadniczo niewiele. Nie ma innych pomysłów. AVX to zwielokrotnianie obrabianych na raz danych i lepsze wykorzystanie rejestrów. Da się 4x64b na 1 rdzeniu, da się 4x64b na 1 module - różnicy brak.
Niestety, ale dziś standardem w grach jest wykorzystanie 2 - maksymalnie 3 rdzeni. Są oczywiście wyjątki, i coraz więcej gier stosuje silniki równoległego renderingu - problem jednak w tym że rendering to zwykle mniejszy problem. Gry narzucają znacznie większe wyzwania, takie jak fizyka czy AI - to już naprawdę ciężko podzielić na więcej niż 1 rdzeń. Nie wspominając o 6 czy 8... Bo jak jedziesz algorytm bitcoina czy dajmy na to kompresji cały czas jednostki trzepią to samo, i wyniki jednych operacji nie są zależne od innych. Można to podzielić nawet i na 1000 rdzeni, i wzrost wydajności będzie 1000 krotny. Natomiast w grze zwykle - nie. Jedziesz samochodem w Mafii 2 - i procesor nie wie że za chwilę strzelisz w inny samochód, że trzeba będzie obliczać jak wypada z drogi, jak wybucha, jak kierowca z niego wypada... To wszystko złożone obliczenia zmiennoprzecinkowe, w których każda następna operacja zależy od wyniku poprzedniej i nie da się jej zlecić z dużym wyprzedzeniem. Co innego gra typu szachy czy strategia turowa - gdzie komputer może na wielu rdzeniach w sekunde przesymulować milion możeliwych scenariuszy gry
Bo gdyby było tak radośnie i wielowątkowo to Phenomy x6 sprawdzały by się w każdych zastosowaniach,
A w ilu w miarę nowych grach są niewykorzystane? W ilu nowych profesjonalnych aplikacjach leżą odłogiem? Właśnie... jak z HT - im dłużej na rynku tym lepsze wykorzystanie.
a i7 z HT osiągałby wydajność 6 rdzeniowca w każdych warunkach
HT bazuje na zapełnianiu jednostek wykonawczych drugim wątkiem jeśli pierwszy ich nie wykorzystuje w danym czasie. Jeśli weźmiesz stricte wielowątkową aplikację z dobrym wykorzystaniem jednostek wykonawczych to HT nie da prawie nic. Jeśli weźmiesz wielowątkową aplikację z kodem który słabo wykorzystuje jednostki wykonawcze to HT daje prawie tyle co dodatkowy rdzeń i w tej sytuacji Intel potrafi przegonić bezproblemowo i 6 rdzeniowe układy, a nawet 8 rdzeniowym 16 wątkowym procesorem te 12 rdzeniowe układy
Normalka. A myślisz, że turbo jest po co? Po to by podciągać taktowanie dla 1-2wątkowych appsów bo wydajność pojedynczego rdzenia wzrasta zasadniczo niewiele. Nie ma innych pomysłów. AVX to zwielokrotnianie obrabianych na raz danych i lepsze wykorzystanie rejestrów. Da się 4x64b na 1 rdzeniu, da się 4x64b na 1 module - różnicy brak.
no trochę bajdurzysz, HT daje 15% można to sprawdzić na testach z wyłączonym HT, Intel ma taką dobrą architekturę a nie jakieś sztuczki
Niestety, ale dziś standardem w grach jest wykorzystanie 2 - maksymalnie 3 rdzeni. Są oczywiście wyjątki, i coraz więcej gier stosuje silniki równoległego renderingu - problem jednak w tym że rendering to zwykle mniejszy problem. Gry narzucają znacznie większe wyzwania, takie jak fizyka czy AI - to już naprawdę ciężko podzielić na więcej niż 1 rdzeń. Nie wspominając o 6 czy 8... Bo jak jedziesz algorytm bitcoina czy dajmy na to kompresji cały czas jednostki trzepią to samo, i wyniki jednych operacji nie są zależne od innych. Można to podzielić nawet i na 1000 rdzeni, i wzrost wydajności będzie 1000 krotny. Natomiast w grze zwykle - nie. Jedziesz samochodem w Mafii 2 - i procesor nie wie że za chwilę strzelisz w inny samochód, że trzeba będzie obliczać jak wypada z drogi, jak wybucha, jak kierowca z niego wypada... To wszystko złożone obliczenia zmiennoprzecinkowe, w których każda następna operacja zależy od wyniku poprzedniej i nie da się jej zlecić z dużym wyprzedzeniem. Co innego gra typu szachy czy strategia turowa - gdzie komputer może na wielu rdzeniach w sekunde przesymulować milion możeliwych scenariuszy gry
opson.To że physx wykorzystuje w mafii 1 rdzeń, to już wina tego, że nvidia nie optymalizuje physxa dla CPU. No bo wyobraź sobie, że na ich kartach mających kilkaset rdzeni jakoś wszystko działa sprawnie. Jak zoptymalizują physxa pod CPU, to wtedy można go w ogóle brać pod uwagę jak na razie dodali wsparcie dla SSE2 zamiast archaicznego x87 - jakiś krok w przód.
Havok wykorzystuje wielowątkowość jeżeli tylko producent gry się o to postara. - dobrym przykładem są nowe red faction.
Niestety, ale dziś standardem w grach jest wykorzystanie 2 - maksymalnie 3 rdzeni. Są oczywiście wyjątki, i coraz więcej gier stosuje silniki równoległego renderingu - problem jednak w tym że rendering to zwykle mniejszy problem. Gry narzucają znacznie większe wyzwania, takie jak fizyka czy AI - to już naprawdę ciężko podzielić na więcej niż 1 rdzeń. Nie wspominając o 6 czy 8... Bo jak jedziesz algorytm bitcoina czy dajmy na to kompresji cały czas jednostki trzepią to samo, i wyniki jednych operacji nie są zależne od innych. Można to podzielić nawet i na 1000 rdzeni, i wzrost wydajności będzie 1000 krotny. Natomiast w grze zwykle - nie. Jedziesz samochodem w Mafii 2 - i procesor nie wie że za chwilę strzelisz w inny samochód, że trzeba będzie obliczać jak wypada z drogi, jak wybucha, jak kierowca z niego wypada... To wszystko złożone obliczenia zmiennoprzecinkowe, w których każda następna operacja zależy od wyniku poprzedniej i nie da się jej zlecić z dużym wyprzedzeniem. Co innego gra typu szachy czy strategia turowa - gdzie komputer może na wielu rdzeniach w sekunde przesymulować milion możeliwych scenariuszy gry
opson.To że physx wykorzystuje w mafii 1 rdzeń, to już wina tego, że nvidia nie optymalizuje physxa dla CPU. No bo wyobraź sobie, że na ich kartach mających kilkaset rdzeni jakoś wszystko działa sprawnie. Jak zoptymalizują physxa pod CPU, to wtedy można go w ogóle brać pod uwagę jak na razie dodali wsparcie dla SSE2 zamiast archaicznego x87 - jakiś krok w przód.
Havok wykorzystuje wielowątkowość jeżeli tylko producent gry się o to postara. - dobrym przykładem są nowe red faction.
Masz na myśli Guereila i Armageddon? Nie widziałem tam wykorzystania więcej niż 2 rdzeni, co potwierdzają zresztą testy portali takich jak np. ten:
Jedna jaskółka wiosny nie czyni !
Także lepiej poczekać na kolejne testy.
Ale jeśli Buldożer wydajnościowo będzie konkurował z Sandy Bridge to jest to dobra wiadomość na rynku przeważnie z tego powodu że będzie wojna cenowa.Chociaż ja już zapodałem Sandy - to jeżeli konkurencja AMD okaże się wiarygodna to lepiej troszke było poczekać z zakupem no ale w ostateczności nie żałuje !
Podsumowując bulldozer powinien być udaną architekturą porównywalną z SB.
Architektura powinna być bardzo podatna na OC - nawet bardziej niż SB
Niestety napięcie zasilające wskazuje na problemy z procesem produkcyjnym i to prawdopodobnie jest przyczyną opóźnień . Miejmy nadzieję że zostaną one rozwiązane bo jak nie to wszystko diabli wezmą.
Jakby ktoś miał pod ręką info o wielkości chipu to byłbym wdzięczny bo nie chce mi sie tego szukać.
Napięcie nie ma tutaj nic do gadania. Liczą się też Ampery. Po prostu AMD ciągnie wymaga mniej Amperów przy większym napięciu. Intel pracuje przy większym natężeniu i mniejszym napięciu....
Płyty główne intela dlatego muszą mieć lepszą sekcje zasilania, w przypadku AMD boję się o większą degradację układu.... Ale w przypadku Intel by zrobić 'większe' OC trzeba porządnej płyty głównej różnice są spore.
Różnice są spore.
Napięcie zasilania ma tu zasadnicze znaczenie. Oprócz tego trzeba by brać jeszcze pod uwagę liczbę tranzystorów, oraz wydajność która odzwierciedla jak energicznie te procesory pracują.
To że do wydajniejszy procesor - a więc taki którego tranzystory intensywnie pracują pobiera więcej prądu nie powinno nikogo dziwić.
Przykład który podałeś rzeczywiście pokazuje że do większego oc SB potrzebna jest płyta z wydajną sekcja zasilania. Tyle że oznacza to ze ograniczeniem OC jest tutaj płyta główna a nie procesor.
Sprawy których nie uwzględniłeś formułując swoje wnioski są następujące:
Nawet najsłabsze płyty pod SB osiągają poziom OC który jest niedostępny dla procesorów AMD nawet gdy siedzą one w najlepszych płytach.
Wydajność podkręconych SB na najsłabszych płytach jest i tak większa od konkurencyjnych układów
Zużycia energii a wiec także natężenia prądu podkręconych konkurencyjnych układów.
W przypadku AMD potrzeba posiadania wydajnej sekcji zasilania jest znacznie mniejsza, bo to nie płyty są ograniczeniem a same procesory. Jak dobrze pójdzie wykręcisz 4-4.2GHz. Osiągniesz co najwyżej wydajność zbliżoną do słabo podkręconego SB. Zużycie energii będzie znacznie większe, a prąd sekcji zasilania pewnie porównywalny.
Po wynikach z tego newsa oraz recenzjach llano widać że proces produkcyjny jest sporym problemem, bo nowe 32nm układy pracują ze zbliżonymi napięciami co procesory 45nm.
W zapowiedziach llano miało mieć zegary 3+GHz, mówiło się o 3.5GHz. Pewnie również kłopoty z procesem 32nm były przyczyną przekładania premier oraz tak późnym udostępnieniem ostatecznej specyfikacji llano. Przypuszczam ze amd do końca czekało na jakiś przełom w udoskonalaniu procesu produkcyjnego który pozwolił by na osiągniecie tych 3+GHz.
Po wynikach z tego newsa oraz recenzjach llano widać że proces produkcyjny jest sporym problemem, bo nowe 32nm układy pracują ze zbliżonymi napięciami co procesory 45nm.
W zapowiedziach llano miało mieć zegary 3+GHz, mówiło się o 3.5GHz. Pewnie również kłopoty z procesem 32nm były przyczyną przekładania premier oraz tak późnym udostępnieniem ostatecznej specyfikacji llano. Przypuszczam ze amd do końca czekało na jakiś przełom w udoskonalaniu procesu produkcyjnego który pozwolił by na osiągniecie tych 3+GHz.
Slajdy AMD mówiły o ponad 3Ghz,, ale nie o 3,5.
Ale z napięciami rzeczywiście problem, bo są o około 0,8V wyższe od zakładanych (i to prawdopodobnie dla 3Ghz). Poza tym llano to rewizja B0, więc dosyć wczesna. Zapewne chcieli wypuścić te procesory jak najszybciej ie dopiero następne wersje będą mieściły się w pełni w zakładanym zakresie. W przypadku bulldozera pewnie było podobnie i B0/B1 pracowały na za wysokich napięciach i teraz starają się to poprawić.
opson.To że physx wykorzystuje w mafii 1 rdzeń, to już wina tego, że nvidia nie optymalizuje physxa dla CPU. No bo wyobraź sobie, że na ich kartach mających kilkaset rdzeni jakoś wszystko działa sprawnie. Jak zoptymalizują physxa pod CPU, to wtedy można go w ogóle brać pod uwagę jak na razie dodali wsparcie dla SSE2 zamiast archaicznego x87 - jakiś krok w przód.
Havok wykorzystuje wielowątkowość jeżeli tylko producent gry się o to postara. - dobrym przykładem są nowe red faction.
Masz na myśli Guereila i Armageddon? Nie widziałem tam wykorzystania więcej niż 2 rdzeni, co potwierdzają zresztą testy portali takich jak np. ten:
Żadne dzikie spekulacje, nie mówiąc o minusowaniu czy ośmieszaniu, nie zmienią faktu, że Zambezi jest bardziej dla rynku korporacyjnego, niż prywatnego.
P.S. Pisanie, że za parę lat będzie inaczej jest słabym argumentem
jak dali 2x tyle rdzenie to co sie dziwić że dogonili sandy...z tego wynika że wręcz przepaść się pogłębiła bo do niedawna mieli stratę 50% rdzeń w rdzeń a teraz jest już 100%
@Opson - akurat bzdury opowiadasz. Fizyka i jednowątkowość? To ciekawe jak to ma niby działać na kartach z setkami cuda core i kilkunastoma stream multiprocessor które wtedy dobrze działają jak bazują na danych niezależnych od siebie ^^. Jasną sprawą jest, że fizyka MOŻE i POWINNA korzystać z maszyn wielordzeniowych, ale akurat konkretne gry to konkretna implementacja silnika fizyki. I tak do czasu był właśnie 1 rdzeń i x87, teraz z najnowszym PhysX SDK i PhysX system software masz rzeczywiści multithreaded i z użyciem SSE2 (co wiele nie przyspiesza względem x87, ale przyspiesza). Nowsze wersje fluidmarka jeśli mnie pamięć nie myli są już zbudowane o nowe wersje SDK więc jak masz chęć możesz sprawdzać, ale iirc jakiś czas temu dobrze wykręcony i7 zbliżał się w dużej ilości cząsteczek do gtx280.
Z tego co ja widze wszyscy robia szum... A Intel Boye bronia przegranego i7 bo biarac pod uwage ze to rewizja B1 to jest super przy sklepowej B3 bedzie TDP normalne i wydajnosc jescze skoczy
Napięcie nie ma tutaj nic do gadania. Liczą się też Ampery. Po prostu AMD ciągnie wymaga mniej Amperów przy większym napięciu. Intel pracuje przy większym natężeniu i mniejszym napięciu....
Płyty główne intela dlatego muszą mieć lepszą sekcje zasilania, w przypadku AMD boję się o większą degradację układu.... Ale w przypadku Intel by zrobić 'większe' OC trzeba porządnej płyty głównej różnice są spore.
ciach
Różnice są spore.
Napięcie zasilania ma tu zasadnicze znaczenie. Oprócz tego trzeba by brać jeszcze pod uwagę liczbę tranzystorów, oraz wydajność która odzwierciedla jak energicznie te procesory pracują.
To że do wydajniejszy procesor - a więc taki którego tranzystory intensywnie pracują pobiera więcej prądu nie powinno nikogo dziwić.
Przykład który podałeś rzeczywiście pokazuje że do większego oc SB potrzebna jest płyta z wydajną sekcja zasilania. Tyle że oznacza to ze ograniczeniem OC jest tutaj płyta główna a nie procesor.
Sprawy których nie uwzględniłeś formułując swoje wnioski są następujące:
Nawet najsłabsze płyty pod SB osiągają poziom OC który jest niedostępny dla procesorów AMD nawet gdy siedzą one w najlepszych płytach.
Wydajność podkręconych SB na najsłabszych płytach jest i tak większa od konkurencyjnych układów
Zużycia energii a wiec także natężenia prądu podkręconych konkurencyjnych układów.
W przypadku AMD potrzeba posiadania wydajnej sekcji zasilania jest znacznie mniejsza, bo to nie płyty są ograniczeniem a same procesory. Jak dobrze pójdzie wykręcisz 4-4.2GHz. Osiągniesz co najwyżej wydajność zbliżoną do słabo podkręconego SB. Zużycie energii będzie znacznie większe, a prąd sekcji zasilania pewnie porównywalny.
Po wynikach z tego newsa oraz recenzjach llano widać że proces produkcyjny jest sporym problemem, bo nowe 32nm układy pracują ze zbliżonymi napięciami co procesory 45nm.
W zapowiedziach llano miało mieć zegary 3+GHz, mówiło się o 3.5GHz. Pewnie również kłopoty z procesem 32nm były przyczyną przekładania premier oraz tak późnym udostępnieniem ostatecznej specyfikacji llano. Przypuszczam ze amd do końca czekało na jakiś przełom w udoskonalaniu procesu produkcyjnego który pozwolił by na osiągniecie tych 3+GHz.
Źle mnie zrozumiałeś. Chodziło mi o to, że jeżeli CPU pobiera 0,5A przy 2V vs 1V przy 1A to w dużym uproszczeniu jeden kij.... po prostu nie możesz porównać napięcia 1,4V AMD do tego co oferuje Intel w zupełnie innym procesie produkcyjnym....
Zapominasz, że CPU AMD o których mówisz są robione w 45nm i możesz je porównać z 45nm nehalemami. Gdzie w OC jest ograniczeniem głównie procesor i ciepło jakie wytwarza.... Llano to nie procesor do OC i tu mamy inne ograniczenia.
W SB głównie ograniczeniem jest sekcja zasilania, ale też napięcia. Nie temperatura....
Mój SB kręci się kapryśnie, ale na 4,8GHz@1,39V. Maksymalne napięcie wg. inżynierów to okolicje 1,34-1,38V potem następuje degradacja układu... maksymalne napięcie w specyfikacji do aż 1,5V. Im niższy proces tym niższe napięcia musi być by zapewnić odpowiednią żywotność...
Tylko AMD ma zupełnie inny proces technologiczny i nawet przy takich napięciach jakie podają mieszczą się w normach Intela.
@Opson - akurat bzdury opowiadasz. Fizyka i jednowątkowość? To ciekawe jak to ma niby działać na kartach z setkami cuda core i kilkunastoma stream multiprocessor które wtedy dobrze działają jak bazują na danych niezależnych od siebie ^^. Jasną sprawą jest, że fizyka MOŻE i POWINNA korzystać z maszyn wielordzeniowych, ale akurat konkretne gry to konkretna implementacja silnika fizyki. I tak do czasu był właśnie 1 rdzeń i x87, teraz z najnowszym PhysX SDK i PhysX system software masz rzeczywiści multithreaded i z użyciem SSE2 (co wiele nie przyspiesza względem x87, ale przyspiesza). Nowsze wersje fluidmarka jeśli mnie pamięć nie myli są już zbudowane o nowe wersje SDK więc jak masz chęć możesz sprawdzać, ale iirc jakiś czas temu dobrze wykręcony i7 zbliżał się w dużej ilości cząsteczek do gtx280.
Zależy o czym w tym momencie mówisz. Czy o CPU PhysX, czy o obciążeniu procesora w przypadku GPU PhysX na GFie
@opson - cpu physx. GPU physx jest właśnie po to, że jeden rdzeń wysyła dane do gpu, a gpu je obrabia więc więcej rdzeni nie trzeba. Natomiast sama fizyka jest absolutnie wielowątkowa, a liczba gier z physx w ogóle w stosunku do gier z gpu physx jest przytłaczająca.
napięcie jest zapewne podniesione bo pierwsze próbki miały taktowanie ustawione od 1,8 do 2,1 GHz wiec ten może ten procek jest nieźle podkręcony. z tego też powodu TDP może być takie wysokie.
co do aplikacji jednowątkowych jest ich coraz mniej wiec to chyba nie powinno robić problemu.
tak naprawde trzeba poczekać na spychacze drugiej generacji z IGP bo to one wyznaczą ścieżkę jaką obierze AMD i z czym tak naprawde będzie konkurować
Może sie okazać że produkt finalny bedzie wydajnościowo na poziomie lga 2011 co było by miłym zaskoczeniem za cene 320$+vat (za chyba 1000 sztuk bo taką cene podawanojakiś czas temu) więc w skepach w dniu premiery mogą stać za jakieś 500-530$
A kiedy będą jakieś testy pentum-ów pod lga1155??
Kurde, jak dla mnie, to nawet obróbka wideo nie wypada za super - przy takiej liczbie fizycznych rdzeni i zegarze ponad 3GHz, jednak spodziewałem się czegoś więcej.
Zobaczymy jak to się będzie spisywało 'na co dzień', czyli OS, gaming itd.
Przecież Intel nie ma szans w takich starciach. Ivy Bridge chcemy
p.s
Jeżeli to TDP i Vcore się zgadza to AMD już całkiem na głowę upadło... szkoda że czasy Athlona XP nie wrócą
http://hw-lab.com/uploads/news/cpu/amd/zam...4-0-superpi.png
Nie mam pytań
No niestety, zarówno Intel jak i AMD dochodzą powoli do krawędzi, gdzie z poprawy architektury niewiele więcej da się wycisnąć. Dlatego producentów softu (gier w szczególności) trzeba wręcz zmusić, by wreszcie zaczęli uwzględniać wielowątkowość. Sytuacja zmienia się na lepsze, a pewnie po wejściu nowych generacji konsol zmieni się drastycznie na plus.
Wiesz nie do końca się zgodzę, SB pokazało że nawet coś tak mocnego jak Nehalem/Lynnfield da się jeszcze umocnić zegar w zegar, podbijając przy tym taktowanie. Popatrz na relacje i3 2100 - i3 540. Podobny zegar, a różnice znaczne. Mimo że x86 narzuca pewne ograniczenia mozna jeszcze pewno wiele z tej architektury wyciągnąć
http://www.anandtech.com/show/4083/the-san...-2100-tested/20
A w ilu w miarę nowych grach są niewykorzystane? W ilu nowych profesjonalnych aplikacjach leżą odłogiem? Właśnie... jak z HT - im dłużej na rynku tym lepsze wykorzystanie.
HT bazuje na zapełnianiu jednostek wykonawczych drugim wątkiem jeśli pierwszy ich nie wykorzystuje w danym czasie. Jeśli weźmiesz stricte wielowątkową aplikację z dobrym wykorzystaniem jednostek wykonawczych to HT nie da prawie nic. Jeśli weźmiesz wielowątkową aplikację z kodem który słabo wykorzystuje jednostki wykonawcze to HT daje prawie tyle co dodatkowy rdzeń i w tej sytuacji Intel potrafi przegonić bezproblemowo i 6 rdzeniowe układy, a nawet 8 rdzeniowym 16 wątkowym procesorem te 12 rdzeniowe układy
Normalka. A myślisz, że turbo jest po co? Po to by podciągać taktowanie dla 1-2wątkowych appsów bo wydajność pojedynczego rdzenia wzrasta zasadniczo niewiele. Nie ma innych pomysłów. AVX to zwielokrotnianie obrabianych na raz danych i lepsze wykorzystanie rejestrów. Da się 4x64b na 1 rdzeniu, da się 4x64b na 1 module - różnicy brak.
A w ilu w miarę nowych grach są niewykorzystane? W ilu nowych profesjonalnych aplikacjach leżą odłogiem? Właśnie... jak z HT - im dłużej na rynku tym lepsze wykorzystanie.
HT bazuje na zapełnianiu jednostek wykonawczych drugim wątkiem jeśli pierwszy ich nie wykorzystuje w danym czasie. Jeśli weźmiesz stricte wielowątkową aplikację z dobrym wykorzystaniem jednostek wykonawczych to HT nie da prawie nic. Jeśli weźmiesz wielowątkową aplikację z kodem który słabo wykorzystuje jednostki wykonawcze to HT daje prawie tyle co dodatkowy rdzeń i w tej sytuacji Intel potrafi przegonić bezproblemowo i 6 rdzeniowe układy, a nawet 8 rdzeniowym 16 wątkowym procesorem te 12 rdzeniowe układy
Normalka. A myślisz, że turbo jest po co? Po to by podciągać taktowanie dla 1-2wątkowych appsów bo wydajność pojedynczego rdzenia wzrasta zasadniczo niewiele. Nie ma innych pomysłów. AVX to zwielokrotnianie obrabianych na raz danych i lepsze wykorzystanie rejestrów. Da się 4x64b na 1 rdzeniu, da się 4x64b na 1 module - różnicy brak.
no trochę bajdurzysz, HT daje 15% można to sprawdzić na testach z wyłączonym HT, Intel ma taką dobrą architekturę a nie jakieś sztuczki
opson.To że physx wykorzystuje w mafii 1 rdzeń, to już wina tego, że nvidia nie optymalizuje physxa dla CPU. No bo wyobraź sobie, że na ich kartach mających kilkaset rdzeni jakoś wszystko działa sprawnie. Jak zoptymalizują physxa pod CPU, to wtedy można go w ogóle brać pod uwagę jak na razie dodali wsparcie dla SSE2 zamiast archaicznego x87 - jakiś krok w przód.
Havok wykorzystuje wielowątkowość jeżeli tylko producent gry się o to postara. - dobrym przykładem są nowe red faction.
opson.To że physx wykorzystuje w mafii 1 rdzeń, to już wina tego, że nvidia nie optymalizuje physxa dla CPU. No bo wyobraź sobie, że na ich kartach mających kilkaset rdzeni jakoś wszystko działa sprawnie. Jak zoptymalizują physxa pod CPU, to wtedy można go w ogóle brać pod uwagę jak na razie dodali wsparcie dla SSE2 zamiast archaicznego x87 - jakiś krok w przód.
Havok wykorzystuje wielowątkowość jeżeli tylko producent gry się o to postara. - dobrym przykładem są nowe red faction.
Masz na myśli Guereila i Armageddon? Nie widziałem tam wykorzystania więcej niż 2 rdzeni, co potwierdzają zresztą testy portali takich jak np. ten:
http://benchmark3d.com/red-faction-armageddon-benchmark/2
Oczywiście nie można też wykluczyć takich rzeczy jak zły dobór miejsca testowego
Także lepiej poczekać na kolejne testy.
Ale jeśli Buldożer wydajnościowo będzie konkurował z Sandy Bridge to jest to dobra wiadomość na rynku przeważnie z tego powodu że będzie wojna cenowa.Chociaż ja już zapodałem Sandy - to jeżeli konkurencja AMD okaże się wiarygodna to lepiej troszke było poczekać z zakupem
Podsumowując bulldozer powinien być udaną architekturą porównywalną z SB.
Architektura powinna być bardzo podatna na OC - nawet bardziej niż SB
Niestety napięcie zasilające wskazuje na problemy z procesem produkcyjnym i to prawdopodobnie jest przyczyną opóźnień . Miejmy nadzieję że zostaną one rozwiązane bo jak nie to wszystko diabli wezmą.
Jakby ktoś miał pod ręką info o wielkości chipu to byłbym wdzięczny bo nie chce mi sie tego szukać.
Napięcie nie ma tutaj nic do gadania. Liczą się też Ampery. Po prostu AMD ciągnie wymaga mniej Amperów przy większym napięciu. Intel pracuje przy większym natężeniu i mniejszym napięciu....
Płyty główne intela dlatego muszą mieć lepszą sekcje zasilania, w przypadku AMD boję się o większą degradację układu.... Ale w przypadku Intel by zrobić 'większe' OC trzeba porządnej płyty głównej różnice są spore.
Różnice są spore.
Napięcie zasilania ma tu zasadnicze znaczenie. Oprócz tego trzeba by brać jeszcze pod uwagę liczbę tranzystorów, oraz wydajność która odzwierciedla jak energicznie te procesory pracują.
To że do wydajniejszy procesor - a więc taki którego tranzystory intensywnie pracują pobiera więcej prądu nie powinno nikogo dziwić.
Przykład który podałeś rzeczywiście pokazuje że do większego oc SB potrzebna jest płyta z wydajną sekcja zasilania. Tyle że oznacza to ze ograniczeniem OC jest tutaj płyta główna a nie procesor.
Sprawy których nie uwzględniłeś formułując swoje wnioski są następujące:
Nawet najsłabsze płyty pod SB osiągają poziom OC który jest niedostępny dla procesorów AMD nawet gdy siedzą one w najlepszych płytach.
Wydajność podkręconych SB na najsłabszych płytach jest i tak większa od konkurencyjnych układów
Zużycia energii a wiec także natężenia prądu podkręconych konkurencyjnych układów.
W przypadku AMD potrzeba posiadania wydajnej sekcji zasilania jest znacznie mniejsza, bo to nie płyty są ograniczeniem a same procesory. Jak dobrze pójdzie wykręcisz 4-4.2GHz. Osiągniesz co najwyżej wydajność zbliżoną do słabo podkręconego SB. Zużycie energii będzie znacznie większe, a prąd sekcji zasilania pewnie porównywalny.
Po wynikach z tego newsa oraz recenzjach llano widać że proces produkcyjny jest sporym problemem, bo nowe 32nm układy pracują ze zbliżonymi napięciami co procesory 45nm.
W zapowiedziach llano miało mieć zegary 3+GHz, mówiło się o 3.5GHz. Pewnie również kłopoty z procesem 32nm były przyczyną przekładania premier oraz tak późnym udostępnieniem ostatecznej specyfikacji llano. Przypuszczam ze amd do końca czekało na jakiś przełom w udoskonalaniu procesu produkcyjnego który pozwolił by na osiągniecie tych 3+GHz.
Po wynikach z tego newsa oraz recenzjach llano widać że proces produkcyjny jest sporym problemem, bo nowe 32nm układy pracują ze zbliżonymi napięciami co procesory 45nm.
W zapowiedziach llano miało mieć zegary 3+GHz, mówiło się o 3.5GHz. Pewnie również kłopoty z procesem 32nm były przyczyną przekładania premier oraz tak późnym udostępnieniem ostatecznej specyfikacji llano. Przypuszczam ze amd do końca czekało na jakiś przełom w udoskonalaniu procesu produkcyjnego który pozwolił by na osiągniecie tych 3+GHz.
Ale z napięciami rzeczywiście problem, bo są o około 0,8V wyższe od zakładanych (i to prawdopodobnie dla 3Ghz). Poza tym llano to rewizja B0, więc dosyć wczesna. Zapewne chcieli wypuścić te procesory jak najszybciej ie dopiero następne wersje będą mieściły się w pełni w zakładanym zakresie. W przypadku bulldozera pewnie było podobnie i B0/B1 pracowały na za wysokich napięciach i teraz starają się to poprawić.
no tylko, że nie ma 8 rdzeniowych ponad 3GHz llano.
opson.To że physx wykorzystuje w mafii 1 rdzeń, to już wina tego, że nvidia nie optymalizuje physxa dla CPU. No bo wyobraź sobie, że na ich kartach mających kilkaset rdzeni jakoś wszystko działa sprawnie. Jak zoptymalizują physxa pod CPU, to wtedy można go w ogóle brać pod uwagę jak na razie dodali wsparcie dla SSE2 zamiast archaicznego x87 - jakiś krok w przód.
Havok wykorzystuje wielowątkowość jeżeli tylko producent gry się o to postara. - dobrym przykładem są nowe red faction.
Masz na myśli Guereila i Armageddon? Nie widziałem tam wykorzystania więcej niż 2 rdzeni, co potwierdzają zresztą testy portali takich jak np. ten:
http://benchmark3d.com/red-faction-armageddon-benchmark/2
Oczywiście nie można też wykluczyć takich rzeczy jak zły dobór miejsca testowego
Żadne dzikie spekulacje, nie mówiąc o minusowaniu czy ośmieszaniu, nie zmienią faktu, że Zambezi jest bardziej dla rynku korporacyjnego, niż prywatnego.
P.S. Pisanie, że za parę lat będzie inaczej jest słabym argumentem
Napięcie nie ma tutaj nic do gadania. Liczą się też Ampery. Po prostu AMD ciągnie wymaga mniej Amperów przy większym napięciu. Intel pracuje przy większym natężeniu i mniejszym napięciu....
Płyty główne intela dlatego muszą mieć lepszą sekcje zasilania, w przypadku AMD boję się o większą degradację układu.... Ale w przypadku Intel by zrobić 'większe' OC trzeba porządnej płyty głównej różnice są spore.
ciach
Różnice są spore.
Napięcie zasilania ma tu zasadnicze znaczenie. Oprócz tego trzeba by brać jeszcze pod uwagę liczbę tranzystorów, oraz wydajność która odzwierciedla jak energicznie te procesory pracują.
To że do wydajniejszy procesor - a więc taki którego tranzystory intensywnie pracują pobiera więcej prądu nie powinno nikogo dziwić.
Przykład który podałeś rzeczywiście pokazuje że do większego oc SB potrzebna jest płyta z wydajną sekcja zasilania. Tyle że oznacza to ze ograniczeniem OC jest tutaj płyta główna a nie procesor.
Sprawy których nie uwzględniłeś formułując swoje wnioski są następujące:
Nawet najsłabsze płyty pod SB osiągają poziom OC który jest niedostępny dla procesorów AMD nawet gdy siedzą one w najlepszych płytach.
Wydajność podkręconych SB na najsłabszych płytach jest i tak większa od konkurencyjnych układów
Zużycia energii a wiec także natężenia prądu podkręconych konkurencyjnych układów.
W przypadku AMD potrzeba posiadania wydajnej sekcji zasilania jest znacznie mniejsza, bo to nie płyty są ograniczeniem a same procesory. Jak dobrze pójdzie wykręcisz 4-4.2GHz. Osiągniesz co najwyżej wydajność zbliżoną do słabo podkręconego SB. Zużycie energii będzie znacznie większe, a prąd sekcji zasilania pewnie porównywalny.
Po wynikach z tego newsa oraz recenzjach llano widać że proces produkcyjny jest sporym problemem, bo nowe 32nm układy pracują ze zbliżonymi napięciami co procesory 45nm.
W zapowiedziach llano miało mieć zegary 3+GHz, mówiło się o 3.5GHz. Pewnie również kłopoty z procesem 32nm były przyczyną przekładania premier oraz tak późnym udostępnieniem ostatecznej specyfikacji llano. Przypuszczam ze amd do końca czekało na jakiś przełom w udoskonalaniu procesu produkcyjnego który pozwolił by na osiągniecie tych 3+GHz.
Źle mnie zrozumiałeś. Chodziło mi o to, że jeżeli CPU pobiera 0,5A przy 2V vs 1V przy 1A to w dużym uproszczeniu jeden kij.... po prostu nie możesz porównać napięcia 1,4V AMD do tego co oferuje Intel w zupełnie innym procesie produkcyjnym....
Zapominasz, że CPU AMD o których mówisz są robione w 45nm i możesz je porównać z 45nm nehalemami. Gdzie w OC jest ograniczeniem głównie procesor i ciepło jakie wytwarza.... Llano to nie procesor do OC i tu mamy inne ograniczenia.
W SB głównie ograniczeniem jest sekcja zasilania, ale też napięcia. Nie temperatura....
Mój SB kręci się kapryśnie, ale na 4,8GHz@1,39V. Maksymalne napięcie wg. inżynierów to okolicje 1,34-1,38V potem następuje degradacja układu... maksymalne napięcie w specyfikacji do aż 1,5V. Im niższy proces tym niższe napięcia musi być by zapewnić odpowiednią żywotność...
Tylko AMD ma zupełnie inny proces technologiczny i nawet przy takich napięciach jakie podają mieszczą się w normach Intela.
Zależy o czym w tym momencie mówisz. Czy o CPU PhysX, czy o obciążeniu procesora w przypadku GPU PhysX na GFie
http://benchmark3d.com/alice-madness-returns-benchmark/2
Tutaj widać że w przypadku GPU PhysX znaczenie każdego rdzenia powyżej dwóch jest stosunkowo niewielkie. A gra świeżutka