@up
Temu nie przeczę, ale nie przesadzajmy już tak bardzo z jej znaczeniem czy monopolami. W szerszym ujęciu każda firma konkuruje z każdą, nawet lokalna piekarnia z globalnym producentem elektroniki, bo im więcej ktoś wyda na elektronikę, tym mniej mu zostanie na bułki .
A o cenach decyduje przede wszystkim i tak to, dla kogo przeznaczony jest produkt (np. na produktach luksusowych, elitarnych można bez obaw zdzierać ile się da) i ile ten ktoś ma w portfelu, żeby mógł sobie pozwolić na zakup (bo jak sobie nie pozwoli, to firma, niezależnie od tego jak wysoką cenę dowali, i tak nie zarobi).
Nie masz racji. Sporo osób kupiłoby nawet low-end za 1000 zł z pocałowaniem ręki, jeżeli sytuacja tego wymaga. Nie mówię tu o Janach Kowalskich z jakiegoś Kopydłowa, tylko o firmach, gdzie akurat komputer się schrzanił i cały system zamówień stoi. Im dłużej stoi, tym większe straty, a te niekiedy sięgają tysięcy zł dziennie, więc nawet kupno takiego przecenionego kompa byłoby lepszą opcją dla nich niż siedzenie z założonymi rękoma i czekanie na cud.
Może nie zauważyłeś jak wyglądała sytuacja rynkowa w latach '80, gdy większość sprzedawanych komputerów wszelkiej maści lądowało właśnie w firmach. Większość spółek IT, poza nielicznymi wyjątkami (np. IBM) daleko było do swojej obecnej pozycji na rynku czy giełdzie. Firmy IT stały się gigantami z miliardowymi zyskami dzięki upowszechnieniu komputerów. Procesory Intela, AMD czy ARMy są powszechne (w przeciwieństwie do takich Power6/7) bo są tanie (w przeciwieństwie do Power 6/7). Gdyby procesory Intela przestałyby byś tanie, to oczywiście ciągle znajdywaliby się klienci, ale przestałyby być powszechne, a to dla nich zupełnie nieopłacalne.
Jak już pisałem: Lepiej sprzedać setki tysięcy CPU za kilkadziesiąt dolarów, niż kilka tysięcy CPU za kilkaset dolarów.
Ale zdrowa konkurencja zawsze pomaga, wystarczy sięgnąć pamięcią do czasów HD48xx i GTX2xx
A może dlatego, że jeśli Intel dałby cenę 1000zł za low-end, to już tego nikt by nie kupił, a co dopiero droższe modele. Lepiej sprzedać setki tysięcy CPU za kilkadziesiąt dolarów, niż kilka tysięcy za kilkaset. Ot, proste. Nie przesadzajcie ze znaczeniem konkurencji konkurencji. Firmy określając swoją politykę cenową biorą raczej pod uwagę zasobność portfeli potencjalnych konsumentów, czyli na ile sobie taki może pozwolić/ile można z niego wydoić, niż konkurencję, zwłaszcza gdy nie jest to jakaś mocna konkurencja. W dobrych czasach, gdy portfele konsumentów wypchane po brzegi, nawet ta konkurencja przestaje danej firmie jakoś specjalnie przeszkadzać.
Więc Intel mógłby sprzedawać Celerony nawet po dwa tysiące, tylko ciężko byłoby znaleźć nabywców, więc jak tu zarabiać? Więc nie opowiadajcie już bajek.
Nie masz racji. Sporo osób kupiłoby nawet low-end za 1000 zł z pocałowaniem ręki, jeżeli sytuacja tego wymaga. Nie mówię tu o Janach Kowalskich z jakiegoś Kopydłowa, tylko o firmach, gdzie akurat komputer się schrzanił i cały system zamówień stoi. Im dłużej stoi, tym większe straty, a te niekiedy sięgają tysięcy zł dziennie, więc nawet kupno takiego przecenionego kompa byłoby lepszą opcją dla nich niż siedzenie z założonymi rękoma i czekanie na cud.
Może nie zauważyłeś jak wyglądała sytuacja rynkowa w latach '80, gdy większość sprzedawanych komputerów wszelkiej maści lądowało właśnie w firmach. Większość spółek IT, poza nielicznymi wyjątkami (np. IBM) daleko było do swojej obecnej pozycji na rynku czy giełdzie. Firmy IT stały się gigantami z miliardowymi zyskami dzięki upowszechnieniu komputerów. Procesory Intela, AMD czy ARMy są powszechne (w przeciwieństwie do takich Power6/7) bo są tanie (w przeciwieństwie do Power 6/7). Gdyby procesory Intela przestałyby byś tanie, to oczywiście ciągle znajdywaliby się klienci, ale przestałyby być powszechne, a to dla nich zupełnie nieopłacalne.
Jak już pisałem: Lepiej sprzedać setki tysięcy CPU za kilkadziesiąt dolarów, niż kilka tysięcy CPU za kilkaset dolarów.
A może dlatego, że jeśli Intel dałby cenę 1000zł za low-end, to już tego nikt by nie kupił, a co dopiero droższe modele. Lepiej sprzedać setki tysięcy CPU za kilkadziesiąt dolarów, niż kilka tysięcy za kilkaset. Ot, proste. Nie przesadzajcie ze znaczeniem konkurencji konkurencji. Firmy określając swoją politykę cenową biorą raczej pod uwagę zasobność portfeli potencjalnych konsumentów, czyli na ile sobie taki może pozwolić/ile można z niego wydoić, niż konkurencję, zwłaszcza gdy nie jest to jakaś mocna konkurencja. W dobrych czasach, gdy portfele konsumentów wypchane po brzegi, nawet ta konkurencja przestaje danej firmie jakoś specjalnie przeszkadzać.
Więc Intel mógłby sprzedawać Celerony nawet po dwa tysiące, tylko ciężko byłoby znaleźć nabywców, więc jak tu zarabiać? Więc nie opowiadajcie już bajek.
Nie masz racji. Sporo osób kupiłoby nawet low-end za 1000 zł z pocałowaniem ręki, jeżeli sytuacja tego wymaga. Nie mówię tu o Janach Kowalskich z jakiegoś Kopydłowa, tylko o firmach, gdzie akurat komputer się schrzanił i cały system zamówień stoi. Im dłużej stoi, tym większe straty, a te niekiedy sięgają tysięcy zł dziennie, więc nawet kupno takiego przecenionego kompa byłoby lepszą opcją dla nich niż siedzenie z założonymi rękoma i czekanie na cud.
@up
Tylko jest haczyk. AMD z powodzeniem stosuje te Automaty w GPU. Dzięki temu już mają układy 28nm, gdy praktycznie nikt inny ich nie ma.
Wciąż nie mogę dojść do tego jakim cudem buldek ma gorszą wydajność wątku na tak od Phenom II, a nawet czasem Athlona II. Więcej w jajku jest wszystkiego, nowe instrukcje, praktycznie nieograniczona ilość kaszy. Dla mnie to objaw jakiejś choroby, która tu jest. Obciążając 1 wątek wykorzystujemy 'całą' moc modułu, wszystko co w nim siedzi, nie trzeba dzielić kaszy i innych rzeczy.
Upatrywałbym gorszej wydajności na takt Bulldozera względem Phenoma II w co najmniej 3 problemach:
1. Dłuższy potok wykonawczy niż w Phenomie II
2. Mniej wydajny kontroler pamięci niż w Phenomie II
3. Znacznie wolniejsza pamięć podręczna względem Phenoma II
Poza tym nie wiem czy to gdzieś było napisane, ale wcale nie byłbym taki pewien, że przy single thread cała moc modułu jest dostępna dla tego wątku, czy tylko połowa modułu. Wydajność w ST w BD bywa tak słaba, że z tym przydziałem też mogą być problemy czasem.
rainy @ 2012.02.15 23:16
Tym wszystkim, którzy widzą wyłącznie słabości Bulldozera, proponuję zapoznać się z tym interesującym i wyważonym artykułem pokazującym silne i słabe strony tej architektury na tle Phenoma II i Sandy Bridge.
Coś nie bardzo ten artykuł. Raz że autor przyznaje że procesora w ręku nie miał i napisał to wszystko z tego co znalazł w necie, a dwa, że nie wszystko się zgadza.
Np. w tym artykule jest napisane, że kontroler pamięci jest mocną stroną BD. Niestety wystarczy przeczytać recenzje na anandzie, żeby zobaczyć że kontroler jest słabszy niż w Phenomie II i znacznie słabszy niż w Sandy Bridge.
Ja dodam co do potoku wykonawczego jeszcze jeden szczegół... Mniej więcej tyle samo wydłużył się przy C2D-> Nehalem, jednak wydajność wzrosła.
Co do pamięci cache. To ona jest współdzielona L2 na 2 jądra, l3 na 4 moduły... Gdy masz 1 wątek to powinno być lepiej.
Zresztą chyba nie czytałeś artykułu na Anandtechu zbyt dokładnie, gdyż problemem nie jest kontroler pamięci ale potężne opóźnienia jak chodzi o L3 - czyli znowu słabo spisująca się pamięć podręczna.
Wiesz... już od lat słyszę to straszenie 'celeronami za 1000zł' i jakoś pomimo faktu, że Intel od premiery Conroe jest zupełnie niezagrożony ze strony AMD i ma wręcz miażdżącą przewagę w udziałach w rynku to jakoś tych celeronów za 1000zł nie widzę...
Za to za niewiele ponad 1000zł (1159zł wg ceneo) można kupić Core i7 2600K - jeden z najszybszych CPU Intela, szybszy od jakiegokolwiek CPU AMD. Zresztą Core i5 2500K za 809zł jest też bardzo dobrą propozycją wydajność/cena.
Może dlatego, że w low endzie AMD jeszcze jakoś tam walczy?
A może dlatego, że jeśli Intel dałby cenę 1000zł za low-end, to już tego nikt by nie kupił, a co dopiero droższe modele. Lepiej sprzedać setki tysięcy CPU za kilkadziesiąt dolarów, niż kilka tysięcy za kilkaset. Ot, proste. Nie przesadzajcie ze znaczeniem konkurencji konkurencji. Firmy określając swoją politykę cenową biorą raczej pod uwagę zasobność portfeli potencjalnych konsumentów, czyli na ile sobie taki może pozwolić/ile można z niego wydoić, niż konkurencję, zwłaszcza gdy nie jest to jakaś mocna konkurencja. W dobrych czasach, gdy portfele konsumentów wypchane po brzegi, nawet ta konkurencja przestaje danej firmie jakoś specjalnie przeszkadzać.
Więc Intel mógłby sprzedawać Celerony nawet po dwa tysiące, tylko ciężko byłoby znaleźć nabywców, więc jak tu zarabiać? Więc nie opowiadajcie już bajek.
Owszem, autor rzeczywiście nie testował Zambezi osobiście, ale bazował na artykułach innych autorów (między innymi Anandtecha) i dokumentacji technicznej AMD.
Tutaj zresztą potwierdzenie, że się nie myli odnośnie kontrolera pamięci:
1. Dłuższy potok wykonawczy niż w Phenomie II
2. Mniej wydajny kontroler pamięci niż w Phenomie II (o 24% dłuższy czas dostępu do pamięci systemowej)
3. Znacznie wolniejsza pamięć podręczna względem Phenoma II (o 33% dłuższy czas dostępu do L1, o 50% dłuższy czas dostępu do L2 i o 20% dłuższy do L3).
Co do punktu pierwszego, to nie jest tak jak piszesz: AMD wydłużyło potok wykonywaczy by móc osiągać wyższe zegary.
Niestety tego założenia nie udało się zrealizować: Zambezi ma zaledwie 300 MHz przewagi nad najwyżej taktowanym Thubanem - powodem jest niedopracowany proces technologiczny jak i sama architektura.
W świetle wspomnianego artykułu (link powyżej) kontroler pamięci jest co najmniej dobry i znacząco lepszy od tego z Phenoma II.
Jeśli chodzi o punkt trzeci, to pełna zgoda - jest to niewątpliwie pięta achillesowa tej architektury.
Btw, nie sądzę by jej twórcy założyli, że IPC Bulldozera będzie gorsze (mniej więcej 15 procent) niż Phenoma II.
Zapewne miało być podobne lub trochę lepsze - np. takie Llano ma 6 procent wyższe niż Athlon II X4.
Grave @ 2012.02.15 23:20
SunTzu @ 2012.02.15 22:46
@up
Tylko jest haczyk. AMD z powodzeniem stosuje te Automaty w GPU. Dzięki temu już mają układy 28nm, gdy praktycznie nikt inny ich nie ma.
Wciąż nie mogę dojść do tego jakim cudem buldek ma gorszą wydajność wątku na tak od Phenom II, a nawet czasem Athlona II. Więcej w jajku jest wszystkiego, nowe instrukcje, praktycznie nieograniczona ilość kaszy. Dla mnie to objaw jakiejś choroby, która tu jest. Obciążając 1 wątek wykorzystujemy 'całą' moc modułu, wszystko co w nim siedzi, nie trzeba dzielić kaszy i innych rzeczy.
Upatrywałbym gorszej wydajności na takt Bulldozera względem Phenoma II w co najmniej 3 problemach:
1. Dłuższy potok wykonawczy niż w Phenomie II
2. Mniej wydajny kontroler pamięci niż w Phenomie II
3. Znacznie wolniejsza pamięć podręczna względem Phenoma II
Poza tym nie wiem czy to gdzieś było napisane, ale wcale nie byłbym taki pewien, że przy single thread cała moc modułu jest dostępna dla tego wątku, czy tylko połowa modułu. Wydajność w ST w BD bywa tak słaba, że z tym przydziałem też mogą być problemy czasem.
rainy @ 2012.02.15 23:16
Tym wszystkim, którzy widzą wyłącznie słabości Bulldozera, proponuję zapoznać się z tym interesującym i wyważonym artykułem pokazującym silne i słabe strony tej architektury na tle Phenoma II i Sandy Bridge.
Coś nie bardzo ten artykuł. Raz że autor przyznaje że procesora w ręku nie miał i napisał to wszystko z tego co znalazł w necie, a dwa, że nie wszystko się zgadza.
Np. w tym artykule jest napisane, że kontroler pamięci jest mocną stroną BD. Niestety wystarczy przeczytać recenzje na anandzie, żeby zobaczyć że kontroler jest słabszy niż w Phenomie II i znacznie słabszy niż w Sandy Bridge.
Potok wykonawczy nie jest znacząco dłuższy, ok. 2-5, są tylko 2 informacje w internecie, potok wykonawczy ma 18 etapów i że potok wykonawczy ma 20 etapów, K10,5 ma 15 etapów albo 16 etapów, więc jest to niewiele, bardzo daleko do P4.
--------------
Ta architektura zapewne ma wiele zalet, i pewnie ma wiele zalet przewidzianych przy współpracy z GPU i low-power przy niskich częstotliwościach, z tego co można wywnioskować na razie na podstawie tego jaki pobór ma stary bulldożer przy częstotliwościach poniżej 3Ghz i przyszłości w jaka zmierza AMD z GPGPU... czekamy na trinity, pewnie się wiele wyjaśni, i pewnie znów będzie 500 komentarzy.
ps. pytam poraz drugi, był tutaj wgrany patch od microsoftu ?
1. Dłuższy potok wykonawczy niż w Phenomie II
2. Mniej wydajny kontroler pamięci niż w Phenomie II (o 24% dłuższy czas dostępu do pamięci systemowej)
3. Znacznie wolniejsza pamięć podręczna względem Phenoma II (o 33% dłuższy czas dostępu do L1, o 50% dłuższy czas dostępu do L2 i o 20% dłuższy do L3).
Co do punktu pierwszego, to nie jest tak jak piszesz: AMD wydłużyło potok wykonywawczy by móc osiągać wyższe zegary.
Niestety tego założenia nie udało się zrealizować: Zambezi ma zaledwie 300 MHz przewagi nad najwyżej taktowanym Thubanem - powodem był niedopracowany proces technologiczny jak i sama architektura.
W świetle wspomnianego artykułu (link powyżej) kontroler pamięci jest co najmniej dobry i znacząco lepszy od tego z Phenoma II.
Jeśli chodzi o punkt trzeci, to pełna zgoda - jest to niewątpliwie pięta achillesowa tej architektury.
Btw, nie sądzę by jej twórcy założyli, że IPC Bulldozera będzie gorsze (mniej więcej 15 procent) niż Phenoma II.
Zapewne miało być podobne lub trochę lepsze - np. takie Llano ma 6 procent wyższe niż Athlon II X4.
@up
Tylko jest haczyk. AMD z powodzeniem stosuje te Automaty w GPU. Dzięki temu już mają układy 28nm, gdy praktycznie nikt inny ich nie ma.
Wciąż nie mogę dojść do tego jakim cudem buldek ma gorszą wydajność wątku na tak od Phenom II, a nawet czasem Athlona II. Więcej w jajku jest wszystkiego, nowe instrukcje, praktycznie nieograniczona ilość kaszy. Dla mnie to objaw jakiejś choroby, która tu jest. Obciążając 1 wątek wykorzystujemy 'całą' moc modułu, wszystko co w nim siedzi, nie trzeba dzielić kaszy i innych rzeczy.
Upatrywałbym gorszej wydajności na takt Bulldozera względem Phenoma II w co najmniej 3 problemach:
1. Dłuższy potok wykonawczy niż w Phenomie II
2. Mniej wydajny kontroler pamięci niż w Phenomie II
3. Znacznie wolniejsza pamięć podręczna względem Phenoma II
Poza tym nie wiem czy to gdzieś było napisane, ale wcale nie byłbym taki pewien, że przy single thread cała moc modułu jest dostępna dla tego wątku, czy tylko połowa modułu. Wydajność w ST w BD bywa tak słaba, że z tym przydziałem też mogą być problemy czasem.
rainy @ 2012.02.15 23:16
Tym wszystkim, którzy widzą wyłącznie słabości Bulldozera, proponuję zapoznać się z tym interesującym i wyważonym artykułem pokazującym silne i słabe strony tej architektury na tle Phenoma II i Sandy Bridge.
Coś nie bardzo ten artykuł. Raz że autor przyznaje że procesora w ręku nie miał i napisał to wszystko z tego co znalazł w necie, a dwa, że nie wszystko się zgadza.
Np. w tym artykule jest napisane, że kontroler pamięci jest mocną stroną BD. Niestety wystarczy przeczytać recenzje na anandzie, żeby zobaczyć że kontroler jest słabszy niż w Phenomie II i znacznie słabszy niż w Sandy Bridge.
Tym wszystkim, którzy widzą wyłącznie słabości Bulldozera, proponuję zapoznać się z tym interesującym i wyważonym artykułem pokazującym silne i słabe strony tej architektury na tle Phenoma II i Sandy Bridge.
@up
Tylko jest haczyk. AMD z powodzeniem stosuje te Automaty w GPU. Dzięki temu już mają układy 28nm, gdy praktycznie nikt inny ich nie ma.
Wciąż nie mogę dojść do tego jakim cudem buldek ma gorszą wydajność wątku na tak od Phenom II, a nawet czasem Athlona II. Więcej w jajku jest wszystkiego, nowe instrukcje, praktycznie nieograniczona ilość kaszy. Dla mnie to objaw jakiejś choroby, która tu jest. Obciążając 1 wątek wykorzystujemy 'całą' moc modułu, wszystko co w nim siedzi, nie trzeba dzielić kaszy i innych rzeczy.
Jeżeli to prawda że proces 32nm jest dopracowany to :
a) Czemu AMD wypowiadało się że uzysk Llano, bulldożer jest tragiczny? co potwierdza fakt małej dostępności i prawie braku dostępności flagowych modeli
b) Czemu Inżynierowie AMD wypowiadali się o dopasowaniu bulldożera do procesu 32nm jak o Eagle>autoroute ?
c) Jeżeli TPD jest winą arch. to czemu Trinity mobile wg. zapowiedzi potrafi działać na dość wysokich częstotliwościach wraz z GPU i posiadać TPD na poziomie 18W ?
d) Czemu 4 modułowa wersja Valenci przy 1.6Ghz/ T 2.6Ghz posiada TPD 35W ?
jeżeli wiemy że TPD rośnie drastycznie w przypadku niedopracowania procesu.
e) Czemu przepustowość pamięci cache potrafi drastycznie spaść przy zwiększaniu częstotliwości ?
a) Tak było w Q3. Problemy były nawet z 45nm procesem, bo AMD nie miało do dyspozycji odpowiednich mocy produkcyjnych, a linie 32nm nie były gotowe, a te które były cóż sam to powiedziałeś...
b) Użyli automatów, GF robi to co im zlecą, więc chyba znowu raczej nie wina GFa... Zresztą z automatów każdy korzysta kto chce wydać wcześniej układy.
c) Trinity to poprawione/nowe arch, lecz ten sam proces. Zobaczymy jak wyjdzie, ale nie chce mi się wierzyć, że buldki byłyby nagle z tego okresu o połowę mniej energochłonne.
d) Ale TDP rośnie też w przypadku niedopracowanej architektury i wysokich częstotliwości. 4.1GHz, tego nie było jeszcze.
e) Z tym się nie spotkałem. Jednak generalne przepustowość cache w buldkach to generalnie słabo.
Jeżeli faktycznie tak jest jak piszesz to tylko krowa nie zmienia zdania, jednak wątpię by wina leżała całkowicie po stronie GF-a. AMD chciało zrobić dużo MHz, to mają wysokie TDP to standard. Ja czytam głównie raporty . W Q3 faktycznie mieli problemy, wręcz nie wiedzieli co robić próbować klepać buldki czy Llano. Jednak wszystko w Q4 wróciło do 'nowej' normy. Buldki, Llano są praktycznie dostępne, a z drugiej strony zaczynają znikać stare, ale jare...
Wygląda na to, że wina leży gdzieś po środku. Jednak Buldożer to słaby układ nie tylko ze względu na TDP, ale też wydajność jaką osiąga pod takim TDP
Bezpośrednia wina GF to nie jest, tylko AMD niedopasowało buldka do procesu 32nm, a raczej nie było ich na to stać, wystarczy zobaczyć jakie wady miał pierwszy fermi, który na szybko był dostosowywany do procesu produkcji.
Mi chodziło tylko o to, że kiepskie TDP to bardziej wina architektury AMD niż procesu produkcyjnego.
Jeżeli to prawda że proces 32nm jest dopracowany to :
a) Czemu AMD wypowiadało się że uzysk Llano, bulldożer jest tragiczny? co potwierdza fakt małej dostępności i prawie braku dostępności flagowych modeli
b) Czemu Inżynierowie AMD wypowiadali się o dopasowaniu bulldożera do procesu 32nm jak o Eagle>autoroute ?
c) Jeżeli TPD jest winą arch. to czemu Trinity mobile wg. zapowiedzi potrafi działać na dość wysokich częstotliwościach wraz z GPU i posiadać TPD na poziomie 18W ?
d) Czemu 4 modułowa wersja Valenci przy 1.6Ghz/ T 2.6Ghz posiada TPD 35W ?
jeżeli wiemy że TPD rośnie drastycznie w przypadku niedopracowania procesu.
e) Czemu przepustowość pamięci cache potrafi drastycznie spaść przy zwiększaniu częstotliwości ?
a) Tak było w Q3. Problemy były nawet z 45nm procesem, bo AMD nie miało do dyspozycji odpowiednich mocy produkcyjnych, a linie 32nm nie były gotowe, a te które były cóż sam to powiedziałeś...
b) Użyli automatów, GF robi to co im zlecą, więc chyba znowu raczej nie wina GFa... Zresztą z automatów każdy korzysta kto chce wydać wcześniej układy.
c) Trinity to poprawione/nowe arch, lecz ten sam proces. Zobaczymy jak wyjdzie, ale nie chce mi się wierzyć, że buldki byłyby nagle z tego okresu o połowę mniej energochłonne.
d) Ale TDP rośnie też w przypadku niedopracowanej architektury i wysokich częstotliwości. 4.1GHz, tego nie było jeszcze.
e) Z tym się nie spotkałem. Jednak generalne przepustowość cache w buldkach to generalnie słabo.
Jeżeli faktycznie tak jest jak piszesz to tylko krowa nie zmienia zdania, jednak wątpię by wina leżała całkowicie po stronie GF-a. AMD chciało zrobić dużo MHz, to mają wysokie TDP to standard. Ja czytam głównie raporty . W Q3 faktycznie mieli problemy, wręcz nie wiedzieli co robić próbować klepać buldki czy Llano. Jednak wszystko w Q4 wróciło do 'nowej' normy. Buldki, Llano są praktycznie dostępne, a z drugiej strony zaczynają znikać stare, ale jare...
Wygląda na to, że wina leży gdzieś po środku. Jednak Buldożer to słaby układ nie tylko ze względu na TDP, ale też wydajność jaką osiąga pod takim TDP
Ni e wiem czemu krytykuje tak Fx 4100 mam ten procek i kartę graficzną 6770 Direct Cu. Wszystkie gry mi chodzi na high detalach a wow na Ultra i mam 35 fps w Dalaranie. Wykorzystanie procesora jest pomiędzy 15 a 24% System zużywa 1392 mgb ram. Gdybym kupił i5 wydałbym dodatkowo +500 zł i nie miałbym na piwo. Więc nie wiem gdzie jest problem.
Zagraj w grę wymagającą mocnego cepa. Wtedy nie będzie już tak kolorowo
Tak ale wszystkowiedzący spece typu SunTzu już skreślili architekturę po pierwszych modelach nie przyjmując nawet do wiadomości takiej możliwości jak niedopracowany proces. Poczekajcie na drugą generację jak w PII i wtedy zobaczymy czy naprawdę te procki są takie pazerne na prąd czy jedynie wymagały dopracowanie procesu 32nm.
Problem 'pazerności' Bulldozera na prąd nie leży tylko w niedopracowanym procesie 32nm GF, ale także w tym jak Bulldozer był projektowany, co zostało wyjaśnione tutaj:
'The management decided there should be such cross-engineering [between AMD and ATI teams within the company] ,which meant we had to stop hand-crafting our CPU designs and switch to an SoC design style. This results in giving up a lot of performance, chip area, and efficiency.
'I had been in charge of our design flow in the years before I left, and I had tested these tools by asking the companies who sold them to design blocks (adders, multipliers, etc.) using their tools. I let them take as long as they wanted. They always came back to me with designs that were 20% bigger, and 20% slower than our hand-crafted designs, and which suffered from electro-migration and other problems,' the former AMD engineer said.
Sama koncepcja Bulldozera czyli żyłowanie taktowania kosztem IPC nie idzie w parze z energooszczędnością.
Czyli dopasowanie bulldozera do produkcji na automacie, tak jak mówiłem, eagle-autoroute.
Temu nie przeczę, ale nie przesadzajmy już tak bardzo z jej znaczeniem czy monopolami. W szerszym ujęciu każda firma konkuruje z każdą, nawet lokalna piekarnia z globalnym producentem elektroniki, bo im więcej ktoś wyda na elektronikę, tym mniej mu zostanie na bułki
A o cenach decyduje przede wszystkim i tak to, dla kogo przeznaczony jest produkt (np. na produktach luksusowych, elitarnych można bez obaw zdzierać ile się da) i ile ten ktoś ma w portfelu, żeby mógł sobie pozwolić na zakup (bo jak sobie nie pozwoli, to firma, niezależnie od tego jak wysoką cenę dowali, i tak nie zarobi).
Nie masz racji. Sporo osób kupiłoby nawet low-end za 1000 zł z pocałowaniem ręki, jeżeli sytuacja tego wymaga. Nie mówię tu o Janach Kowalskich z jakiegoś Kopydłowa, tylko o firmach, gdzie akurat komputer się schrzanił i cały system zamówień stoi. Im dłużej stoi, tym większe straty, a te niekiedy sięgają tysięcy zł dziennie, więc nawet kupno takiego przecenionego kompa byłoby lepszą opcją dla nich niż siedzenie z założonymi rękoma i czekanie na cud.
Może nie zauważyłeś jak wyglądała sytuacja rynkowa w latach '80, gdy większość sprzedawanych komputerów wszelkiej maści lądowało właśnie w firmach. Większość spółek IT, poza nielicznymi wyjątkami (np. IBM) daleko było do swojej obecnej pozycji na rynku czy giełdzie. Firmy IT stały się gigantami z miliardowymi zyskami dzięki upowszechnieniu komputerów. Procesory Intela, AMD czy ARMy są powszechne (w przeciwieństwie do takich Power6/7) bo są tanie (w przeciwieństwie do Power 6/7). Gdyby procesory Intela przestałyby byś tanie, to oczywiście ciągle znajdywaliby się klienci, ale przestałyby być powszechne, a to dla nich zupełnie nieopłacalne.
Jak już pisałem: Lepiej sprzedać setki tysięcy CPU za kilkadziesiąt dolarów, niż kilka tysięcy CPU za kilkaset dolarów.
Ale zdrowa konkurencja zawsze pomaga, wystarczy sięgnąć pamięcią do czasów HD48xx i GTX2xx
O rly? Patrz zarobki IBM, a AMD
Ciekawe argument tyle, że niewiadomo skąd wzięty - zostawiam to Twojej domyślności.
Btw, AMD ma pomiędzy 10-11 tys. pracowników, zaś IBM ponad 425 tys - to chyba dość dobrze ilustruje różnicę?
O rly? Patrz zarobki IBM, a AMD
Więc Intel mógłby sprzedawać Celerony nawet po dwa tysiące, tylko ciężko byłoby znaleźć nabywców, więc jak tu zarabiać? Więc nie opowiadajcie już bajek.
Nie masz racji. Sporo osób kupiłoby nawet low-end za 1000 zł z pocałowaniem ręki, jeżeli sytuacja tego wymaga. Nie mówię tu o Janach Kowalskich z jakiegoś Kopydłowa, tylko o firmach, gdzie akurat komputer się schrzanił i cały system zamówień stoi. Im dłużej stoi, tym większe straty, a te niekiedy sięgają tysięcy zł dziennie, więc nawet kupno takiego przecenionego kompa byłoby lepszą opcją dla nich niż siedzenie z założonymi rękoma i czekanie na cud.
Może nie zauważyłeś jak wyglądała sytuacja rynkowa w latach '80, gdy większość sprzedawanych komputerów wszelkiej maści lądowało właśnie w firmach. Większość spółek IT, poza nielicznymi wyjątkami (np. IBM) daleko było do swojej obecnej pozycji na rynku czy giełdzie. Firmy IT stały się gigantami z miliardowymi zyskami dzięki upowszechnieniu komputerów. Procesory Intela, AMD czy ARMy są powszechne (w przeciwieństwie do takich Power6/7) bo są tanie (w przeciwieństwie do Power 6/7). Gdyby procesory Intela przestałyby byś tanie, to oczywiście ciągle znajdywaliby się klienci, ale przestałyby być powszechne, a to dla nich zupełnie nieopłacalne.
Jak już pisałem: Lepiej sprzedać setki tysięcy CPU za kilkadziesiąt dolarów, niż kilka tysięcy CPU za kilkaset dolarów.
Hehe... i tak się może wszystko zepsuć. Więc lepiej dublować rzeczy niż zakładać, że ma się bezawaryjny serwer.
Więc Intel mógłby sprzedawać Celerony nawet po dwa tysiące, tylko ciężko byłoby znaleźć nabywców, więc jak tu zarabiać? Więc nie opowiadajcie już bajek.
Nie masz racji. Sporo osób kupiłoby nawet low-end za 1000 zł z pocałowaniem ręki, jeżeli sytuacja tego wymaga. Nie mówię tu o Janach Kowalskich z jakiegoś Kopydłowa, tylko o firmach, gdzie akurat komputer się schrzanił i cały system zamówień stoi. Im dłużej stoi, tym większe straty, a te niekiedy sięgają tysięcy zł dziennie, więc nawet kupno takiego przecenionego kompa byłoby lepszą opcją dla nich niż siedzenie z założonymi rękoma i czekanie na cud.
Tylko jest haczyk. AMD z powodzeniem stosuje te Automaty w GPU. Dzięki temu już mają układy 28nm, gdy praktycznie nikt inny ich nie ma.
Wciąż nie mogę dojść do tego jakim cudem buldek ma gorszą wydajność wątku na tak od Phenom II, a nawet czasem Athlona II. Więcej w jajku jest wszystkiego, nowe instrukcje, praktycznie nieograniczona ilość kaszy. Dla mnie to objaw jakiejś choroby, która tu jest. Obciążając 1 wątek wykorzystujemy 'całą' moc modułu, wszystko co w nim siedzi, nie trzeba dzielić kaszy i innych rzeczy.
Upatrywałbym gorszej wydajności na takt Bulldozera względem Phenoma II w co najmniej 3 problemach:
1. Dłuższy potok wykonawczy niż w Phenomie II
2. Mniej wydajny kontroler pamięci niż w Phenomie II
3. Znacznie wolniejsza pamięć podręczna względem Phenoma II
Poza tym nie wiem czy to gdzieś było napisane, ale wcale nie byłbym taki pewien, że przy single thread cała moc modułu jest dostępna dla tego wątku, czy tylko połowa modułu. Wydajność w ST w BD bywa tak słaba, że z tym przydziałem też mogą być problemy czasem.
http://www.ilsistemista.net/index.php/hard...-bulldozer.html
Np. w tym artykule jest napisane, że kontroler pamięci jest mocną stroną BD. Niestety wystarczy przeczytać recenzje na anandzie, żeby zobaczyć że kontroler jest słabszy niż w Phenomie II i znacznie słabszy niż w Sandy Bridge.
Ja dodam co do potoku wykonawczego jeszcze jeden szczegół... Mniej więcej tyle samo wydłużył się przy C2D-> Nehalem, jednak wydajność wzrosła.
Co do pamięci cache. To ona jest współdzielona L2 na 2 jądra, l3 na 4 moduły... Gdy masz 1 wątek to powinno być lepiej.
Przepustowość RAMu, nie ma większego znaczenia.
Zresztą chyba nie czytałeś artykułu na Anandtechu zbyt dokładnie, gdyż problemem nie jest kontroler pamięci ale potężne opóźnienia jak chodzi o L3 - czyli znowu słabo spisująca się pamięć podręczna.
http://www.anandtech.com/show/4955/the-bul...fx8150-tested/6
Wiesz... już od lat słyszę to straszenie 'celeronami za 1000zł' i jakoś pomimo faktu, że Intel od premiery Conroe jest zupełnie niezagrożony ze strony AMD i ma wręcz miażdżącą przewagę w udziałach w rynku to jakoś tych celeronów za 1000zł nie widzę...
Za to za niewiele ponad 1000zł (1159zł wg ceneo) można kupić Core i7 2600K - jeden z najszybszych CPU Intela, szybszy od jakiegokolwiek CPU AMD. Zresztą Core i5 2500K za 809zł jest też bardzo dobrą propozycją wydajność/cena.
Może dlatego, że w low endzie AMD jeszcze jakoś tam walczy?
A może dlatego, że jeśli Intel dałby cenę 1000zł za low-end, to już tego nikt by nie kupił, a co dopiero droższe modele. Lepiej sprzedać setki tysięcy CPU za kilkadziesiąt dolarów, niż kilka tysięcy za kilkaset. Ot, proste. Nie przesadzajcie ze znaczeniem konkurencji konkurencji. Firmy określając swoją politykę cenową biorą raczej pod uwagę zasobność portfeli potencjalnych konsumentów, czyli na ile sobie taki może pozwolić/ile można z niego wydoić, niż konkurencję, zwłaszcza gdy nie jest to jakaś mocna konkurencja. W dobrych czasach, gdy portfele konsumentów wypchane po brzegi, nawet ta konkurencja przestaje danej firmie jakoś specjalnie przeszkadzać.
Więc Intel mógłby sprzedawać Celerony nawet po dwa tysiące, tylko ciężko byłoby znaleźć nabywców, więc jak tu zarabiać? Więc nie opowiadajcie już bajek.
Owszem, autor rzeczywiście nie testował Zambezi osobiście, ale bazował na artykułach innych autorów (między innymi Anandtecha) i dokumentacji technicznej AMD.
Tutaj zresztą potwierdzenie, że się nie myli odnośnie kontrolera pamięci:
http://techreport.com/articles.x/21813/6
Btw, nie traktuj Anadtecha jak wyroczni, bo nie są oni bynajmniej nieomylni.
1. Dłuższy potok wykonawczy niż w Phenomie II
2. Mniej wydajny kontroler pamięci niż w Phenomie II (o 24% dłuższy czas dostępu do pamięci systemowej)
3. Znacznie wolniejsza pamięć podręczna względem Phenoma II (o 33% dłuższy czas dostępu do L1, o 50% dłuższy czas dostępu do L2 i o 20% dłuższy do L3).
Co do punktu pierwszego, to nie jest tak jak piszesz: AMD wydłużyło potok wykonywaczy by móc osiągać wyższe zegary.
Niestety tego założenia nie udało się zrealizować: Zambezi ma zaledwie 300 MHz przewagi nad najwyżej taktowanym Thubanem - powodem jest niedopracowany proces technologiczny jak i sama architektura.
W świetle wspomnianego artykułu (link powyżej) kontroler pamięci jest co najmniej dobry i znacząco lepszy od tego z Phenoma II.
Jeśli chodzi o punkt trzeci, to pełna zgoda - jest to niewątpliwie pięta achillesowa tej architektury.
Btw, nie sądzę by jej twórcy założyli, że IPC Bulldozera będzie gorsze (mniej więcej 15 procent) niż Phenoma II.
Zapewne miało być podobne lub trochę lepsze - np. takie Llano ma 6 procent wyższe niż Athlon II X4.
Tylko jest haczyk. AMD z powodzeniem stosuje te Automaty w GPU. Dzięki temu już mają układy 28nm, gdy praktycznie nikt inny ich nie ma.
Wciąż nie mogę dojść do tego jakim cudem buldek ma gorszą wydajność wątku na tak od Phenom II, a nawet czasem Athlona II. Więcej w jajku jest wszystkiego, nowe instrukcje, praktycznie nieograniczona ilość kaszy. Dla mnie to objaw jakiejś choroby, która tu jest. Obciążając 1 wątek wykorzystujemy 'całą' moc modułu, wszystko co w nim siedzi, nie trzeba dzielić kaszy i innych rzeczy.
Upatrywałbym gorszej wydajności na takt Bulldozera względem Phenoma II w co najmniej 3 problemach:
1. Dłuższy potok wykonawczy niż w Phenomie II
2. Mniej wydajny kontroler pamięci niż w Phenomie II
3. Znacznie wolniejsza pamięć podręczna względem Phenoma II
Poza tym nie wiem czy to gdzieś było napisane, ale wcale nie byłbym taki pewien, że przy single thread cała moc modułu jest dostępna dla tego wątku, czy tylko połowa modułu. Wydajność w ST w BD bywa tak słaba, że z tym przydziałem też mogą być problemy czasem.
http://www.ilsistemista.net/index.php/hard...-bulldozer.html
Np. w tym artykule jest napisane, że kontroler pamięci jest mocną stroną BD. Niestety wystarczy przeczytać recenzje na anandzie, żeby zobaczyć że kontroler jest słabszy niż w Phenomie II i znacznie słabszy niż w Sandy Bridge.
Potok wykonawczy nie jest znacząco dłuższy, ok. 2-5, są tylko 2 informacje w internecie, potok wykonawczy ma 18 etapów i że potok wykonawczy ma 20 etapów, K10,5 ma 15 etapów albo 16 etapów, więc jest to niewiele, bardzo daleko do P4.
--------------
Ta architektura zapewne ma wiele zalet, i pewnie ma wiele zalet przewidzianych przy współpracy z GPU i low-power przy niskich częstotliwościach, z tego co można wywnioskować na razie na podstawie tego jaki pobór ma stary bulldożer przy częstotliwościach poniżej 3Ghz i przyszłości w jaka zmierza AMD z GPGPU... czekamy na trinity, pewnie się wiele wyjaśni, i pewnie znów będzie 500 komentarzy.
ps. pytam poraz drugi, był tutaj wgrany patch od microsoftu ?
1. Dłuższy potok wykonawczy niż w Phenomie II
2. Mniej wydajny kontroler pamięci niż w Phenomie II (o 24% dłuższy czas dostępu do pamięci systemowej)
3. Znacznie wolniejsza pamięć podręczna względem Phenoma II (o 33% dłuższy czas dostępu do L1, o 50% dłuższy czas dostępu do L2 i o 20% dłuższy do L3).
Co do punktu pierwszego, to nie jest tak jak piszesz: AMD wydłużyło potok wykonywawczy by móc osiągać wyższe zegary.
Niestety tego założenia nie udało się zrealizować: Zambezi ma zaledwie 300 MHz przewagi nad najwyżej taktowanym Thubanem - powodem był niedopracowany proces technologiczny jak i sama architektura.
W świetle wspomnianego artykułu (link powyżej) kontroler pamięci jest co najmniej dobry i znacząco lepszy od tego z Phenoma II.
Jeśli chodzi o punkt trzeci, to pełna zgoda - jest to niewątpliwie pięta achillesowa tej architektury.
Btw, nie sądzę by jej twórcy założyli, że IPC Bulldozera będzie gorsze (mniej więcej 15 procent) niż Phenoma II.
Zapewne miało być podobne lub trochę lepsze - np. takie Llano ma 6 procent wyższe niż Athlon II X4.
Tylko jest haczyk. AMD z powodzeniem stosuje te Automaty w GPU. Dzięki temu już mają układy 28nm, gdy praktycznie nikt inny ich nie ma.
Wciąż nie mogę dojść do tego jakim cudem buldek ma gorszą wydajność wątku na tak od Phenom II, a nawet czasem Athlona II. Więcej w jajku jest wszystkiego, nowe instrukcje, praktycznie nieograniczona ilość kaszy. Dla mnie to objaw jakiejś choroby, która tu jest. Obciążając 1 wątek wykorzystujemy 'całą' moc modułu, wszystko co w nim siedzi, nie trzeba dzielić kaszy i innych rzeczy.
Upatrywałbym gorszej wydajności na takt Bulldozera względem Phenoma II w co najmniej 3 problemach:
1. Dłuższy potok wykonawczy niż w Phenomie II
2. Mniej wydajny kontroler pamięci niż w Phenomie II
3. Znacznie wolniejsza pamięć podręczna względem Phenoma II
Poza tym nie wiem czy to gdzieś było napisane, ale wcale nie byłbym taki pewien, że przy single thread cała moc modułu jest dostępna dla tego wątku, czy tylko połowa modułu. Wydajność w ST w BD bywa tak słaba, że z tym przydziałem też mogą być problemy czasem.
http://www.ilsistemista.net/index.php/hard...-bulldozer.html
Np. w tym artykule jest napisane, że kontroler pamięci jest mocną stroną BD. Niestety wystarczy przeczytać recenzje na anandzie, żeby zobaczyć że kontroler jest słabszy niż w Phenomie II i znacznie słabszy niż w Sandy Bridge.
http://www.ilsistemista.net/index.php/hard...-bulldozer.html
Tylko jest haczyk. AMD z powodzeniem stosuje te Automaty w GPU. Dzięki temu już mają układy 28nm, gdy praktycznie nikt inny ich nie ma.
Wciąż nie mogę dojść do tego jakim cudem buldek ma gorszą wydajność wątku na tak od Phenom II, a nawet czasem Athlona II. Więcej w jajku jest wszystkiego, nowe instrukcje, praktycznie nieograniczona ilość kaszy. Dla mnie to objaw jakiejś choroby, która tu jest. Obciążając 1 wątek wykorzystujemy 'całą' moc modułu, wszystko co w nim siedzi, nie trzeba dzielić kaszy i innych rzeczy.
Jeżeli to prawda że proces 32nm jest dopracowany to :
a) Czemu AMD wypowiadało się że uzysk Llano, bulldożer jest tragiczny? co potwierdza fakt małej dostępności i prawie braku dostępności flagowych modeli
b) Czemu Inżynierowie AMD wypowiadali się o dopasowaniu bulldożera do procesu 32nm jak o Eagle>autoroute ?
c) Jeżeli TPD jest winą arch. to czemu Trinity mobile wg. zapowiedzi potrafi działać na dość wysokich częstotliwościach wraz z GPU i posiadać TPD na poziomie 18W ?
d) Czemu 4 modułowa wersja Valenci przy 1.6Ghz/ T 2.6Ghz posiada TPD 35W ?
jeżeli wiemy że TPD rośnie drastycznie w przypadku niedopracowania procesu.
e) Czemu przepustowość pamięci cache potrafi drastycznie spaść przy zwiększaniu częstotliwości ?
a) Tak było w Q3. Problemy były nawet z 45nm procesem, bo AMD nie miało do dyspozycji odpowiednich mocy produkcyjnych, a linie 32nm nie były gotowe, a te które były cóż sam to powiedziałeś...
b) Użyli automatów, GF robi to co im zlecą, więc chyba znowu raczej nie wina GFa... Zresztą z automatów każdy korzysta kto chce wydać wcześniej układy.
c) Trinity to poprawione/nowe arch, lecz ten sam proces. Zobaczymy jak wyjdzie, ale nie chce mi się wierzyć, że buldki byłyby nagle z tego okresu o połowę mniej energochłonne.
d) Ale TDP rośnie też w przypadku niedopracowanej architektury i wysokich częstotliwości. 4.1GHz, tego nie było jeszcze.
e) Z tym się nie spotkałem. Jednak generalne przepustowość cache w buldkach to generalnie słabo.
Jeżeli faktycznie tak jest jak piszesz to tylko krowa nie zmienia zdania, jednak wątpię by wina leżała całkowicie po stronie GF-a. AMD chciało zrobić dużo MHz, to mają wysokie TDP to standard. Ja czytam głównie raporty . W Q3 faktycznie mieli problemy, wręcz nie wiedzieli co robić próbować klepać buldki czy Llano. Jednak wszystko w Q4 wróciło do 'nowej' normy. Buldki, Llano są praktycznie dostępne, a z drugiej strony zaczynają znikać stare, ale jare...
Wygląda na to, że wina leży gdzieś po środku. Jednak Buldożer to słaby układ nie tylko ze względu na TDP, ale też wydajność jaką osiąga pod takim TDP
Bezpośrednia wina GF to nie jest, tylko AMD niedopasowało buldka do procesu 32nm, a raczej nie było ich na to stać, wystarczy zobaczyć jakie wady miał pierwszy fermi, który na szybko był dostosowywany do procesu produkcji.
Jeżeli to prawda że proces 32nm jest dopracowany to :
a) Czemu AMD wypowiadało się że uzysk Llano, bulldożer jest tragiczny? co potwierdza fakt małej dostępności i prawie braku dostępności flagowych modeli
b) Czemu Inżynierowie AMD wypowiadali się o dopasowaniu bulldożera do procesu 32nm jak o Eagle>autoroute ?
c) Jeżeli TPD jest winą arch. to czemu Trinity mobile wg. zapowiedzi potrafi działać na dość wysokich częstotliwościach wraz z GPU i posiadać TPD na poziomie 18W ?
d) Czemu 4 modułowa wersja Valenci przy 1.6Ghz/ T 2.6Ghz posiada TPD 35W ?
jeżeli wiemy że TPD rośnie drastycznie w przypadku niedopracowania procesu.
e) Czemu przepustowość pamięci cache potrafi drastycznie spaść przy zwiększaniu częstotliwości ?
a) Tak było w Q3. Problemy były nawet z 45nm procesem, bo AMD nie miało do dyspozycji odpowiednich mocy produkcyjnych, a linie 32nm nie były gotowe, a te które były cóż sam to powiedziałeś...
b) Użyli automatów, GF robi to co im zlecą, więc chyba znowu raczej nie wina GFa... Zresztą z automatów każdy korzysta kto chce wydać wcześniej układy.
c) Trinity to poprawione/nowe arch, lecz ten sam proces. Zobaczymy jak wyjdzie, ale nie chce mi się wierzyć, że buldki byłyby nagle z tego okresu o połowę mniej energochłonne.
d) Ale TDP rośnie też w przypadku niedopracowanej architektury i wysokich częstotliwości. 4.1GHz, tego nie było jeszcze.
e) Z tym się nie spotkałem. Jednak generalne przepustowość cache w buldkach to generalnie słabo.
Jeżeli faktycznie tak jest jak piszesz to tylko krowa nie zmienia zdania, jednak wątpię by wina leżała całkowicie po stronie GF-a. AMD chciało zrobić dużo MHz, to mają wysokie TDP to standard. Ja czytam głównie raporty . W Q3 faktycznie mieli problemy, wręcz nie wiedzieli co robić próbować klepać buldki czy Llano. Jednak wszystko w Q4 wróciło do 'nowej' normy. Buldki, Llano są praktycznie dostępne, a z drugiej strony zaczynają znikać stare, ale jare...
Wygląda na to, że wina leży gdzieś po środku. Jednak Buldożer to słaby układ nie tylko ze względu na TDP, ale też wydajność jaką osiąga pod takim TDP
Zagraj w grę wymagającą mocnego cepa. Wtedy nie będzie już tak kolorowo
Problem 'pazerności' Bulldozera na prąd nie leży tylko w niedopracowanym procesie 32nm GF, ale także w tym jak Bulldozer był projektowany, co zostało wyjaśnione tutaj:
http://www.xbitlabs.com/news/cpu/display/2...zer_Fiasco.html
'The management decided there should be such cross-engineering [between AMD and ATI teams within the company] ,which meant we had to stop hand-crafting our CPU designs and switch to an SoC design style. This results in giving up a lot of performance, chip area, and efficiency.
'I had been in charge of our design flow in the years before I left, and I had tested these tools by asking the companies who sold them to design blocks (adders, multipliers, etc.) using their tools. I let them take as long as they wanted. They always came back to me with designs that were 20% bigger, and 20% slower than our hand-crafted designs, and which suffered from electro-migration and other problems,' the former AMD engineer said.
Sama koncepcja Bulldozera czyli żyłowanie taktowania kosztem IPC nie idzie w parze z energooszczędnością.
Czyli dopasowanie bulldozera do produkcji na automacie, tak jak mówiłem, eagle-autoroute.