Bobcat to przycięty K8. Jaguar to polepszony bobcat. Od K10.5 AMD przeszło na bldz, a Tobie się widzi powrót do rozbudowanego K8 Zawsze mnie bawią tego typu opinie 'rozbudujmy jaguara i do desktopa!'
Skoro jest taki stary i przyciety, to czemu sie sprawdza (w sensie jest to udany produkt)? Wrecz rozklada Atoma na lopatki. A Intel tez po 6 latach klepania Pentium 4 wrocil do archi PIII i ja rozbudowal. Dzisiaj z niej korzystamy i ja chwalimy.
Udany
1. Ponieważ zajmuje mało miejsca
2. Pobiera mało energii
Dzięki temu w PS4 masz GPU na poziomie 7850, a nie 7750
Intel nigdy nie odszedł od P3. Po prostu stworzył dwie architektury, ta do desktopów był tania w produkcji i nastawiona na MHz, pobierała dużo energii. Ta do laptopów była droższa w produkcji, ale wydajność porównywalna, mniejszym zegarze 2-3 x mniejszym poborze energii.
Gdy doszli do granicy częstotliwości olali archi do desktopów i wzięli mobilną
AMD było w podobnym momencie gdy mieli buldożera w desktopie i llano...
... ale to całkowicie przypadkowe. Buldożer dostał sporo L3, które nie wiele daje.
AMd powinno w ogóle zrezygnować z produkcji 'wydajnych' CPU i skupic się wyłącznie na APU dla mas. Dzisiejszy rynek chce takich rozwiązań. Intela w produkcji wysoko wydajnych procesorów i tak juz nie dogonią, choćby dawali 7GHz. Niechgonią tam gdzie czują się na siłach. Zintegrowane cpu i gpu dla średniowydajnych komputerów domowych, htpc, czy nawet tablletów to własciwy kierunek dla tej firmy Powinienem tam pracowac i im doradzać
Skoro jest taki stary i przyciety, to czemu sie sprawdza (w sensie jest to udany produkt)? Wrecz rozklada Atoma na lopatki
Bo atom jest jeszcze bardziej przycięty? Omg - czytasz komentarz i nawet nie wiesz o czym mowa, ale swoje musisz dodać.
Intel wycofał się z Netburst nie dlatego, że okazała się sama w sobie klapą, a dlatego, że wbrew przewidywaniom nie udało się zwiększać cały czas zegara powyżej 4GHz (zakładano nawet 10!!) bo pojawiły się efekty, których wcześniej nie można było zaobserwować. Gdyby nie te efekty to siedziałbyś teraz na P4 X12 EE 14GHz. W międzyczasie w Izraelu ekipa robiła procki z arch. P6 (pentium pro wzwyż) do lapków, ale te procki wcale nie były mniej wydajne od P4, wręcz przeciwnie. Natomiast nie osiągały takich zegarów jak P4 i nie mogły ich gonić wydajnością na top cpu. Dlatego nie trafiły do desktopa. W pewnym momencie gdy P4 zobaczył ścianę to te baniasy, dothany, yonahy itp. po prostu rozbudowywano usprawniając prefetcher, dekoder, jednostki ALU i FPU. Wreszcie wyszedł z tego Core, a po kolejnych ulepszeniach produkt, który mógł wreszcie trafić do desktopów, bo oferował więcej niż topowe P4 (i nawet K8). Tutaj dwudrożna architektura Jaguara nie ma podejścia do 4 drożnej Bulldozera, automatycznie widać, że z piledriverem też nie powalczy, a co dopiero jeśli wyjdzie steamroller z min. 20% polepszeniem IPC? Jak zaczną go rozbudowywać to 3 drożna architektura już była i nazywała się K10 więc to bez sensu - rozbudowywać jaguara do desktopa bo to co zobaczymy to będzie phenom II z SSE4 bez FMA.
Po ostatnich wiesciach od AMD, ze przyznali sie do porazki architektury Bulldozer i nie beda wiecej (podobno) szli w puste GHz, mam nadzieje, ze odpowiednio uda sie im rozbudowac archi Jaguara i przystosowac je do wydajnych laptopow i desktopow ze sredniego segmentu, tak aby, konkurowali z Intelem na rownych warunkach, bo niestety nikt sie chyba nie spodziewa, ze Steamroller odwroci szale zwyciestwa w strone AMD. Podsumowujac licze na Jaguara, bo Richland to kontynuacja porazki Bulldozera.
Rozbudowa Jaguara to stworzenie nowej architektury. Jaguar ze względu na swoje przeznaczenie to arch. dwupotokowa, ktora do wydajnych prockow sie nie nadaje. Konieczna byłaby rozbudowa dekodera a to ciągnie za sobą konieczność przebudowy frontendu. Więcej dekoderów to więcej instrukcji, a więc dobrze byłoby dodać więcej jednostek wykonawczych itp. itd. Więc zamiast tworzyć od podstaw nową arch. lepiej dla AMD będzie jak skupią się na poprawie arch. modułowej.
A czy SR odwróci szale na stronę AMD? Poprawki w SR to na pewno pójście w dobrą stronę. Do tej pory w module był jeden dekoder na dwa wątki. W SR będą dwa (+ poprawki we frontendzie) co już powinno sporo poprawić wydajność jednowątkową. Oczywiście ja osobiście nie liczę, że zegar w zegar SR zrówna się z HSW, ale moze zbliżyć się w okolice SNB. A to już byłby duży progress.
Jaguar w desktopach sprawdzilby sie lepiej niz BD, poniewaz skalowalby sie lepiej z energia. Do czego potrzebny jest BD, oczywiscie do szerokich(rownoleglych) obliczen >128bit, w tej chwili sa 4x wydajniejsze na cykl od Jaguara. Jaguar porownalbym do K10, z nieco nizszym IPC, ale za to lepsza efektywnoscia.
Rozbudowa Jaguara to stworzenie nowej architektury. Jaguar ze względu na swoje przeznaczenie to arch. dwupotokowa, ktora do wydajnych prockow sie nie nadaje. Konieczna byłaby rozbudowa dekodera a to ciągnie za sobą konieczność przebudowy frontendu. Więcej dekoderów to więcej instrukcji, a więc dobrze byłoby dodać więcej jednostek wykonawczych itp. itd. Więc zamiast tworzyć od podstaw nową arch. lepiej dla AMD będzie jak skupią się na poprawie arch. modułowej.
A czy SR odwróci szale na stronę AMD? Poprawki w SR to na pewno pójście w dobrą stronę. Do tej pory w module był jeden dekoder na dwa wątki. W SR będą dwa (+ poprawki we frontendzie) co już powinno sporo poprawić wydajność jednowątkową. Oczywiście ja osobiście nie liczę, że zegar w zegar SR zrówna się z HSW, ale moze zbliżyć się w okolice SNB. A to już byłby duży progress.
Jaguar w desktopach sprawdzilby sie lepiej niz BD, poniewaz skalowalby sie lepiej z energia. Do czego potrzebny jest BD, oczywiscie do szerokich(rownoleglych) obliczen >128bit, w tej chwili sa 4x wydajniejsze na cykl od Jaguara. Jaguar porownalbym do K10, z nieco nizszym IPC, ale za to lepsza efektywnoscia.
Nie prawda. Każdy procesor ma optymalny zakres pracy. Rdzień jaguara jest znacznie mniej wydajny od rdzenia (moduł) vishery . By osiągnąć poziom mobilnego Richlanda jaguar musiałby mieć zegar rzędu 4GHz...
Tłumaczymy Ci, że zegarów nie można ciągnąć w nieskończoność i poziom Vishery jest nie do osiągnięcia.
Co z poborem energii. Jaguar ciągnie mało energii w 1,6GHz, ale przy 4GHz mógłby ciągnąć krotnie więcej. Pobierałby może 150W vs Richland 35W+chipset.
--------
Inny przykład pomyśl masz procesor dwurdzeniowy i czterordzeniowy. Piszesz, że dwurdzeniowy lepiej skaluje się z energią...
dwu rdzeniowy 2GHz pobiera 17W, a 2,5GHz czterordzeniowy pobiera 65W. Dwurdzeniowy procesor by osiągnąć wydajność czterordzeniowego musiałby być taktowany 5,2GHz, a to oznacza Azot!
Tak to co piszesz ma sens. 16 rdzeniowy Jaguar miałby może większą wydajność od Vishery (zakładam gorsze skalowanie się układu)....
Ale jaka wydajność by była aplikacji 1-4 wątkowych (większość)
Nie prawda. Każdy procesor ma optymalny zakres pracy. Rdzień jaguara jest znacznie mniej wydajny od rdzenia (moduł) vishery . By osiągnąć poziom mobilnego Richlanda jaguar musiałby mieć zegar rzędu 4GHz...
Tłumaczymy Ci, że zegarów nie można ciągnąć w nieskończoność i poziom Vishery jest nie do osiągnięcia.
Co z poborem energii. Jaguar ciągnie mało energii w 1,6GHz, ale przy 4GHz mógłby ciągnąć krotnie więcej. Pobierałby może 150W vs Richland 35W+chipset.
--------
Inny przykład pomyśl masz procesor dwurdzeniowy i czterordzeniowy. Piszesz, że dwurdzeniowy lepiej skaluje się z energią...
dwu rdzeniowy 2GHz pobiera 17W, a 2,5GHz czterordzeniowy pobiera 65W. Dwurdzeniowy procesor by osiągnąć wydajność czterordzeniowego musiałby być taktowany 5,2GHz, a to oznacza Azot!
Tak to co piszesz ma sens. 16 rdzeniowy Jaguar miałby może większą wydajność od Vishery (zakładam gorsze skalowanie się układu)....
Ale jaka wydajność by była aplikacji 1-4 wątkowych (większość)
Wybor projektowy(odpowiedni proces, dostosowanie zakresu pracy dla architektury), a architektura niskich energii to jedyna, ktora obecnie przezywa trwaly rozwoj, wzrost sprzedazy. Dlatego Intel i AMD ponownie przywrocily do zycia architektury low-power, bo te z wyzszych energii dotykaja wazkich problemow technologii rozwoju tranzystorow. Jesli sprawdza sie przewidywania analitykow, to era duzych rdzeni mikroprocesorow powoli sie konczy, podobnie jak wczesniej era wektorowych. Wyznacznikiem zawsze pozostaje ekonomia w branzy i upodobania rynku.
Niestety, ale ta cena deklasuje ten proc po całości. Połowa tej ceny to byłby strzał w 10tkę, a tak to taniej wyjdzie kupno PG 2020 i radka 7750. Do tego ten tandem okaże się dużo szybszy, przynajmniej w grach.
Jak redakcja chce ciekawego testu to niech zleci jakiemuś programiście użycie FANN(w wersji openCL) i prosta sieć neuronowa wielowarstwowa. GPU powinno CPU odstawić o lata świetlne.
Ze smutkiem muszę to stwierdzić ale ten 6800K jest jeszcze większą wtopą niż pierwszy buldożer. Nie chodzi o to że jest złym produktem, tylko jak można coś takiego wycenić na 580 zł. Chyba tylko jakiś masochista kupi to APU w tej cenie. Jak dla mnie maksymalny pułap za jaki opłaca się kupić to cudo wynosi max 450 zeta i to już i tak mocno naciągnąłem. Niestety ale AMD po raz kolejny dało ciała i już powoli przestaje wierzyć w sukces 'walca drogowego'
AMD A10 4100GHZ za 580zł dostaje wpiernicz od INTEL i3-3220 3300MHZ za 450zł i pobiera o 30% więcej prądu.
Jak możma w ogóle myśleć nad takim badziewiem?
Moim zdaniem GPU w procesorach o ile musza juz je wsadzac na sile, powinno byc maksymalnie na tylke wydajne, aby bez problemu mozna bylo wykonywac proste prace biurowe czy ewntualnie obejzec film w HD. Kto normalny kupuje sam proces bez karty graficznej do gier czy pracy w profesjonalnym srodowisku graficznym?
Ale jaja. Stary Phenom 965 po OC nadal wydajniejszy od A10 przy 4.7GHz !
jedynie iGPU jest całkiem wydajne więc tu plus.
Zobacz sobie testy przed OC i po OC.
Phenom II 965 ma zegar zarowno na stocku o 700 MHz mniejszy, jak i po OC - 700 MHz mniejszy od APU. A wydajnosc prawie taka sama. Tam gdzie liczy sie szyfrowanie AES - Phenom strasznie wypada, ale ogolnie rzecz biorac to nie byla taka zla architektura.
Dobre procki AMD to wspomniany wczesniej Phenom II na Denebie, Athlon XP na Bartonie lub Thoroughbredzie.
W czasach Pentium III - K6III tez dawala rade.
Nie prawda. Każdy procesor ma optymalny zakres pracy. Rdzień jaguara jest znacznie mniej wydajny od rdzenia (moduł) vishery . By osiągnąć poziom mobilnego Richlanda jaguar musiałby mieć zegar rzędu 4GHz...
Tłumaczymy Ci, że zegarów nie można ciągnąć w nieskończoność i poziom Vishery jest nie do osiągnięcia.
Co z poborem energii. Jaguar ciągnie mało energii w 1,6GHz, ale przy 4GHz mógłby ciągnąć krotnie więcej. Pobierałby może 150W vs Richland 35W+chipset.
--------
Inny przykład pomyśl masz procesor dwurdzeniowy i czterordzeniowy. Piszesz, że dwurdzeniowy lepiej skaluje się z energią...
dwu rdzeniowy 2GHz pobiera 17W, a 2,5GHz czterordzeniowy pobiera 65W. Dwurdzeniowy procesor by osiągnąć wydajność czterordzeniowego musiałby być taktowany 5,2GHz, a to oznacza Azot!
Tak to co piszesz ma sens. 16 rdzeniowy Jaguar miałby może większą wydajność od Vishery (zakładam gorsze skalowanie się układu)....
Ale jaka wydajność by była aplikacji 1-4 wątkowych (większość)
Wybor projektowy(odpowiedni proces, dostosowanie zakresu pracy dla architektury), a architektura niskich energii to jedyna, ktora obecnie przezywa trwaly rozwoj, wzrost sprzedazy. Dlatego Intel i AMD ponownie przywrocily do zycia architektury low-power, bo te z wyzszych energii dotykaja wazkich problemow technologii rozwoju tranzystorow. Jesli sprawdza sie przewidywania analitykow, to era duzych rdzeni mikroprocesorow powoli sie konczy, podobnie jak wczesniej era wektorowych. Wyznacznikiem zawsze pozostaje ekonomia w branzy i upodobania rynku.
Acha...
Poczekaj na SR....
... Nie trzeba być analitykiem by zauważyć, że procesor w mniejszym procesie będzie zajmować mniej miejsca. Ale nie pisz bajek, że na bazie jaguara powstaną nowe procesory w najwyższych segmentach.
AMD A10 4100GHZ za 580zł dostaje wpiernicz od INTEL i3-3220 3300MHZ za 450zł i pobiera o 30% więcej prądu.
Jak możma w ogóle myśleć nad takim badziewiem?
Oczywiście nie za tą cene, ale ja bynajmniej po tych testach 'wpiernicz' nie widzę... . Wydajność części CPU sumarycznie jest bliska i3, a wydajność GPU dużo lepsza.
Bobcat to przycięty K8. Jaguar to polepszony bobcat. Od K10.5 AMD przeszło na bldz, a Tobie się widzi powrót do rozbudowanego K8
Skoro jest taki stary i przyciety, to czemu sie sprawdza (w sensie jest to udany produkt)? Wrecz rozklada Atoma na lopatki. A Intel tez po 6 latach klepania Pentium 4 wrocil do archi PIII i ja rozbudowal. Dzisiaj z niej korzystamy i ja chwalimy.
Udany
1. Ponieważ zajmuje mało miejsca
2. Pobiera mało energii
Dzięki temu w PS4 masz GPU na poziomie 7850, a nie 7750
Intel nigdy nie odszedł od P3. Po prostu stworzył dwie architektury, ta do desktopów był tania w produkcji i nastawiona na MHz, pobierała dużo energii. Ta do laptopów była droższa w produkcji, ale wydajność porównywalna, mniejszym zegarze 2-3 x mniejszym poborze energii.
Gdy doszli do granicy częstotliwości olali archi do desktopów i wzięli mobilną
AMD było w podobnym momencie gdy mieli buldożera w desktopie i llano...
... ale to całkowicie przypadkowe. Buldożer dostał sporo L3, które nie wiele daje.
Bo atom jest jeszcze bardziej przycięty? Omg - czytasz komentarz i nawet nie wiesz o czym mowa, ale swoje musisz dodać.
Intel wycofał się z Netburst nie dlatego, że okazała się sama w sobie klapą, a dlatego, że wbrew przewidywaniom nie udało się zwiększać cały czas zegara powyżej 4GHz (zakładano nawet 10!!) bo pojawiły się efekty, których wcześniej nie można było zaobserwować. Gdyby nie te efekty to siedziałbyś teraz na P4 X12 EE 14GHz. W międzyczasie w Izraelu ekipa robiła procki z arch. P6 (pentium pro wzwyż) do lapków, ale te procki wcale nie były mniej wydajne od P4, wręcz przeciwnie. Natomiast nie osiągały takich zegarów jak P4 i nie mogły ich gonić wydajnością na top cpu. Dlatego nie trafiły do desktopa. W pewnym momencie gdy P4 zobaczył ścianę to te baniasy, dothany, yonahy itp. po prostu rozbudowywano usprawniając prefetcher, dekoder, jednostki ALU i FPU. Wreszcie wyszedł z tego Core, a po kolejnych ulepszeniach produkt, który mógł wreszcie trafić do desktopów, bo oferował więcej niż topowe P4 (i nawet K8). Tutaj dwudrożna architektura Jaguara nie ma podejścia do 4 drożnej Bulldozera, automatycznie widać, że z piledriverem też nie powalczy, a co dopiero jeśli wyjdzie steamroller z min. 20% polepszeniem IPC? Jak zaczną go rozbudowywać to 3 drożna architektura już była i nazywała się K10 więc to bez sensu - rozbudowywać jaguara do desktopa bo to co zobaczymy to będzie phenom II z SSE4 bez FMA.
Rozbudowa Jaguara to stworzenie nowej architektury. Jaguar ze względu na swoje przeznaczenie to arch. dwupotokowa, ktora do wydajnych prockow sie nie nadaje. Konieczna byłaby rozbudowa dekodera a to ciągnie za sobą konieczność przebudowy frontendu. Więcej dekoderów to więcej instrukcji, a więc dobrze byłoby dodać więcej jednostek wykonawczych itp. itd. Więc zamiast tworzyć od podstaw nową arch. lepiej dla AMD będzie jak skupią się na poprawie arch. modułowej.
A czy SR odwróci szale na stronę AMD? Poprawki w SR to na pewno pójście w dobrą stronę. Do tej pory w module był jeden dekoder na dwa wątki. W SR będą dwa (+ poprawki we frontendzie) co już powinno sporo poprawić wydajność jednowątkową. Oczywiście ja osobiście nie liczę, że zegar w zegar SR zrówna się z HSW, ale moze zbliżyć się w okolice SNB. A to już byłby duży progress.
Jaguar w desktopach sprawdzilby sie lepiej niz BD, poniewaz skalowalby sie lepiej z energia. Do czego potrzebny jest BD, oczywiscie do szerokich(rownoleglych) obliczen >128bit, w tej chwili sa 4x wydajniejsze na cykl od Jaguara. Jaguar porownalbym do K10, z nieco nizszym IPC, ale za to lepsza efektywnoscia.
Rozbudowa Jaguara to stworzenie nowej architektury. Jaguar ze względu na swoje przeznaczenie to arch. dwupotokowa, ktora do wydajnych prockow sie nie nadaje. Konieczna byłaby rozbudowa dekodera a to ciągnie za sobą konieczność przebudowy frontendu. Więcej dekoderów to więcej instrukcji, a więc dobrze byłoby dodać więcej jednostek wykonawczych itp. itd. Więc zamiast tworzyć od podstaw nową arch. lepiej dla AMD będzie jak skupią się na poprawie arch. modułowej.
A czy SR odwróci szale na stronę AMD? Poprawki w SR to na pewno pójście w dobrą stronę. Do tej pory w module był jeden dekoder na dwa wątki. W SR będą dwa (+ poprawki we frontendzie) co już powinno sporo poprawić wydajność jednowątkową. Oczywiście ja osobiście nie liczę, że zegar w zegar SR zrówna się z HSW, ale moze zbliżyć się w okolice SNB. A to już byłby duży progress.
Jaguar w desktopach sprawdzilby sie lepiej niz BD, poniewaz skalowalby sie lepiej z energia. Do czego potrzebny jest BD, oczywiscie do szerokich(rownoleglych) obliczen >128bit, w tej chwili sa 4x wydajniejsze na cykl od Jaguara. Jaguar porownalbym do K10, z nieco nizszym IPC, ale za to lepsza efektywnoscia.
Nie prawda. Każdy procesor ma optymalny zakres pracy. Rdzień jaguara jest znacznie mniej wydajny od rdzenia (moduł) vishery . By osiągnąć poziom mobilnego Richlanda jaguar musiałby mieć zegar rzędu 4GHz...
Tłumaczymy Ci, że zegarów nie można ciągnąć w nieskończoność i poziom Vishery jest nie do osiągnięcia.
Co z poborem energii. Jaguar ciągnie mało energii w 1,6GHz, ale przy 4GHz mógłby ciągnąć krotnie więcej. Pobierałby może 150W vs Richland 35W+chipset.
--------
Inny przykład pomyśl masz procesor dwurdzeniowy i czterordzeniowy. Piszesz, że dwurdzeniowy lepiej skaluje się z energią...
dwu rdzeniowy 2GHz pobiera 17W, a 2,5GHz czterordzeniowy pobiera 65W. Dwurdzeniowy procesor by osiągnąć wydajność czterordzeniowego musiałby być taktowany 5,2GHz, a to oznacza Azot!
Tak to co piszesz ma sens. 16 rdzeniowy Jaguar miałby może większą wydajność od Vishery (zakładam gorsze skalowanie się układu)....
Ale jaka wydajność by była aplikacji 1-4 wątkowych (większość)
Nie prawda. Każdy procesor ma optymalny zakres pracy. Rdzień jaguara jest znacznie mniej wydajny od rdzenia (moduł) vishery . By osiągnąć poziom mobilnego Richlanda jaguar musiałby mieć zegar rzędu 4GHz...
Tłumaczymy Ci, że zegarów nie można ciągnąć w nieskończoność i poziom Vishery jest nie do osiągnięcia.
Co z poborem energii. Jaguar ciągnie mało energii w 1,6GHz, ale przy 4GHz mógłby ciągnąć krotnie więcej. Pobierałby może 150W vs Richland 35W+chipset.
--------
Inny przykład pomyśl masz procesor dwurdzeniowy i czterordzeniowy. Piszesz, że dwurdzeniowy lepiej skaluje się z energią...
dwu rdzeniowy 2GHz pobiera 17W, a 2,5GHz czterordzeniowy pobiera 65W. Dwurdzeniowy procesor by osiągnąć wydajność czterordzeniowego musiałby być taktowany 5,2GHz, a to oznacza Azot!
Tak to co piszesz ma sens. 16 rdzeniowy Jaguar miałby może większą wydajność od Vishery (zakładam gorsze skalowanie się układu)....
Ale jaka wydajność by była aplikacji 1-4 wątkowych (większość)
Wybor projektowy(odpowiedni proces, dostosowanie zakresu pracy dla architektury), a architektura niskich energii to jedyna, ktora obecnie przezywa trwaly rozwoj, wzrost sprzedazy. Dlatego Intel i AMD ponownie przywrocily do zycia architektury low-power, bo te z wyzszych energii dotykaja wazkich problemow technologii rozwoju tranzystorow. Jesli sprawdza sie przewidywania analitykow, to era duzych rdzeni mikroprocesorow powoli sie konczy, podobnie jak wczesniej era wektorowych. Wyznacznikiem zawsze pozostaje ekonomia w branzy i upodobania rynku.
Jak możma w ogóle myśleć nad takim badziewiem?
jedynie iGPU jest całkiem wydajne więc tu plus.
jedynie iGPU jest całkiem wydajne więc tu plus.
Zobacz sobie testy przed OC i po OC.
Phenom II 965 ma zegar zarowno na stocku o 700 MHz mniejszy, jak i po OC - 700 MHz mniejszy od APU. A wydajnosc prawie taka sama. Tam gdzie liczy sie szyfrowanie AES - Phenom strasznie wypada, ale ogolnie rzecz biorac to nie byla taka zla architektura.
Dobre procki AMD to wspomniany wczesniej Phenom II na Denebie, Athlon XP na Bartonie lub Thoroughbredzie.
W czasach Pentium III - K6III tez dawala rade.
nikt, dlatego APU AMD nie ma racji bytu.
Nie prawda. Każdy procesor ma optymalny zakres pracy. Rdzień jaguara jest znacznie mniej wydajny od rdzenia (moduł) vishery . By osiągnąć poziom mobilnego Richlanda jaguar musiałby mieć zegar rzędu 4GHz...
Tłumaczymy Ci, że zegarów nie można ciągnąć w nieskończoność i poziom Vishery jest nie do osiągnięcia.
Co z poborem energii. Jaguar ciągnie mało energii w 1,6GHz, ale przy 4GHz mógłby ciągnąć krotnie więcej. Pobierałby może 150W vs Richland 35W+chipset.
--------
Inny przykład pomyśl masz procesor dwurdzeniowy i czterordzeniowy. Piszesz, że dwurdzeniowy lepiej skaluje się z energią...
dwu rdzeniowy 2GHz pobiera 17W, a 2,5GHz czterordzeniowy pobiera 65W. Dwurdzeniowy procesor by osiągnąć wydajność czterordzeniowego musiałby być taktowany 5,2GHz, a to oznacza Azot!
Tak to co piszesz ma sens. 16 rdzeniowy Jaguar miałby może większą wydajność od Vishery (zakładam gorsze skalowanie się układu)....
Ale jaka wydajność by była aplikacji 1-4 wątkowych (większość)
Wybor projektowy(odpowiedni proces, dostosowanie zakresu pracy dla architektury), a architektura niskich energii to jedyna, ktora obecnie przezywa trwaly rozwoj, wzrost sprzedazy. Dlatego Intel i AMD ponownie przywrocily do zycia architektury low-power, bo te z wyzszych energii dotykaja wazkich problemow technologii rozwoju tranzystorow. Jesli sprawdza sie przewidywania analitykow, to era duzych rdzeni mikroprocesorow powoli sie konczy, podobnie jak wczesniej era wektorowych. Wyznacznikiem zawsze pozostaje ekonomia w branzy i upodobania rynku.
Acha...
Poczekaj na SR....
... Nie trzeba być analitykiem by zauważyć, że procesor w mniejszym procesie będzie zajmować mniej miejsca. Ale nie pisz bajek, że na bazie jaguara powstaną nowe procesory w najwyższych segmentach.
Jak możma w ogóle myśleć nad takim badziewiem?
Oczywiście nie za tą cene, ale ja bynajmniej po tych testach 'wpiernicz' nie widzę...