Z wyobraźni
Na dnie mojej kryształowej kuli coraz wyraźniej kształtuje się coś, czego nazwy nie wymawia się na głos w kręgach zbliżonych do AMD. Architektura K10. Ziarno zasiał ten sam Hector Ruiz, już chyba z półtora roku temu, wspominając na jakiejś konferencji o architekturze heterogenicznego jądra. Hmmm... kuszące, zwłaszcza wobec intensywnej współpracy z IBM, prekursorem takiej architektury, ucieleśnionej w procesorze Cell. I od razu staje się jasne, co warte było dla AMD tak ogromnych pieniędzy. Unified Shaders! Jednolite shadery ATI to nic innego, jak jednostki obliczeniowe mogące wykonywać działania zarówno zmiennoprzecinkowe, jak i arytmetyczno-logiczne ALU. W dodatku zdolne do tego, by pełnić swoją rolę zależnie od potrzeb – albo jako jednostki obliczeniowe procesora, albo jako jednostki obsługujące proces tworzenia grafiki 3D. Kusząca perspektywa – zauważmy, ile ostatnio podejmowano prac zmierzających do wykorzystania potencjału obliczeniowego GPU do innych niż grafika celów. A przecież, jeśli jednostki shaderów nieco zmodyfikować, mogą robić prawie wszystko! Procesor, dysponujący mocą obliczeniową GPU i mogący w razie potrzeby pełnić również jego rolę? Takie rozwiązanie wydaje się uzasadniać w pełni bardzo kosztowny nabytek AMD. ATI bardzo starannie traktuje zagadnienia patentowe, więc koszt licencji na poszczególne rozwiązania mógłby być zbyt wysoki – wygląda na to, że bardziej opłacało się kupić całą firmę.
To tylko spekulacje...
...bo rzeczywistość okazuje się pełna czarnych dziur. Największą z czarnych dziur, jakie napotkałem w dociekaniach nad K10 i sensem transakcji ATI-AMD, stanowi ośrodek projektowy AMD w Fort Collins, Colorado. Zatrudniającego kilkadziesiąt osób ośrodka... nie ma na oficjalnej liście struktury organizacyjnej AMD. Hmmm... może nie należy się temu dziwić – ośrodek powstał w 2004 roku, gdy do AMD dołączył Sam Naffziger, wcześniej dyrektor projektu Itanium, najpierw w HP, a później w Intel Corporation...
Jest faktem, że obecnie AMD ma co najmniej trzy różne zespoły projektowe, z całkiem odmiennymi koncepcjami na dalszy rozwój konstrukcyjny. Jeden z nich znamy doskonale z produktów – to dawny zespół Alphy, który stworzył K7 i K8. Lider tego zespołu, Dirk Meyer, przeszedł niestety z kasty projektantów do kasty prezesów (jest wiceprezesem zarządu AMD), a reszta zespołu mocno się już zestarzała. Drugi zespół, złożony głównie z młodych projektantów, to zwolennicy architektury heterogenicznej, zafascynowani Cellem i czerpiący garściami z jego niedostatków. Odnoszę nieodparte wrażenie, że Hector Ruiz sympatyzuje właśnie z tym zespołem. O trzecim zespole wiemy najmniej – tylko tyle, że oficjalnie wcale go nie ma! I w rezultacie nie wiemy, czy K10 będzie kontynuacją obecnej linii, czy zorientowaną na kod x86 pochodną EPIC, czy też wreszcie, co wydaje się po niedawnym posunięciu AMD najbardziej prawdopodobne, obliczeniowym gigantem o heterogenicznej architekturze.

Wbrew wszystkim przewidywaniom - AMD/ATi robi sobie normalne GPU
... ja chce wiecej wiecej wiecej !!!
co do pomyslu Super-CPU... mi sie ten pomysl bardzo podoba. nie chce akceleratora grafiki, fizyki, sztucznej inteligenci itp. chce jedna jednostke obliczeniowa.
imo mogli by jeszcze rozwazyc pomysl przyczepienia procka na stale do MOBO. plyte glowna i tak trzeba zmieniac. osobiscie zawsze kupowalem "mocna" plyte do slabego procka i slabej grafiki, wmawiajac sobie ze kiedys kupie sobie mocnieszego proca. ale zawsze jak dochodzilo do zmiany to bardziej oplacalo sie zmiana calosci na jakies nowe rozwiazanie. cena takiego zestawu tez by spadla bo producent plyt mialby wieksze obroty.
wszyscy widzieli już taki procesor - był w mózgu TERMINATORA!!!
sądze jednak że bez laserów zatopionych w jądrze i światła zamiast imulsów elektrycznych się nie obejdzie - przy takim stopniu komplikacji imulsy elektomagnetyczne zakucają prawidłowe dziłanie i obliczenia!
Boże kocham elekronike!
Dobrze żyć w ciekawych czasach
Może doczekamy takich procesorów i algorytmów liczączych!
Pamiętacie słowa majora KUSANAGI:
(...) Jeśli jakiś technologiczny cód jest możliwy, człowiek go dokona. Tak jakby leżało to w jego naturze. (...)
http://twojepc.pl/news12821.html
1. wpolna szyna dla danych graficznych i nazwijmy to "cpu"
UMA jak do tej pory nie zyskala duzego rozglosu poza konsolami.
2. karty graficzne maja taka wydajnosc nie tylko dzieki
gpu ale szybkim pamieciom. Ciekawe ile by kosztowalo na dzien dzisiejszy
2 g ramu zainstalowanego w np 7900gtx ?
Sadze ze duzo wiecej niz "zwyklego ramu".
Jeszcze dlugo warunki na rynku standartow x86 bedzie dyktowac intel.
Nie mowie o obudowach czy zasilaczach ale o sposobie budowania aplikacji.
Dobry kompilator dla nowego procesora to okolo 5 lat pracy sztabu programistow.
Wszystko pieknie tylko ze takie opowiesci koncza jak intel itanium i powePC.
Albo odchodza albo sa nisza dla specjalnych zadan.
Do dzis pamietam teksty jak to alphy mialy zastapic pc itp....
Napewno cos z tego jest prawda ale jak to bywa w x86 i bedzie dalej
czeka nas ewolucja a nie rewolucja.
Problem jest ze znalezieniem gry kozystajacej z wiecej niz 1 jednego jadra na x360
nie mowiac juz o pc. Ja znam jedna q4.
Programisci juz placza jaki to cell jest trudny i jak to musza zmienic swoje podejscie.
Tak naprawde to programisci a nie sprzetowcy dyktuja co bedzie a co nie.
To nie dxp jest zgodny z ati czy nv ale ati i nv z dxp.
To nie win jest kompatybilny z intelem czy amd ale to amd i intel sa z nim kompatybilne. To soft a nie hard ksztaltuje swiat.
Pzdr
Nie zgodze sie z tobą. Trzy rdzenie X360 są wykorzystywane do generowania terenu/obliczaniafizyki/AI a także do odciążania GPU w pewnych zadaniach.
W PS3 to właśnie The Cell zajmuje sie generowaniem grafiki a GPU jest tylko framebufferem i służy do podbicia rozdzielczości/pokolorowania pikseli.
Najlepiej to jakby intel zrobił procka wielojądrowego. Najpierw 1xItanium+2x x86... Później 4xItanium+2x x86. A na koniec 8xItanium.
To by umożkiwiło prace w 64bitowym systemie IA64 i używanie jąder x86 do kodu x86, którego emulacja w IA64 wychodzi marnie. Z czasem rynek by się przestawił i emulacja x86 nie byłaby ważna.
A co do superprocków to ciekawe by było dynamiczne przydzielanie jednostek wykonawczych do jąder. Dajmy na to mamy procka z 4 zestawami rejestrów, 4 jednostkami I/O. do tego 10 jednostek stałoprzecinkowych i 10 zmiennoprzecinkowych i w zaqleżności od obciążenia jądra dostają dla siebie mniej lub więcej jednostek wykonawczych.
Proc składający się z wielu wielofunkcyjnych jednostek wykonawczych dynamicznie przydzielanych według potrzeb do jednego zadania (czy aby nie przypomina to nowego pomysłu AMD na prace wielu jąder nad jednym wątkiem?) lub do wielu zadań równocześnie w ilości akurat potrzebnej danemu "wątkowi". Procesor staje się rzeczywistym "muzgiem" PC a nie jak przy obecnych tendencjach kooprocesorem. Co więcej jednostki można bezproblemowo łączyć rozbudowując według potrzeb sprzęt (wspomnijmy ich elastyczność) zwiększając jego wydajność. Komp idealny - powiedzmy dziesięć UPU z dziesięcioma jednostkami każda może pracować jako 100 procesorów nad 100 nieskomplikowanymi wątkami różnego typu (jako FPU, ALU lub do zadań graficznych itd) lub jako jeden procesor wykonujący 100 instrukcji w jednycm przebiegu bądź z przydzieloną do poszczegulnych zadań dowolną liczbą jednostek.