No właśnie chyba nie do końca, Cell jako procesor do PC'ta się za bardzo nie sprawdzi.
Czyli najważniejszą różnicą są jednostki uniwersalne, a nie jak w Cellu z góry zaprojektowane w jednym celu. Mają być zdolne do wykonywania zadań procesora ogólego przeznaczenia i procesora graficznego. Czyli będą mogłby pracować jak CPU albo GPU na zmianę, dzisiaj jest ścisły podział. Dzięki temu nie trzeba będzie dublować jednostek. Czyli na dobrą sprawę ten sam chip mógłby służyć jako CPU i być umieszczony na karcie graficznej, stąd znika potrzeba stosowania oddzielnych kart. Cell ciągle łączy w sobie różne jądra, a cały zachód w tym, żeby oba zadania wykonywała ta sama jednostka.
W takim wypadku dość mizernie widzę życie akceleratorów fizycznych...
Żeby wypowiadać się na temat Cell'a trzeba coś o nim wiedzieć. Polecam artykuł Cell Architecture Explained . Wynika z niego że procesory pomocnicze SPE (Synergistic Processor Elements) są jak najbardziej uniwersalne, jednak mają inną listę instrukcji niż PPE (Power Processor Element). Jedynymi ograniczeniami są: ograniczenie wielkości programu i danych do 256KB na SPE z powodu zastosowania magazynu lokalnego zamiast powolnej pamięci cache L2 i komunikacja z pamięcią RAM w blokach od 1 Kb do 16 Kb. To rozwiązanie (SPE) jest znacznie bardziej uniwersalne niż shadery kart graficznych, które potrafią jedynie przetwarzać tekstury. Z drugiej strony realizacja SPE przez AMD wykorzystująca nieefektywną architekturę i listę instrukcji X86 byłaby kompletną bzdurą ! Przecież kod X86 w celu efektywnego wykonania musi zostać przekonwertowany na mikrokod podobny do RISC, a co więcej muszą zostać zbadane zależności logiczne między instrukcjami w celu osiągnięcia IPC (ilości instrukcji na cykl) > 1.
Moim zdaniem spekulacje w tym artykule są za daleko posunięte, to chyba nie o to chodziło w połączeniu AMD+ATi. Wszyscy podniecają się TheCellem - ale czym byłby Cell, gdyby miał pracować z listą rozkazową x86? Jego power wynika z czegoś innego - to procesor projektowany w oparciu o całą dotychczasową wiedzę z tej dziedziny, nie musi być zgodny z prehistorią, nie mający wad swoich poprzedników. Czym byłby Cell z x86? Ano takim szybszym Core2Duo, okulawiał by znacznie... Rzeczywiście potrzeba rewolucji w porzuceniu koncepcji x86, ale nikt na ten krok nie chce się odważyć...
a ja sie tak zastanawiam ,jakich argumentów uzłyło amd zeby przekonac ,taka firme jak ati do tej transakcji????? przeciesz nie chodziło tu o prezejecie bankruta ,tylko dobrze prosperujacej firmy????? to jest prawdziwe pytanie???? moze ati dostrzegło ze coraz ciezej jest konkurowac z nvidia?????? ciekawe tez czy to czasem nie jest poprostu odruch obrony przed intelem i nvidia ze strony amd i ati?????[razem zawsze razniej
ATI ma dobre kontakty z microsoftem, więc może uda im sie przeforsować jakiś nowy standard. Nie miej jednak ciężko będzie bez przyzwolenia i zgody Intela (wspólny standard oczywiście). Chyba że nowe jednostki wejdą razem z SEE4 czy 5, a nie z porzuceniem x86 ( może czas na x87 )
To są spekulacje dotyczące przyszłości procesorów AMD. Ciekawe natomiast co nowego zobaczymy na kartach ATI (bo nie sądzę żeby doszło do absolutnej unifikacji jak niektórzy tutaj sugerują). Myśle, że w pierwszej kolejności należy się spodziewać zmiany technologii produkcji GPU na SOI, z wykorzystaniem fabryk AMD. Nawet w przypadku obecnej generacji układów mogłoby to spowodować obniżenie kosztów produkcji i zmniejszenie energochłonności.
Ktoś wspomniał o pamieci jako jednym z czynników warunkujących wydajnośc kart graf. - i owszem ma rację : szybka - jest droga. Tyle, że można zastosować taki sam trik jak z HDD: RAID 0. Nie jakaś tam dwukanałowośc ale prawdziwy strip(p)ing. Instalujesz 2 GB RAM'u ale masz 1 GB za to o prędkości x 2
a gdyby tak np intel wykupił nvidie.. to by było ciekawie oczywiscie intel produkuje własne karty grafiki, ale tak moze zaczoł by produkować karty które mają wiekszą moc niz taki np geforce 2, bo co z tego ze mają miec wsparcie dla dx10 jak wydajnośc jest z przed kilku lat
Ja już w kilku miejscach pisałem, że moim zdaniem AMD i nVidia dogadali się, żeby zlikwidować ATI, który jest przeciwnikiem nVidii i partnerem Intela.
Ale nieźle to opisali na The Inquirer. AMD zwyczajnie nie stać na przerobienie fabryk na 65nm. Może im sięuda z jedną, ale dróga nadal zostanie w 90nm. W 2007 procki 90nm nie będą zbyt konkurencyjne a GPU spoko. Tak więc dzięki temu AMD będzie mogło wprowadzić taki cykl pracy zakładów. Jednąfabrykę przerabiamy na 65nm i robimy tam CPU, druga zostaje 90nm i robimy tam GPU. Później drógą przerabiamy na 45nm i robimy tam CPU, a w pierwszej robimy GPU 65nm. W ten sposób rozłożą amortyzację nowych technologii na dłuższy czas.
Unified Shaders i Cell mają w praktyce niewiele wspólnego. Shadery mimo że uogulnione to jednak są dość wyspecjalizowane pod kątem dwuch rodzajów operacji. SPE Cella to bardziej rozwinięte SSE. Poza tym Cell jako CPU PCta się nie sprawdzi. SPE mają swój własny asembler i są dość trudne w programowaniu. Doskonale się sprawdzają w sytuacjach algorytmów gdzie wiele wątków równolegle wykonuje względnie prosty kod na ogromnej ilości danych. W domowych zastosowaniach żadko to sie zdażą. A do grafiki i fizyki lepiej jest mieć wyspecjalizowane akceleratory.
Rynek GPU i CPU znacznie się różni. Przy tworzeniu grafili bardzo prosto zrównoleglić kod. Ot każdy potok renderuje pewna część poligonów i bardzo mało sobie w tym przeszkadza. W CPU to nie takie proste. Dlatego w GPU najlepiej jest zwiększać ilość potoków. W CPU taka taktyka się nie sprawdzi... przynajmniej przez wiele najbliższych lat. Tak więc typowy model produkcji CPU to produkcja jednego modelu różniącego sięczęstotliwościa i ilością cache. W przypadku GPU robi sie kilka modeli. Ten najdroższy służy do prestiżu i nie daje wielkich zysków, odpady z jego produkcji używa się w trochę wolniejszej wersji i to ona sprawia, że przynajmniej zwraca się kasa włożona w design. Model mainstreamowy używa podobnych rozwiązań ale na mniejszą skalę, tu już się sporo zarabia... ale najwięcej zarabia się na masowej produkcji lowendowych GPU mających niewiele wspólnego z highendowymi. Jeśli teraz musielibyśmy połaczyć GPU i CPU w jednym krzemie to co to by miało być? AthlonFX+Radeon X1900 za 1500-2000$, Athlon64+X1600, czy może Sempron+X1300? A może trzy osobne linie? A może 9 ich kombinacji? Poza tym większość rynku CPU to kompy biurowe gdzie wystarcza zintegrowana grafika, za to dobry CPU się czasem przydaje. I tu można by sie pokusić o zintegrowanie najprostszej grafiki z CPU tak jak to już AMD zrobiło z kontrolerem pamięci.
A jeżeli AMD potrzebuje zintegrowanych shaderów to zdecydowanie taniej by było kupić za rok licencję R600 niż teraz całe ATI. A poza tym zobaczymy jak wyjdzie pojedynek R600 vs G80 bo nie wiadomo czy unified shaders wogóle się sprawdzą.
Ktoś wspomniał o pamieci jako jednym z czynników warunkujących wydajnośc kart graf. - i owszem ma rację : szybka - jest droga. Tyle, że można zastosować taki sam trik jak z HDD: RAID 0. Nie jakaś tam dwukanałowośc ale prawdziwy strip(p)ing. Instalujesz 2 GB RAM'u ale masz 1 GB za to o prędkości x 2
Tylko miroring zmniejsza pojemność i służy zwiększeniu bezpieczeństwa a nie prędlości. Striping działą mniej więcej tak jak dual chanel w pamięci.
Pomysł jest naprawdę świenty. Nowoczesny procesor wektorowy z zastosowaniem czegoś jak US to przyszłość. Jednak do tego potrzebne jest porzucenie x86.
Jeden procesor zajmujący się całością to jest idealnie rozwiązanie. Obecnie prawie zawsze, nawet w dobrze dobrych komputerach, procesor ogranicza kartę graficzną lub odwrotnie. Dzięki zastosowaniu jednego procesora można dynamicznie prydzielać kolejne jednostki wykonawcze do różnych zadań. W ten sposób jedno mocne CPU może zastąpić obecne CPU, GPU, PPU i kartę dzwiękową zapewniając wysoką wydajność. Nie ma problemów z "wąskimi gardłami" - zarówno słabszych komponentów jak i szyn komunikacyjnych. Procesor musi mieć też wbudowany kontroler pamięci i w połączeniu z dużym RAM (> 2 GB) spokojnie zzajmie się całością obliczeń.
To nie prawda, że US mają nie wiele wspólnego z SPE. Po prostu US są obecnie przygotowywane do wykonywania zadań graficznych, a SPE do obliczeń zmiennoprzecinkowych. Jednak idea jest ta sama - zunifikowane jednostki wykonawcze.
a gdyby tak np intel wykupił nvidie.. to by było ciekawie oczywiscie intel produkuje własne karty grafiki, ale tak moze zaczoł by produkować karty które mają wiekszą moc niz taki np geforce 2, bo co z tego ze mają miec wsparcie dla dx10 jak wydajnośc jest z przed kilku lat
Tak się skłąda, że Intel jest liderem rynku graficznego. A to dlatego, że dla większości klientów taka wydajność w pełni wystarcza. Wyzwaniem dla Intela będzie Vista. Bo rynek bedzie potrzebował zintegrowanej grafiki bez problemu radzącej sobie z Areo Glass... podobno Intel jest już na to gotowy.
fajne spekulacje, i nawet możliwe, nie ma co pesymistycznie rozprawiać o ramach i FSB, za te kilka lat jak k10 (prawdopodobnie) ujży światło dzienne FSB (jeżeli nadal będzie istniała ) może nie stanowić żadnego ograniczenia, ramy mogą być wystarczająco szybkie (np. 256/512 bitowe szyny).......wheeeee ale się zapędziłem
tak czy siak wkrótce się przekonamy co z tego przejęcia wyjdzie - oby szybsze i tańsze kompy
fajne spekulacje, i nawet możliwe, nie ma co pesymistycznie rozprawiać o ramach i FSB, za te kilka lat jak k10 (prawdopodobnie) ujży światło dzienne FSB (jeżeli nadal będzie istniała ) może nie stanowić żadnego ograniczenia, ramy mogą być wystarczająco szybkie (np. 256/512 bitowe szyny).......wheeeee ale się zapędziłem
tak czy siak wkrótce się przekonamy co z tego przejęcia wyjdzie - oby szybsze i tańsze kompy
FSB w przypadku jednordzeniowego CPU nie jest problemem, w przypadku dwurdzeniowego jest małym, dalej to już gorzej. Szybkie RAMy to są już od dawna. RDRAM miał 1.2GHz już cztery lata temu. Wówczas wykożystywane były tylko 2 kanały 16 bitowe i to tylko 1.066GHz. Ale nic nie stało na przeszkodzie zrobienia 2x64bit jak to jest w Dual DDR. Obecnie jest XDR który w chwili obecnej ma do 16bitów i 3.2GHz a nic nie stoi na przeszkodzie zrobienia wersji 64bitowej (równolegle 4 kości w module), a to dopiero początek tej technologii i jeśli by trafiła do masowej produkcji to nie będzie problemu z 4.8, 6.4 i 8.0GHz. Jedyna wada to cena która jest zdecydowanie wyższa niż SDRAM. JEszcze inny problem to czasy dostępu, ale te da się nadrobić większym cache.
wszytko fajne i ciekawe tylko dane z artykułu nie zgadzają się z tym co dotychczas pisano według wcześniejszych informacji AMD wydało aż 4 500mln w gotowce a tylko 57 mln w akcjach jeśli to prawda to zupełnie podważa sens dużej częsci artykułu
Czyli najważniejszą różnicą są jednostki uniwersalne, a nie jak w Cellu z góry zaprojektowane w jednym celu. Mają być zdolne do wykonywania zadań procesora ogólego przeznaczenia i procesora graficznego. Czyli będą mogłby pracować jak CPU albo GPU na zmianę, dzisiaj jest ścisły podział. Dzięki temu nie trzeba będzie dublować jednostek. Czyli na dobrą sprawę ten sam chip mógłby służyć jako CPU i być umieszczony na karcie graficznej, stąd znika potrzeba stosowania oddzielnych kart. Cell ciągle łączy w sobie różne jądra, a cały zachód w tym, żeby oba zadania wykonywała ta sama jednostka.
W takim wypadku dość mizernie widzę życie akceleratorów fizycznych...
Żeby wypowiadać się na temat Cell'a trzeba coś o nim wiedzieć.
Polecam artykuł Cell Architecture Explained .
Wynika z niego że procesory pomocnicze SPE (Synergistic Processor Elements) są jak najbardziej uniwersalne, jednak mają inną listę instrukcji niż PPE (Power Processor Element).
Jedynymi ograniczeniami są: ograniczenie wielkości programu i danych do 256KB na SPE z powodu zastosowania magazynu lokalnego zamiast powolnej pamięci cache L2 i komunikacja z pamięcią RAM w blokach od 1 Kb do 16 Kb.
To rozwiązanie (SPE) jest znacznie bardziej uniwersalne niż shadery kart graficznych, które potrafią jedynie przetwarzać tekstury.
Z drugiej strony realizacja SPE przez AMD wykorzystująca nieefektywną architekturę i listę instrukcji X86 byłaby kompletną bzdurą ! Przecież kod X86 w celu efektywnego wykonania musi zostać przekonwertowany na mikrokod podobny do RISC, a co więcej muszą zostać zbadane zależności logiczne między instrukcjami w celu osiągnięcia IPC (ilości instrukcji na cykl) > 1.
Wszyscy podniecają się TheCellem - ale czym byłby Cell, gdyby miał pracować z listą rozkazową x86? Jego power wynika z czegoś innego - to procesor projektowany w oparciu o całą dotychczasową wiedzę z tej dziedziny, nie musi być zgodny z prehistorią, nie mający wad swoich poprzedników. Czym byłby Cell z x86? Ano takim szybszym Core2Duo, okulawiał by znacznie...
Rzeczywiście potrzeba rewolucji w porzuceniu koncepcji x86, ale nikt na ten krok nie chce się odważyć...
hehehe
mogli wykupic jeszcze creative'a
Albo Cyberdyne lub OCP
Ktoś wspomniał o pamieci jako jednym z czynników warunkujących wydajnośc kart graf. - i owszem ma rację : szybka - jest droga. Tyle, że można zastosować taki sam trik jak z HDD: RAID 0. Nie jakaś tam dwukanałowośc ale prawdziwy strip(p)ing. Instalujesz 2 GB RAM'u ale masz 1 GB za to o prędkości x 2
oczywiscie intel produkuje własne karty grafiki, ale tak moze zaczoł by produkować karty które mają wiekszą moc niz taki np geforce 2, bo co z tego ze mają miec wsparcie dla dx10 jak wydajnośc jest z przed kilku lat
Ale nieźle to opisali na The Inquirer. AMD zwyczajnie nie stać na przerobienie fabryk na 65nm. Może im sięuda z jedną, ale dróga nadal zostanie w 90nm. W 2007 procki 90nm nie będą zbyt konkurencyjne a GPU spoko. Tak więc dzięki temu AMD będzie mogło wprowadzić taki cykl pracy zakładów. Jednąfabrykę przerabiamy na 65nm i robimy tam CPU, druga zostaje 90nm i robimy tam GPU. Później drógą przerabiamy na 45nm i robimy tam CPU, a w pierwszej robimy GPU 65nm. W ten sposób rozłożą amortyzację nowych technologii na dłuższy czas.
Unified Shaders i Cell mają w praktyce niewiele wspólnego. Shadery mimo że uogulnione to jednak są dość wyspecjalizowane pod kątem dwuch rodzajów operacji. SPE Cella to bardziej rozwinięte SSE. Poza tym Cell jako CPU PCta się nie sprawdzi. SPE mają swój własny asembler i są dość trudne w programowaniu. Doskonale się sprawdzają w sytuacjach algorytmów gdzie wiele wątków równolegle wykonuje względnie prosty kod na ogromnej ilości danych. W domowych zastosowaniach żadko to sie zdażą. A do grafiki i fizyki lepiej jest mieć wyspecjalizowane akceleratory.
Rynek GPU i CPU znacznie się różni. Przy tworzeniu grafili bardzo prosto zrównoleglić kod. Ot każdy potok renderuje pewna część poligonów i bardzo mało sobie w tym przeszkadza. W CPU to nie takie proste. Dlatego w GPU najlepiej jest zwiększać ilość potoków. W CPU taka taktyka się nie sprawdzi... przynajmniej przez wiele najbliższych lat. Tak więc typowy model produkcji CPU to produkcja jednego modelu różniącego sięczęstotliwościa i ilością cache. W przypadku GPU robi sie kilka modeli. Ten najdroższy służy do prestiżu i nie daje wielkich zysków, odpady z jego produkcji używa się w trochę wolniejszej wersji i to ona sprawia, że przynajmniej zwraca się kasa włożona w design. Model mainstreamowy używa podobnych rozwiązań ale na mniejszą skalę, tu już się sporo zarabia... ale najwięcej zarabia się na masowej produkcji lowendowych GPU mających niewiele wspólnego z highendowymi. Jeśli teraz musielibyśmy połaczyć GPU i CPU w jednym krzemie to co to by miało być? AthlonFX+Radeon X1900 za 1500-2000$, Athlon64+X1600, czy może Sempron+X1300? A może trzy osobne linie? A może 9 ich kombinacji? Poza tym większość rynku CPU to kompy biurowe gdzie wystarcza zintegrowana grafika, za to dobry CPU się czasem przydaje. I tu można by sie pokusić o zintegrowanie najprostszej grafiki z CPU tak jak to już AMD zrobiło z kontrolerem pamięci.
A jeżeli AMD potrzebuje zintegrowanych shaderów to zdecydowanie taniej by było kupić za rok licencję R600 niż teraz całe ATI. A poza tym zobaczymy jak wyjdzie pojedynek R600 vs G80 bo nie wiadomo czy unified shaders wogóle się sprawdzą.
Ktoś wspomniał o pamieci jako jednym z czynników warunkujących wydajnośc kart graf. - i owszem ma rację : szybka - jest droga. Tyle, że można zastosować taki sam trik jak z HDD: RAID 0. Nie jakaś tam dwukanałowośc ale prawdziwy strip(p)ing. Instalujesz 2 GB RAM'u ale masz 1 GB za to o prędkości x 2
Tylko miroring zmniejsza pojemność i służy zwiększeniu bezpieczeństwa a nie prędlości. Striping działą mniej więcej tak jak dual chanel w pamięci.
Jeden procesor zajmujący się całością to jest idealnie rozwiązanie. Obecnie prawie zawsze, nawet w dobrze dobrych komputerach, procesor ogranicza kartę graficzną lub odwrotnie. Dzięki zastosowaniu jednego procesora można dynamicznie prydzielać kolejne jednostki wykonawcze do różnych zadań. W ten sposób jedno mocne CPU może zastąpić obecne CPU, GPU, PPU i kartę dzwiękową zapewniając wysoką wydajność. Nie ma problemów z "wąskimi gardłami" - zarówno słabszych komponentów jak i szyn komunikacyjnych.
Procesor musi mieć też wbudowany kontroler pamięci i w połączeniu z dużym RAM (> 2 GB) spokojnie zzajmie się całością obliczeń.
To nie prawda, że US mają nie wiele wspólnego z SPE. Po prostu US są obecnie przygotowywane do wykonywania zadań graficznych, a SPE do obliczeń zmiennoprzecinkowych. Jednak idea jest ta sama - zunifikowane jednostki wykonawcze.
oczywiscie intel produkuje własne karty grafiki, ale tak moze zaczoł by produkować karty które mają wiekszą moc niz taki np geforce 2, bo co z tego ze mają miec wsparcie dla dx10 jak wydajnośc jest z przed kilku lat
Tak się skłąda, że Intel jest liderem rynku graficznego. A to dlatego, że dla większości klientów taka wydajność w pełni wystarcza. Wyzwaniem dla Intela będzie Vista. Bo rynek bedzie potrzebował zintegrowanej grafiki bez problemu radzącej sobie z Areo Glass... podobno Intel jest już na to gotowy.
Eeeep - racja - zapedziłem się
tak czy siak wkrótce się przekonamy co z tego przejęcia wyjdzie
tak czy siak wkrótce się przekonamy co z tego przejęcia wyjdzie
FSB w przypadku jednordzeniowego CPU nie jest problemem, w przypadku dwurdzeniowego jest małym, dalej to już gorzej.
Szybkie RAMy to są już od dawna. RDRAM miał 1.2GHz już cztery lata temu. Wówczas wykożystywane były tylko 2 kanały 16 bitowe i to tylko 1.066GHz. Ale nic nie stało na przeszkodzie zrobienia 2x64bit jak to jest w Dual DDR. Obecnie jest XDR który w chwili obecnej ma do 16bitów i 3.2GHz a nic nie stoi na przeszkodzie zrobienia wersji 64bitowej (równolegle 4 kości w module), a to dopiero początek tej technologii i jeśli by trafiła do masowej produkcji to nie będzie problemu z 4.8, 6.4 i 8.0GHz. Jedyna wada to cena która jest zdecydowanie wyższa niż SDRAM. JEszcze inny problem to czasy dostępu, ale te da się nadrobić większym cache.
tylko dane z artykułu nie zgadzają się z tym co dotychczas pisano
według wcześniejszych informacji AMD wydało aż 4 500mln w gotowce
a tylko 57 mln w akcjach
jeśli to prawda to zupełnie podważa sens dużej częsci artykułu