co do architektury to ma być coś w deseń cell - zwykły procesor plus ileśtam dodatkowych rdzeni które nie mają pełnej funkcjonalności ale są bardzo szybkie w przetwarzaniu danych strumieniowych (co mniejwięcej odpowiada programowalnym shaderom następnej gneracji....)
przecież ten artykuł był właśnie o tym...
No właśnie chyba nie do końca, Cell jako procesor do PC'ta się za bardzo nie sprawdzi.
CYTAT
Jednolite shadery ATI to nic innego, jak jednostki obliczeniowe mogące wykonywać działania zarówno zmiennoprzecinkowe, jak i arytmetyczno-logiczne ALU. W dodatku zdolne do tego, by pełnić swoją rolę zależnie od potrzeb – albo jako jednostki obliczeniowe procesora, albo jako jednostki obsługujące proces tworzenia grafiki 3D
Czyli najważniejszą różnicą są jednostki uniwersalne, a nie jak w Cellu z góry zaprojektowane w jednym celu. Mają być zdolne do wykonywania zadań procesora ogólego przeznaczenia i procesora graficznego. Czyli będą mogłby pracować jak CPU albo GPU na zmianę, dzisiaj jest ścisły podział. Dzięki temu nie trzeba będzie dublować jednostek. Czyli na dobrą sprawę ten sam chip mógłby służyć jako CPU i być umieszczony na karcie graficznej, stąd znika potrzeba stosowania oddzielnych kart. Cell ciągle łączy w sobie różne jądra, a cały zachód w tym, żeby oba zadania wykonywała ta sama jednostka.
W takim wypadku dość mizernie widzę życie akceleratorów fizycznych...
Tak se mysle ze jesli wszystko bedzie all in wonder to bedziemy pozbawieni wyboru. Nobo jedni chcą kupic karty słabe np Gf7300 inni mega mocne Gf7950 lub odpowiednik radeon. Zakładając ze na dzien dzisiejszy jest z 20 kart graficznych, do tego ze 100 prockow do wyboru, daje nam to kombinajce 2000, a niewieze zeby wszysko w jednym (GCPU) mial tyle podmodeli, moze max 10 (mam na mysli wydajnosc ogolną- szybkosc)a wtedy wyboru niemamy juz duzego. W tej chwili mam jednego proca ktory przezyl juz 5 kart graf, i wymieniam sobie podzespol za tylko czesciowa cene kompa, a w przypadku ALLINWONDER trzeba bedzie zmienic ogolem kompa czyli całą nie tanią jednostkę bo wyszedl oblivion 9 zamiast tylko grafy. Jesli mialby jescze RAM zintegorwany to juz wogole kupa. Na dzis mozna miec Słaby CPU, duzo RAM (kupujesz ile chcesz) i mocną karte by grać, a na integrze to bedzie nie do pomyslenia, zmuszeni bedziemy miec wszysko mocne czyli mocną (czyt.drogą) jednostkę. Chcialem zauwazyc jeszce jedno, niewierze zeby liczba tranzystorow sie zmniejszyla a wiec pobor prądu pozostanie taki sam, pomijajac proces technologiczny, ktory mogl by byc stosowany w niezaleznych podzespolach, a wiec coto za miniaturyzacja jak jeden element bedzie wydzielal 300 Wat ciepla Oczywiscie nie mieszam z blotem technologii, miniaturyzacja jest potrzebna do wielu innych zastosowan, ale powinno byc i tak i tak i golem sie tak nie podniecam, bo wole dostosowac jednostke do swoich potrzeb i optymalnie wydac pieniadze.
Jesli cos jest do wszystkiego to jest do .......... Pozdrawiam
a ja ciągle sie zastanawiam... co z K9 ? wkszycy mówią K10 ble ble ble ...
k9 skasowali następne (po k8l) ma być coś co aktualnie nazywają k10
@Wulfgar co do architektury to ma być coś w deseń cell - zwykły procesor plus ileśtam dodatkowych rdzeni które nie mają pełnej funkcjonalności ale są bardzo szybkie w przetwarzaniu danych strumieniowych (co mniejwięcej odpowiada programowalnym shaderom następnej gneracji....)
mam jeszcze jeden komentarz do artykulu... szkoda ze tym razem jest krotki. przydala by sie teoretyczna analiza takiej kontrukcji, jak w poprzednich publikacjach. czy jest mozliwe zrobienie takiego procesora, w jaki sposob moglaby wygladac jego budowa itp oczywiscie na zasadzie zabawy we wrozke ale na podstawie wiedzy pana Ryszarda S.
a ja ciągle sie zastanawiam... co z K9 ? wkszycy mówią K10 ble ble ble ... a jeszcze nawet nie wiadomo jak dokładnie będzie wyglądał K8L K9 to w ogóle pominięto czy jak ?
Samo przejęcie to dla mnie wery mysterjus zagadka, której zagadkowość może przewyższać jedynie jej tajemniczość
Artykuł wporządku i jak przedmówcy prosze o wiecej takich na łamach Laba !! brawa dla twórcy
No spekulacja ale wyobraź sobie 20 razy wyższą wydajność procesora w systemie przy niewiele wyższych kosztach Już sie podnieciłem
Wszystko pięknie, ale jeszcze przydały by sie 2 grupy ramów... jedne jakieś syper szybkie GDDR5(powiedzmy 1GB), a drugie zwykłe, znacznie tańsze DDR2(8GB)
Tutaj CPU nie przejmie roli GPU, a odwrotnie, wkoncu GPU jest bardziej rozwinięte z tego wynika.
Wpieprza się w Proca mase wielozadaniowych jednostek, ustala siuę priorytety i jest zabawa. Dodatkowo robi się karty wspomagające by nie zarzynać tej kury znoszącej złote jaja (w Polsce to raczej kaczki ;p bo one takie ostatnio popularne) i komputer zmniejsza się minimalne.
Tak jak ktoś pisał wszystko walnąć we flasha i jest zabawa. Wkońcu to pojemniejsze i mniejsze w porównaniu do płyt CD/DVD (no teraz wyszły HD, ale to tylko kwestia czasu (i pieniedzy)).
Heh... znowu archiwum-X... najbardziej mi sie podobalo o osrodku badawczym, ktorego nie ma w strukturze AMD BTW: Nie ma najmniejszych szans na to, ze CPU przejmie na siebie obowiazki GPU... nie po to tyle lat spece od marketingu robili nam wode z mozgu zeby teraz zarzynac kure znoszaca zlote jajka... po co robic supermocne CPU jak mozna zrobic troche lepsze od C2D i GPU troche lepsze od nV i czesac kaske x2 albo x4???
(...) wszystko w jednym syper malym ukladzie z jednym chlodzeniem, komputer mniejszy od konsoli do gier to by bylo cos
Mam nadzieję że taki "star trek" plus ekrany OLED albo nawet holo pojawią się już niedługo w naszych domach. A jeżeli ta fuzja/przejęcie jest chociaż małym kroczkiem ku temu, to dla nas - klientów, użytkowników oznacza "tylko się cieszyć" No i już zbierać kasę
przecież ten artykuł był właśnie o tym...
No właśnie chyba nie do końca, Cell jako procesor do PC'ta się za bardzo nie sprawdzi.
Czyli najważniejszą różnicą są jednostki uniwersalne, a nie jak w Cellu z góry zaprojektowane w jednym celu. Mają być zdolne do wykonywania zadań procesora ogólego przeznaczenia i procesora graficznego. Czyli będą mogłby pracować jak CPU albo GPU na zmianę, dzisiaj jest ścisły podział. Dzięki temu nie trzeba będzie dublować jednostek. Czyli na dobrą sprawę ten sam chip mógłby służyć jako CPU i być umieszczony na karcie graficznej, stąd znika potrzeba stosowania oddzielnych kart. Cell ciągle łączy w sobie różne jądra, a cały zachód w tym, żeby oba zadania wykonywała ta sama jednostka.
W takim wypadku dość mizernie widzę życie akceleratorów fizycznych...
Mogą zrobić tak ze GPU przejmie prace CPU ale do tego trzeba czasu i duzo pieniedzy. wszystko powolutku i dojdziemy do skutku.
Chcialem zauwazyc jeszce jedno, niewierze zeby liczba tranzystorow sie zmniejszyla a wiec pobor prądu pozostanie taki sam, pomijajac proces technologiczny, ktory mogl by byc stosowany w niezaleznych podzespolach, a wiec coto za miniaturyzacja jak jeden element bedzie wydzielal 300 Wat ciepla
Oczywiscie nie mieszam z blotem technologii, miniaturyzacja jest potrzebna do wielu innych zastosowan, ale powinno byc i tak i tak i golem sie tak nie podniecam, bo wole dostosowac jednostke do swoich potrzeb i optymalnie wydac pieniadze.
Jesli cos jest do wszystkiego to jest do .......... Pozdrawiam
Jak na razie hitem jest Conroe
porownaj go do poprzednich. jest pewna roznica ...
k9 skasowali
następne (po k8l) ma być coś co aktualnie nazywają k10
@Wulfgar
co do architektury to ma być coś w deseń cell - zwykły procesor plus ileśtam dodatkowych rdzeni które nie mają pełnej funkcjonalności ale są bardzo szybkie w przetwarzaniu danych strumieniowych (co mniejwięcej odpowiada programowalnym shaderom następnej gneracji....)
przecież ten artykuł był właśnie o tym...
oczywiscie na zasadzie zabawy we wrozke ale na podstawie wiedzy pana Ryszarda S.
K9 to w ogóle pominięto czy jak ?
Samo przejęcie to dla mnie wery mysterjus zagadka, której zagadkowość może przewyższać jedynie jej tajemniczość
Artykuł wporządku i jak przedmówcy prosze o wiecej takich na łamach Laba !!
brawa dla twórcy
Już sie podnieciłem
Wszystko pięknie, ale jeszcze przydały by sie 2 grupy ramów... jedne jakieś syper szybkie GDDR5(powiedzmy 1GB), a drugie zwykłe, znacznie tańsze DDR2(8GB)
Albo... bardzo ostro wchodzi w wiraż... może dużo zyskać, albo wypaść z toru.
Mogą zrobić tak ze GPU przejmie prace CPU ale do tego trzeba czasu i duzo pieniedzy. wszystko powolutku i dojdziemy do skutku.
Wpieprza się w Proca mase wielozadaniowych jednostek, ustala siuę priorytety i jest zabawa. Dodatkowo robi się karty wspomagające by nie zarzynać tej kury znoszącej złote jaja (w Polsce to raczej kaczki ;p bo one takie ostatnio popularne) i komputer zmniejsza się minimalne.
Tak jak ktoś pisał wszystko walnąć we flasha i jest zabawa. Wkońcu to pojemniejsze i mniejsze w porównaniu do płyt CD/DVD (no teraz wyszły HD, ale to tylko kwestia czasu (i pieniedzy)).
Kupuj Mac'a Mini
BTW: Nie ma najmniejszych szans na to, ze CPU przejmie na siebie obowiazki GPU... nie po to tyle lat spece od marketingu robili nam wode z mozgu zeby teraz zarzynac kure znoszaca zlote jajka... po co robic supermocne CPU jak mozna zrobic troche lepsze od C2D i GPU troche lepsze od nV i czesac kaske x2 albo x4???
Myślę, że dopiero wchodzą w ostry wiraż.
Mam nadzieję że taki "star trek"
A jeżeli ta fuzja/przejęcie jest chociaż małym kroczkiem ku temu, to dla nas - klientów, użytkowników oznacza "tylko się cieszyć"
No i już zbierać kasę