komentarze
vdcmikeZobacz profil
Poziom ostrzeżenia: 0%
vdcmike2006.08.01, 14:41
Pamieta z Was ktos jeszcze czasy Cyrix'a MediaGX (http://www.cpu-world.com/CPUs/MediaGX/index.html)...
BlitzkriegZobacz profil
Poziom ostrzeżenia: 0%
Blitzkrieg2006.08.01, 14:37
CYTAT(cyriak @ 1 sierpnia 2006, 13:58) <{POST_SNAPBACK}>
co do architektury to ma być coś w deseń cell - zwykły procesor plus ileśtam dodatkowych rdzeni które nie mają pełnej funkcjonalności ale są bardzo szybkie w przetwarzaniu danych strumieniowych (co mniejwięcej odpowiada programowalnym shaderom następnej gneracji....)

przecież ten artykuł był właśnie o tym... smilies/scratchhead.gif

No właśnie chyba nie do końca, Cell jako procesor do PC'ta się za bardzo nie sprawdzi.
CYTAT
Jednolite shadery ATI to nic innego, jak jednostki obliczeniowe mogące wykonywać działania zarówno zmiennoprzecinkowe, jak i arytmetyczno-logiczne ALU. W dodatku zdolne do tego, by pełnić swoją rolę zależnie od potrzeb – albo jako jednostki obliczeniowe procesora, albo jako jednostki obsługujące proces tworzenia grafiki 3D

Czyli najważniejszą różnicą są jednostki uniwersalne, a nie jak w Cellu z góry zaprojektowane w jednym celu. Mają być zdolne do wykonywania zadań procesora ogólego przeznaczenia i procesora graficznego. Czyli będą mogłby pracować jak CPU albo GPU na zmianę, dzisiaj jest ścisły podział. Dzięki temu nie trzeba będzie dublować jednostek. Czyli na dobrą sprawę ten sam chip mógłby służyć jako CPU i być umieszczony na karcie graficznej, stąd znika potrzeba stosowania oddzielnych kart. Cell ciągle łączy w sobie różne jądra, a cały zachód w tym, żeby oba zadania wykonywała ta sama jednostka.

W takim wypadku dość mizernie widzę życie akceleratorów fizycznych...
vdcmikeZobacz profil
Poziom ostrzeżenia: 0%
vdcmike2006.08.01, 14:34
Ta... i w tym samym czasie pojawia sie akceleratory grafiki instalowane ma nowych "szybkich" zlaczach "terra-pci" smilies/wink.gif

CYTAT(Cricket @ 1 sierpnia 2006, 12:34) <{POST_SNAPBACK}>
Zgadzam sie miec komputer wielkości paczki zapalek i ekran wyswietlany laserowo i wtedy to bedzie zycie.

Mogą zrobić tak ze GPU przejmie prace CPU ale do tego trzeba czasu i duzo pieniedzy. wszystko powolutku i dojdziemy do skutku.
machinesjbZobacz profil
Poziom ostrzeżenia: 0%
machinesjb2006.08.01, 14:29
Tak se mysle ze jesli wszystko bedzie all in wonder smilies/szczerbaty.gif to bedziemy pozbawieni wyboru. Nobo jedni chcą kupic karty słabe np Gf7300 inni mega mocne Gf7950 lub odpowiednik radeon. Zakładając ze na dzien dzisiejszy jest z 20 kart graficznych, do tego ze 100 prockow do wyboru, daje nam to kombinajce 2000, a niewieze zeby wszysko w jednym (GCPU) mial tyle podmodeli, moze max 10 (mam na mysli wydajnosc ogolną- szybkosc)a wtedy wyboru niemamy juz duzego. W tej chwili mam jednego proca ktory przezyl juz 5 kart graf, i wymieniam sobie podzespol za tylko czesciowa cene kompa, a w przypadku ALLINWONDER trzeba bedzie zmienic ogolem kompa czyli całą nie tanią jednostkę bo wyszedl oblivion 9 zamiast tylko grafy. Jesli mialby jescze RAM zintegorwany to juz wogole kupa. Na dzis mozna miec Słaby CPU, duzo RAM (kupujesz ile chcesz) i mocną karte by grać, a na integrze to bedzie nie do pomyslenia, zmuszeni bedziemy miec wszysko mocne czyli mocną (czyt.drogą) jednostkę.
Chcialem zauwazyc jeszce jedno, niewierze zeby liczba tranzystorow sie zmniejszyla a wiec pobor prądu pozostanie taki sam, pomijajac proces technologiczny, ktory mogl by byc stosowany w niezaleznych podzespolach, a wiec coto za miniaturyzacja jak jeden element bedzie wydzielal 300 Wat ciepla smilies/szczerbaty.gif
Oczywiscie nie mieszam z blotem technologii, miniaturyzacja jest potrzebna do wielu innych zastosowan, ale powinno byc i tak i tak i golem sie tak nie podniecam, bo wole dostosowac jednostke do swoich potrzeb i optymalnie wydac pieniadze.

Jesli cos jest do wszystkiego to jest do .......... Pozdrawiam
peterpzZobacz profil
Poziom ostrzeżenia: 0%
peterpz2006.08.01, 14:17
CYTAT(Mr.FrOsT @ 1 sierpnia 2006, 10:19) <{POST_SNAPBACK}>
Ciekawe spekulacje. Mysle ze taki procesor byłby prawdziwym przebojem rynkowym.

Jak na razie hitem jest Conroe smilies/wink.gif
WulfgarZobacz profil
Poziom ostrzeżenia: 0%
Wulfgar2006.08.01, 14:13
CYTAT(cyriak @ 1 sierpnia 2006, 13:58) <{POST_SNAPBACK}>
przecież ten artykuł był właśnie o tym... smilies/scratchhead.gif


porownaj go do poprzednich. jest pewna roznica ...
cyriakZobacz profil
Poziom ostrzeżenia: 0%
cyriak2006.08.01, 13:58
CYTAT(Jarq87 @ 1 August 2006, 13:43) <{POST_SNAPBACK}>
a ja ciągle sie zastanawiam... co z K9 ? wkszycy mówią K10 ble ble ble ...

k9 skasowali
następne (po k8l) ma być coś co aktualnie nazywają k10

@Wulfgar
co do architektury to ma być coś w deseń cell - zwykły procesor plus ileśtam dodatkowych rdzeni które nie mają pełnej funkcjonalności ale są bardzo szybkie w przetwarzaniu danych strumieniowych (co mniejwięcej odpowiada programowalnym shaderom następnej gneracji....)

przecież ten artykuł był właśnie o tym... smilies/scratchhead.gif
WulfgarZobacz profil
Poziom ostrzeżenia: 0%
Wulfgar2006.08.01, 13:47
mam jeszcze jeden komentarz do artykulu... szkoda ze tym razem jest krotki. przydala by sie teoretyczna analiza takiej kontrukcji, jak w poprzednich publikacjach. czy jest mozliwe zrobienie takiego procesora, w jaki sposob moglaby wygladac jego budowa itp
oczywiscie na zasadzie zabawy we wrozke ale na podstawie wiedzy pana Ryszarda S.
Jarq87Zobacz profil
Poziom ostrzeżenia: 0%
Jarq872006.08.01, 13:43
a ja ciągle sie zastanawiam... co z K9 ? wkszycy mówią K10 ble ble ble ... a jeszcze nawet nie wiadomo jak dokładnie będzie wyglądał K8L smilies/tongue.gif
K9 to w ogóle pominięto czy jak ?

Samo przejęcie to dla mnie wery mysterjus zagadka, której zagadkowość może przewyższać jedynie jej tajemniczość smilies/lol2.gif

Artykuł wporządku i jak przedmówcy prosze o wiecej takich na łamach Laba !! smilies/smile.gif
brawa dla twórcy smilies/thumbup.gif
wikktorZobacz profil
Poziom ostrzeżenia: 0%
wikktor2006.08.01, 13:40
CYTAT(xxxqqqccc @ 1 sierpnia 2006, 10:48) <{POST_SNAPBACK}>
No spekulacja ale wyobraź sobie 20 razy wyższą wydajność procesora w systemie przy niewiele wyższych kosztach smilies/shocked.gif
Już sie podnieciłem smilies/smile.gif

Wszystko pięknie, ale jeszcze przydały by sie 2 grupy ramów... jedne jakieś syper szybkie GDDR5(powiedzmy 1GB), a drugie zwykłe, znacznie tańsze DDR2(8GB)


CYTAT(zborek @ 1 sierpnia 2006, 11:33) <{POST_SNAPBACK}>
Myślę, że dopiero wchodzą w ostry wiraż.

Albo... bardzo ostro wchodzi w wiraż... może dużo zyskać, albo wypaść z toru.
webjasiekZobacz profil
Poziom ostrzeżenia: 0%
webjasiek2006.08.01, 13:27
A tu AMD upadnie po nieudanej inwestycji i K8 będzie ostatnim z samurajów... ;-P
szek-spirZobacz profil
Poziom ostrzeżenia: 0%
szek-spir2006.08.01, 13:21
jakie 10 miliardow, AMD skupil akcje ati po z gory ustalonej cenie 35$.
CricketZobacz profil
Poziom ostrzeżenia: 0%
Cricket2006.08.01, 12:34
Zgadzam sie miec komputer wielkości paczki zapalek i ekran wyswietlany laserowo i wtedy to bedzie zycie.

Mogą zrobić tak ze GPU przejmie prace CPU ale do tego trzeba czasu i duzo pieniedzy. wszystko powolutku i dojdziemy do skutku.
*Konto usunięte*2006.08.01, 12:33
Noo, czekaliśmy na taki artykuł, dobra robota! smilies/thumbup.gif
Vesp3rZobacz profil
Poziom ostrzeżenia: 0%
Vesp3r2006.08.01, 12:01
Tutaj CPU nie przejmie roli GPU, a odwrotnie, wkoncu GPU jest bardziej rozwinięte z tego wynika.

Wpieprza się w Proca mase wielozadaniowych jednostek, ustala siuę priorytety i jest zabawa. Dodatkowo robi się karty wspomagające by nie zarzynać tej kury znoszącej złote jaja (w Polsce to raczej kaczki ;p bo one takie ostatnio popularne) i komputer zmniejsza się minimalne.

Tak jak ktoś pisał wszystko walnąć we flasha i jest zabawa. Wkońcu to pojemniejsze i mniejsze w porównaniu do płyt CD/DVD (no teraz wyszły HD, ale to tylko kwestia czasu (i pieniedzy)).
P@VK!NZobacz profil
Poziom ostrzeżenia: 0%
P@VK!N2006.08.01, 12:00
AMD znowu sie z kimś połączy i wyjdzie z tego UAC smilies/tongue.gif
thomsonZobacz profil
Poziom ostrzeżenia: 0%
thomson2006.08.01, 11:59
CYTAT(Xellos @ 1 sierpnia 2006, 11:03) <{POST_SNAPBACK}>
...wszystko w jednym syper malym ukladzie z jednym chlodzeniem, komputer mniejszy od konsoli do gier smilies/tongue.gif to by bylo cos smilies/smile.gif

Kupuj Mac'a Mini smilies/tongue.gif
vdcmikeZobacz profil
Poziom ostrzeżenia: 0%
vdcmike2006.08.01, 11:46
Heh... znowu archiwum-X... najbardziej mi sie podobalo o osrodku badawczym, ktorego nie ma w strukturze AMD smilies/wink.gif
BTW: Nie ma najmniejszych szans na to, ze CPU przejmie na siebie obowiazki GPU... nie po to tyle lat spece od marketingu robili nam wode z mozgu zeby teraz zarzynac kure znoszaca zlote jajka... po co robic supermocne CPU jak mozna zrobic troche lepsze od C2D i GPU troche lepsze od nV i czesac kaske x2 albo x4???
ZybeksZobacz profil
Poziom ostrzeżenia: 0%
Zybeks2006.08.01, 11:36
Artykul pocieszajacy fnabojow i wprowadzajacy zdrowy nastroj smilies/smile.gif
zborekZobacz profil
Poziom ostrzeżenia: 0%
zborek2006.08.01, 11:33
CYTAT(3Xpro @ 1 sierpnia 2006, 10:27) <{POST_SNAPBACK}>
Czyżby wielki powrót AMD smilies/bigsmile.gif smilies/question.gif


Myślę, że dopiero wchodzą w ostry wiraż.

CYTAT(Xellos @ 1 sierpnia 2006, 11:03) <{POST_SNAPBACK}>
(...) wszystko w jednym syper malym ukladzie z jednym chlodzeniem, komputer mniejszy od konsoli do gier smilies/tongue.gif to by bylo cos smilies/smile.gif


Mam nadzieję że taki "star trek" smilies/smile.gif plus ekrany OLED albo nawet holo pojawią się już niedługo w naszych domach.
A jeżeli ta fuzja/przejęcie jest chociaż małym kroczkiem ku temu, to dla nas - klientów, użytkowników oznacza "tylko się cieszyć"
No i już zbierać kasę smilies/Up_to_something.gif
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.