komentarze
AndreeZobacz profil
Poziom ostrzeżenia: 0%
Andree2011.03.12, 08:14
darkmartin @ 2011.03.12 07:26  Post: 462310
Andree @ 2011.03.11 23:43  Post: 462298
64-bitowych procesorów RISC na rynku serwerów było naprawdę sporo, jednak poza IBM Power używanym obecnie w konsolach nie były one w stanie wyjść z serwerowej niszy.

Zapominasz o MIPS. To jest procesor który osiągnął największy sukces w grupie RISC.

Oczywiście po ARM który też jest procesorem RISC. Chodziło mi o to że wszystkie trzy najważniejsze obecnie produkowane stacjonarne konsole do gier wykorzystują architekturę IBM Power. MIPS jest wykorzystywany w urządzeniach o mniejszej wymaganej mocy obliczeniowej (rutery CISCO, konsole przenośne (np. Sony PSP). Jednak PSP2 będzie miał procesor na bazie ARM. Wyraźnie widać że MIPS jest wypierane przez ARM z rynku.
Warto wspomnieć że całkowicie chiński procesor Loongson jest wykonany w architekturze MIPS. Ciekawe że Loognson 3 ma 200 instrukcji mających na celu przyspieszenie emulacji x86 do 70% wydajności kodu natywnego MIPS!
Biorąc pod uwagę nacisk Chińczyków na rozwój i wdrażanie własnej technologii, MIPS nadal ma przyszłość, przynajmniej na tym rynku.
*Konto usunięte*2011.03.12, 08:21
Haha.. Chiński komputer z chińskim windowsem, chińskim x86....

Noo szybko. Przypomina mi się Transmeta- podobne rozwiązanie....

.... Jednak patrz PowerPC jest w komputerze za 20k, ale również w konsolach za parę set zł. Czyli takie konstrukcje są bardzo wydajne i tanie w produkcji. Gdyby było coś wydajniejszego w owym czasie to by dali.... Musi być też tanie, bo cena konsoli to granica opłacalności.
darkmartinZobacz profil
Poziom ostrzeżenia: 0%
darkmartin2011.03.12, 08:35
MIPS napędza superkomputery (SGI) - ciągle w użyciu, konslole do gier np Nintendo 64, Playstation 2. Praktycznie w każdym domowym routerze. PowerPC chyba nie jest jednak tak powszechnie stosowany.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842011.03.12, 08:35
@SunTzu - mylisz się. Transmeta to był VLIW i emulacja x86 była robiona w ciekawy sposób, instrukcje x86 były tłumaczone na 32bit natywne 'atomy'. Te składano (jeśli się dało) w 64 albo i 128bitowe 'molekuły' i wykonywano razem. Bardzo energoefektywny proces. Przez zmianę emu/rekompilera można było nawet dodawać obsługę nowych instrukcji NIE zmieniając w samym procesorze absolutnie nic. Tutaj jest inna sprawa, bo procesor jest RISC i ma dedykowane instrukcje do emulatora QEMU pozwalające zmniejszyć narzut przy operowaniu x86 (tj. wykonywanie x86 jest bardziej efektywne niż bez tych instrukcji). Podobieństwo do Crusoe to tylko, że jest emulacja/translacja, a mechanizm jak to jest robione jest lekko odmienny.
pawełpclabZobacz profil
Poziom ostrzeżenia: 0%
pawełpclab2011.03.12, 10:42
skoti48 @ 2011.03.11 16:26  Post: 462219
pawełpclab @ 2011.03.11 12:00  Post: 462157
Myślę że te 64bitwe rozszerzenia to jest właśnie sposób nvidii na stworzenie własnego standardu i zaistnienie na rynku CPU. Początkowe połączenie z 32bitowym ARM pozwoli na płynne wejście na rynek serwerów i desktopów, a gdy za jakiś czas rozwiązanie się upowszechni to nv będzie mogła albo zrezygnować z rdzenia ARM na rzecz własnego albo implementować 32bitowe instrukcje ARM na drodze emulacji kupując tylko licencję na listę instrukcji a nie na rdzeń.
Bardzo podobnie powinno wyglądać wprowadzenie 64bitowych rozszerzeń do x86. Niestety dzięki AMD mamy kolejną protezę a nie nową listę instrukcji

Najprawdopodobniej nie będzie to rozszerzenie nvidii, ale po prostu 64bit instrukcje ARM obsługiwane przez CPU Nvidii - ARM już od dłuższego czasu pracuje nad 64bit i wątpię, aby Nvidia chciała robić niekompatybilne rozszerzenia (jeśli już to ARM z Nvidią nawiążą współpracę, aby dokończyć specyfikację 64bit ARM).



Jakiś miesiąc temu prezes ARM mówił że wprowadzenie 64biwoego adresowania do ARM nie jest wg niego sprawą priorytetową. Skoro nawet adresowanie 64bitowe nie jest dla arm priorytetowe to tym bardziej nie jest dla niego priorytetowe wprowadzenie 64bitowego przetwarzania
GalvatronZobacz profil
Poziom ostrzeżenia: 0%
Galvatron2011.03.12, 11:44
pawełpclab @ 2011.03.12 10:42  Post: 462320
Jakiś miesiąc temu prezes ARM mówił że wprowadzenie 64biwoego adresowania do ARM nie jest wg niego sprawą priorytetową. Skoro nawet adresowanie 64bitowe nie jest dla arm priorytetowe to tym bardziej nie jest dla niego priorytetowe wprowadzenie 64bitowego przetwarzania

A co ma piernik do wiatraka? 64-bitowe adresowanie pozwala na wykorzystanie 16 777 216 terabajtów pamięci, podczas gdy już 38-bit daje dostęp do 256GB, a z każdym dodanym bitem ilość RAM się podwaja.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482011.03.12, 11:53
pawełpclab @ 2011.03.12 10:42  Post: 462320
Jakiś miesiąc temu prezes ARM mówił że wprowadzenie 64biwoego adresowania do ARM nie jest wg niego sprawą priorytetową. Skoro nawet adresowanie 64bitowe nie jest dla arm priorytetowe to tym bardziej nie jest dla niego priorytetowe wprowadzenie 64bitowego przetwarzania

Nie mówił, że nie jest priorytetem, tylko, że ARM się nie spieszy z tym, ale cały czas pracują nad instrukcjami i rdzeniami (nad instrukcjami 64bit pracują już od lat, a kilka miesięcy temu mówili już o pracy nad pierwszymi rdzeniami). A to, że im się nie spieszy to normalne - teraz wychodzenie na rynek to byłby niewypał... mają czas dopóki ARM nie zdobędzie więcej rynku w komputerach (tablety) wejście na desktopy musi czekać - więc im się nie spieszy, żeby wydać w ciągu najbliższych miesięcy (i planują wyjście na rynek w podobnym czasie co Denver czyli za kilka lat (2013/2014)).
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2011.03.13, 00:47
Promilus1984 @ 2011.03.11 14:25  Post: 462186
@darkmartin - jednostka SIMD/MMX/FPU w Phenomie korzysta ze 128bitowych rejestrów ;) Jaki to jest zatem procesor? VMX w procesorach POWER/PPC także korzysta z 128bitowych rejestrów :] No, ale rejestry proca są 64bitowe w obu przypadkach. Tak samo ALU&AGU.

Nie oszukujmy się. Architektura musi być tak zbudowana aby operując na dużej ilości bitów jednocześnie (rejestrach) operacje były rozłożone na rdzenie w ten sposób aby przyspieszyć zadanie (przykład Cell - rozkładasz na rdzenie SPU dekodowanie strumienia video - każdy rdzeń wykonuje inne zadanie). 32-bity w zupełności wystarczają do przedstawienia wyniku obliczeń (przykład RGBA), a magistrala 128-bit pozwala przepchnąć kilkadziesiąt gigabajtów na sekundę. Co do rejestrów 128-bitowych to pierwszy CPU masowy był w PS2 (EE) i te same rejestry są w PS3 (128x128x8 = czyli 1024 rejestry 128-bitowe).
Teraz pytanie czemu producenci idą w stronę 'chowania' magistrali w tym samym chipie co CPU i GPU?
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482011.03.13, 01:50
Hashi @ 2011.03.13 00:47  Post: 462416
32-bity w zupełności wystarczają do przedstawienia wyniku obliczeń (przykład RGBA)

Chyba po 32bity na kanał. Kolory 32bit (po 8bit na kanał RGBA lub 11bit na R i G, i 10bit na B) rzadko wystarczają (szczególnie gdy masz gradient między bliskimi kolorami na większej powierzchni) - pomaga trochę dithering, ale to jest półśrodek. Na ekranie w niektórych zastosowaniach 32bit wystarcza bo więcej nie wyświetli (max co możesz na ekranie zobaczyć to po 10 bitów na ekranie na profesjonalnych kartach i sprzęcie), ale już na wydruku jest to nie do przyjęcia - nie bez powodu są takie formaty jak OpenEXR (gdzie masz nawet 32bity na kanał) - ale nawet w takich zastosowaniach jak gry stosuje się znacznie większe precyzje jednego kanału - 32bit na kanał to norma w wypadku map cieni (często stosuje się 2x kanały po 32bit (mapy cieni do Variance shadow maping) czyli tekstury 64bit które mają tylko 2x kanały - VSM stosuje się dlatego, bo 32bit na depthmape to często za mało).
*Konto usunięte*2011.03.13, 09:05
@up
Tu jest różnica pomiędzy GPU FirePro, a Radeonem. Pamiętasz może ile to było dla Radeona, a ile dla FirePro bitów na kanał?

Podobnie tym się różnią monitor Dell-a z IPS za 1000zł, a tym za 2000zł, a EIZO za 50k.

--------------
W grach właśnie słyszałem, że ponoć tam chcieliby by grafika była nie '32', a 64bitowa. Właśnie ze względu na cienie.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2011.03.13, 10:44
skoti48 @ 2011.03.13 01:50  Post: 462418
Hashi @ 2011.03.13 00:47  Post: 462416
32-bity w zupełności wystarczają do przedstawienia wyniku obliczeń (przykład RGBA)

Chyba po 32bity na kanał. Kolory 32bit (po 8bit na kanał RGBA lub 11bit na R i G, i 10bit na B) rzadko wystarczają (szczególnie gdy masz gradient między bliskimi kolorami na większej powierzchni) - pomaga trochę dithering, ale to jest półśrodek. Na ekranie w niektórych zastosowaniach 32bit wystarcza bo więcej nie wyświetli (max co możesz na ekranie zobaczyć to po 10 bitów na ekranie na profesjonalnych kartach i sprzęcie), ale już na wydruku jest to nie do przyjęcia - nie bez powodu są takie formaty jak OpenEXR (gdzie masz nawet 32bity na kanał) - ale nawet w takich zastosowaniach jak gry stosuje się znacznie większe precyzje jednego kanału - 32bit na kanał to norma w wypadku map cieni (często stosuje się 2x kanały po 32bit (mapy cieni do Variance shadow maping) czyli tekstury 64bit które mają tylko 2x kanały - VSM stosuje się dlatego, bo 32bit na depthmape to często za mało).

Przy deferred shadingu buffor ma 32-bity ale informacja o całym oświetleniu jest przechowywana w kilku takich bufforach (chyba) np 3mrt+z = 128bit (przykład - silnik Battlefield 3 czy Killzone 2).
Co do samej przestrzeni barw to maxymalna wartość to 48-bit na piksel (mówię o wyświetlaniu obrazu).
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482011.03.13, 12:59
SunTzu @ 2011.03.13 09:05  Post: 462424
@up
Tu jest różnica pomiędzy GPU FirePro, a Radeonem. Pamiętasz może ile to było dla Radeona, a ile dla FirePro bitów na kanał?

Podobnie tym się różnią monitor Dell-a z IPS za 1000zł, a tym za 2000zł, a EIZO za 50k.

Quadro/FirePro mają maksymalnie po 10 bitów na kanał (30bitów koloru RGB (przezroczystości ekrany nie pokazują więc bez A) - GeForce/Radeon mają 8bit i 24bitów koloru RGB).
Dell z IPS za 1k zł wyświetla 24bit koloru (po 8 na kanał), a Eizo 30bit - tylko nie rozumiem tego 0 - kupisz już spokojnie za 5k zł ich monitor z 10bit na kolor:
http://www.ceneo.pl/1344939s
http://www.ceneo.pl/2675394s
SunTzu @ 2011.03.13 09:05  Post: 462424
W grach właśnie słyszałem, że ponoć tam chcieliby by grafika była nie '32', a 64bitowa. Właśnie ze względu na cienie.

32bit dzieki VSM wystarcza póki co (i musi, bo więcej niż 32bitowe kanały i karty które je obsługują nie istnieją) - VSM ma kilka istotnych zalet - pierwsza to to, że zwiększa precyzję, druga to taka, że zmniejsza się kolor cienia im bliżej podłogi ( patrz np. http://www.punkuser.net/vsm/colour_cars_vsm.png ) - nie jest to może realistyczne (normalnie jest odwrotnie, ale przynajmniej nie ucina cienia w połowie, bo braknie precyzji i shader będzie musiał uznać, że to co bliżej 'podłogi' niż metr nie daje cienia bo ma ten sam kolor na depthmaie - tu masz przykład http://www.kxcad.net/autodesk/3ds_max/Auto...adow_bias.jpg), a trzecia to to, że pozwala na wykorzystanie mniejszej rozdzielczości mapek ;p.

Hashi @ 2011.03.13 10:44  Post: 462429
Przy deferred shadingu buffor ma 32-bity ale informacja o całym oświetleniu jest przechowywana w kilku takich bufforach (chyba) np 3mrt+z = 128bit (przykład - silnik Battlefield 3 czy Killzone 2).
Co do samej przestrzeni barw to maxymalna wartość to 48-bit na piksel (mówię o wyświetlaniu obrazu).

Akurat z deferred shading ciężko się zmieścić w 4x teksturach (da się, ale trzeba się niektórych rzeczy wyrzec ;p (nie da się zmieścić mapy pozycji, normalnych, ambient, diffuse, specular zmieścić na czterech mapkach (Z akurat tu nie dopisuje, bo na potrzeby obliczeń postprocess najczęściej się akurat stosuje 8bit i dokleja do tekstury normalnych (RGB to normalna, a A to głębokość))) - dlatego popularność zyskał razem z Dx10 który w przeciwieństwie do Dx9 daje możliwość wykorzystania 8x MRT, a nie jak w Dx9 4x (dlatego np. w STALKER w Dx9 dane do DS były renderowane w dwóch przebiegach)).

Co do 48bit to nie znam kart graficznych (czy też monitorów - jedynie takie które przetwarzają dane 48bit (16 na kanał), ale wyświetlają 30bit) potrafiących to wyświetlić (chociaż może gdzieś są).
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2011.03.13, 13:26
skoti48 @ 2011.03.13 12:59  Post: 462435
SunTzu @ 2011.03.13 09:05  Post: 462424
@up
Tu jest różnica pomiędzy GPU FirePro, a Radeonem. Pamiętasz może ile to było dla Radeona, a ile dla FirePro bitów na kanał?

Podobnie tym się różnią monitor Dell-a z IPS za 1000zł, a tym za 2000zł, a EIZO za 50k.

Quadro/FirePro mają maksymalnie po 10 bitów na kanał (30bitów koloru RGB (przezroczystości ekrany nie pokazują więc bez A) - GeForce/Radeon mają 8bit i 24bitów koloru RGB).
Dell z IPS za 1k zł wyświetla 24bit koloru (po 8 na kanał), a Eizo 30bit - tylko nie rozumiem tego 0 - kupisz już spokojnie za 5k zł ich monitor z 10bit na kolor:
http://www.ceneo.pl/1344939s
http://www.ceneo.pl/2675394s
SunTzu @ 2011.03.13 09:05  Post: 462424
W grach właśnie słyszałem, że ponoć tam chcieliby by grafika była nie '32', a 64bitowa. Właśnie ze względu na cienie.

32bit dzieki VSM wystarcza póki co (i musi, bo więcej niż 32bitowe kanały i karty które je obsługują nie istnieją) - VSM ma kilka istotnych zalet - pierwsza to to, że zwiększa precyzję, druga to taka, że zmniejsza się kolor cienia im bliżej podłogi ( patrz np. http://www.punkuser.net/vsm/colour_cars_vsm.png ) - nie jest to może realistyczne (normalnie jest odwrotnie, ale przynajmniej nie ucina cienia w połowie, bo braknie precyzji i shader będzie musiał uznać, że to co bliżej 'podłogi' niż metr nie daje cienia bo ma ten sam kolor na depthmaie - tu masz przykład http://www.kxcad.net/autodesk/3ds_max/Auto...adow_bias.jpg), a trzecia to to, że pozwala na wykorzystanie mniejszej rozdzielczości mapek ;p.

Hashi @ 2011.03.13 10:44  Post: 462429
Przy deferred shadingu buffor ma 32-bity ale informacja o całym oświetleniu jest przechowywana w kilku takich bufforach (chyba) np 3mrt+z = 128bit (przykład - silnik Battlefield 3 czy Killzone 2).
Co do samej przestrzeni barw to maxymalna wartość to 48-bit na piksel (mówię o wyświetlaniu obrazu).

Akurat z deferred shading ciężko się zmieścić w 4x teksturach (da się, ale trzeba się niektórych rzeczy wyrzec ;p (nie da się zmieścić mapy pozycji, normalnych, ambient, diffuse, specular zmieścić na czterech mapkach (Z akurat tu nie dopisuje, bo na potrzeby obliczeń postprocess najczęściej się akurat stosuje 8bit i dokleja do tekstury normalnych (RGB to normalna, a A to głębokość))) - dlatego popularność zyskał razem z Dx10 który w przeciwieństwie do Dx9 daje możliwość wykorzystania 8x MRT, a nie jak w Dx9 4x (dlatego np. w STALKER w Dx9 dane do DS były renderowane w dwóch przebiegach)).

Co do 48bit to nie znam kart graficznych (czy też monitorów - jedynie takie które przetwarzają dane 48bit (16 na kanał), ale wyświetlają 30bit) potrafiących to wyświetlić (chociaż może gdzieś są).

Napisałem tylko przykład. Na przykładzie BF3 i KZ2 widać że np. Cell mieści wszystkie mapy o których mówisz, a nawet więcej.. wystarczy poszukać publikacji deferred shadingu pdf KZ2 i BF3.
Co do 48-bit to jedyny panel jaki mi przychodzi do głowy to PDP lub 3D PDP (np. Hitachi). Mamy oprócz standardowych przestrzeni jeszcze x.v color, deep color czy też przestrzeń Munsella (dla przykładu RSX w PS3 obsługuje wszystkie te przestrzenie; 48-bit color).
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482011.03.13, 13:43
Hashi @ 2011.03.13 13:26  Post: 462436
Napisałem tylko przykład. Na przykładzie BF3 i KZ2 widać że np. Cell mieści wszystkie mapy o których mówisz, a nawet więcej.. wystarczy poszukać publikacji deferred shadingu pdf KZ2 i BF3.

Piszesz tak jakby Cell jakikolwiek miał w tym udział - te mapki są tworzone przez kartę graficzną RSX, a nie Cell i z tego co wiem nie mieszczą się w MRT, i po prostu 4x mapki są rysowane w jednym przebiegu, a później druga część później w drugim przebiegu (tak jak gry wydawane na DirectX 9 korzystające z DS).

PS z tego co wiem to te panele dostają 30bit kolor, a jedynie później jego procek stara się interpolować do 48bit przestrzeni (podobnie jak Eizo i inne tego typu monitory).
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2011.03.13, 13:48
skoti48 @ 2011.03.13 13:43  Post: 462438
Hashi @ 2011.03.13 13:26  Post: 462436
Napisałem tylko przykład. Na przykładzie BF3 i KZ2 widać że np. Cell mieści wszystkie mapy o których mówisz, a nawet więcej.. wystarczy poszukać publikacji deferred shadingu pdf KZ2 i BF3.

Piszesz tak jakby Cell jakikolwiek miał w tym udział - te mapki są tworzone przez kartę graficzną RSX, a nie Cell i z tego co wiem nie mieszczą się w MRT, i po prostu 4x mapki są rysowane w jednym przebiegu, a później druga część później w drugim przebiegu (tak jak gry wydawane na DirectX 9 korzystające z DS).

Nie wiem aż takim ekspertem nie jestem..
http://www.slideshare.net/DICEStudio/spuba...r-playstation-3
http://www.google.com/search?client=opera&...-8&oe=utf-8
W takim razie 'oświeć' :p mnie. Mało osób wie że SPU (Cell) + RSX to tak naprawdę jeden układ (GPU).
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482011.03.13, 14:15
Hashi @ 2011.03.13 13:48  Post: 462439

Nie wiem aż takim ekspertem nie jestem..
http://www.slideshare.net/DICEStudio/spuba...r-playstation-3
http://www.google.com/search?client=opera&...-8&oe=utf-8
W takim razie 'oświeć' :p mnie.

Jakbyś potrafił czytać to byś wiedział, że wszystkie mapki są tworzone przez RSX (robienie mapek i ich rasteryzacja na CPU nawet takim to słaby pomysł) i kopiowane do pamięci RAM. Część dotycząca wykorzystania już gotowych mapek w liczeniu oświetlenia postprocess (tu już nie ma mowy o grafice 3d i rasteryzacji, a raczej wygląda to jak zastosowanie filtru 2d do zdjęcia (tylko złożone z N zdjęć tworzy się jedno)) jest już robiona na SPE bo są one po prostu szybsze (RSX ma 24 pixel shadery, a Cell ma 32 (8 jednostek wektorowych robiących obliczenia na 4 liczbach na raz) i to dużo szybsze).

Hashi @ 2011.03.13 13:48  Post: 462439
Mało osób wie że SPU (Cell) + RSX to tak naprawdę jeden układ (GPU).

Ooo to dowaliłeś - Cell i RSX to zupełnie dwa osobne układy - Cell to procesor od IBM który ma jeden rdzeń 3.2GHz i do 8x SPE (jednostki wektorowe). RSX to karta graficzna Nvidii która jest lekko zmodyfikowana kartą z serii GeForce 7000. Jedyne co mają wspólne Cell i RSX w PS3 to współdzielona pamięć Ram.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2011.03.13, 14:20
skoti48 @ 2011.03.13 14:15  Post: 462440
Hashi @ 2011.03.13 13:48  Post: 462439

Nie wiem aż takim ekspertem nie jestem..
http://www.slideshare.net/DICEStudio/spuba...r-playstation-3
http://www.google.com/search?client=opera&...-8&oe=utf-8
W takim razie 'oświeć' :p mnie.

Jakbyś potrafił czytać to byś wiedział, że wszystkie mapki są tworzone przez RSX (robienie mapek i ich rasteryzacja na CPU nawet takim to słaby pomysł) i kopiowane do pamięci RAM. Część dotycząca wykorzystania już gotowych mapek w liczeniu oświetlenia postprocess (tu już nie ma mowy o grafice 3d i rasteryzacji, a raczej wygląda to jak zastosowanie filtru 2d do zdjęcia (tylko złożone z N zdjęć tworzy się jedno)) jest już robiona na SPE bo są one po prostu szybsze (RSX ma 24 pixel shadery, a Cell ma 32 (8 jednostek wektorowych robiących obliczenia na 4 liczbach na raz) i to dużo szybsze).

Hashi @ 2011.03.13 13:48  Post: 462439
Mało osób wie że SPU (Cell) + RSX to tak naprawdę jeden układ (GPU).

Ooo to dowaliłeś - Cell i RSX to zupełnie dwa osobne układy - Cell to procesor od IBM który ma jeden rdzeń 3.2GHz i do 8x SPE (jednostki wektorowe). RSX to karta graficzna Nvidii która jest lekko zmodyfikowana kartą z serii GeForce 7000. Jedyne co mają wspólne Cell i RSX w PS3 to współdzielona pamięć Ram.

Cell to procesor STI (każda z firm włożyła coś o siebie - np. główny patent na Cell pochodzi od SONY). Poczytaj dokładnie PDF które dałem...
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842011.03.13, 14:27
@skoti - RSX ma dedykowaną pamięć GDDR3 w wielkości 256MB a poprzez magistralę łączącą RSX z Cell może z głównej pamięci XDR ciągnąć dane z prędkością ok 20GB/s, tutaj jest inna sprawa, bo do głównej pamięci są mapowane rejestry RSX, a dzięki dobremu połączeniu CPU-GPU dużo rzeczy procek może wspomóc.
@Hashi - Sony nie ma żadnego patentu na PowerISA a PPE to zmodyfikowany POWER4. Jednostki SPE zaś dzielą architekturę z jednostkami SIMD procesorów POWER/PPC czyli VMX. Lista rozkazów, ograniczenia, możliwości - prawie wszystko się pokrywa (tylko SPE mają ich więcej).
EDIT- nie żeby Toshiba czy Sony nic przy procu nie robiło, ale praktycznie cały fundament pochodzi od IBM.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482011.03.13, 14:33
Hashi @ 2011.03.13 14:20  Post: 462441
Cell to procesor STI (każda z firm włożyła coś o siebie - np. główny patent na Cell pochodzi od SONY). Poczytaj dokładnie PDF które dałem...

STI to po prostu wspólna praca Sony, Toshiba, IBM i mniej więcej jest to tak, ze Sony nakreśliła co chce uzyskać ogólnie, IBM to zaprojektowała w szczegółach, a produkuje Toshiba. Ale tu nie ma mowy o RSX i Nvidii - to zupełnie osobny układ niezwiązany niczym z Cell poza tym, że PS3 korzysta z obu.

Promilus1984 @ 2011.03.13 14:27  Post: 462442
@skoti - RSX ma dedykowaną pamięć GDDR3 w wielkości 256MB a poprzez magistralę łączącą RSX z Cell może z głównej pamięci XDR ciągnąć dane z prędkością ok 20GB/s, tutaj jest inna sprawa, bo do głównej pamięci są mapowane rejestry RSX, a dzięki dobremu połączeniu CPU-GPU dużo rzeczy procek może wspomóc.

O tym napisałem - RSX ma dostęp do 512MB pamięci - 256 swojej i 256 ram współdzielony z Cell.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2011.03.13, 14:48
Promilus1984 @ 2011.03.13 14:27  Post: 462442
@skoti - RSX ma dedykowaną pamięć GDDR3 w wielkości 256MB a poprzez magistralę łączącą RSX z Cell może z głównej pamięci XDR ciągnąć dane z prędkością ok 20GB/s, tutaj jest inna sprawa, bo do głównej pamięci są mapowane rejestry RSX, a dzięki dobremu połączeniu CPU-GPU dużo rzeczy procek może wspomóc.
@Hashi - Sony nie ma żadnego patentu na PowerISA a PPE to zmodyfikowany POWER4. Jednostki SPE zaś dzielą architekturę z jednostkami SIMD procesorów POWER/PPC czyli VMX. Lista rozkazów, ograniczenia, możliwości - prawie wszystko się pokrywa (tylko SPE mają ich więcej).
EDIT- nie żeby Toshiba czy Sony nic przy procu nie robiło, ale praktycznie cały fundament pochodzi od IBM.

W takim razie czego dotyczy ten patent z 2001 roku (oba należą do SONY i Tsohiby):
http://www.freepatentsonline.com/y2002/0138637.html
oraz ten:
http://ieeexplore.ieee.org/xpl/freeabs_all...arnumber=799870
Oba dotyczą PS3. PPE korzytsa tylko z instrukcji PowerPC ale jest całkiem nowym układem. Liczę na wyczerpującą odpowiedź na pytanie. Nie chce wywołać znów jakiejś wojny ale jak sie zabiera głos w sprawie lepiej znać fakty..

PS
Skotu48 wiem że masz wiedze w tego zakresu ale masz tan jak byk napisane SPU-Based Deferred Rendering.
Zaloguj się, by móc komentować