Obecne konsole są za słabe i nic tego nie zmieni. O magicznych właściwościach Cella i RSXa wiedzą wszyscy, ale w praktyce nikt tego nie widział.
Jak czytam komentarze, że taki killzone 3 i uncharted3 wyglądają kosmicznie to się nóż w kieszeni otwiera, albo ktoś jest tu ślepy. Jak na możliwości PS3 i Xboxa to szacun, ale ogólnie to jakość nie powala. Słabe tekstury i ledwo 30fpsów przy 720p często niepełnym. Bo gdzie te MEGA tekstury mają być przechowywane??? w 256mb RSXa czy 512 współdzielonych w Xboxie?? Wystarczy Far Cry 3 na LOW na PC i jest 3 razy ładniejszy niż na Xboxsie czy PS3....osobiscie sprawdzałem...
@Hashi
Twórcy CryEngine3 chyba tylko od killzona optymalizacji się uczyli bo grafika Crysisa 1 jest poza zasięgiem Killzona3.
Sam mam PC i Xboxa na 42', ale testowałem wiele TV i widziałem jak działa PS3 na Sony 55HX920 i głowy nie urywa ani w KILLZONIE ani w Uncharted....
Od strony technologicznej PS3 i xbox360 na dzień dzisiejszy to dno totalne, ale świetna optymalizacja pozwala współczesnym gierkom jakoś wyglądać i z przycinkami ledwo chodzić w 720p. To są FAKTY
Co by w tych nowych konsolach nie było to i tak i7 4770K + GTX780 czy 8970 bez większych problemów będą znacznie wydajniejsze, więc już na starcie PC będzie miał przewagę
1.8 tflopsa w gpu ps4 vs geforce oparty na gk110 4.5 tflopsa to na dzien dobry bedzie, ale wiadomo czasy sie zmienily, pobor pradu gpu poszedl mocno do gory a tez sony nie pozwoli sobie tak jak kiedys(slabe wyniki finansowe) dokladac do sprzetu wiec i ograniczenia finansowe
Obecne konsole są za słabe i nic tego nie zmieni. O magicznych właściwościach Cella i RSXa wiedzą wszyscy, ale w praktyce nikt tego nie widział.
Jak czytam komentarze, że taki killzone 3 i uncharted3 wyglądają kosmicznie to się nóż w kieszeni otwiera, albo ktoś jest tu ślepy. Jak na możliwości PS3 i Xboxa to szacun, ale ogólnie to jakość nie powala. Słabe tekstury i ledwo 30fpsów przy 720p często niepełnym. Bo gdzie te MEGA tekstury mają być przechowywane??? w 256mb RSXa czy 512 współdzielonych w Xboxie?? Wystarczy Far Cry 3 na LOW na PC i jest 3 razy ładniejszy niż na Xboxsie czy PS3....osobiscie sprawdzałem...
@Hashi
Twórcy CryEngine3 chyba tylko od killzona optymalizacji się uczyli bo grafika Crysisa 1 jest poza zasięgiem Killzona3.
Sam mam PC i Xboxa na 42', ale testowałem wiele TV i widziałem jak działa PS3 na Sony 55HX920 i głowy nie urywa ani w KILLZONIE ani w Uncharted....
Od strony technologicznej PS3 i xbox360 na dzień dzisiejszy to dno totalne, ale świetna optymalizacja pozwala współczesnym gierkom jakoś wyglądać i z przycinkami ledwo chodzić w 720p. To są FAKTY
Co by w tych nowych konsolach nie było to i tak i7 4770K + GTX780 czy 8970 bez większych problemów będą znacznie wydajniejsze, więc już na starcie PC będzie miał przewagę
No nich już nie ściemniają i wydają te nowe konsole.
Bo mi lata uciekają i za chwile będę za stary na granie.
7 lat zastoju technicznego w grach spowodowane przez konsolowe zjebane porty to zdecydowanie za dużo.
Już mi się zygać chce tymi wszystkimi gierkami wyglądającymi jednakowo paskudnie robione na 6 letnim silniku Unreal 3 bądź jak Call Of Duty silniku z 10 letniego Quake.
Czas na zmiany i to duże ,oby te konsole były przynajmniej 10x wydajniejsze niż poprzednie.
Twórcy CryEngine3 czerpali wiedzę z silnika Killzone2 - sprawdź sobie bibliografię ich silnika, bo prawda jest taka, że nikt tak nie opanował Deferred Renderingu jak właśnie Holenderskie studio GuerillaGames.
Jeśli chodzi o Deferred Shading to jednak wypadałoby wymienić GSC Game World. S.T.A.L.K.E.R. był chyba pierwszą poważną grą, która opierała się właśnie o tą technikę (w 2005 opis tej techniki na bazie produkcji ukraińskiego studia pojawił się np. w GPU Gems 2), na dodatek optymalizacja stała na bardzo wysokim poziomie (pierwsza część miała bardzo niskie wymagania sprzętowe względem tego co oferowała pod względem jakości generowanego obrazu). Można powiedzieć, że to właśnie dzięki GSC technika ta zyskała tak dużą popularność. Jeśli zaś chodzi o GuerillaGames i DS to nic szczególnego oni nie zrobili, ot po prostu zaimplementowali go w swojej produkcji, ale takich produkcji po STALKER'ze powstało sporo i Uncharted nie jest tutaj niczym szczególnym, w tym czasie było już na kim się wzorować.
Oczywiście sama technika była opisana sporo wcześniej, ale opis techniki, a zastosowanie jej w praktyce to dwie zupełnie inne bajki.
Potem choćby się skichali z optymalizacją to na lepszym CPU będzie szybciej i tyle.
Mówi to ten, co programów nie pisze. Bulldozer może być wydajny, gdy się wie jak pod niego coś napisać
Gdyby było tak pięknie jak próbujesz zasugerować to premiera next genów byłaby zbędna, bo wystarczyło by poprawić 'optymalizację' i nagle w magiczny sposób PS3 i X360 stałyby się wydajniejsze od i7 3770K i GTX690.
Programów nie piszę, ale bajek o optymalizacji która ma w nieskończoność zwiększać wydajność gier już się nasłuchałem i naczytałem przy premierze PS3.
A fakty są takie, że obecnie konsole ledwo zipią i są wyeksploatowane do granic możliwości.
W podobne pobożne życzenia o nieskończonej mocy tym razem nie uwierzę, sorry...
Poza tym, może nie wszyscy na to zwrócili uwagę, ale...
1. W początkowym etapie generacji PS2, gry multiplatformowe w wersji na PS2 wyglądały lepiej niż na PC
2. W generacji PS3 i X360 - WSZYSTKIE gry multiplatformowe, nawet te które pojawiły się zaraz po premierze konsol wyglądały lepiej na PC.
Punkt 3 nastąpi niebawem i raczej tendencja jest łatwa do przewidzenia
Nawet jeżeli za kilka lat APU tej konsoli będzie 'przestarzałym szrotem' to będzie miało przewagę nad PC w postaci wspólnej przestrzeni adresowej CPU i GPU, co jest niemożliwe w przypadku dyskretnych kart graficznych. Wspólna przestrzeń adresowa oznacza znacznie łatwiejszą i szybszą modyfikację tekstur w czasie gry i szybsze obliczenia GPGPU.
Potem choćby się skichali z optymalizacją to na lepszym CPU będzie szybciej i tyle.
Vide podany wyżej przykład z Celeronem w Xboksie i Athlonami K7/K8.
Ty chyba naprawdę nie rozumiesz jak istotna jest optymalizacja softu - gdyby procesory AMD miały porównywalną do intelowskich, to zapewniam Cię, że wyniki różniłyby się znacząco od tych, które widujemy.
Btw, Twoje przykłady są cokolwiek marne - z jednej strony jedno góra dwu-wątkowe CPU (w tym ten słaby Celeron), a z drugiej współczesne CPU zdolne do przetworzenia wielu wątków, wyposażone do tego w całą masę dodatkowych instrukcji/rozszerzeń.
Bez względu na to czy w konsolach znajdzie się Jaguar czy stosunkowo nisko taktowane układy architektury modułowej (vide Piledriver/Steamroller), powinno to mieć pozytywny wpływ na lepsze wykorzystywanie możliwości procesorów AMD.
Raczej w niewielkim stopniu i tylko przy porównywalnej generacji produktów i z podobnego segmentu wydajności.
Potem choćby się skichali z optymalizacją to na lepszym CPU będzie szybciej i tyle.
Vide podany wyżej przykład z Celeronem w Xboksie i Athlonami K7/K8.
Odnośnie optymalizacji gier, to optymalizacja pod sprzęt AMD na konsolach nawet jeżeli w konsolach będzie APU AMD, w najmniejszym stopniu nie będzie reprezentatywna dla wydajności na PC
Więc jak ktoś liczy że przez kontrakt dla konsol AMD nagle będzie w testach zakasowywać Intela to się srodze zawiedzie.
Bez względu na to czy w konsolach znajdzie się Jaguar czy stosunkowo nisko taktowane układy architektury modułowej (vide Piledriver/Steamroller), powinno to mieć pozytywny wpływ na lepsze wykorzystywanie możliwości procesorów AMD.
Najwyraźniej cały czas zapominasz, iż znaczna część przewagi wydajnościowej Intela bierze się po prostu z optymalizacji oprogramowania pod ich CPU.
W tym sensie sukces AMD w konsolach może również pomóc im na rynku pecetowym - podobna architektura będzie wykorzystywana i tu i tu.
Co do artykułu to ciekawi mnie info o 4 procesorach dwurdzeniowych. Jakieś 1,5 roku temu przeglądałem patenty Yamazaki i Suzuoki i był tam szkic układu: 1PPE+4SPU i 4 takie układy były połączone jakimś switchem. Ogólnie obstawiałbym 16-rdzeni SPU/APU w PS4 i 4 rdzenie kontrolne?
Ale czy ty rozumiesz że Cell+RSX to taki tandem w którym to Cell najpierw pracuje a potem pcha to co zrobił do RSX? RSX ma 2x więcej cache od GTX i inaczej jest on rozmieszczony, ma magistralę FlexIO (szybszą 2x od PCI-Express x16). W killzone jak dobrze pamiętam VRAM przechowywał wyłącznie tekstury.
Mówimy oczywiście o exach bo co do multiplatform to już się wypowiedziałem - kupiłbym PC.
Najpierw chcesz wciskac kit ze rsx prezentuje poziom wyzszy od gtx 7800(w ogole magiczny poziom wrecz sugerujesz ) a teraz zmieniasz temat. Tak, Cell wyrecza z niektorych zadan graficznych Rsx a komunikacja miedzy rsx a cellem jest sprawniejsza niz ma to miejsce w PC. Nie twiedze ze jest inaczej. Co nie zmienia faktu ze rsx to prehistoria (tak samo jak gtx7800) w porowaniu do obecnych gpu.
Cell wyręcza? W Killzone praktycznie cała gra hula na CPU. Inną kwestią jest rozwój hardware, a inną kwestią rozwój technik renderingu. Przykładem niech będzie MLAA (użyty pierwszy raz w GOW) lub High Frequency Detail Mapping (nowa technika dodawania szczegółów do materiału i skóry od GuerillaGames - miała być użyta pierwszy raz w KZ3). Dla mnie nie ma rozdzielenia na Cell i RSX, bo dla mnie RSX i 6xSPU to jedno specyficzne SLI. Jak mam na to inaczej patrzeć skoro shadery są w Cellu?
http://www.cs.uaf.edu/2012/fall/cs441/students/sc_ps3.pdf
Odnośnie optymalizacji gier, to optymalizacja pod sprzęt AMD na konsolach nawet jeżeli w konsolach będzie APU AMD, w najmniejszym stopniu nie będzie reprezentatywna dla wydajności na PC
Więc jak ktoś liczy że przez kontrakt dla konsol AMD nagle będzie w testach zakasowywać Intela to się srodze zawiedzie.
Przykładowo w pierwszym Xboksie siedział Celeron Intela i jakaś hybryda GF3/GF4 od Nvidii.
A czy gry z X-a lepiej chodziły na CPU Intela? Nieprawda, bo lepiej chodziły na Athlonach od AMD (w tamtych czasach).
Z kolei w X360 siedzi układ ATI (AMD), a czy gry multiplatformowe zyskały w ten sposob na wydajności w konfiguracjach na Radeonach? Bynajmniej.
Taki Hitman Blood Money chociaż miał swoją wersję na X360, na PC-towych Radeonach działał bardzo słabo i z masą błędów w wyświetlanej grafice.
To samo NFS Most Wanted (pierwszy).
Tak więc co by do konsol nie trafiło od AMD, to nie będzie mieć to żadnego przełożenia na wydajność na PC, zwłaszcza po paru latach od premiery kiedy to APU będzie już przestarzałym szrotem.
Moze liczby Cie przekonaja: 8 ropow(16 jest gtx7800) i 128 bitowa szyna pamieci(256 bitow w przypadku gtx7800).
Ale czy ty rozumiesz że Cell+RSX to taki tandem w którym to Cell najpierw pracuje a potem pcha to co zrobił do RSX? RSX ma 2x więcej cache od GTX i inaczej jest on rozmieszczony, ma magistralę FlexIO (szybszą 2x od PCI-Express x16). W killzone jak dobrze pamiętam VRAM przechowywał wyłącznie tekstury.
Mówimy oczywiście o exach bo co do multiplatform to już się wypowiedziałem - kupiłbym PC.
Najpierw chcesz wciskac kit ze rsx prezentuje poziom wyzszy od gtx 7800(w ogole magiczny poziom wrecz sugerujesz ) a teraz zmieniasz temat. Tak, Cell wyrecza z niektorych zadan graficznych Rsx a komunikacja miedzy rsx a cellem jest sprawniejsza niz ma to miejsce w PC. Nie twiedze ze jest inaczej. Co nie zmienia faktu ze rsx to prehistoria (tak samo jak gtx7800) w porowaniu do obecnych gpu.
1.8 tflopsa w gpu ps3 (...)
0.2 Tflopa
Jak czytam komentarze, że taki killzone 3 i uncharted3 wyglądają kosmicznie to się nóż w kieszeni otwiera, albo ktoś jest tu ślepy. Jak na możliwości PS3 i Xboxa to szacun, ale ogólnie to jakość nie powala. Słabe tekstury i ledwo 30fpsów przy 720p często niepełnym. Bo gdzie te MEGA tekstury mają być przechowywane??? w 256mb RSXa czy 512 współdzielonych w Xboxie?? Wystarczy Far Cry 3 na LOW na PC i jest 3 razy ładniejszy niż na Xboxsie czy PS3....osobiscie sprawdzałem...
@Hashi
Twórcy CryEngine3 chyba tylko od killzona optymalizacji się uczyli bo grafika Crysisa 1 jest poza zasięgiem Killzona3.
Sam mam PC i Xboxa na 42', ale testowałem wiele TV i widziałem jak działa PS3 na Sony 55HX920 i głowy nie urywa ani w KILLZONIE ani w Uncharted....
Od strony technologicznej PS3 i xbox360 na dzień dzisiejszy to dno totalne, ale świetna optymalizacja pozwala współczesnym gierkom jakoś wyglądać i z przycinkami ledwo chodzić w 720p. To są FAKTY
Co by w tych nowych konsolach nie było to i tak i7 4770K + GTX780 czy 8970 bez większych problemów będą znacznie wydajniejsze, więc już na starcie PC będzie miał przewagę
1.8 tflopsa w gpu ps4 vs geforce oparty na gk110 4.5 tflopsa to na dzien dobry bedzie, ale wiadomo czasy sie zmienily, pobor pradu gpu poszedl mocno do gory a tez sony nie pozwoli sobie tak jak kiedys(slabe wyniki finansowe) dokladac do sprzetu wiec i ograniczenia finansowe
Jak czytam komentarze, że taki killzone 3 i uncharted3 wyglądają kosmicznie to się nóż w kieszeni otwiera, albo ktoś jest tu ślepy. Jak na możliwości PS3 i Xboxa to szacun, ale ogólnie to jakość nie powala. Słabe tekstury i ledwo 30fpsów przy 720p często niepełnym. Bo gdzie te MEGA tekstury mają być przechowywane??? w 256mb RSXa czy 512 współdzielonych w Xboxie?? Wystarczy Far Cry 3 na LOW na PC i jest 3 razy ładniejszy niż na Xboxsie czy PS3....osobiscie sprawdzałem...
@Hashi
Twórcy CryEngine3 chyba tylko od killzona optymalizacji się uczyli bo grafika Crysisa 1 jest poza zasięgiem Killzona3.
Sam mam PC i Xboxa na 42', ale testowałem wiele TV i widziałem jak działa PS3 na Sony 55HX920 i głowy nie urywa ani w KILLZONIE ani w Uncharted....
Od strony technologicznej PS3 i xbox360 na dzień dzisiejszy to dno totalne, ale świetna optymalizacja pozwala współczesnym gierkom jakoś wyglądać i z przycinkami ledwo chodzić w 720p. To są FAKTY
Co by w tych nowych konsolach nie było to i tak i7 4770K + GTX780 czy 8970 bez większych problemów będą znacznie wydajniejsze, więc już na starcie PC będzie miał przewagę
Bo mi lata uciekają i za chwile będę za stary na granie.
7 lat zastoju technicznego w grach spowodowane przez konsolowe zjebane porty to zdecydowanie za dużo.
Już mi się zygać chce tymi wszystkimi gierkami wyglądającymi jednakowo paskudnie robione na 6 letnim silniku Unreal 3 bądź jak Call Of Duty silniku z 10 letniego Quake.
Czas na zmiany i to duże ,oby te konsole były przynajmniej 10x wydajniejsze niż poprzednie.
Jeśli chodzi o Deferred Shading to jednak wypadałoby wymienić GSC Game World. S.T.A.L.K.E.R. był chyba pierwszą poważną grą, która opierała się właśnie o tą technikę (w 2005 opis tej techniki na bazie produkcji ukraińskiego studia pojawił się np. w GPU Gems 2), na dodatek optymalizacja stała na bardzo wysokim poziomie (pierwsza część miała bardzo niskie wymagania sprzętowe względem tego co oferowała pod względem jakości generowanego obrazu). Można powiedzieć, że to właśnie dzięki GSC technika ta zyskała tak dużą popularność. Jeśli zaś chodzi o GuerillaGames i DS to nic szczególnego oni nie zrobili, ot po prostu zaimplementowali go w swojej produkcji, ale takich produkcji po STALKER'ze powstało sporo i Uncharted nie jest tutaj niczym szczególnym, w tym czasie było już na kim się wzorować.
Oczywiście sama technika była opisana sporo wcześniej, ale opis techniki, a zastosowanie jej w praktyce to dwie zupełnie inne bajki.
Mówi to ten, co programów nie pisze. Bulldozer może być wydajny, gdy się wie jak pod niego coś napisać
Gdyby było tak pięknie jak próbujesz zasugerować to premiera next genów byłaby zbędna, bo wystarczyło by poprawić 'optymalizację' i nagle w magiczny sposób PS3 i X360 stałyby się wydajniejsze od i7 3770K i GTX690.
Programów nie piszę, ale bajek o optymalizacji która ma w nieskończoność zwiększać wydajność gier już się nasłuchałem i naczytałem przy premierze PS3.
A fakty są takie, że obecnie konsole ledwo zipią i są wyeksploatowane do granic możliwości.
W podobne pobożne życzenia o nieskończonej mocy tym razem nie uwierzę, sorry...
Poza tym, może nie wszyscy na to zwrócili uwagę, ale...
1. W początkowym etapie generacji PS2, gry multiplatformowe w wersji na PS2 wyglądały lepiej niż na PC
2. W generacji PS3 i X360 - WSZYSTKIE gry multiplatformowe, nawet te które pojawiły się zaraz po premierze konsol wyglądały lepiej na PC.
Punkt 3 nastąpi niebawem i raczej tendencja jest łatwa do przewidzenia
Mówi to ten, co programów nie pisze. Bulldozer może być wydajny, gdy się wie jak pod niego coś napisać
Potem choćby się skichali z optymalizacją to na lepszym CPU będzie szybciej i tyle.
Vide podany wyżej przykład z Celeronem w Xboksie i Athlonami K7/K8.
Ty chyba naprawdę nie rozumiesz jak istotna jest optymalizacja softu - gdyby procesory AMD miały porównywalną do intelowskich, to zapewniam Cię, że wyniki różniłyby się znacząco od tych, które widujemy.
Btw, Twoje przykłady są cokolwiek marne - z jednej strony jedno góra dwu-wątkowe CPU (w tym ten słaby Celeron), a z drugiej współczesne CPU zdolne do przetworzenia wielu wątków, wyposażone do tego w całą masę dodatkowych instrukcji/rozszerzeń.
Bez względu na to czy w konsolach znajdzie się Jaguar czy stosunkowo nisko taktowane układy architektury modułowej (vide Piledriver/Steamroller), powinno to mieć pozytywny wpływ na lepsze wykorzystywanie możliwości procesorów AMD.
Raczej w niewielkim stopniu i tylko przy porównywalnej generacji produktów i z podobnego segmentu wydajności.
Potem choćby się skichali z optymalizacją to na lepszym CPU będzie szybciej i tyle.
Vide podany wyżej przykład z Celeronem w Xboksie i Athlonami K7/K8.
Odnośnie optymalizacji gier, to optymalizacja pod sprzęt AMD na konsolach nawet jeżeli w konsolach będzie APU AMD, w najmniejszym stopniu nie będzie reprezentatywna dla wydajności na PC
Więc jak ktoś liczy że przez kontrakt dla konsol AMD nagle będzie w testach zakasowywać Intela to się srodze zawiedzie.
Bez względu na to czy w konsolach znajdzie się Jaguar czy stosunkowo nisko taktowane układy architektury modułowej (vide Piledriver/Steamroller), powinno to mieć pozytywny wpływ na lepsze wykorzystywanie możliwości procesorów AMD.
Najwyraźniej cały czas zapominasz, iż znaczna część przewagi wydajnościowej Intela bierze się po prostu z optymalizacji oprogramowania pod ich CPU.
W tym sensie sukces AMD w konsolach może również pomóc im na rynku pecetowym - podobna architektura będzie wykorzystywana i tu i tu.
Problem będzie jak go źle umieszczą, albo gry będą nachalnie upominać Cię o dzieleniu się osiągnięciami.
Prawda ale wtykanie wszędzie pejsbooka i innych tego typu lajkowych portali staje się już nieco drażniące.
A ja powiem że jak coś drażni to przeszkadza
Prawda ale wtykanie wszędzie pejsbooka i innych tego typu lajkowych portali staje się już nieco drażniące.
Ale czy ty rozumiesz że Cell+RSX to taki tandem w którym to Cell najpierw pracuje a potem pcha to co zrobił do RSX? RSX ma 2x więcej cache od GTX i inaczej jest on rozmieszczony, ma magistralę FlexIO (szybszą 2x od PCI-Express x16). W killzone jak dobrze pamiętam VRAM przechowywał wyłącznie tekstury.
Mówimy oczywiście o exach bo co do multiplatform to już się wypowiedziałem - kupiłbym PC.
Najpierw chcesz wciskac kit ze rsx prezentuje poziom wyzszy od gtx 7800(w ogole magiczny poziom wrecz sugerujesz
Cell wyręcza? W Killzone praktycznie cała gra hula na CPU. Inną kwestią jest rozwój hardware, a inną kwestią rozwój technik renderingu. Przykładem niech będzie MLAA (użyty pierwszy raz w GOW) lub High Frequency Detail Mapping (nowa technika dodawania szczegółów do materiału i skóry od GuerillaGames - miała być użyta pierwszy raz w KZ3). Dla mnie nie ma rozdzielenia na Cell i RSX, bo dla mnie RSX i 6xSPU to jedno specyficzne SLI. Jak mam na to inaczej patrzeć skoro shadery są w Cellu?
Bardzo ładnie proszę.
X360
http://www.cis.upenn.edu/~milom/cis501-Fal...xbox-system.pdf
PS3
http://www.cs.uaf.edu/2012/fall/cs441/students/sc_ps3.pdf
Odnośnie optymalizacji gier, to optymalizacja pod sprzęt AMD na konsolach nawet jeżeli w konsolach będzie APU AMD, w najmniejszym stopniu nie będzie reprezentatywna dla wydajności na PC
Więc jak ktoś liczy że przez kontrakt dla konsol AMD nagle będzie w testach zakasowywać Intela to się srodze zawiedzie.
Przykładowo w pierwszym Xboksie siedział Celeron Intela i jakaś hybryda GF3/GF4 od Nvidii.
A czy gry z X-a lepiej chodziły na CPU Intela? Nieprawda, bo lepiej chodziły na Athlonach od AMD (w tamtych czasach).
Z kolei w X360 siedzi układ ATI (AMD), a czy gry multiplatformowe zyskały w ten sposob na wydajności w konfiguracjach na Radeonach? Bynajmniej.
Taki Hitman Blood Money chociaż miał swoją wersję na X360, na PC-towych Radeonach działał bardzo słabo i z masą błędów w wyświetlanej grafice.
To samo NFS Most Wanted (pierwszy).
Tak więc co by do konsol nie trafiło od AMD, to nie będzie mieć to żadnego przełożenia na wydajność na PC, zwłaszcza po paru latach od premiery kiedy to APU będzie już przestarzałym szrotem.
Ale czy ty rozumiesz że Cell+RSX to taki tandem w którym to Cell najpierw pracuje a potem pcha to co zrobił do RSX? RSX ma 2x więcej cache od GTX i inaczej jest on rozmieszczony, ma magistralę FlexIO (szybszą 2x od PCI-Express x16). W killzone jak dobrze pamiętam VRAM przechowywał wyłącznie tekstury.
Mówimy oczywiście o exach bo co do multiplatform to już się wypowiedziałem - kupiłbym PC.
Najpierw chcesz wciskac kit ze rsx prezentuje poziom wyzszy od gtx 7800(w ogole magiczny poziom wrecz sugerujesz