@up
No właśnie o to mi chodizło. Przez PCI-E muszą przejść te wszystkie dane przecież, a przyśpieszenie parukrotne PCI-E nie daje żadnego przyśpieszenia. Przyspieszenie pamięci RAM, cache L3 nie daje takiego kopa jak GPU szybsze o 50%, CPU szybsze 50%.
Na każdym kroku zmniejszasz czas dostępu, a jednak nie zrobisz z Core2Duo -> Ivy Bridge...
Czy 7790->7870.
Mając w PC komponenty szybsze możesz olać. To tak samo jakby cieszyć się Hiperwątkowości Pentium-a 4 podczas gdy Athlon i tak oferował znacznie lepszą wydajność.
Jeśli chodzi o to co Carmack napisał to sprawa jest prosta - nawet jeśli w PC wywalisz API i zastąpisz je niskopoziomowymi bibliotekami dającymi bezpośredni dostęp do sprzętu to i tak nie unikniesz w przypadku PC wąskiego gardła jakim jest wymiana danych między GPU i CPU trwająca dziesiątki jeśli nie setki cykli zegarowych. W przypadku APU jest o tyle lepiej, że przestrzeń fizycznie jest jedna, niemniej ze względu na to jak obie logiczne przestrzenie funkcjonują poprzednia generacja APU nie miała pełnej dowolności w wymianie danych - a dokładniej operowaniu na tym samym zestawie przez CPU i GPU. Konieczne było utworzenie bufora dostępnego dla CPU w pamięci GPU. Prawie hUMA. W przypadku obecnych konstrukcji dając zoptymalizowaną implementację API można niektóre czynności skrócić wielokrotnie co samo w sobie daje lepsze wykorzystanie mocy (obecnie sporo jej się jednak nadal traci), a przy dostępnie niskopoziomowym na dzień dzisiejszy możliwości są olbrzymie. Jasne - tam gdzie będzie zestaw shaderów zjadających titana na śniadanie tym bardziej pożarte zostaną zmodyfikowane jaguary w x/ps, natomiast przy pełnej optymalizacji pod tą architekturę można się spodziewać efektów zostawiających w tyle Crysisa 2. Czy to źle?
Niby tak, nie ulega wątpliwości przewaga szybkiego dostępu do GPU/Pamięci....
... ale gdyby te wszystkie plusy miały wpływ na wydajność tak ogromny jak to czasem jest przedstawiane to kolejne generacjie PCI-E miałyby wpływ na wydajność.
Ale w PCI-E nie możesz współdzielić pamięci. Żeby GPU miało dostęp do danych CPU musisz zapisać dane CPU w RAM, przekopiować i zapisać z RAM do RAM, i dopiero GPU ma dostęp. Ze współdzieleniem CPU zapisuje coś w RAM a GPU od razu ma dostęp. Bez względu na przepustowość te kilka kroków coś tam trwa, a ze współdzieloną pamięcią nie ma tych kroków.
Jeśli chodzi o to co Carmack napisał to sprawa jest prosta - nawet jeśli w PC wywalisz API i zastąpisz je niskopoziomowymi bibliotekami dającymi bezpośredni dostęp do sprzętu to i tak nie unikniesz w przypadku PC wąskiego gardła jakim jest wymiana danych między GPU i CPU trwająca dziesiątki jeśli nie setki cykli zegarowych. W przypadku APU jest o tyle lepiej, że przestrzeń fizycznie jest jedna, niemniej ze względu na to jak obie logiczne przestrzenie funkcjonują poprzednia generacja APU nie miała pełnej dowolności w wymianie danych - a dokładniej operowaniu na tym samym zestawie przez CPU i GPU. Konieczne było utworzenie bufora dostępnego dla CPU w pamięci GPU. Prawie hUMA. W przypadku obecnych konstrukcji dając zoptymalizowaną implementację API można niektóre czynności skrócić wielokrotnie co samo w sobie daje lepsze wykorzystanie mocy (obecnie sporo jej się jednak nadal traci), a przy dostępnie niskopoziomowym na dzień dzisiejszy możliwości są olbrzymie. Jasne - tam gdzie będzie zestaw shaderów zjadających titana na śniadanie tym bardziej pożarte zostaną zmodyfikowane jaguary w x/ps, natomiast przy pełnej optymalizacji pod tą architekturę można się spodziewać efektów zostawiających w tyle Crysisa 2. Czy to źle?
Niby tak, nie ulega wątpliwości przewaga szybkiego dostępu do GPU/Pamięci....
... ale gdyby te wszystkie plusy miały wpływ na wydajność tak ogromny jak to czasem jest przedstawiane to kolejne generacjie PCI-E, czy sam fakt, że kontroler PCI-E jest przy CPU.
Niestety tak jak w drugiej częsci piszesz i tak zawalisz GPU robotą i będzie ograniczeniem. 50% szybszy PC zniweluje te wszelkie przewagi konsol.
O ile w GPU jak pisałem już problemem może być mała ilość pamięci to pewnie szybko pojawią się odpowiednie szybsze.
Masz Crysis-a 3, który co prawda oparty jest na silniku z C2, to jednak graficznie zjada go Na PC chodzi to dobrze.
Jeśli chodzi o to co Carmack napisał to sprawa jest prosta - nawet jeśli w PC wywalisz API i zastąpisz je niskopoziomowymi bibliotekami dającymi bezpośredni dostęp do sprzętu to i tak nie unikniesz w przypadku PC wąskiego gardła jakim jest wymiana danych między GPU i CPU trwająca dziesiątki jeśli nie setki cykli zegarowych. W przypadku APU jest o tyle lepiej, że przestrzeń fizycznie jest jedna, niemniej ze względu na to jak obie logiczne przestrzenie funkcjonują poprzednia generacja APU nie miała pełnej dowolności w wymianie danych - a dokładniej operowaniu na tym samym zestawie przez CPU i GPU. Konieczne było utworzenie bufora dostępnego dla CPU w pamięci GPU. Prawie hUMA. W przypadku obecnych konstrukcji dając zoptymalizowaną implementację API można niektóre czynności skrócić wielokrotnie co samo w sobie daje lepsze wykorzystanie mocy (obecnie sporo jej się jednak nadal traci), a przy dostępnie niskopoziomowym na dzień dzisiejszy możliwości są olbrzymie. Jasne - tam gdzie będzie zestaw shaderów zjadających titana na śniadanie tym bardziej pożarte zostaną zmodyfikowane jaguary w x/ps, natomiast przy pełnej optymalizacji pod tą architekturę można się spodziewać efektów zostawiających w tyle Crysisa 2. Czy to źle?
cały świat tnie koszty sam proc cell(3,2 ghz) do PS3 kosztował sony 400 mln do tego zostały wtedy uzyte grafiki na poziomie GF 6800 ultra w trybie SLI na owe czas byl to top config
PS4 jaguarki 8 + radeonek 7900 no śmiech na sali do tego nadchodzą Ultra rozdzialki mocno lansowane ja panowie nie wiem czy za 2-3 lata nie bedzie ps5 i xbox two
bo z takim configiem dajcie spokoj na dzisiejsze czasy moc obliczeniowa next genów to ....PS4=125p a xbox to kaszlak
Poprzednia generacja konsol starczy na zabawę w świetne gry przez ponad 8 lat!
W świecie PCtów to 2 wymiany sprzętu co najmniej.
Jakiś zwykły pecet (może All-in-one jak stanieją) lub ultrabook z dockiem + konsola nowej generacji i człowiek jest ustawiony. (nie mam tu na myśli ludzi, którzy potrzebują stacji roboczych do pracy)
Ciekawe czy EA znowu przez kilka lat będzie serwować pecetowcom odgrzewaną FIFĘ z poprzedniej generacji konsol, bo niby pecety były za słabe.
A co to takiego ta FIFA ? Bo zabrzmiało jakby był to co najmniej jakiś CoD, BF czy inny CS. Wątpię by poważni gracze PeCetowi sięgali po to coś. Ja na pewno płakać nie będę
układy nowych konsol wyprzedzają najszybsze procesory PC-towe o całą generację.
Taka teza sugeruje, że Kaveri od AMD zrównałoby tą róznicę...
... niech mnie drzwi ścisną jeśli Kaveri nie wyprzedzi tych konsolowych procesorów o generację
Według Sasa Marinkovic'a, kierownika jednego z działów marketingowych AMD, wzrost wydajności spowodowany zastosowaniem hUMA może wynieść w niektórych zastosowaniach nawet 500% – to samo zadanie wykona się pięć razy szybciej na tandemie CPU+GPU niż na samym CPU.
Czyli jeżeli Phenom II jest szybszy od CPU w PS4 o 500% to znaczy, że sam procesor zapewnia mi wydajność PS4? Tym razem trochę niedoszacowane.
Z drugiej strony wykonanie obliczeń na CPU+GPU obniża wydajność GPU. Wniosek z tego taki, że mając CPU wydajniejsze o 500% będę miał więcej mocy na GPU, do renderowania grafiki i po co to całe huma?
. Możemy co najwyżej polegać na opracowaniu serwisu Eurogamer, który uważa, że procesor FX-8350 (wybrany za radą twórców gier z uwagi na sprzętową obsługę ośmiu wątków jednocześnie)
Bardzo ciekawa uwaga... zwłaszcza, FX posiada 4FPU, 4 decodery....
;
..... te wypowiedzi faktycznie można podsumować tak: http://pclab.pl/zdjecia/artykuly/napierala...ach/rein_01.png
Stary PC z Phenomem II x6 powinien dać radę, Nehalem też... Core2Quad? A czemu nie?
Każdy z tych dziadków zapewni taką wydajność jak CPU w konsoli x2 wynika to z samego zegara. Koszt nowej lepszej grafiki? to 800zł. Koszt nowej konsoli 1800zł?
Moim zdaniem PC przynajmniej sprzętowo wygrywa, bo mimo, że stare to tańsze i lepsze.
bogo126 DeepDown gameplay ? Gdzie ? ;] Czy jak do byle jakiego cinematica/kreskówki/filmu podepniesz UI tez nazwiesz to gameplayem ? MS jak i Sony nie pokazały nic nadzwyczajnego. Dużo obietnic w nieokreślonej przyszłości i tyle.
A pan CEO z EA zawsze bzdury gadal . Trzeba reklamowac przyszly rynek zbytu ich sportowych gierek.
Bo teraz konsole za duzo w sobie mają PCta, a nawet zabawki media-center, a za mało uczciwej mocy potrzebnej do gier. To nie te czasy, gdy wchodziły konsole nexy-gen i zgniatały na początku PCty.
Fakty:
1. Shitbox to shitbox (tivi i sports - xbox go home)
2. Pod względem sprzętowym: PS4 > Shitbox (te 32Mb ramu nie załatwią sprawy, w szczególności, gdy będzie potrzeba nagłego stremowanie paru GB tekstur)
3. Myślę, że ludzie nie doceniają GPU w konsolach. Jakiś czas temu, Carmack napisał na twiterze, że żeby porównywać GPU w konsolach i CPU, moc GPU w konsoli trzeba pomnożyć razy 2 (optymalizacja, programowanie w assemblerze itp.). Czy to prawda ? Jeżeli założy, że w PS3 czy Xbox było coś na kształt nV 7900, po przemnożeniu przez 2 dostajemy GTX 8800. Jestem w stanie w to uwierzyć.
4. Oczywiście, że nawet, gdy pomnożymy hd7850 x2 i tak są grafiki wydajniejsze na PC. Ale wiadomo: a na konsoli zrobi się mniej dynamiczne cienie, a to POM zamiast teselacji. Oczywiście na Pc, wszytko będzie liczone w czasie rzeczywistym. I wilk będzie syty (PC) i owca cała konsola (PS4). O shitboxie z racji słabej specyfikacji nie wspominam (ach te zacofane nextgenowe COD )
4. Co do samej jakości grafiki - mi wystarczy jakość z gameplaya DeepDown i DriveCLub.
Wszystko spoko, ale niech popracują nad jakością i grywalnością nowych gier ! Bo co z tego, że gra wygląda aż przesadnie dobrze graficznie (blury i inne cuda), jak po paru godzinach albo nie chce nam się już grać, albo widzimy napis 'Congratulations, go to our store to buy DLC' ? Jestem jak najbardziej za postępem technologicznym, ale niech to się nie odbywa głównym wyznacznikiem jakości gier - grywalnością. W złą stronę to wszystko zmierza :/
Konsole wyprzedza na pewno współczesne PCty jeśli chodzi o wydajność(jakość) / WAT. Z czasem pewnie się to zmieni. Jeśli chodzi o grafikę to prawdopodobnie będzie ona w końcu na konsolach przyzwoita i tyle (ładne tekstury, wysokie rozdzielczości, duże przestrzenie). Jak by nie kombinowali nie przegonią współczesnych PC pod względem mocy. Microsoft coś tam mówi o obliczeniach w chmurze które mają wspomagać konsolę, ale jakoś tego nie widzę.
No właśnie o to mi chodizło. Przez PCI-E muszą przejść te wszystkie dane przecież, a przyśpieszenie parukrotne PCI-E nie daje żadnego przyśpieszenia. Przyspieszenie pamięci RAM, cache L3 nie daje takiego kopa jak GPU szybsze o 50%, CPU szybsze 50%.
Na każdym kroku zmniejszasz czas dostępu, a jednak nie zrobisz z Core2Duo -> Ivy Bridge...
Czy 7790->7870.
Mając w PC komponenty szybsze możesz olać. To tak samo jakby cieszyć się Hiperwątkowości Pentium-a 4 podczas gdy Athlon i tak oferował znacznie lepszą wydajność.
Niby tak, nie ulega wątpliwości przewaga szybkiego dostępu do GPU/Pamięci....
... ale gdyby te wszystkie plusy miały wpływ na wydajność tak ogromny jak to czasem jest przedstawiane to kolejne generacjie PCI-E miałyby wpływ na wydajność.
Ale w PCI-E nie możesz współdzielić pamięci. Żeby GPU miało dostęp do danych CPU musisz zapisać dane CPU w RAM, przekopiować i zapisać z RAM do RAM, i dopiero GPU ma dostęp. Ze współdzieleniem CPU zapisuje coś w RAM a GPU od razu ma dostęp. Bez względu na przepustowość te kilka kroków coś tam trwa, a ze współdzieloną pamięcią nie ma tych kroków.
Niby tak, nie ulega wątpliwości przewaga szybkiego dostępu do GPU/Pamięci....
... ale gdyby te wszystkie plusy miały wpływ na wydajność tak ogromny jak to czasem jest przedstawiane to kolejne generacjie PCI-E, czy sam fakt, że kontroler PCI-E jest przy CPU.
Niestety tak jak w drugiej częsci piszesz i tak zawalisz GPU robotą i będzie ograniczeniem. 50% szybszy PC zniweluje te wszelkie przewagi konsol.
O ile w GPU jak pisałem już problemem może być mała ilość pamięci to pewnie szybko pojawią się odpowiednie szybsze.
Masz Crysis-a 3, który co prawda oparty jest na silniku z C2, to jednak graficznie zjada go
PS4 jaguarki 8 + radeonek 7900 no śmiech na sali do tego nadchodzą Ultra rozdzialki mocno lansowane ja panowie nie wiem czy za 2-3 lata nie bedzie ps5 i xbox two
bo z takim configiem dajcie spokoj na dzisiejsze czasy moc obliczeniowa next genów to ....PS4=125p a xbox to kaszlak
W świecie PCtów to 2 wymiany sprzętu co najmniej.
Jakiś zwykły pecet (może All-in-one jak stanieją) lub ultrabook z dockiem + konsola nowej generacji i człowiek jest ustawiony. (nie mam tu na myśli ludzi, którzy potrzebują stacji roboczych do pracy)
A co to takiego ta FIFA ? Bo zabrzmiało jakby był to co najmniej jakiś CoD, BF czy inny CS. Wątpię by poważni gracze PeCetowi sięgali po to coś. Ja na pewno płakać nie będę
Taka teza sugeruje, że Kaveri od AMD zrównałoby tą róznicę...
... niech mnie drzwi ścisną jeśli Kaveri nie wyprzedzi tych konsolowych procesorów o generację
Czyli jeżeli Phenom II jest szybszy od CPU w PS4 o 500% to znaczy, że sam procesor zapewnia mi wydajność PS4? Tym razem trochę niedoszacowane.
Z drugiej strony wykonanie obliczeń na CPU+GPU obniża wydajność GPU. Wniosek z tego taki, że mając CPU wydajniejsze o 500% będę miał więcej mocy na GPU, do renderowania grafiki i po co to całe huma?
Bardzo ciekawa uwaga... zwłaszcza, FX posiada 4FPU, 4 decodery....
;
..... te wypowiedzi faktycznie można podsumować tak:
http://pclab.pl/zdjecia/artykuly/napierala...ach/rein_01.png
Stary PC z Phenomem II x6 powinien dać radę, Nehalem też... Core2Quad? A czemu nie?
Każdy z tych dziadków zapewni taką wydajność jak CPU w konsoli x2 wynika to z samego zegara. Koszt nowej lepszej grafiki? to 800zł. Koszt nowej konsoli 1800zł?
Moim zdaniem PC przynajmniej sprzętowo wygrywa, bo mimo, że stare to tańsze i lepsze.
A pan CEO z EA zawsze bzdury gadal
1. Shitbox to shitbox (tivi i sports - xbox go home)
2. Pod względem sprzętowym: PS4 > Shitbox (te 32Mb ramu nie załatwią sprawy, w szczególności, gdy będzie potrzeba nagłego stremowanie paru GB tekstur)
3. Myślę, że ludzie nie doceniają GPU w konsolach. Jakiś czas temu, Carmack napisał na twiterze, że żeby porównywać GPU w konsolach i CPU, moc GPU w konsoli trzeba pomnożyć razy 2 (optymalizacja, programowanie w assemblerze itp.). Czy to prawda ? Jeżeli założy, że w PS3 czy Xbox było coś na kształt nV 7900, po przemnożeniu przez 2 dostajemy GTX 8800. Jestem w stanie w to uwierzyć.
4. Oczywiście, że nawet, gdy pomnożymy hd7850 x2 i tak są grafiki wydajniejsze na PC. Ale wiadomo: a na konsoli zrobi się mniej dynamiczne cienie, a to POM zamiast teselacji. Oczywiście na Pc, wszytko będzie liczone w czasie rzeczywistym. I wilk będzie syty (PC) i owca cała konsola (PS4). O shitboxie z racji słabej specyfikacji nie wspominam (ach te zacofane nextgenowe COD
4. Co do samej jakości grafiki - mi wystarczy jakość z gameplaya DeepDown i DriveCLub.
P.S.
Jak tam konkursik, wyłoniono już laureatów, czy nadal szukamy krewnego do odebrania nagród...?