komentarze
*Konto usunięte*2013.05.27, 19:03
@up
No właśnie o to mi chodizło. Przez PCI-E muszą przejść te wszystkie dane przecież, a przyśpieszenie parukrotne PCI-E nie daje żadnego przyśpieszenia. Przyspieszenie pamięci RAM, cache L3 nie daje takiego kopa jak GPU szybsze o 50%, CPU szybsze 50%.
Na każdym kroku zmniejszasz czas dostępu, a jednak nie zrobisz z Core2Duo -> Ivy Bridge...
Czy 7790->7870.

Mając w PC komponenty szybsze możesz olać. To tak samo jakby cieszyć się Hiperwątkowości Pentium-a 4 podczas gdy Athlon i tak oferował znacznie lepszą wydajność.
sevaeZobacz profil
Poziom ostrzeżenia: 0%
sevae2013.05.27, 19:01
SunTzu @ 2013.05.27 18:57  Post: 660320
Promilus1984 @ 2013.05.27 18:38  Post: 660317
Jeśli chodzi o to co Carmack napisał to sprawa jest prosta - nawet jeśli w PC wywalisz API i zastąpisz je niskopoziomowymi bibliotekami dającymi bezpośredni dostęp do sprzętu to i tak nie unikniesz w przypadku PC wąskiego gardła jakim jest wymiana danych między GPU i CPU trwająca dziesiątki jeśli nie setki cykli zegarowych. W przypadku APU jest o tyle lepiej, że przestrzeń fizycznie jest jedna, niemniej ze względu na to jak obie logiczne przestrzenie funkcjonują poprzednia generacja APU nie miała pełnej dowolności w wymianie danych - a dokładniej operowaniu na tym samym zestawie przez CPU i GPU. Konieczne było utworzenie bufora dostępnego dla CPU w pamięci GPU. Prawie hUMA. W przypadku obecnych konstrukcji dając zoptymalizowaną implementację API można niektóre czynności skrócić wielokrotnie co samo w sobie daje lepsze wykorzystanie mocy (obecnie sporo jej się jednak nadal traci), a przy dostępnie niskopoziomowym na dzień dzisiejszy możliwości są olbrzymie. Jasne - tam gdzie będzie zestaw shaderów zjadających titana na śniadanie tym bardziej pożarte zostaną zmodyfikowane jaguary w x/ps, natomiast przy pełnej optymalizacji pod tą architekturę można się spodziewać efektów zostawiających w tyle Crysisa 2. Czy to źle?

Niby tak, nie ulega wątpliwości przewaga szybkiego dostępu do GPU/Pamięci....
... ale gdyby te wszystkie plusy miały wpływ na wydajność tak ogromny jak to czasem jest przedstawiane to kolejne generacjie PCI-E miałyby wpływ na wydajność.

Ale w PCI-E nie możesz współdzielić pamięci. Żeby GPU miało dostęp do danych CPU musisz zapisać dane CPU w RAM, przekopiować i zapisać z RAM do RAM, i dopiero GPU ma dostęp. Ze współdzieleniem CPU zapisuje coś w RAM a GPU od razu ma dostęp. Bez względu na przepustowość te kilka kroków coś tam trwa, a ze współdzieloną pamięcią nie ma tych kroków.
*Konto usunięte*2013.05.27, 18:57
Promilus1984 @ 2013.05.27 18:38  Post: 660317
Jeśli chodzi o to co Carmack napisał to sprawa jest prosta - nawet jeśli w PC wywalisz API i zastąpisz je niskopoziomowymi bibliotekami dającymi bezpośredni dostęp do sprzętu to i tak nie unikniesz w przypadku PC wąskiego gardła jakim jest wymiana danych między GPU i CPU trwająca dziesiątki jeśli nie setki cykli zegarowych. W przypadku APU jest o tyle lepiej, że przestrzeń fizycznie jest jedna, niemniej ze względu na to jak obie logiczne przestrzenie funkcjonują poprzednia generacja APU nie miała pełnej dowolności w wymianie danych - a dokładniej operowaniu na tym samym zestawie przez CPU i GPU. Konieczne było utworzenie bufora dostępnego dla CPU w pamięci GPU. Prawie hUMA. W przypadku obecnych konstrukcji dając zoptymalizowaną implementację API można niektóre czynności skrócić wielokrotnie co samo w sobie daje lepsze wykorzystanie mocy (obecnie sporo jej się jednak nadal traci), a przy dostępnie niskopoziomowym na dzień dzisiejszy możliwości są olbrzymie. Jasne - tam gdzie będzie zestaw shaderów zjadających titana na śniadanie tym bardziej pożarte zostaną zmodyfikowane jaguary w x/ps, natomiast przy pełnej optymalizacji pod tą architekturę można się spodziewać efektów zostawiających w tyle Crysisa 2. Czy to źle?

Niby tak, nie ulega wątpliwości przewaga szybkiego dostępu do GPU/Pamięci....
... ale gdyby te wszystkie plusy miały wpływ na wydajność tak ogromny jak to czasem jest przedstawiane to kolejne generacjie PCI-E, czy sam fakt, że kontroler PCI-E jest przy CPU.
Niestety tak jak w drugiej częsci piszesz i tak zawalisz GPU robotą i będzie ograniczeniem. 50% szybszy PC zniweluje te wszelkie przewagi konsol.
O ile w GPU jak pisałem już problemem może być mała ilość pamięci to pewnie szybko pojawią się odpowiednie szybsze.

Masz Crysis-a 3, który co prawda oparty jest na silniku z C2, to jednak graficznie zjada go:P Na PC chodzi to dobrze.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842013.05.27, 18:38
Jeśli chodzi o to co Carmack napisał to sprawa jest prosta - nawet jeśli w PC wywalisz API i zastąpisz je niskopoziomowymi bibliotekami dającymi bezpośredni dostęp do sprzętu to i tak nie unikniesz w przypadku PC wąskiego gardła jakim jest wymiana danych między GPU i CPU trwająca dziesiątki jeśli nie setki cykli zegarowych. W przypadku APU jest o tyle lepiej, że przestrzeń fizycznie jest jedna, niemniej ze względu na to jak obie logiczne przestrzenie funkcjonują poprzednia generacja APU nie miała pełnej dowolności w wymianie danych - a dokładniej operowaniu na tym samym zestawie przez CPU i GPU. Konieczne było utworzenie bufora dostępnego dla CPU w pamięci GPU. Prawie hUMA. W przypadku obecnych konstrukcji dając zoptymalizowaną implementację API można niektóre czynności skrócić wielokrotnie co samo w sobie daje lepsze wykorzystanie mocy (obecnie sporo jej się jednak nadal traci), a przy dostępnie niskopoziomowym na dzień dzisiejszy możliwości są olbrzymie. Jasne - tam gdzie będzie zestaw shaderów zjadających titana na śniadanie tym bardziej pożarte zostaną zmodyfikowane jaguary w x/ps, natomiast przy pełnej optymalizacji pod tą architekturę można się spodziewać efektów zostawiających w tyle Crysisa 2. Czy to źle?
szefonsZobacz profil
Poziom ostrzeżenia: 0%
szefons2013.05.27, 18:37
-2#14
Pierdu pierdu
zitoslawZobacz profil
Poziom ostrzeżenia: 0%
zitoslaw2013.05.27, 18:34
cały świat tnie koszty sam proc cell(3,2 ghz) do PS3 kosztował sony 400 mln do tego zostały wtedy uzyte grafiki na poziomie GF 6800 ultra w trybie SLI na owe czas byl to top config
PS4 jaguarki 8 + radeonek 7900 no śmiech na sali do tego nadchodzą Ultra rozdzialki mocno lansowane ja panowie nie wiem czy za 2-3 lata nie bedzie ps5 i xbox two
bo z takim configiem dajcie spokoj na dzisiejsze czasy moc obliczeniowa next genów to ....PS4=125p a xbox to kaszlak
mariuszl2Zobacz profil
Poziom ostrzeżenia: 0%
mariuszl22013.05.27, 18:25
-8#12
Poprzednia generacja konsol starczy na zabawę w świetne gry przez ponad 8 lat!
W świecie PCtów to 2 wymiany sprzętu co najmniej.
Jakiś zwykły pecet (może All-in-one jak stanieją) lub ultrabook z dockiem + konsola nowej generacji i człowiek jest ustawiony. (nie mam tu na myśli ludzi, którzy potrzebują stacji roboczych do pracy)
idesofmayZobacz profil
Poziom ostrzeżenia: 0%
idesofmay2013.05.27, 18:23
10#11
Poważni gracze PeCetowi którzy sięgają w CoD czy BF? Wow, prawdziwe tytuły dla dojrzałych ludzi...
*Konto usunięte*2013.05.27, 18:20
-12#10
TrisenK @ 2013.05.27 18:06  Post: 660300
Ciekawe czy EA znowu przez kilka lat będzie serwować pecetowcom odgrzewaną FIFĘ z poprzedniej generacji konsol, bo niby pecety były za słabe.


A co to takiego ta FIFA ? Bo zabrzmiało jakby był to co najmniej jakiś CoD, BF czy inny CS. Wątpię by poważni gracze PeCetowi sięgali po to coś. Ja na pewno płakać nie będę :lol2:
*Konto usunięte*2013.05.27, 18:16
układy nowych konsol wyprzedzają najszybsze procesory PC-towe o całą generację.

Taka teza sugeruje, że Kaveri od AMD zrównałoby tą róznicę...
... niech mnie drzwi ścisną jeśli Kaveri nie wyprzedzi tych konsolowych procesorów o generację :P

Według Sasa Marinkovic'a, kierownika jednego z działów marketingowych AMD, wzrost wydajności spowodowany zastosowaniem hUMA może wynieść w niektórych zastosowaniach nawet 500% – to samo zadanie wykona się pięć razy szybciej na tandemie CPU+GPU niż na samym CPU.

Czyli jeżeli Phenom II jest szybszy od CPU w PS4 o 500% to znaczy, że sam procesor zapewnia mi wydajność PS4? Tym razem trochę niedoszacowane.
Z drugiej strony wykonanie obliczeń na CPU+GPU obniża wydajność GPU. Wniosek z tego taki, że mając CPU wydajniejsze o 500% będę miał więcej mocy na GPU, do renderowania grafiki i po co to całe huma?

. Możemy co najwyżej polegać na opracowaniu serwisu Eurogamer, który uważa, że procesor FX-8350 (wybrany za radą twórców gier z uwagi na sprzętową obsługę ośmiu wątków jednocześnie)

Bardzo ciekawa uwaga... zwłaszcza, FX posiada 4FPU, 4 decodery....

;
..... te wypowiedzi faktycznie można podsumować tak:
http://pclab.pl/zdjecia/artykuly/napierala...ach/rein_01.png
Stary PC z Phenomem II x6 powinien dać radę, Nehalem też... Core2Quad? A czemu nie?
Każdy z tych dziadków zapewni taką wydajność jak CPU w konsoli x2 wynika to z samego zegara. Koszt nowej lepszej grafiki? to 800zł. Koszt nowej konsoli 1800zł?

Moim zdaniem PC przynajmniej sprzętowo wygrywa, bo mimo, że stare to tańsze i lepsze.
Mr_HydeZobacz profil
Poziom ostrzeżenia: 0%
Mr_Hyde2013.05.27, 18:15
13#8
bogo126 DeepDown gameplay ? Gdzie ? ;] Czy jak do byle jakiego cinematica/kreskówki/filmu podepniesz UI tez nazwiesz to gameplayem ? MS jak i Sony nie pokazały nic nadzwyczajnego. Dużo obietnic w nieokreślonej przyszłości i tyle.

A pan CEO z EA zawsze bzdury gadal :P. Trzeba reklamowac przyszly rynek zbytu ich sportowych gierek.
SmogsmokZobacz profil
Poziom ostrzeżenia: 0%
Smogsmok2013.05.27, 18:14
18#7
W okolicach premiery xbox1 i ps4 wyjdzie nowa seria gpu od AMD w 20nm prawdopodobnie z dwukrotnie zwiększoną wydajnością na wat.
HΛЯPΛGŌNZobacz profil
Poziom ostrzeżenia: 0%
HΛЯPΛGŌN2013.05.27, 18:13
17#6
Bo teraz konsole za duzo w sobie mają PCta, a nawet zabawki media-center, a za mało uczciwej mocy potrzebnej do gier. To nie te czasy, gdy wchodziły konsole nexy-gen i zgniatały na początku PCty.
bogo126Zobacz profil
Poziom ostrzeżenia: 0%
bogo1262013.05.27, 18:06
-19#5
Fakty:
1. Shitbox to shitbox (tivi i sports - xbox go home)
2. Pod względem sprzętowym: PS4 > Shitbox (te 32Mb ramu nie załatwią sprawy, w szczególności, gdy będzie potrzeba nagłego stremowanie paru GB tekstur)
3. Myślę, że ludzie nie doceniają GPU w konsolach. Jakiś czas temu, Carmack napisał na twiterze, że żeby porównywać GPU w konsolach i CPU, moc GPU w konsoli trzeba pomnożyć razy 2 (optymalizacja, programowanie w assemblerze itp.). Czy to prawda ? Jeżeli założy, że w PS3 czy Xbox było coś na kształt nV 7900, po przemnożeniu przez 2 dostajemy GTX 8800. Jestem w stanie w to uwierzyć.
4. Oczywiście, że nawet, gdy pomnożymy hd7850 x2 i tak są grafiki wydajniejsze na PC. Ale wiadomo: a na konsoli zrobi się mniej dynamiczne cienie, a to POM zamiast teselacji. Oczywiście na Pc, wszytko będzie liczone w czasie rzeczywistym. I wilk będzie syty (PC) i owca cała konsola (PS4). O shitboxie z racji słabej specyfikacji nie wspominam (ach te zacofane nextgenowe COD :))
4. Co do samej jakości grafiki - mi wystarczy jakość z gameplaya DeepDown i DriveCLub.
TrisenKZobacz profil
Poziom ostrzeżenia: 0%
TrisenK2013.05.27, 18:06
30#4
Ciekawe czy EA znowu przez kilka lat będzie serwować pecetowcom odgrzewaną FIFĘ z poprzedniej generacji konsol, bo niby pecety były za słabe.
TrantigneZobacz profil
Poziom ostrzeżenia: 0%
Trantigne2013.05.27, 17:59
34#3
Wszystko spoko, ale niech popracują nad jakością i grywalnością nowych gier ! Bo co z tego, że gra wygląda aż przesadnie dobrze graficznie (blury i inne cuda), jak po paru godzinach albo nie chce nam się już grać, albo widzimy napis 'Congratulations, go to our store to buy DLC' ? Jestem jak najbardziej za postępem technologicznym, ale niech to się nie odbywa głównym wyznacznikiem jakości gier - grywalnością. W złą stronę to wszystko zmierza :/
GilasZobacz profil
Poziom ostrzeżenia: 0%
Gilas2013.05.27, 17:56
27#2
Puenta mi odpowiada, ME GUSTA :)

P.S.

Jak tam konkursik, wyłoniono już laureatów, czy nadal szukamy krewnego do odebrania nagród...?
ropsZobacz profil
Poziom ostrzeżenia: 0%
rops2013.05.27, 17:55
-14#1
Konsole wyprzedza na pewno współczesne PCty jeśli chodzi o wydajność(jakość) / WAT. Z czasem pewnie się to zmieni. Jeśli chodzi o grafikę to prawdopodobnie będzie ona w końcu na konsolach przyzwoita i tyle (ładne tekstury, wysokie rozdzielczości, duże przestrzenie). Jak by nie kombinowali nie przegonią współczesnych PC pod względem mocy. Microsoft coś tam mówi o obliczeniach w chmurze które mają wspomagać konsolę, ale jakoś tego nie widzę.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.