komentarze
Hamil_HamsterZobacz profil
Poziom ostrzeżenia: 0%
Hamil_Hamster2014.10.16, 15:51
@killzonefan
To jak chodzi alfa jakiejś gry to naprawdę porażający argument.
Nawet jak Star Citizen wyjdzie w ostatecznej wersji i tak nie zrozumiesz sensu istnienia takiej produkcji, która będzie miała gameplay na lata a nie na kilka-kilknaście godzin jak Twoje kochane Killzone.
Czy też raczej jak wszystkie 'cudowne' exclusivy na konsole, chyba specjalnie robią tak krótkie gry abyście mieli czas na trollowanie na stronach poświęconych PCtom na swoich znienawidzonych PCtach.
Gonzo3211Zobacz profil
Poziom ostrzeżenia: 0%
Gonzo32112014.10.16, 16:23
SNC @ 2014.10.16 15:47  Post: 793897
Cell tez jakos znakkomicie w tym benchu nie wypada.

Faktycznie słabo jak na 10-letni procesor.
GazpachoZobacz profil
Poziom ostrzeżenia: 0%
Gazpacho2014.10.16, 16:30
palel47 @ 2014.10.15 17:23  Post: 793467
Marzę o świecie bez konsol

Marzysz o płaceniu grubych tysięcy dla AMD i Nvidii które wydawałyby nowe modele taśmowo celowo zmuszając nas do modernizowania sprzętu żeby w ogóle pograć?
SNC2014.10.16, 16:31
Gonzo3211 @ 2014.10.16 16:23  Post: 793905
SNC @ 2014.10.16 15:47  Post: 793897
Cell tez jakos znakkomicie w tym benchu nie wypada.

Faktycznie słabo jak na 10-letni procesor.

Ponac 2x szybszy od jaguara...
motiffZobacz profil
Poziom ostrzeżenia: 0%
motiff2014.10.16, 16:41
SNC @ 2014.10.16 16:31  Post: 793909

Ponac 2x szybszy od jaguara...

jaguar to jest tabletowy procek, zwykła liniówka bez wielowątkowego wspomagania, cell to badziew powerpc z koprocesorami spe.
lukas108Zobacz profil
Poziom ostrzeżenia: 0%
lukas1082014.10.16, 17:14
Do dziś nie rozumiem dlaczego Microsoft świadomie zastosowało słabsze komponenty wiedząc że konkurencja ma kilkadziesiąt procent mocniejszy sprzęt. Kompletnie tego nie rozumiem wszczególności że było wiadomo jakie Sony będzie miał podzespoły. Tworzą najlepszy tablet hybrydowy z Windows chwaląc sie wydajnością i tworzą słabą konsole świadomie narażając się na problemy i krytykę. Jakieś kuriozum.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2014.10.16, 17:26
Ponoć MS liczył na wspieranie obliczeń graficznych w chmurze, ale ostatecznie ulegli płaczom i hejtom i nie wprowadzili wymogu stałego połączenia z internetem. No i wyszło takie trochę nie wiadomo co i dla kogo...
lukas108Zobacz profil
Poziom ostrzeżenia: 0%
lukas1082014.10.16, 17:40
Assassin @ 2014.10.16 17:26  Post: 793923
Ponoć MS liczył na wspieranie obliczeń graficznych w chmurze, ale ostatecznie ulegli płaczom i hejtom i nie wprowadzili wymogu stałego połączenia z internetem. No i wyszło takie trochę nie wiadomo co i dla kogo...

Assassin @ 2014.10.16 17:26  Post: 793923
Ponoć MS liczył na wspieranie obliczeń graficznych w chmurze, ale ostatecznie ulegli płaczom i hejtom i nie wprowadzili wymogu stałego połączenia z internetem. No i wyszło takie trochę nie wiadomo co i dla kogo...


Obliczenia w chmurze może zastosować także Sony. Prewencyjnie mogli jednak zastosować podobne komponenty i problem by byl rozwiązany. Achhhh. Kto tam siedzial i decydowal ...
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.10.16, 18:14
Najnowszy slajdy Ubisoftu:
http://pssite.com/upload/editor/images/ps4gpu_x1gpu.jpg
http://pssite.com/upload/editor/images/cpu_bench.jpg
Tyle w temacie.
motiff @ 2014.10.16 16:41  Post: 793911
SNC @ 2014.10.16 16:31  Post: 793909

Ponac 2x szybszy od jaguara...

jaguar to jest tabletowy procek, zwykła liniówka bez wielowątkowego wspomagania, cell to badziew powerpc z koprocesorami spe.
Acha CPU w PS4 nie jest wielowątkowe?
Ciekawe naprawdę ciekawe. Z miłą checią poczytam więcej twoich wywodów :D Jakoś wykres czasu CPU w KZSF mówi coś innego. Jeden wątek to masz w PC i DX.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.10.16, 19:48
Mam tez pytanie do nadwornego speca od programowania, aby skomentował pytanie które padło podczas konfy OpenGL niedawno:
https://www.youtube.com/watch?feature=play...eNzgiJ8I#t=2638
Komunikacja pomiędzy CPU i GPU (na PC) jest singlethread dzieciaczki PCtowe. W PS3 jako, ze GPU było częściowo w środku CPU problem ten częściowo rozwiązano. Natomiast w PS4 mam nadzieje, ze wewnętrzna magistrala rozwiąże to w znacznie większym stopniu (64 kolejki zadań). Czekam na U4 i SDK GPGPU wtedy będę mógł wystawić ocene tej konsoli bo narazie nie ma gier, które by wybiły się znacząco ponad to co było w X360 i PS3.
Po za tym to na konsoli jak do tej pory jest jedyna gra w której postać potrafi biegać, walczyć, strzelać, podnosić broń na poruszającym się po mapie obiekcie. Ujadajcie dalej, ja korzystam i cieszę się ze żyje w takich czasach i mogę tego doświadczać. Wy tylko ujadacie i nie potraficie czerpać chyba przyjemności z gier. Pozdro i zdrowia psychicznego życzę wszystkim.
Biorę na klate Wasze minusy są jak tlen dla mnie :-)
http://4.bp.blogspot.com/-dQEp6IaFRpk/UhfH...tion+797777.gif
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482014.10.16, 22:22
Hashi @ 2014.10.16 18:14  Post: 793938
Najnowszy slajdy Ubisoftu:
http://pssite.com/upload/editor/images/ps4gpu_x1gpu.jpg
http://pssite.com/upload/editor/images/cpu_bench.jpg
Tyle w temacie.

Mam nadzieję, że rozumiesz o co tu chodzi. Liczby tu podane to ilość sukienek symulowanych w czasie rzeczywistym które mogą pojawić się na ekranie (test bardzo syntetyczny nie mający odzwierciedlenia w grach - to tak jak w wypadku Bindless Textures można wykazać 10x wyższą wydajność, a w wypadku MultiDrawIndirect jeszcze wyższą... ale gry to nie syntetyki i gdy przyjdą shadery, efekty, inne obliczenia ta różnica w czasie liczenia symulacji ciuchów zmaleje do 2-3 FPS). W dodatku mocno kontrowersyjna, bo SPU taką fizykę uwielbiają i wydajność względem CPU w PS4 i X1 powinna być znacznie wyższa (to jeszcze może być tłumaczone jakoś tym, że RSX jest w stanie mniej wyrenderować sukienek i zostaje w tyle). Dodatkowo dziwi mocno przewaga X1na CPU gdy gra ma do dyspozycji mniejszą wydajność (z 8 rdzeni w konsolach gra ma do dyspozycji 7 w PS4 i 6 w X1). Ofc obliczenia fizyki jak ciuchy na GPU daje spektakularny wzrost wydajności, dlatego od lat Nvidia w PhysX tak to zaleca robić.

motiff @ 2014.10.16 16:41  Post: 793911
Acha CPU w PS4 nie jest wielowątkowe?

Raczej chodziło o to, że jego superskalarność jest kiepska względem konkurencyjnych procesorów (w tym tabletowych), ilość wykonywanych instrukcji w jednym cyklu przez jeden rdzeń jest po prostu niska. Pewnie dodatkowo chodziło o to, że rdzenie nie są wielowątkowe (rdzenie, nie cały procek). Czyli nie ma czegoś takiego jak w Intelu, że masz 2 wątki na jednym rdzeniu (Hyper-threading).

Hashi @ 2014.10.16 19:48  Post: 793968
Mam tez pytanie do nadwornego speca od programowania, aby skomentował pytanie które padło podczas konfy OpenGL niedawno:
https://www.youtube.com/watch?feature=play...eNzgiJ8I#t=2638
Komunikacja pomiędzy CPU i GPU (na PC) jest singlethread dzieciaczki PCtowe.

Nie do końca. W PC masz jednowątkową komunikację w DirectX (niezależnie od wersji) i w większości implementacji OpenGL. W wypadku implementacji Nvidii masz do wyboru wielowątkową lub jednowątkową komunikację, z tym że jednowątkowa w 99.9% jest wydajniejsza. W Mantle masz za to wymaganie API, aby sterownik musiał pozwalać na wielowątkowość. Jednak wielowątkowe przetwarzanie w wypadku akurat komunikacji CPU->GPU sprawia, że wątki konkurują ze sobą i jeden musi czekać na drugi i ostatecznie jest wolniej niż wszystko wrzucić za jednym razem z jednego wątku (tak też jest w konsolach).
PS4, OpenGL i Mantle jednak mają lepszy sposób na rysowanie obiektów. Wypełnia się tam buffor w pamięci (OpenGL/Mantle na GPU, a na PS4 do pojawienia się GPGPU na CPU) informacjami co ma GPU narysować i GPU (w PS4 obecnie CPU, ale bez przesyłania do GPU niczego) samo sobie oblicza co ma być rysowane (co jest w bryle widoku i co wpisać do bufora co karta ma wyrenderować), a CPU wydaje tylko jedną komendę 'rysuj co masz w bufforze' (a ciężko jedną komendę równoległość ;p). O tym też mówi w odpowiedzi John McDonald, że rozwiązaniem problemu jest MultiDrawIndirect (to rozwiązanie stosuje się na PS4, OpenGL i Mantle).
Cass Everitt dodaje, że wielowątkowe przetwarzanie ma sens gdy masz po prostu kiepskie API (dużo bezsensownych API callów, które zajmują dużo czasu). Gdy masz API takie jak te o których mówią jednego wątku aż nie sposób zapchać nawet przy kiepskim CPU, bo całą pracę przerzucasz na GPU i zależy jedynie od wydajności karty.

PS. To nie konferencja OpenGL, to nawet nie konferencja Khronos... to konferencja Valve związana ze Steam, a temat przedstawiany przez Nvidię. Trochę rzetelności.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.10.16, 22:35
Benchmarki mnie tak naprawdę nie interesują bo jest ich za wiele, wstawiłem to tylko ze względu na ubisoft

W PS4 do dyspozycji jest 6 rdzeni z tego co wiem. Tak wynikało z publikacji NaughtyDog i SuckerPunch i GG (wolny rdzeń zapewne zostaje dla kamery i Morpheusa). X1 ma wyższe taktowanie CPU i GPU więc stąd ta różnica.

Co do pytania o wielowątkowość dzięx za odpowiedź.
'rysuj co masz w bufforze' czyli jeden rozkaz. W PS3 i PS4 przynajmniej w publikacji GG jest jeden wątek główny, orchestrator czy jakoś tak do zarządzania resztą wątków, po wykonaniu jest tzw Kick (w PS3 Kick -> RSX).
ArszenikZobacz profil
Poziom ostrzeżenia: 0%
Arszenik2014.10.16, 22:48
Ciekawe czy kolejny bullshit czy coś jest na rzeczy :
http://www.neogaf.com/forum/showpost.php?p...amp;postcount=1

I believe 50% of the CPU is dedicated to helping the rendering by processing pre-packaged information, and in our case, much like Unreal 4, baked global illumination lighting.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482014.10.16, 23:04
Hashi @ 2014.10.16 22:35  Post: 794024
W PS4 do dyspozycji jest 6 rdzeni z tego co wiem.

Z wielu doniesień wynika, że jeśli potrzeba, to gra może użyć 7mego rdzenia (podobnie jak się nie mieści w 4.5GB to Sony grze (za odpowiednie pieniądze) może przyznać dodatkową pamięć (Game Memory Budget Mode ustawić na large z normal)).

Hashi @ 2014.10.16 22:35  Post: 794024
W PS3 i PS4 przynajmniej w publikacji GG jest jeden wątek główny, orchestrator czy jakoś tak do zarządzania resztą wątków, po wykonaniu jest tzw Kick (w PS3 Kick -> RSX).

Jesteś pewien, że w GG, a nie w Naughty Dog? Chociaż nie zdziwiłoby mnie to - ze względu na architekturę PS3 musieli napisać tak, a nie inaczej silnik, a teraz nie ma sensu przepisywać, gdy procesor pozwala na inne wykonanie tego (inne nie znaczy lepsze, bo porównywalne wydajnościowo, a trzeba by pół silnika przepisywać, bez najmniejszego sensu, bo efekt byłby porównywalny).
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.10.16, 23:27
Z tą pamięcią to jest tak, ze (to moje osobiste odczucie) z czasem PS4 dostanie min 6GB RAM. W PS3 co kilka miesięcy wychodził firmware, który zmniejszał ilość RAM zabieranego przez system. To pewnego rodzaju kaganiec (tak mnie się wydaje) by dev od razu nie pisali pod pełna pamięć. Jakoś trudno mi przyswoić, ze system biorze tam 3,5GB (bawiłem się PS4 trochę) skoro jest tam dodatkowy CPU +256MB GDDR3 do bajerów z Share itp.

Tak jestem pewien, ze GG zarówno w PS3 jak i PS4 wykorzystuje jeden główny wątek, który zarządza resztą by rdzenie nie przechodziły w IDLE ale cały czas wykonywały jakąś pracę (ty robisz to, ty tamto, ty jak skończysz to daj to tamtemu itd :D tak ja to widzę). Na chłopski rozum do zarządzania (wydania poleceń) nie trzeba, kliku gigaherców. Silnik ND i GG wygląda podobnie co do sposobu działania, przynajmniej tak to na schmetach wygląda (i w U2 i KZ2 był downsampling, w KZ z 2560x720 w dół a i tak CPU chodził na pół gwizdka).
piotr8642Zobacz profil
Poziom ostrzeżenia: 0%
piotr86422014.10.17, 01:48
Panowie poczytajcie sobie jak to gość z ubisoftu twierdzi ze PS4 i tak nie pociągnie Assasina w 1080p 30fps. I dlatego będzie 900p.
News świeżutki: Alleged Ubisoft Developer Claims PS4 Couldn’t Run Assassin’s Creed Unity at 1080p/30fps

http://wccftech.com/ubisoft-playstation-4-...ns-creed-unity/
SNC2014.10.17, 02:15
piotr8642 @ 2014.10.17 01:48  Post: 794058
Panowie poczytajcie sobie jak to gość z ubisoftu twierdzi ze PS4 i tak nie pociągnie Assasina w 1080p 30fps. I dlatego będzie 900p.
News świeżutki: Alleged Ubisoft Developer Claims PS4 Couldn’t Run Assassin’s Creed Unity at 1080p/30fps

http://wccftech.com/ubisoft-playstation-4-...ns-creed-unity/
To niech jeszcze wyjasni w takim razie jakim cudem na xone chodzi tez w 30 fps na 900p jeśli inne tytuly pokazuja ze jest ok 1.45x przewagi mocy hardweru ps4
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2014.10.17, 18:30
SNC @ 2014.10.17 02:15  Post: 794060
piotr8642 @ 2014.10.17 01:48  Post: 794058
Panowie poczytajcie sobie jak to gość z ubisoftu twierdzi ze PS4 i tak nie pociągnie Assasina w 1080p 30fps. I dlatego będzie 900p.
News świeżutki: Alleged Ubisoft Developer Claims PS4 Couldn’t Run Assassin’s Creed Unity at 1080p/30fps

http://wccftech.com/ubisoft-playstation-4-...ns-creed-unity/
To niech jeszcze wyjasni w takim razie jakim cudem na xone chodzi tez w 30 fps na 900p jeśli inne tytuly pokazuja ze jest ok 1.45x przewagi mocy hardweru ps4

Jak ma uciągnąć skoro nie ma SDK do GPGPU na PS4 i nie będzie dopóki nie wyjdzie Uncharted 4?
Do niektórych niedociera, ze SONY miało wkład w zmiany nawet na rynku desktopowych GPU po premierze PS3 jak i PS4. Po prostu część technologii Sony, a tak naprawdę SCE odcisnęła się na NV G80 (CUDA) i na VolcanicIsland. Wystarczy poczytać sobie patenty z czasów PSX.
Volcanic Island Compute Enhancements - Thanks to Sony?
Sony’s specific requirements for the modifications made on the Playstation 4 have driven major improvements to the discrete graphics card market too. One of the members (3dcgi) of the forum Beyond3d works for AMD, and has spoken candidly on this subject.
“I worked on modifications to the core graphics blocks. So there were features implemented because of console customers. Some will live on in PC products, some won’t. At least one change was very invasive, some moderately so. That’s all I can say.
Since Cerny mentioned it I’ll comment on the volatile flag. I didn’t know about it until he mentioned it, but looked it up and it really is new and driven by Sony. The extended ACE’s are one of the custom features I’m referring to. Also, just because something exists in the GCN doc that was public for a bit doesn’t mean it wasn’t influenced by the console customers. That’s one positive about working with consoles. Their engineers have specific requirements and really bang on the hardware and suggest new things that result in big or small improvements.”
So according to this member, it was Sony’s vision which has actually changed the development of GPU’s for PC as well. If this is true – then it’s certainly very… hell let’s use the word, cool. It also demonstrates that Volatile Bit was a purely Sony creation, although there were ways to purge the Level 2 Cache previously, it wasn’t as pinpoint as the method’s that Mark Cerny and his team had created.
“If you look at the portion of the GPU available to compute throughout the frame, it varies dramatically from instant to instant. For example, something like opaque shadow map rendering doesn’t even use a pixel shader, it’s entirely done by vertex shaders and the rasterization hardware — so graphics aren’t using most of the 1.8 teraflops of ALU available in the CUs. Times like that during the game frame are an opportunity to say, ‘Okay, all that compute you wanted to do, turn it up to 11 now.’” – Mark Cerny

http://www.redgamingtech.com/playstation-4...e-similarities/
Według tych doniesień np volatile flag to technologia od SONY tak samo jak część rozwiązań architektury które są w Volcanic Island. Cell czy tego chcecie czy nie nadal jest żywy.
AlamarZobacz profil
Poziom ostrzeżenia: 0%
Alamar2014.10.17, 19:08
Najlepszy przyklad w ktora strone idzie rozwoj, w strone latwego zarobku molochow wyzej wymienionych (dodal bym jeszcze np. EA), ladnej prezentacji gier na screenach bo tak wiekszosc niedojrzalych graczy wybiera gry (+plus dobry marketing) i dalszej degradacji dla normalnego gracza. Ta teze ktore przedstawilem rowniez mozna kopiowac w stosunku do innych nowych ekspansywnych technologii ktore wypieraja te sprawdzone.
taithZobacz profil
Poziom ostrzeżenia: 0%
taith2014.10.18, 19:43
200 post w morzu soli wypłakanej prze konsolowców
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.