komentarze
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842015.01.05, 22:16
@skoti
Xbox One/PS4 z wykorzystaniem SSE lub AVX (AVX obsługują Jaguary, ale tylko jako 'emulacje' rozdzielając te instrukcje na 2x cykle 128bit), a na PC z AVX i SSE (zależnie czy potrafi poradzić sobie z AVX).

Nie jest to do końca prawda.
1. Na PC dostęp do AVX jest od Win7 SP1 czyli jak mi się zdaje Vista tego nie oferuje (można zweryfikować, odpowiednie demka intela są dostępne)
2. AVX to nie jest termin, który automatycznie powinien się kojarzyć z 256bit - to zwykła nieprawda. AVX może generować kod wykorzystujący 3 operandy, ale nadal na standardowych rejestrach SSE (czyli dolnej połówce AVX). Żeby było śmieszniej w trybie 128bit z FMA nieraz jest szybciej niż na 256bitach! Intel z AVX256 i 512 zrobił niesamowitą maszynkę w MIC, ale w prockach desktopowych to się nie przyjęło tak ciepło jak w klastrach obliczeniowych (czyli dość typowo). A z całą pewnością nie jest to żadna przewaga aktualnie w grach.
typixZobacz profil
Poziom ostrzeżenia: 0%
typix2015.01.05, 22:24
-1#82
gry i tak wyglądały identycznie.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482015.01.05, 23:00
Promilus1984 @ 2015.01.05 22:16  Post: 818659
@skoti
Xbox One/PS4 z wykorzystaniem SSE lub AVX (AVX obsługują Jaguary, ale tylko jako 'emulacje' rozdzielając te instrukcje na 2x cykle 128bit), a na PC z AVX i SSE (zależnie czy potrafi poradzić sobie z AVX).

Nie jest to do końca prawda.
1. Na PC dostęp do AVX jest od Win7 SP1 czyli jak mi się zdaje Vista tego nie oferuje (można zweryfikować, odpowiednie demka intela są dostępne)
2. AVX to nie jest termin, który automatycznie powinien się kojarzyć z 256bit - to zwykła nieprawda. AVX może generować kod wykorzystujący 3 operandy, ale nadal na standardowych rejestrach SSE (czyli dolnej połówce AVX). Żeby było śmieszniej w trybie 128bit z FMA nieraz jest szybciej niż na 256bitach! Intel z AVX256 i 512 zrobił niesamowitą maszynkę w MIC, ale w prockach desktopowych to się nie przyjęło tak ciepło jak w klastrach obliczeniowych (czyli dość typowo). A z całą pewnością nie jest to żadna przewaga aktualnie w grach.

1. Tak. Windows obsługuje pełny AVX od SP1 do W7 (2011), MacOS od 10.6.8 (2011), Linux od 2.6.30 (2009). Nie rozumiem tylko w czym się nie zgadza z tym co napisałem?

2. AVX to termin intela na instrukcje operujące na 256bit rejestrach... ofc instrukcje są też 128bit i można z nich korzystać jeśli system nie pozwala na wykorzystanie AVX (czyli nie zapewnia bezpieczeństwa przy wykorzystywaniu wszystkich rejestrów wymaganych przy AVX, a mają one 256bit).
512bitowy AVX nie mieści się w określeniu do AVX... to rozszerzenie AVX (max 256bit) o nowe instrukcje i to rozszerzenie nazywa się AVX-512
*Konto usunięte*2015.01.05, 23:38
-6#84
PeCetowcy daliście się wciągnąć w bezprzedmiotowy flamewar jak dzieci, naprawdę wstyd. Wiadomo nie od dziś, że w temacie domowej rozrywki, świat zdominował amerykańsko-japoński model, czyli konsola do zabawy i laptop ( najpewniej jakiś Mac ) do pracy. Co do architektury PPC, odsyłam na jakieś szkolenie do IBM-a, bo niektórzy najwyraźniej nie wiedzą o czym piszą. Mówimy tu o dziesiątkach megabajtów pamięci podręcznej L3 i L4, a nie 'wysranych' z łaski kliku czy klikunastu. O takich rzeczach jak 12 rdzeni czy 8 wątków na 1 rdzeń, już nie wspominam, ale chyba nie trudno wyobrazić sobie moc obliczeniową takiego sprzętu. Relacja wydajności jest mniej więcej jak jeden Power8 do trzech x86 :lol2:
ifeelveryblahZobacz profil
Poziom ostrzeżenia: 0%
ifeelveryblah2015.01.05, 23:44
-1#85
ExE_007 @ 2015.01.05 10:58  Post: 818323
Czy ten jeden rdzeń i to jeszcze nie wykorzystany w 100% coś zmieni? Nie sadzę. ESRAMu z kolei jest za mało, żeby można było poszaleć w tym temacie. Czyli schemat pozostaje niezmieniony. X1<PS4<PC

Dzieci, które porównują konsole do PC mają coś z główką :D
ifeelveryblahZobacz profil
Poziom ostrzeżenia: 0%
ifeelveryblah2015.01.05, 23:54
-4#86
paciulook @ 2015.01.05 14:04  Post: 818418
W ogóle nie opłaca się tych śmietników kupować.Jeśli już,to Wii U,która jest prawdziwą konsolą,na której grasz 4 fun.Od hardcorowego grania jest pc.

No patrz, każdy konsolowiec ma również PC, ale na nim nie gra.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482015.01.06, 00:22
chizra @ 2015.01.05 23:38  Post: 818687
Mówimy tu o dziesiątkach megabajtów pamięci podręcznej L3 i L4, a nie 'wysranych' z łaski kliku czy klikunastu.

Uważaj zaraz ktoś Ci powie, że w x86 masz w przekroczone 100mb, a tu mówisz o dziesiątkach ;p. Przypominam, że jeśli tylko chcesz są Haswelle z eDRAM 128MB, który działa jak L4. Z tego co pamiętam Intel chce, aby w Broadwell to było standardem. W Power8 też L4 (też eDRAM) może mieć maksymalnie 128MB.

chizra @ 2015.01.05 23:38  Post: 818687
O takich rzeczach jak 12 rdzeni czy 8 wątków na 1 rdzeń, już nie wspominam, ale chyba nie trudno wyobrazić sobie moc obliczeniową takiego sprzętu. Relacja wydajności jest mniej więcej jak jeden Power8 do trzech x86 :lol2:

Xeony mają i po 18 rdzeni. 8 wątków to fajna sprawa... ale słabsze niż u intela branch predictory sprawiają, że mimo to rdzenie przy tym samym zegarze w P8 mogą być wolniejsze. Nie zrozum mnie źle bardzo lubię architekturę Power czy SPARC (też mają po 8 wątków na rdzeń, 16 rdzeni na chip i dobre branch predictory tylko L4 brak)... tylko, że nie lubię narzekania dla narzekania, a Intel akurat zrobił przez ostatnie lata spore postępy i Haswelle akurat mogą się mierzyć z serwerowymi prockami.
killzonefanZobacz profil
Poziom ostrzeżenia: 0%
killzonefan2015.01.06, 02:03
-4#88
SNC2015.01.06, 02:33
KazH @ 2015.01.05 19:35  Post: 818589
SNC @ 2015.01.05 18:40  Post: 818564
(...)

Przeciez sam dales zdjecie do tego benchmarka (co prawda okrojone o wyniki gpu ale to pewnie przypadek ;d ).


Nic nie okrajałem - zdjęcie pochodzi z artykułu eurogamera co zresztą widać po linku. Artykuł tutaj jest o procesorze CPU który był wcześniej w Xbox One szybszy o 15% a teraz dzięki dodatkowemu rdzeniowi jest szybszy o 31%. I wszyscy tutaj w komentarzach piszą o CPU. Nikt nie podważa tego że PS4 ma o 50% więcej jednostek CU w GPU. To są twarde dane sprzętowe które są jawne. PS4 ma szybsze GPU (50% więcej CU, 2x więcej ROP) natomiast Xbox One ma szybsze CPU (31% więcej mocy dzięki większej ilości rdzeni oraz wyższemu taktowaniu CPU i magistrali). Te dane są jawne i nikt ich nie podważa bo efekty widać w grach a deweloperzy otwarcie mówią o różnicy pomiędzy konsolami. Ubisoft który te wykresy opublikował zrobił to prezentując nowy silnik Assassina Unity który jak wiadomo na Xbox działa dużo płynniej więc jeżeli twierdzą że GPU jest 2x szybsze to Unity tego jakoś nie pokazało :)

Dalem Ci link do slajdu 122 z prezentacji tego benchmarka gdzie masz potwierdzenie ze jest 2x mocniejsze gpu w ps4, to jest ten sam benchmark co Ty wklejales tylko ty jeden z pierwszych slajdow okrojony z wynikow gpu.
KazHZobacz profil
Poziom ostrzeżenia: 0%
KazH2015.01.06, 07:47
-4#90
SNC @ 2015.01.06 02:33  Post: 818717
KazH @ 2015.01.05 19:35  Post: 818589
(...)


Nic nie okrajałem - zdjęcie pochodzi z artykułu eurogamera co zresztą widać po linku. Artykuł tutaj jest o procesorze CPU który był wcześniej w Xbox One szybszy o 15% a teraz dzięki dodatkowemu rdzeniowi jest szybszy o 31%. I wszyscy tutaj w komentarzach piszą o CPU. Nikt nie podważa tego że PS4 ma o 50% więcej jednostek CU w GPU. To są twarde dane sprzętowe które są jawne. PS4 ma szybsze GPU (50% więcej CU, 2x więcej ROP) natomiast Xbox One ma szybsze CPU (31% więcej mocy dzięki większej ilości rdzeni oraz wyższemu taktowaniu CPU i magistrali). Te dane są jawne i nikt ich nie podważa bo efekty widać w grach a deweloperzy otwarcie mówią o różnicy pomiędzy konsolami. Ubisoft który te wykresy opublikował zrobił to prezentując nowy silnik Assassina Unity który jak wiadomo na Xbox działa dużo płynniej więc jeżeli twierdzą że GPU jest 2x szybsze to Unity tego jakoś nie pokazało :)

Dalem Ci link do slajdu 122 z prezentacji tego benchmarka gdzie masz potwierdzenie ze jest 2x mocniejsze gpu w ps4, to jest ten sam benchmark co Ty wklejales tylko ty jeden z pierwszych slajdow okrojony z wynikow gpu.


Przejrzałem dziś slajdy o których mówisz na których Ubisoft w wakacje chwalił się nowym silnikiem AC Uniity i tym że stosuje obliczenia GPU do symulacji tłumów. Wszyscy wiemy jak się to skończyło. Ubisoft wykorzystał moc GPU do symulacji tłumów na PS4 oraz Xbox One. Miało być szybko. Ale okazało się że po wejściu w tłum gra na PS4 działa w 17 klatkach na sekundę podczas gdy na Xbox One działało stabilnie 27-30 klatek na sekundę w tym samym miejscu. To chyba najlepsze podsumowanie slajdu o którym piszesz. Bo ten slajd dotyczył tłumów z AC Unity gdzie w teorii silne GPU z PS4 miało być 2x szybsze niż GPU z Xbox One... a w praktyce okazało się że to Xbox One miał w tej grze lepszą płynność w tym właśnie tłumie. Tak więc zabawnie się czyta że Ubisoft w wakacje twierdził że GPU w PS4 pozwala na liczenie większych tłumów w AC Unity wiedząc jak słabo ta gra działa na tej konsoli. Szybszy procesor CPU w Xbox One który wtedy był o 15% wydajniejszy poradził sobie z tą grą znacznie lepiej. Teraz gdy przewaga CPU wzrosła do 31% to można się spodziewać że w kolejnych częściach Assassina różnica w wydajności będzie jeszcze bardziej na korzyść Xbox One,
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2015.01.06, 07:57
-4#91
@KazH
Zabawne natomiast to, ze ty nie potrafisz do tej swojej główki przyswoić, ze MS w czasach X360 płacił i supportował third-party by gry pokroju COD itp chodziły lepiej na technicznie słabszej konsoli, czyli X360. Bo chyba nikt nie ma takiej wątpliwości po ograniu U2 czy KZ2, nawet nowy multiplayer Halo5 który widziałem pare dni temu wręcz mnie rozśmieszył pod względem graficznym. Technicznie ta gra nawet nie zbliża się do KZ3 z past-gena. No ale trza mieć zdrowe oczy. Tyle, ze ja nie patrze na framerate i rozdziałkę, ale animacje, post-process, particle i fizykę ruchu. Popatrz człowieku co ND wycisnęło z PS3. W U2 mozesz zapisać 20 meczy i puścić je w real-time, przyspieszać, spowalniać, zmieniać gracza (PS3 zapisuje nawet ruchy kamery pozostałych 9 graczy) i co najważniejsze mozna odczepić kamerę i latać nią po całej mapie i wtedy dostrzeżesz, ze LOD jest ciągły w tej grze a cała mapa to DOWNSAMPLING. Nie ma nawet grama spadku wydajności..
https://www.youtube.com/watch?v=Vpnji9eJWSg
(nagrywane smartphonem w 720 więc dostaje zadyszki czasem ale widać dokładnie o co biega; tak wygląda liczenie GI i odbić ray-trace gdy masz wszystko w jednym chipie; nawet mogę Ci udowodnić, ze odbicia w wodzie są niekiedy w mutli liczone ray-trace). To oczywiste, ze CPU w XboxOne jest mocniejsze nie 30%, ale ja bym powiedział, nawet 2x bo posiada eSRAM, czyli ultra szybką pamięć która jest bardzo blisko rdzeni więc jest jak programowalny cache. Pamięć najbliższa rdzeniom jest najważniejsza, dlatego w procku Cell było 1024 rejestry z tego co wiem (+LS) gdy Intele długo jeszcze nie wychodziły poza 32.
Inną kwestią jest to czy deweloperzy przejdą na GPGPU w co wierzy Sony, wtedy MS ratują jedynie chyba chmury obliczeniowe.. Juz teraz SDK2.0 w PS4 przyspiesza liczenie symulacji postacji x10 względem CPU:
http://cdn4.dualshockers.com/wp-content/up...x407.jpg?eaa32f
http://cdn3.dualshockers.com/wp-content/up...2_27.jpg?eaa32f
A tu jest jak wyglądało GPGPU na PS3 (robił to CPU):
http://cdn4.dualshockers.com/wp-content/up...x417.jpg?eaa32f
Markiz88Zobacz profil
Poziom ostrzeżenia: 0%
Markiz882015.01.06, 08:45
@Hashi
Tylko nie jestem pewien czy w XO tak łatwo jest o dostęp do ESRAMu dla CPU, podejrzewam że jakieś ułatwienia są ale przysłowiowej du... to nie urywa, jak by nie popatrzeć ESRAM nie podlega po CPU tylko pod GPU i przez nie muszą być transferowane dane https://semiaccurate.com/assets/uploads/20...SoC_diagram.jpg .
Chyba że tak to zrobiono pierwotnie i to tylko programowo, bo logice wewnętrznej układu może ogólnie być to obojętne ale tego się nie dowiemy.
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2015.01.06, 08:52
-4#93
Markiz88 @ 2015.01.06 08:45  Post: 818742
@Hashi
Tylko nie jestem pewien czy w XO tak łatwo jest o dostęp do ESRAMu dla CPU, podejrzewam że jakieś ułatwienia są ale przysłowiowej du... to nie urywa, jak by nie popatrzeć ESRAM nie podlega po CPU tylko pod GPU i przez nie muszą być transferowane dane https://semiaccurate.com/assets/uploads/20...SoC_diagram.jpg .
Chyba że tak to zrobiono pierwotnie i to tylko programowo, bo logice wewnętrznej układu może ogólnie być to obojętne ale tego się nie dowiemy.

Na diagramie który dałeś widać jedną główną zaletę wbudowanych pamięci.. 4x256 bit read & write. eDRAM ma to do siebie, ze magistrala jest ogromna, dla przykładu PS2 miało eDRAM z magistralą 2560-bit (tak 2 tysiące). X360 tez miał eDRAM (od NEC'a) z taką magistralą i dodatkowo była tam logika więc była to tak jakby inteligentna macierz. Coś moze mieć 100GB/s ale być bardzo nisko taktowane dzięki bardzo szerokiej szynie, chyba to jest logiczne tutaj?
ArszenikZobacz profil
Poziom ostrzeżenia: 0%
Arszenik2015.01.06, 09:54
-1#94
KazH @ 2015.01.06 07:47  Post: 818736
SNC @ 2015.01.06 02:33  Post: 818717
(...)

Dalem Ci link do slajdu 122 z prezentacji tego benchmarka gdzie masz potwierdzenie ze jest 2x mocniejsze gpu w ps4, to jest ten sam benchmark co Ty wklejales tylko ty jeden z pierwszych slajdow okrojony z wynikow gpu.


Przejrzałem dziś slajdy o których mówisz na których Ubisoft w wakacje chwalił się nowym silnikiem AC Uniity i tym że stosuje obliczenia GPU do symulacji tłumów. Wszyscy wiemy jak się to skończyło. Ubisoft wykorzystał moc GPU do symulacji tłumów na PS4 oraz Xbox One. Miało być szybko. Ale okazało się że po wejściu w tłum gra na PS4 działa w 17 klatkach na sekundę podczas gdy na Xbox One działało stabilnie 27-30 klatek na sekundę w tym samym miejscu. To chyba najlepsze podsumowanie slajdu o którym piszesz. Bo ten slajd dotyczył tłumów z AC Unity gdzie w teorii silne GPU z PS4 miało być 2x szybsze niż GPU z Xbox One... a w praktyce okazało się że to Xbox One miał w tej grze lepszą płynność w tym właśnie tłumie. Tak więc zabawnie się czyta że Ubisoft w wakacje twierdził że GPU w PS4 pozwala na liczenie większych tłumów w AC Unity wiedząc jak słabo ta gra działa na tej konsoli. Szybszy procesor CPU w Xbox One który wtedy był o 15% wydajniejszy poradził sobie z tą grą znacznie lepiej. Teraz gdy przewaga CPU wzrosła do 31% to można się spodziewać że w kolejnych częściach Assassina różnica w wydajności będzie jeszcze bardziej na korzyść Xbox One,


Kłamiesz, Ubisoft nie zdążył wprowadzić zmian ( GPGPU ).
Wymierne porównanie będziesz miał pewnie za rok przy nowym assasynie.
http://www.dualshockers.com/2014/11/23/ps4...lopers-can-use/
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842015.01.06, 10:07
1. Tak. Windows obsługuje pełny AVX od SP1 do W7 (2011), MacOS od 10.6.8 (2011), Linux od 2.6.30 (2009). Nie rozumiem tylko w czym się nie zgadza z tym co napisałem?

Nie zgadza się wiele rzeczy o których pisałeś. Skoro mowa o PC to nie każdy sprzęt obsługujący daną funkcjonalność może ją wykorzystać - stąd wtrącenie o OS. Twórcy gier też to wiedzą. Dalej - gdzieś ty wyczaił, że jest jakaś emulacja? Jeśli to jest emulacja to i P4 oraz K8 emulowały wszystkie SIMDy 128bit i x87. Baa, idąc tym tokiem rozumowania od dłuższego czasu x86 jest EMULOWANE na risc-like ucode. I w ten sam sposób późne P4 emulowały x86-64.
A co do AVX-512 - co to zmienia? Ostatecznie i tak ma w desktopach wylądować, AVX z nowym kodowaniem otworzyło furtkę do olbrzymich modyfikacji i mówi się nawet o AVX-1024. AVX-512 jest tak samo naturalnym rozszerzeniem AVX2 jak AMD64 jest dla x86 (tylko sprytniejszym).
KazHZobacz profil
Poziom ostrzeżenia: 0%
KazH2015.01.06, 10:15
-4#96
Arszenik @ 2015.01.06 09:54  Post: 818751
KazH @ 2015.01.06 07:47  Post: 818736
(...)


Przejrzałem dziś slajdy o których mówisz na których Ubisoft w wakacje chwalił się nowym silnikiem AC Uniity i tym że stosuje obliczenia GPU do symulacji tłumów. Wszyscy wiemy jak się to skończyło. Ubisoft wykorzystał moc GPU do symulacji tłumów na PS4 oraz Xbox One. Miało być szybko. Ale okazało się że po wejściu w tłum gra na PS4 działa w 17 klatkach na sekundę podczas gdy na Xbox One działało stabilnie 27-30 klatek na sekundę w tym samym miejscu. To chyba najlepsze podsumowanie slajdu o którym piszesz. Bo ten slajd dotyczył tłumów z AC Unity gdzie w teorii silne GPU z PS4 miało być 2x szybsze niż GPU z Xbox One... a w praktyce okazało się że to Xbox One miał w tej grze lepszą płynność w tym właśnie tłumie. Tak więc zabawnie się czyta że Ubisoft w wakacje twierdził że GPU w PS4 pozwala na liczenie większych tłumów w AC Unity wiedząc jak słabo ta gra działa na tej konsoli. Szybszy procesor CPU w Xbox One który wtedy był o 15% wydajniejszy poradził sobie z tą grą znacznie lepiej. Teraz gdy przewaga CPU wzrosła do 31% to można się spodziewać że w kolejnych częściach Assassina różnica w wydajności będzie jeszcze bardziej na korzyść Xbox One,


Kłamiesz, Ubisoft nie zdążył wprowadzić zmian ( GPGPU ).


Ubisoft pisał nowy silnik 3 lata z czego przez 2 lata mieli dostęp do konsoli i mogli optymalizować. Oni piszą jeden silnik raz na 7 lat gdy zaczyna się generacja. Na poprzednim silniku który napisali w 2007r uruchamiali kolejne części Assassina aż do 2013r. W sumie na tym silniku powstało 7 części Assassina wliczając tegoroczny Rogue. Teraz napisali nowy silnik który będzie wykorzystywany bez większych zmian przez kolejnych 7-8 lat i znajdzie się w kolejnych 7 częściach Assassina oraz pewnie w innych grach z otwartym światem autorstwa Ubisoftu. Bo napisanie silnika to spory koszt więc robi się to raz na generację gdy zmienia się sprzęt docelowy i później się podstaw tego silnika nie rusza przez kolejne lata bo nie miałoby to sensu. I twierdzisz że czegoś nie zrobili bo nie zdążyli... Wątpię. Jestem przekonany że przez kolejnych 7-8 lat aż do końca generacji nowy silnik będzie wykorzystywany w każdej nowej grze z otwartym światem jaki wyda Ubisoft. I każda z tych gier będzie miała takie same wymagania sprzętowe bo silnik się nie zmieni aż do 2020r gdy pewnie wyjdą kolejne konsole. Wiadomo jak będzie wyglądała wydajność we wszystkich kolejnych Assassinach i grach na tym silniku. Xbox One miał tu sporą przewagę wydajności gdy miał o 15% szybsze CPU o czym Ubisoft otwarcie mówił. Teraz gry przewaga wynosi 31% wydajności to łatwo się domyślić że tego typu gry z otwartym światem wydawane na silniku Ubisoftu będą miały na Xbox jeszcze większą przewagę nad PS4. Bo ten silnik obsługuje tysiące przechodniów oraz innych obiektów co obciąża CPU nawet na PC a co dopiero na konsoli gdzie są tabletowe układy AMD o taktowaniu poniżej 2GHz. Tu każdy takt CPU jest na wagę złota bo to gry o otwartym świecie gdzie są tysiące obiektów. Ten typ gier będzie lepiej działał na Xbox. A dla odmiany na PS4 lepiej będą działały strzelanki typu COD gdzie CPU nic nie ma do roboty a głównie obciążone jest GPU. Inny typ gry... inny typ obciążenia zasobów.

Wymierne porównanie będziesz miał pewnie za rok przy nowym assasynie.


Bzura. Tak jak napisałem wcześniej Ubisoft pisze nowy silnik dla tej serii raz na 7 lat. Przyszłoroczny AC Victory jest już prawie gotowy i niedawno wyciekły nawet z niego zdjęcia. Jest on na tym samym silniku co Assassins Creed Unity i będzie działał tak samo. Bo nowe części Assassina to tylko nowe modele oraz nowa historia. Ale silnik się nie zmienia. Nawet cześć obiektów wykorzystują z poprzednich gier by obniżyć koszty. Assassins Creed Victory to nic innego jak pakiet skórek na obiekty przenoszący akcję z Paryża do Londynu. I nic więcej. Obie gry są na tym samym silniku i powstawały w tym samym czasie (AC Victory powstaje już ponad 2 lata). Nie spodziewaj się zmian w wydajności. Takie zmiany zobaczysz najwcześniej za 7 lat gdy napiszą kolejny silnik
ArszenikZobacz profil
Poziom ostrzeżenia: 0%
Arszenik2015.01.06, 10:23
-2#97
@KazH

Wiesz dobrze, że na razie GPGPU na konsolach ledwo zostało draśnięte.
SDK z końca listopada
http://www.dualshockers.com/2014/11/23/ps4...lopers-can-use/
Jak mówie, przekonamy się za rok.

Może nie podniosą taktowania, ale również mogą odblokować 7 rdzeń ( 100% a nie 50 do 80 )
HashiZobacz profil
Poziom ostrzeżenia: 0%
Hashi2015.01.06, 10:30
-2#98
@KazH
Genialnie wygląda jak po latach fani Xboxa (i po części PC) twierdzą, ze to jednak CPU jest najważniejszym, a nie GPU. Pamiętam, ze przez ostatnie 7 lat twierdziliście inaczej bo Xbox360 miał lepsze GPU (a PS3 CPU)? Czasem to az ręce opadają jak się to czyta. Po za tym strasznie się uczepiłeś tego phisycally-based rederingu w Unity. Technika ta już w past-genie raczkowała, a aktualnie jest na każdej platformie rozwijana. Unity ma 17fps na PS4 tak twierdzisz, więc ciekawe czemu inFamousSecondSon hula w >40fps w 1920x1080, ma PBR, destrukcję otoczenia i otwarty świat z ludzikami... Jak mi to wyjaśnisz? Bo według mnie odpowiedź jest w kilku słowach -> Dobry deweloper ze wsparciem firmy matki. InFamousSS i Unity to gry które spokojnie moza porównać bo mają bardzo podobną mechanikę, otwarty świat, tłumy ludzi, postać tez może wspinać się po budynkach, latać itd. Jedynie destrukcja w inFSS jest znacznie większa i niektóre efekty cząsteczkowe 'większe'.

PS Co do wypowiedzi Arszenik to chyba nie zajarzyłeś, ze symulację na GPGPU SONY wprowadziło dopiero w SDK 2.0 czyli parę tygodni temu.
KazHZobacz profil
Poziom ostrzeżenia: 0%
KazH2015.01.06, 10:33
-5#99
Arszenik @ 2015.01.06 10:23  Post: 818768
@KazH
Wiesz dobrze, że na razie GPGPU na konsolach ledwo zostało draśnięte.Jak mówie, przekonamy się za rok...


Szczerze mówię ci że nie spodziewam się by Ubisoft zrobił w tej generacji kolejny silnik. W poprzedniej generacji 7 lat silnika nie zmieniali a teraz mieliby nagle zmieniać silnik co roku? I to w dodatku gdy AC Victory które jest pisane od 2 lat na silniku z Unity i teraz na pół roku przed premierą mieliby robić zmiany w silniku... Nie wydaje mi się. Teraz to zespół odpowiedzialny za silnik łata błędy z Unity i nikt nawet nie myśli o tym by pisać jakiś nowy silnik na kilka miesięcy przed premierą Victory. No chyba że ty mówisz o końcu 2016 jako 'przyszły rok' ale nawet wtedy wątpię by opłacało im się pisać nowy silnik
KazHZobacz profil
Poziom ostrzeżenia: 0%
KazH2015.01.06, 10:50
Hashi @ 2015.01.06 10:30  Post: 818770
@KazH
Genialnie wygląda jak po latach fani Xboxa (i po części PC) twierdzą, ze to jednak CPU jest najważniejszym, a nie GPU.


Wszystko zależy od gry. Nie ma idealnej konfiguracji. Jedna gra mocniej korzysta z CPU a inna mocniej korzysta z GPU. Pisałem to już wcześniej ale ktoś zminusował więc wyjaśnię to jeszcze raz. Jak masz grę typu FPS czyli strzelankę z pierwszej perspektywy to głównie liczy się GPU bo na ekranie masz mało obiektów ale za to dużo efektów wybuchów itp. Takie gry nie dbają o CPU dla nich liczy się tylko GPU a więc takie gry jak COD, BF itp. będą działały lepiej na PS4 bo ta konsola ma o 50% szybsze GPU. Z drugiej strony są gry w których liczy się wydajne CPU np. Assassins Creed bo to jest gra z otwartym światem i tysiącami przechodniów. Takie gry są ograniczane przez wydajność CPU i tu te dodatkowe 15% dało spory zysk w Unity. Teraz będzie 31% więc przewaga Xbox w tego typu grach się jeszcze zwiększy.

Nie ma konsoli idealnej. Jedna ma o 50% szybsze GPU a druga ma o 31% szybsze CPU. Różne gry mają różne potrzeby. Nic na to się nie poradzi. Można to jedynie zaakceptować że jeden typ gier będzie lepiej działał na jednej konsoli a drugi typ gier na drugiej. Jak ktoś chce mieć ideał to zawsze może sobie poskładać PC za 3.5K i kupić Core i5 oraz GTX970 i zadziała mu wszystko do końca generacji.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.