Nic nie okrajałem - zdjęcie pochodzi z artykułu eurogamera co zresztą widać po linku. Artykuł tutaj jest o procesorze CPU który był wcześniej w Xbox One szybszy o 15% a teraz dzięki dodatkowemu rdzeniowi jest szybszy o 31%. I wszyscy tutaj w komentarzach piszą o CPU. Nikt nie podważa tego że PS4 ma o 50% więcej jednostek CU w GPU. To są twarde dane sprzętowe które są jawne. PS4 ma szybsze GPU (50% więcej CU, 2x więcej ROP) natomiast Xbox One ma szybsze CPU (31% więcej mocy dzięki większej ilości rdzeni oraz wyższemu taktowaniu CPU i magistrali). Te dane są jawne i nikt ich nie podważa bo efekty widać w grach a deweloperzy otwarcie mówią o różnicy pomiędzy konsolami. Ubisoft który te wykresy opublikował zrobił to prezentując nowy silnik Assassina Unity który jak wiadomo na Xbox działa dużo płynniej więc jeżeli twierdzą że GPU jest 2x szybsze to Unity tego jakoś nie pokazało
Dalem Ci link do slajdu 122 z prezentacji tego benchmarka gdzie masz potwierdzenie ze jest 2x mocniejsze gpu w ps4, to jest ten sam benchmark co Ty wklejales tylko ty jeden z pierwszych slajdow okrojony z wynikow gpu.
Przejrzałem dziś slajdy o których mówisz na których Ubisoft w wakacje chwalił się nowym silnikiem AC Uniity i tym że stosuje obliczenia GPU do symulacji tłumów. Wszyscy wiemy jak się to skończyło. Ubisoft wykorzystał moc GPU do symulacji tłumów na PS4 oraz Xbox One. Miało być szybko. Ale okazało się że po wejściu w tłum gra na PS4 działa w 17 klatkach na sekundę podczas gdy na Xbox One działało stabilnie 27-30 klatek na sekundę w tym samym miejscu. To chyba najlepsze podsumowanie slajdu o którym piszesz. Bo ten slajd dotyczył tłumów z AC Unity gdzie w teorii silne GPU z PS4 miało być 2x szybsze niż GPU z Xbox One... a w praktyce okazało się że to Xbox One miał w tej grze lepszą płynność w tym właśnie tłumie. Tak więc zabawnie się czyta że Ubisoft w wakacje twierdził że GPU w PS4 pozwala na liczenie większych tłumów w AC Unity wiedząc jak słabo ta gra działa na tej konsoli. Szybszy procesor CPU w Xbox One który wtedy był o 15% wydajniejszy poradził sobie z tą grą znacznie lepiej. Teraz gdy przewaga CPU wzrosła do 31% to można się spodziewać że w kolejnych częściach Assassina różnica w wydajności będzie jeszcze bardziej na korzyść Xbox One,
Przeciez sam dales zdjecie do tego benchmarka (co prawda okrojone o wyniki gpu ale to pewnie przypadek ;d ).
Nic nie okrajałem - zdjęcie pochodzi z artykułu eurogamera co zresztą widać po linku. Artykuł tutaj jest o procesorze CPU który był wcześniej w Xbox One szybszy o 15% a teraz dzięki dodatkowemu rdzeniowi jest szybszy o 31%. I wszyscy tutaj w komentarzach piszą o CPU. Nikt nie podważa tego że PS4 ma o 50% więcej jednostek CU w GPU. To są twarde dane sprzętowe które są jawne. PS4 ma szybsze GPU (50% więcej CU, 2x więcej ROP) natomiast Xbox One ma szybsze CPU (31% więcej mocy dzięki większej ilości rdzeni oraz wyższemu taktowaniu CPU i magistrali). Te dane są jawne i nikt ich nie podważa bo efekty widać w grach a deweloperzy otwarcie mówią o różnicy pomiędzy konsolami. Ubisoft który te wykresy opublikował zrobił to prezentując nowy silnik Assassina Unity który jak wiadomo na Xbox działa dużo płynniej więc jeżeli twierdzą że GPU jest 2x szybsze to Unity tego jakoś nie pokazało
Dalem Ci link do slajdu 122 z prezentacji tego benchmarka gdzie masz potwierdzenie ze jest 2x mocniejsze gpu w ps4, to jest ten sam benchmark co Ty wklejales tylko ty jeden z pierwszych slajdow okrojony z wynikow gpu.
Mówimy tu o dziesiątkach megabajtów pamięci podręcznej L3 i L4, a nie 'wysranych' z łaski kliku czy klikunastu.
Uważaj zaraz ktoś Ci powie, że w x86 masz w przekroczone 100mb, a tu mówisz o dziesiątkach ;p. Przypominam, że jeśli tylko chcesz są Haswelle z eDRAM 128MB, który działa jak L4. Z tego co pamiętam Intel chce, aby w Broadwell to było standardem. W Power8 też L4 (też eDRAM) może mieć maksymalnie 128MB.
chizra @ 2015.01.05 23:38
O takich rzeczach jak 12 rdzeni czy 8 wątków na 1 rdzeń, już nie wspominam, ale chyba nie trudno wyobrazić sobie moc obliczeniową takiego sprzętu. Relacja wydajności jest mniej więcej jak jeden Power8 do trzech x86
Xeony mają i po 18 rdzeni. 8 wątków to fajna sprawa... ale słabsze niż u intela branch predictory sprawiają, że mimo to rdzenie przy tym samym zegarze w P8 mogą być wolniejsze. Nie zrozum mnie źle bardzo lubię architekturę Power czy SPARC (też mają po 8 wątków na rdzeń, 16 rdzeni na chip i dobre branch predictory tylko L4 brak)... tylko, że nie lubię narzekania dla narzekania, a Intel akurat zrobił przez ostatnie lata spore postępy i Haswelle akurat mogą się mierzyć z serwerowymi prockami.
Czy ten jeden rdzeń i to jeszcze nie wykorzystany w 100% coś zmieni? Nie sadzę. ESRAMu z kolei jest za mało, żeby można było poszaleć w tym temacie. Czyli schemat pozostaje niezmieniony. X1<PS4<PC
Dzieci, które porównują konsole do PC mają coś z główką
PeCetowcy daliście się wciągnąć w bezprzedmiotowy flamewar jak dzieci, naprawdę wstyd. Wiadomo nie od dziś, że w temacie domowej rozrywki, świat zdominował amerykańsko-japoński model, czyli konsola do zabawy i laptop ( najpewniej jakiś Mac ) do pracy. Co do architektury PPC, odsyłam na jakieś szkolenie do IBM-a, bo niektórzy najwyraźniej nie wiedzą o czym piszą. Mówimy tu o dziesiątkach megabajtów pamięci podręcznej L3 i L4, a nie 'wysranych' z łaski kliku czy klikunastu. O takich rzeczach jak 12 rdzeni czy 8 wątków na 1 rdzeń, już nie wspominam, ale chyba nie trudno wyobrazić sobie moc obliczeniową takiego sprzętu. Relacja wydajności jest mniej więcej jak jeden Power8 do trzech x86
Xbox One/PS4 z wykorzystaniem SSE lub AVX (AVX obsługują Jaguary, ale tylko jako 'emulacje' rozdzielając te instrukcje na 2x cykle 128bit), a na PC z AVX i SSE (zależnie czy potrafi poradzić sobie z AVX).
Nie jest to do końca prawda.
1. Na PC dostęp do AVX jest od Win7 SP1 czyli jak mi się zdaje Vista tego nie oferuje (można zweryfikować, odpowiednie demka intela są dostępne)
2. AVX to nie jest termin, który automatycznie powinien się kojarzyć z 256bit - to zwykła nieprawda. AVX może generować kod wykorzystujący 3 operandy, ale nadal na standardowych rejestrach SSE (czyli dolnej połówce AVX). Żeby było śmieszniej w trybie 128bit z FMA nieraz jest szybciej niż na 256bitach! Intel z AVX256 i 512 zrobił niesamowitą maszynkę w MIC, ale w prockach desktopowych to się nie przyjęło tak ciepło jak w klastrach obliczeniowych (czyli dość typowo). A z całą pewnością nie jest to żadna przewaga aktualnie w grach.
1. Tak. Windows obsługuje pełny AVX od SP1 do W7 (2011), MacOS od 10.6.8 (2011), Linux od 2.6.30 (2009). Nie rozumiem tylko w czym się nie zgadza z tym co napisałem?
2. AVX to termin intela na instrukcje operujące na 256bit rejestrach... ofc instrukcje są też 128bit i można z nich korzystać jeśli system nie pozwala na wykorzystanie AVX (czyli nie zapewnia bezpieczeństwa przy wykorzystywaniu wszystkich rejestrów wymaganych przy AVX, a mają one 256bit).
512bitowy AVX nie mieści się w określeniu do AVX... to rozszerzenie AVX (max 256bit) o nowe instrukcje i to rozszerzenie nazywa się AVX-512
Xbox One/PS4 z wykorzystaniem SSE lub AVX (AVX obsługują Jaguary, ale tylko jako 'emulacje' rozdzielając te instrukcje na 2x cykle 128bit), a na PC z AVX i SSE (zależnie czy potrafi poradzić sobie z AVX).
Nie jest to do końca prawda.
1. Na PC dostęp do AVX jest od Win7 SP1 czyli jak mi się zdaje Vista tego nie oferuje (można zweryfikować, odpowiednie demka intela są dostępne)
2. AVX to nie jest termin, który automatycznie powinien się kojarzyć z 256bit - to zwykła nieprawda. AVX może generować kod wykorzystujący 3 operandy, ale nadal na standardowych rejestrach SSE (czyli dolnej połówce AVX). Żeby było śmieszniej w trybie 128bit z FMA nieraz jest szybciej niż na 256bitach! Intel z AVX256 i 512 zrobił niesamowitą maszynkę w MIC, ale w prockach desktopowych to się nie przyjęło tak ciepło jak w klastrach obliczeniowych (czyli dość typowo). A z całą pewnością nie jest to żadna przewaga aktualnie w grach.
'. Do jakości ~Infiltrator w grze wymagany też będzie sprzęt minimum ~980. Spokojnie taka grafika w konsolach to za ~7 lat w nowej generacji.' http://pclab.pl/kom74213--0.html
Niedługo pojawi się 980ti, 390x ..
Faktycznie pomyliło mi się z Samaritanem tutaj w orginalnej wersji, która obliczeniowo zabijała. Obcięta wersja i Infiltrator jako gry mogą się pojawić za rok (ofc bez nawet opcji włączenia MSAA na 980, a z cięciami jak FXAA).
Arszenik @ 2015.01.05 19:51
I o to się rozchodzi własnie.
Tak - tylko, że na PC za rok dwa może być przeskok i stare Nehalemy nie będą wspierane, a minimum będzie 2x wydajniejszy SandyBridge (a konsole będą miały duże problemy).
Konsole będą wspierane do końca produkcji i parę lat dłużej. Wynika to z faktu że jest to opłacalne, jedna konfiguracja przez całe życie i wydajność można podnosić dzięki optymalizacji kodu nie mówiąc o ułatwieniach przy eliminacji błędów.
'. Do jakości ~Infiltrator w grze wymagany też będzie sprzęt minimum ~980. Spokojnie taka grafika w konsolach to za ~7 lat w nowej generacji.' http://pclab.pl/kom74213--0.html
Niedługo pojawi się 980ti, 390x ..
Faktycznie pomyliło mi się z Samaritanem tutaj w orginalnej wersji, która obliczeniowo zabijała. Obcięta wersja i Infiltrator jako gry mogą się pojawić za rok (ofc bez nawet opcji włączenia MSAA na 980, a z cięciami jak FXAA).
Arszenik @ 2015.01.05 19:51
I o to się rozchodzi własnie.
Tak - tylko, że na PC za rok dwa może być przeskok i stare Nehalemy nie będą wspierane, a minimum będzie 2x wydajniejszy SandyBridge (a konsole będą miały duże problemy).
Widać, że nie masz pojęcia czym się różni demo od gry. Dziś 3x SLI 980 nie pozwoli Ci na taką grę.
Kurcze Skoti, sam pisałeś komentarz 159. Cenie Twoją wiedzę więc chyba mogę się na niej oprzec
'. Do jakości ~Infiltrator w grze wymagany też będzie sprzęt minimum ~980. Spokojnie taka grafika w konsolach to za ~7 lat w nowej generacji.' http://pclab.pl/kom74213--0.html
Niedługo pojawi się 980ti, 390x ..
Jeśli dla kogoś targetem byłby Haswell to miałby bardzo małe zyski, bo ich jest mało. Jeśli targetem jest Nehalem to celujesz pokrywasz cały rynek.
Nie rozumiem negatywnej oceny tego niusa. Sam nie jestem 'za' tą konsolą, bo to jeden z większych sprzętowych faili jakie w temacie konsol kiedykolwiek zrobiono (za słaba spec.), no ale... tym bardziej należy się cieszyć że dają dla gier coś co do tej pory było zarezerwowane dla pierdół typu kinekt czy coś.
Przecież to dobrze...
Na moje lepiej żeby ta 'moc', jaka by mała nie była, nie siedziała odłogiem czekając na kinekta tylko żeby to gry mogły z niej korzystać.
Przecież wiadomo że tą dodatkową mocą wiele nie zmienią, ale zawsze to coś.
To da około 8-13% wydajności więcej właśnie temu elementowi który ponoć np. w AC:U limituje...
Zawsze to coś.
Xbox One nie jest zla konsola tylko zle wyceniona. Powinna byc znacznie tansza i by wszystko bylo ok.
Dobrze zrozumiałem - równie dobrze możesz wstawić najmocniejszy i7 + 680 i odpalić demo infiltratora 2 lata temu. Oczywiście gra z taką grafiką wymagałaby więcej mocy, ale czy widzisz teraz 1 konkretną grę na tym poziomie pisaną pod pc ? Sprzęt dziś już by na to spokojnie pozwolił ale takiej gry pod pc nie będzie - Rein w innym wywiadzie narzeka że wielu hardkorowych graczy odeszło odeszło w str konsol i przedstawia fakty o biznesie w gamingu AAA.
Widać, że nie masz pojęcia czym się różni demo od gry. Dziś 3x SLI 980 nie pozwoli Ci na taką grę.
Arszenik @ 2015.01.05 18:34
1. To skąd przeświadczenie człowieka z branży że na pc należy celować dzisaj w mniej więcej poziom nehalema z powodów ekonomicznych ? Tak rzeczywiście jest, spójrz w gry przynoszące największe kokosy na pc - dota 2, LOL, World of Tanks. Arma 3 pójdzie też nehalemie.
Większość graczy jak widac dalej siedzi na nehalemach.
Ekonomiczne powody Nehalema są jasne - Jeśli dla kogoś targetem byłby Haswell to miałby bardzo małe zyski, bo ich jest mało. Jeśli targetem jest Nehalem to celujesz pokrywasz cały rynek. Nie wiem po co podajesz takie gry, skoro największe produkcje nie wymagają obecnie nic ponad Nehalema (i7 Nehalem@3.2GHz = 102,4 GFLOPS). Należy jednak pamiętać, że niektóre gry na PC oferują więcej niż na konsolach i wymagają minimum SandyBridge (co nie jest problemem dla gracza, gdy tani i3 Haswell@3.2 GHz ma wydajność 204,8 GFLOPS).
Nie większość graczy siedzi na nehalemach... a nehalemy to najbardziej low-endowe procki o jakich myśli programista (a ich wydajność i tak jest wyższa niż mają do dyspozycji gry na konsolach), ale już nie we wszystkich grach (już SandyBridge jest w niektórych wymagany).
Patrz a ja siedzę w super wygodnym fotelu który pozwala na zachowanie odpowiedniej pozycji nie obciążającej kręgosłupa. Gram na monitorze z lepszymi parametrami niż niejeden TV. Z lepszymi efektami graficznymi na porządnych urządzeniach służących do grania w gry których nie będzie nigdy na konsole. Ot patrz prawie to samo.
Powiedz to lekarzowi, bo ja swojemu ortopedzie powiedziałem, że mam ergonomiczne siedzisko to parsknął śmiechem i powiedział, rusz pan dupsko, bo mięśnie gniją.
Trochę chyba się zagalopowałeś z tym porównaniem. PS4 nigdy nie miał 2x szybszego GPU. Ma jedynie 2x więcej układów ROP więc może pracować przy większej rozdzielczości ekranu. Ale układów obliczeniowych w GPU ma o 50% więcej bo jest to 18 bloków CU a Xbox One ma 12 bloków CU (ale każdy z nich jest szybciej). To co realnie ogranicza Xbox to mała ilość ROP-ów a więc spory spadek wydajności powyżej rozdzielczości 900p. Natomiast sam procesor CPU w Xbox był o 15% szybszy niż w PS4 a teraz przewaga ta zwiększyła się do 31% dzięki zwolnieniu dodatkowego rdzenia. Tak to wygląda od strony hardware.
To czy o 50% szybsze GPU w PS4 jest lepsze niż o 31% szybsze CPU w Xbox to będzie zależało głównie od typu gry. Tak jak napisałem wcześniej strzelanki które głównie polegają na GPU będą zawsze lepiej działały na PS4. Gry z otwartym światem gdzie potrzebne jest szybsze CPU natomiast lepiej będą działały na Xbox. To już udowodniły premiery tej jesieni i tak będzie aż do końca generacji. Bo każda z konsol ma swoje silne i słabe strony.
Przeciez sam dales zdjecie do tego benchmarka (co prawda okrojone o wyniki gpu ale to pewnie przypadek ;d ).
Nic nie okrajałem - zdjęcie pochodzi z artykułu eurogamera co zresztą widać po linku. Artykuł tutaj jest o procesorze CPU który był wcześniej w Xbox One szybszy o 15% a teraz dzięki dodatkowemu rdzeniowi jest szybszy o 31%. I wszyscy tutaj w komentarzach piszą o CPU. Nikt nie podważa tego że PS4 ma o 50% więcej jednostek CU w GPU. To są twarde dane sprzętowe które są jawne. PS4 ma szybsze GPU (50% więcej CU, 2x więcej ROP) natomiast Xbox One ma szybsze CPU (31% więcej mocy dzięki większej ilości rdzeni oraz wyższemu taktowaniu CPU i magistrali). Te dane są jawne i nikt ich nie podważa bo efekty widać w grach a deweloperzy otwarcie mówią o różnicy pomiędzy konsolami. Ubisoft który te wykresy opublikował zrobił to prezentując nowy silnik Assassina Unity który jak wiadomo na Xbox działa dużo płynniej więc jeżeli twierdzą że GPU jest 2x szybsze to Unity tego jakoś nie pokazało
Oj Pclabie, przestań zmieniać się w komputerowy odpowiednik pudelków i innych takich. W boksie 'aktualności' piszecie:
Dzięki wyciekowi narzędzi programistycznych dla Xbox One dowiedzieliśmy się, że od listopada deweloperzy mają dostęp do siódmego rdzenia procesora konsoli.
A w treści artykułu:
informowaliśmy Was o udostępnieniu nowej wersji SDK dla konsoli Microsoftu, która pozwalała na lepsze wykorzystanie pamięci ESRAM. (...) Deweloperzy uzyskali dostęp do siódmego rdzenia procesora.
Za czasów x360 była przepaść pomiędzy PC, a konsolami....
PC miały Pentium 4/ Smithfield.... x360 miało 3rdzeniowy PowerPC...
Dziś konsole musiałyby mieć 12 rdzeniowego chyba Power-a
Akurat x360 nie był wcale świetny. Miałeś 3 rdzenie, ale branch predictor w tym procku jest znacznie słabszy i potrafi być on słabszy niż P4. Cell to co innego - tu faktycznie była przepaść i ten procek na papierze jest wydajniejszy niż procki w nowych konsolach (tylko branch predictor i trudniejsze wykorzystanie, sprawia, że jest w okolicach tej samej wydajności).
Gdyby dziś konsolę chciałyby mieć taką przewagę w obliczeniach jaką dawał Cell to musiałyby zastosować Intel Xeon Phi lub mocne GPU do obliczeń... poniekąd próbują to robić, ale z PC nie mają szans wygrać, bo mocniejszych GPU przy ograniczonym poborze prądu nie dadzą, a koprocesory Xeon Phi też pobierają swoje.
Arszenik @ 2015.01.05 15:53
A rzeczywistość w oczach developerów robienia gier na pc..
Twórcy na PC celują w wydajność w najnowsze i3 (należy pamiętać, że Haswellowe 2x rdzeniowe procesory mają wyższą wydajność niż konsolowe CPU czy Nehalem (ten ma podobną wydajność do konsolowych procków)), bo przenosi się obliczenia z CPU na GPU od lat (od serii 8800 się zaczęło) i dziś mocarne GPU do większości gier nie są niezbędne. Jednak są gry, które będą się mocno pocić, aby można było je uruchomić na konsolach.
Tylko no własnie zarówno procesory desktopowe jak i mobilne to właśnie APU, gdzie GPU pełni rolę kooprocesora.
Zależy, który Nehalem, ale ten 4 rdzeniowy@3,5GHz ma pewnie większą.
Co do obliczeń z CPU-> GPU co masz na myśli? To, że GPU sam potrafi zlecać sobie kolejne zadania? Post processing?
Pytanie, lepiej 15% szybsze cpu czy 2x szybsze gpu?
Trochę chyba się zagalopowałeś z tym porównaniem. PS4 nigdy nie miał 2x szybszego GPU. Ma jedynie 2x więcej układów ROP więc może pracować przy większej rozdzielczości ekranu. Ale układów obliczeniowych w GPU ma o 50% więcej bo jest to 18 bloków CU a Xbox One ma 12 bloków CU (ale każdy z nich jest szybciej). To co realnie ogranicza Xbox to mała ilość ROP-ów a więc spory spadek wydajności powyżej rozdzielczości 900p. Natomiast sam procesor CPU w Xbox był o 15% szybszy niż w PS4 a teraz przewaga ta zwiększyła się do 31% dzięki zwolnieniu dodatkowego rdzenia. Tak to wygląda od strony hardware.
To czy o 50% szybsze GPU w PS4 jest lepsze niż o 31% szybsze CPU w Xbox to będzie zależało głównie od typu gry. Tak jak napisałem wcześniej strzelanki które głównie polegają na GPU będą zawsze lepiej działały na PS4. Gry z otwartym światem gdzie potrzebne jest szybsze CPU natomiast lepiej będą działały na Xbox. To już udowodniły premiery tej jesieni i tak będzie aż do końca generacji. Bo każda z konsol ma swoje silne i słabe strony.
Wedlug benchmarka z ktorego wynika ze cpu jest o 15% szybsze w xone od ps4 wynika rowniez ze gpu w ps4 jest prawie 2x szybsze od tego z xone, czegu tu nie rozumiesz? Przeciez sam dales zdjecie do tego benchmarka (co prawda okrojone o wyniki gpu ale to pewnie przypadek ;d ).
Nic nie okrajałem - zdjęcie pochodzi z artykułu eurogamera co zresztą widać po linku. Artykuł tutaj jest o procesorze CPU który był wcześniej w Xbox One szybszy o 15% a teraz dzięki dodatkowemu rdzeniowi jest szybszy o 31%. I wszyscy tutaj w komentarzach piszą o CPU. Nikt nie podważa tego że PS4 ma o 50% więcej jednostek CU w GPU. To są twarde dane sprzętowe które są jawne. PS4 ma szybsze GPU (50% więcej CU, 2x więcej ROP) natomiast Xbox One ma szybsze CPU (31% więcej mocy dzięki większej ilości rdzeni oraz wyższemu taktowaniu CPU i magistrali). Te dane są jawne i nikt ich nie podważa bo efekty widać w grach a deweloperzy otwarcie mówią o różnicy pomiędzy konsolami. Ubisoft który te wykresy opublikował zrobił to prezentując nowy silnik Assassina Unity który jak wiadomo na Xbox działa dużo płynniej więc jeżeli twierdzą że GPU jest 2x szybsze to Unity tego jakoś nie pokazało
Dalem Ci link do slajdu 122 z prezentacji tego benchmarka gdzie masz potwierdzenie ze jest 2x mocniejsze gpu w ps4, to jest ten sam benchmark co Ty wklejales tylko ty jeden z pierwszych slajdow okrojony z wynikow gpu.
Przejrzałem dziś slajdy o których mówisz na których Ubisoft w wakacje chwalił się nowym silnikiem AC Uniity i tym że stosuje obliczenia GPU do symulacji tłumów. Wszyscy wiemy jak się to skończyło. Ubisoft wykorzystał moc GPU do symulacji tłumów na PS4 oraz Xbox One. Miało być szybko. Ale okazało się że po wejściu w tłum gra na PS4 działa w 17 klatkach na sekundę podczas gdy na Xbox One działało stabilnie 27-30 klatek na sekundę w tym samym miejscu. To chyba najlepsze podsumowanie slajdu o którym piszesz. Bo ten slajd dotyczył tłumów z AC Unity gdzie w teorii silne GPU z PS4 miało być 2x szybsze niż GPU z Xbox One... a w praktyce okazało się że to Xbox One miał w tej grze lepszą płynność w tym właśnie tłumie. Tak więc zabawnie się czyta że Ubisoft w wakacje twierdził że GPU w PS4 pozwala na liczenie większych tłumów w AC Unity wiedząc jak słabo ta gra działa na tej konsoli. Szybszy procesor CPU w Xbox One który wtedy był o 15% wydajniejszy poradził sobie z tą grą znacznie lepiej. Teraz gdy przewaga CPU wzrosła do 31% to można się spodziewać że w kolejnych częściach Assassina różnica w wydajności będzie jeszcze bardziej na korzyść Xbox One,
Przeciez sam dales zdjecie do tego benchmarka (co prawda okrojone o wyniki gpu ale to pewnie przypadek ;d ).
Nic nie okrajałem - zdjęcie pochodzi z artykułu eurogamera co zresztą widać po linku. Artykuł tutaj jest o procesorze CPU który był wcześniej w Xbox One szybszy o 15% a teraz dzięki dodatkowemu rdzeniowi jest szybszy o 31%. I wszyscy tutaj w komentarzach piszą o CPU. Nikt nie podważa tego że PS4 ma o 50% więcej jednostek CU w GPU. To są twarde dane sprzętowe które są jawne. PS4 ma szybsze GPU (50% więcej CU, 2x więcej ROP) natomiast Xbox One ma szybsze CPU (31% więcej mocy dzięki większej ilości rdzeni oraz wyższemu taktowaniu CPU i magistrali). Te dane są jawne i nikt ich nie podważa bo efekty widać w grach a deweloperzy otwarcie mówią o różnicy pomiędzy konsolami. Ubisoft który te wykresy opublikował zrobił to prezentując nowy silnik Assassina Unity który jak wiadomo na Xbox działa dużo płynniej więc jeżeli twierdzą że GPU jest 2x szybsze to Unity tego jakoś nie pokazało
Dalem Ci link do slajdu 122 z prezentacji tego benchmarka gdzie masz potwierdzenie ze jest 2x mocniejsze gpu w ps4, to jest ten sam benchmark co Ty wklejales tylko ty jeden z pierwszych slajdow okrojony z wynikow gpu.
http://www.ustream.tv/sony
Uważaj zaraz ktoś Ci powie, że w x86 masz w przekroczone 100mb, a tu mówisz o dziesiątkach ;p. Przypominam, że jeśli tylko chcesz są Haswelle z eDRAM 128MB, który działa jak L4. Z tego co pamiętam Intel chce, aby w Broadwell to było standardem. W Power8 też L4 (też eDRAM) może mieć maksymalnie 128MB.
Xeony mają i po 18 rdzeni. 8 wątków to fajna sprawa... ale słabsze niż u intela branch predictory sprawiają, że mimo to rdzenie przy tym samym zegarze w P8 mogą być wolniejsze. Nie zrozum mnie źle bardzo lubię architekturę Power czy SPARC (też mają po 8 wątków na rdzeń, 16 rdzeni na chip i dobre branch predictory tylko L4 brak)... tylko, że nie lubię narzekania dla narzekania, a Intel akurat zrobił przez ostatnie lata spore postępy i Haswelle akurat mogą się mierzyć z serwerowymi prockami.
No patrz, każdy konsolowiec ma również PC, ale na nim nie gra.
Dzieci, które porównują konsole do PC mają coś z główką
Nie jest to do końca prawda.
1. Na PC dostęp do AVX jest od Win7 SP1 czyli jak mi się zdaje Vista tego nie oferuje (można zweryfikować, odpowiednie demka intela są dostępne)
2. AVX to nie jest termin, który automatycznie powinien się kojarzyć z 256bit - to zwykła nieprawda. AVX może generować kod wykorzystujący 3 operandy, ale nadal na standardowych rejestrach SSE (czyli dolnej połówce AVX). Żeby było śmieszniej w trybie 128bit z FMA nieraz jest szybciej niż na 256bitach! Intel z AVX256 i 512 zrobił niesamowitą maszynkę w MIC, ale w prockach desktopowych to się nie przyjęło tak ciepło jak w klastrach obliczeniowych (czyli dość typowo). A z całą pewnością nie jest to żadna przewaga aktualnie w grach.
1. Tak. Windows obsługuje pełny AVX od SP1 do W7 (2011), MacOS od 10.6.8 (2011), Linux od 2.6.30 (2009). Nie rozumiem tylko w czym się nie zgadza z tym co napisałem?
2. AVX to termin intela na instrukcje operujące na 256bit rejestrach... ofc instrukcje są też 128bit i można z nich korzystać jeśli system nie pozwala na wykorzystanie AVX (czyli nie zapewnia bezpieczeństwa przy wykorzystywaniu wszystkich rejestrów wymaganych przy AVX, a mają one 256bit).
512bitowy AVX nie mieści się w określeniu do AVX... to rozszerzenie AVX (max 256bit) o nowe instrukcje i to rozszerzenie nazywa się AVX-512
Nie jest to do końca prawda.
1. Na PC dostęp do AVX jest od Win7 SP1 czyli jak mi się zdaje Vista tego nie oferuje (można zweryfikować, odpowiednie demka intela są dostępne)
2. AVX to nie jest termin, który automatycznie powinien się kojarzyć z 256bit - to zwykła nieprawda. AVX może generować kod wykorzystujący 3 operandy, ale nadal na standardowych rejestrach SSE (czyli dolnej połówce AVX). Żeby było śmieszniej w trybie 128bit z FMA nieraz jest szybciej niż na 256bitach! Intel z AVX256 i 512 zrobił niesamowitą maszynkę w MIC, ale w prockach desktopowych to się nie przyjęło tak ciepło jak w klastrach obliczeniowych (czyli dość typowo). A z całą pewnością nie jest to żadna przewaga aktualnie w grach.
'. Do jakości ~Infiltrator w grze wymagany też będzie sprzęt minimum ~980. Spokojnie taka grafika w konsolach to za ~7 lat w nowej generacji.'
http://pclab.pl/kom74213--0.html
Niedługo pojawi się 980ti, 390x ..
Faktycznie pomyliło mi się z Samaritanem tutaj w orginalnej wersji, która obliczeniowo zabijała. Obcięta wersja i Infiltrator jako gry mogą się pojawić za rok (ofc bez nawet opcji włączenia MSAA na 980, a z cięciami jak FXAA).
Tak - tylko, że na PC za rok dwa może być przeskok i stare Nehalemy nie będą wspierane, a minimum będzie 2x wydajniejszy SandyBridge (a konsole będą miały duże problemy).
Konsole będą wspierane do końca produkcji i parę lat dłużej. Wynika to z faktu że jest to opłacalne, jedna konfiguracja przez całe życie i wydajność można podnosić dzięki optymalizacji kodu nie mówiąc o ułatwieniach przy eliminacji błędów.
'. Do jakości ~Infiltrator w grze wymagany też będzie sprzęt minimum ~980. Spokojnie taka grafika w konsolach to za ~7 lat w nowej generacji.'
http://pclab.pl/kom74213--0.html
Niedługo pojawi się 980ti, 390x ..
Faktycznie pomyliło mi się z Samaritanem tutaj w orginalnej wersji, która obliczeniowo zabijała. Obcięta wersja i Infiltrator jako gry mogą się pojawić za rok (ofc bez nawet opcji włączenia MSAA na 980, a z cięciami jak FXAA).
Tak - tylko, że na PC za rok dwa może być przeskok i stare Nehalemy nie będą wspierane, a minimum będzie 2x wydajniejszy SandyBridge (a konsole będą miały duże problemy).
Widać, że nie masz pojęcia czym się różni demo od gry. Dziś 3x SLI 980 nie pozwoli Ci na taką grę.
Kurcze Skoti, sam pisałeś komentarz 159. Cenie Twoją wiedzę więc chyba mogę się na niej oprzec
'. Do jakości ~Infiltrator w grze wymagany też będzie sprzęt minimum ~980. Spokojnie taka grafika w konsolach to za ~7 lat w nowej generacji.'
http://pclab.pl/kom74213--0.html
Niedługo pojawi się 980ti, 390x ..
Jeśli dla kogoś targetem byłby Haswell to miałby bardzo małe zyski, bo ich jest mało. Jeśli targetem jest Nehalem to celujesz pokrywasz cały rynek.
I o to się rozchodzi własnie.
Przecież to dobrze...
Na moje lepiej żeby ta 'moc', jaka by mała nie była, nie siedziała odłogiem czekając na kinekta tylko żeby to gry mogły z niej korzystać.
Przecież wiadomo że tą dodatkową mocą wiele nie zmienią, ale zawsze to coś.
To da około 8-13% wydajności więcej właśnie temu elementowi który ponoć np. w AC:U limituje...
Zawsze to coś.
Xbox One nie jest zla konsola tylko zle wyceniona. Powinna byc znacznie tansza i by wszystko bylo ok.
Dobrze zrozumiałem - równie dobrze możesz wstawić najmocniejszy i7 + 680 i odpalić demo infiltratora 2 lata temu. Oczywiście gra z taką grafiką wymagałaby więcej mocy, ale czy widzisz teraz 1 konkretną grę na tym poziomie pisaną pod pc ? Sprzęt dziś już by na to spokojnie pozwolił ale takiej gry pod pc nie będzie - Rein w innym wywiadzie narzeka że wielu hardkorowych graczy odeszło odeszło w str konsol i przedstawia fakty o biznesie w gamingu AAA.
Widać, że nie masz pojęcia czym się różni demo od gry. Dziś 3x SLI 980 nie pozwoli Ci na taką grę.
Większość graczy jak widac dalej siedzi na nehalemach.
Ekonomiczne powody Nehalema są jasne - Jeśli dla kogoś targetem byłby Haswell to miałby bardzo małe zyski, bo ich jest mało. Jeśli targetem jest Nehalem to celujesz pokrywasz cały rynek. Nie wiem po co podajesz takie gry, skoro największe produkcje nie wymagają obecnie nic ponad Nehalema (i7 Nehalem@3.2GHz = 102,4 GFLOPS). Należy jednak pamiętać, że niektóre gry na PC oferują więcej niż na konsolach i wymagają minimum SandyBridge (co nie jest problemem dla gracza, gdy tani i3 Haswell@3.2 GHz ma wydajność 204,8 GFLOPS).
Nie większość graczy siedzi na nehalemach... a nehalemy to najbardziej low-endowe procki o jakich myśli programista (a ich wydajność i tak jest wyższa niż mają do dyspozycji gry na konsolach), ale już nie we wszystkich grach (już SandyBridge jest w niektórych wymagany).
Patrz a ja siedzę w super wygodnym fotelu który pozwala na zachowanie odpowiedniej pozycji nie obciążającej kręgosłupa. Gram na monitorze z lepszymi parametrami niż niejeden TV. Z lepszymi efektami graficznymi na porządnych urządzeniach służących do grania w gry których nie będzie nigdy na konsole. Ot patrz prawie to samo.
Powiedz to lekarzowi, bo ja swojemu ortopedzie powiedziałem, że mam ergonomiczne siedzisko to parsknął śmiechem i powiedział, rusz pan dupsko, bo mięśnie gniją.
Trochę chyba się zagalopowałeś z tym porównaniem. PS4 nigdy nie miał 2x szybszego GPU. Ma jedynie 2x więcej układów ROP więc może pracować przy większej rozdzielczości ekranu. Ale układów obliczeniowych w GPU ma o 50% więcej bo jest to 18 bloków CU a Xbox One ma 12 bloków CU (ale każdy z nich jest szybciej). To co realnie ogranicza Xbox to mała ilość ROP-ów a więc spory spadek wydajności powyżej rozdzielczości 900p. Natomiast sam procesor CPU w Xbox był o 15% szybszy niż w PS4 a teraz przewaga ta zwiększyła się do 31% dzięki zwolnieniu dodatkowego rdzenia. Tak to wygląda od strony hardware.
To czy o 50% szybsze GPU w PS4 jest lepsze niż o 31% szybsze CPU w Xbox to będzie zależało głównie od typu gry. Tak jak napisałem wcześniej strzelanki które głównie polegają na GPU będą zawsze lepiej działały na PS4. Gry z otwartym światem gdzie potrzebne jest szybsze CPU natomiast lepiej będą działały na Xbox. To już udowodniły premiery tej jesieni i tak będzie aż do końca generacji. Bo każda z konsol ma swoje silne i słabe strony.
Przeciez sam dales zdjecie do tego benchmarka (co prawda okrojone o wyniki gpu ale to pewnie przypadek ;d ).
Nic nie okrajałem - zdjęcie pochodzi z artykułu eurogamera co zresztą widać po linku. Artykuł tutaj jest o procesorze CPU który był wcześniej w Xbox One szybszy o 15% a teraz dzięki dodatkowemu rdzeniowi jest szybszy o 31%. I wszyscy tutaj w komentarzach piszą o CPU. Nikt nie podważa tego że PS4 ma o 50% więcej jednostek CU w GPU. To są twarde dane sprzętowe które są jawne. PS4 ma szybsze GPU (50% więcej CU, 2x więcej ROP) natomiast Xbox One ma szybsze CPU (31% więcej mocy dzięki większej ilości rdzeni oraz wyższemu taktowaniu CPU i magistrali). Te dane są jawne i nikt ich nie podważa bo efekty widać w grach a deweloperzy otwarcie mówią o różnicy pomiędzy konsolami. Ubisoft który te wykresy opublikował zrobił to prezentując nowy silnik Assassina Unity który jak wiadomo na Xbox działa dużo płynniej więc jeżeli twierdzą że GPU jest 2x szybsze to Unity tego jakoś nie pokazało
A w treści artykułu:
Za czasów x360 była przepaść pomiędzy PC, a konsolami....
PC miały Pentium 4/ Smithfield.... x360 miało 3rdzeniowy PowerPC...
Dziś konsole musiałyby mieć 12 rdzeniowego chyba Power-a
Akurat x360 nie był wcale świetny. Miałeś 3 rdzenie, ale branch predictor w tym procku jest znacznie słabszy i potrafi być on słabszy niż P4. Cell to co innego - tu faktycznie była przepaść i ten procek na papierze jest wydajniejszy niż procki w nowych konsolach (tylko branch predictor i trudniejsze wykorzystanie, sprawia, że jest w okolicach tej samej wydajności).
Gdyby dziś konsolę chciałyby mieć taką przewagę w obliczeniach jaką dawał Cell to musiałyby zastosować Intel Xeon Phi lub mocne GPU do obliczeń... poniekąd próbują to robić, ale z PC nie mają szans wygrać, bo mocniejszych GPU przy ograniczonym poborze prądu nie dadzą, a koprocesory Xeon Phi też pobierają swoje.
http://www.eurogamer.pl/articles/2014-08-2...nym-metro-redux
Tylko no własnie zarówno procesory desktopowe jak i mobilne to właśnie APU, gdzie GPU pełni rolę kooprocesora.
Zależy, który Nehalem, ale ten 4 rdzeniowy@3,5GHz ma pewnie większą.
Co do obliczeń z CPU-> GPU co masz na myśli? To, że GPU sam potrafi zlecać sobie kolejne zadania? Post processing?
Które gry się będą pocić?
Pytanie, lepiej 15% szybsze cpu czy 2x szybsze gpu?
Trochę chyba się zagalopowałeś z tym porównaniem. PS4 nigdy nie miał 2x szybszego GPU. Ma jedynie 2x więcej układów ROP więc może pracować przy większej rozdzielczości ekranu. Ale układów obliczeniowych w GPU ma o 50% więcej bo jest to 18 bloków CU a Xbox One ma 12 bloków CU (ale każdy z nich jest szybciej). To co realnie ogranicza Xbox to mała ilość ROP-ów a więc spory spadek wydajności powyżej rozdzielczości 900p. Natomiast sam procesor CPU w Xbox był o 15% szybszy niż w PS4 a teraz przewaga ta zwiększyła się do 31% dzięki zwolnieniu dodatkowego rdzenia. Tak to wygląda od strony hardware.
To czy o 50% szybsze GPU w PS4 jest lepsze niż o 31% szybsze CPU w Xbox to będzie zależało głównie od typu gry. Tak jak napisałem wcześniej strzelanki które głównie polegają na GPU będą zawsze lepiej działały na PS4. Gry z otwartym światem gdzie potrzebne jest szybsze CPU natomiast lepiej będą działały na Xbox. To już udowodniły premiery tej jesieni i tak będzie aż do końca generacji. Bo każda z konsol ma swoje silne i słabe strony.
Wedlug benchmarka z ktorego wynika ze cpu jest o 15% szybsze w xone od ps4 wynika rowniez ze gpu w ps4 jest prawie 2x szybsze od tego z xone, czegu tu nie rozumiesz?