komentarze
*Konto usunięte*2014.06.16, 20:25
Luk4s @ 2014.06.16 15:11  Post: 758500
SunTzu @ 2014.06.16 00:26  Post: 758373
@up
Czyli CPU Intel-a, który nie jest ograniczonym celeronem ma trochę MB więcej cachu i 2x wyższy zegar + nowe archi powinien być szybszy prawda?

Z uwzględnieniem tych info tak ;). Chociaż cały czas trzeba mieć na względzie to ile app będzie wykorzystywać wątków -> może być sytuacja jak w WD gdzie nawet wysoki takt nie pomogl Pentiumowi. Wtedy jeden wysoko taktowany rdzeń i5 moze oberwać od teoretycznie slabszych 4 Jagurarów.

i @zriel

Po primo uwzględniamy najbardziej optymalny scenariusz czyli wykorzystujesz 8 wątków Kaverii i 4 wątki w i5.... W tym momencie masz wydajność 1,5-2x większą
Siłą rzeczy jeśli wykorzystasz 4 wątki to i5 ma wydajność przy 4x większą.
i5 ma IPC/MHz większe ~2x większe, z zegar 2x większy.

Jaguar jeśli chodzi o FPU jest już jak Kaverii gdzie 2 jednostki 128bit mogą robić 1x 256bit.
*Konto usunięte*2014.06.16, 20:18
zriel @ 2014.06.16 17:49  Post: 758538
SunTzu @ 2014.06.16 14:01  Post: 758482
@
mbe, oficjalnie AMD wysłało sprostowanie tego...

Dwa HSA nie wymusza hUMA. HSA jest już na dobrą sprawę każde iGPU, które korzystało ze wspólnej pamięci.

Wytłumacz mi po co w PS4 onion i garclic jak w Richland i czemu nie ma wspólnej szyny jak w Kaverii to ogarnę twoją wypowiedź. Tak jak richland przez Onion ma dostęp do wspólnej pamięci. Jeśli mi nie dajesz technicznych argumentów to jak mam zrozumieć sprawę?

PS4 jest jakby Kabini zmixowany z 7870 (ma 20GCNów fizycznie) i kontroler GGDR5 + 8 jaguarów/nb....


PS4 ma wsparcie hUMA - ale tylko sprzętowe, pełnego programowego jeszcze nie ma, jak pisałem Sony zapowiedziało że w przyszłych aktualizacjach oprogramowania PS4 znajdzie się pełne wsparcie dla hUMA. Dla OpenCL być może też, choć tu nie jestem pewien bo Sony zupełnie niepotrzebnie wykupiło licencję na użycie PhysX w swoich konsolach - a to nie dość że ograniczone i mało wydajne jest, to jeszcze gpu/cpu zamula.

Co do wcześniejszych Twoich porównań i5 do Jaguara - i tak i nie : teoretycznie topowe i5 mają bardzo mocny pojedynczy rdzeń, ale przy pracy wielowątkowej już tak różowo nie jest. Tak jak pisałem dobry przykład to ostatni Crysis gdzie dzięki możliwości wykorzystania przez grę aż 6 rdzeni cpu FX-y dogoniły a nawet przegoniły intela.

Także realna wydajność tych rdzeni zależy tylko od twórców gier - jeśli większość studiów tak jak jest teraz będzie potrafiła napisać program wykorzystujący max 2 rdzenie to nic się nie zmieni. Ale niestety developerzy(szczególnie ci duzi) są ciężcy na wszelkie zmiany, leniwi i skąpi. Po co pisać czystszy i lepiej zoptymalizowany kod w C# ? Przecież na studiach uczyli nas C++, wszyscy używają C++, po co coś zmieniać tylko po to żeby klienci byli bardziej zadowoleni a gry działały lepiej? Po co wykorzystać OpenCL czy nawet głupie DirectCompute do obliczeń fizyki czy AI ? Przecież Nvidia daje gotowy(i co z tego że do d... i zamula) PhysX a Intel nieco lepszy Havoc, a co do AI - no proszę, będziemy się bawić w AI jak mamy lua ? A zamiast wykorzystać pełen potencjał dx10/11 lepiej zrobić parę ciuszków i broni do dlc bo z tego kasa jest.

Niestety, dopuki devsi nie zmienią podejścia do tworzenia gier(także na PC bo i tu już dawno są wielordzeniowe cpu,APU a ostatnio weszła hUMA) nowe konsole będą na starcie przegrane a 1 mocny wątek w i5 będzie więcej wart niż 4 w takim Kaveri - chociaż rzeczone Kaveri mogło by w tym czasie liczyć fizykę,ai i ciągnąć geometrię świata wszystko w tym samym czasie bez opóźnień i zwłoki.

Zresztą, wytłumaczę to łopatologicznie : jeśli chcesz przewieźć dużą ilość towaru w jedno miejsce bierzesz ciężarówkę z naczepą, jeśli tą samą ilość towaru chcesz przewieźć w kilka miejsc bierze kilka mniejszych samochodów dostawczych. Problem w tym że twórcy gier cały czas myślą że na świecie są tylko duże ciężarówki z naczepą i robią gry właśnie pod nie co jest mało wydajne i ogranicza możliwości.

Dalej nie wyjaśnia to czemu PS4 ma dwie szyny gdy Kaverii jedną...
Richland ma dwie i może dostać się do przestrzeni CPU przez Onion, albo swojej Garlic...

Jeśli powiesz, że ma hUMA to równie dobrze możesz powiedzięć, że Llano, Richland, Kabini też ma. Kaverii ma tylko dużo dużo szybsze.
mbe2014.06.16, 18:36
SunTzu @ 2014.06.16 14:01  Post: 758482
@
mbe, oficjalnie AMD wysłało sprostowanie tego...

Dwa HSA nie wymusza hUMA. HSA jest już na dobrą sprawę każde iGPU, które korzystało ze wspólnej pamięci.

Wytłumacz mi po co w PS4 onion i garclic jak w Richland i czemu nie ma wspólnej szyny jak w Kaverii to ogarnę twoją wypowiedź. Tak jak richland przez Onion ma dostęp do wspólnej pamięci. Jeśli mi nie dajesz technicznych argumentów to jak mam zrozumieć sprawę?

PS4 jest jakby Kabini zmixowany z 7870 (ma 20GCNów fizycznie) i kontroler GGDR5 + 8 jaguarów/nb....

Żadnego sprostowania nie było - wiedział bym o tym.

XO ma przydzielane na sztywno przez programistów pamięć na gpu i cpu ich ogranicza i nawet gdyby ktoś chciał to nie wyciągnie wiecej z konsoli. PS4 ma hUMA i tu nie trzeba kontrolować przydzielania pamięci dzięki temu konsola Sony jest bardziej efektywne.

hUMA jest jedna z technologi składowych hsa a porównanie apu z konsol do cepów konsumenckich jest co najmniej głupie. Po za tym CPU w konsoli bazuje na jaguarze ale rdzeń w rdzeń jest od niego wydajniejsze.
zrielZobacz profil
Poziom ostrzeżenia: 0%
zriel2014.06.16, 17:49
SunTzu @ 2014.06.16 14:01  Post: 758482
@
mbe, oficjalnie AMD wysłało sprostowanie tego...

Dwa HSA nie wymusza hUMA. HSA jest już na dobrą sprawę każde iGPU, które korzystało ze wspólnej pamięci.

Wytłumacz mi po co w PS4 onion i garclic jak w Richland i czemu nie ma wspólnej szyny jak w Kaverii to ogarnę twoją wypowiedź. Tak jak richland przez Onion ma dostęp do wspólnej pamięci. Jeśli mi nie dajesz technicznych argumentów to jak mam zrozumieć sprawę?

PS4 jest jakby Kabini zmixowany z 7870 (ma 20GCNów fizycznie) i kontroler GGDR5 + 8 jaguarów/nb....


PS4 ma wsparcie hUMA - ale tylko sprzętowe, pełnego programowego jeszcze nie ma, jak pisałem Sony zapowiedziało że w przyszłych aktualizacjach oprogramowania PS4 znajdzie się pełne wsparcie dla hUMA. Dla OpenCL być może też, choć tu nie jestem pewien bo Sony zupełnie niepotrzebnie wykupiło licencję na użycie PhysX w swoich konsolach - a to nie dość że ograniczone i mało wydajne jest, to jeszcze gpu/cpu zamula.

Co do wcześniejszych Twoich porównań i5 do Jaguara - i tak i nie : teoretycznie topowe i5 mają bardzo mocny pojedynczy rdzeń, ale przy pracy wielowątkowej już tak różowo nie jest. Tak jak pisałem dobry przykład to ostatni Crysis gdzie dzięki możliwości wykorzystania przez grę aż 6 rdzeni cpu FX-y dogoniły a nawet przegoniły intela.

Także realna wydajność tych rdzeni zależy tylko od twórców gier - jeśli większość studiów tak jak jest teraz będzie potrafiła napisać program wykorzystujący max 2 rdzenie to nic się nie zmieni. Ale niestety developerzy(szczególnie ci duzi) są ciężcy na wszelkie zmiany, leniwi i skąpi. Po co pisać czystszy i lepiej zoptymalizowany kod w C# ? Przecież na studiach uczyli nas C++, wszyscy używają C++, po co coś zmieniać tylko po to żeby klienci byli bardziej zadowoleni a gry działały lepiej? Po co wykorzystać OpenCL czy nawet głupie DirectCompute do obliczeń fizyki czy AI ? Przecież Nvidia daje gotowy(i co z tego że do d... i zamula) PhysX a Intel nieco lepszy Havoc, a co do AI - no proszę, będziemy się bawić w AI jak mamy lua ? A zamiast wykorzystać pełen potencjał dx10/11 lepiej zrobić parę ciuszków i broni do dlc bo z tego kasa jest.

Niestety, dopuki devsi nie zmienią podejścia do tworzenia gier(także na PC bo i tu już dawno są wielordzeniowe cpu,APU a ostatnio weszła hUMA) nowe konsole będą na starcie przegrane a 1 mocny wątek w i5 będzie więcej wart niż 4 w takim Kaveri - chociaż rzeczone Kaveri mogło by w tym czasie liczyć fizykę,ai i ciągnąć geometrię świata wszystko w tym samym czasie bez opóźnień i zwłoki.

Zresztą, wytłumaczę to łopatologicznie : jeśli chcesz przewieźć dużą ilość towaru w jedno miejsce bierzesz ciężarówkę z naczepą, jeśli tą samą ilość towaru chcesz przewieźć w kilka miejsc bierze kilka mniejszych samochodów dostawczych. Problem w tym że twórcy gier cały czas myślą że na świecie są tylko duże ciężarówki z naczepą i robią gry właśnie pod nie co jest mało wydajne i ogranicza możliwości.
borizmZobacz profil
Poziom ostrzeżenia: 0%
borizm2014.06.16, 17:11
Już o tym pisałem...
Jaki to problem wydać PS4 MK2 i XBox One Bis, które będą mieć lepsze APU, albo nawet podstawkę pod APU i odpowiedni zapas pamięci, a potem wydać też w 100% zgodną wersję z pamięciami nowego typu i nowszą podstawką pod APU?
jkbrennaZobacz profil
Poziom ostrzeżenia: 0%
jkbrenna2014.06.16, 16:06
Co on chce przez to powiedziec:
1. ze ich APU dla konsol juz przestarzaly jest, i beda zmuszeni go zreformwac
2. PC, Taqblety, SmartFony przejmna czesc rynku gier ( atrakcyjnosc konsol sie straci)
3. Trzeba bedzie w kazdym TV, SUV itd ( mamj nadzieje ,ze nie w pralce) , konsole do gry wbudowac., bawienie sie Smartfonem ( pisanie sms itd) gosposia nie wystarczy..
4. AMD przestanie czyms innym sie zajmowac itd
Luk4sZobacz profil
Poziom ostrzeżenia: 0%
Luk4s2014.06.16, 15:11
SunTzu @ 2014.06.16 00:26  Post: 758373
@up
Czyli CPU Intel-a, który nie jest ograniczonym celeronem ma trochę MB więcej cachu i 2x wyższy zegar + nowe archi powinien być szybszy prawda?

Z uwzględnieniem tych info tak ;). Chociaż cały czas trzeba mieć na względzie to ile app będzie wykorzystywać wątków -> może być sytuacja jak w WD gdzie nawet wysoki takt nie pomogl Pentiumowi. Wtedy jeden wysoko taktowany rdzeń i5 moze oberwać od teoretycznie slabszych 4 Jagurarów.
*Konto usunięte*2014.06.16, 14:01
@
mbe, oficjalnie AMD wysłało sprostowanie tego...

Dwa HSA nie wymusza hUMA. HSA jest już na dobrą sprawę każde iGPU, które korzystało ze wspólnej pamięci.

Wytłumacz mi po co w PS4 onion i garclic jak w Richland i czemu nie ma wspólnej szyny jak w Kaverii to ogarnę twoją wypowiedź. Tak jak richland przez Onion ma dostęp do wspólnej pamięci. Jeśli mi nie dajesz technicznych argumentów to jak mam zrozumieć sprawę?

PS4 jest jakby Kabini zmixowany z 7870 (ma 20GCNów fizycznie) i kontroler GGDR5 + 8 jaguarów/nb....
rainyZobacz profil
Poziom ostrzeżenia: 0%
rainy2014.06.16, 13:22
Kazubin @ 2014.06.16 11:52  Post: 758454

PS4 powinno żyć właśnie około 5 lat, jest mniej więcej średniej klasy PC, więc taki okres wydaję się całkiem dobrym kompromisem dla wszystkich.


Też sądzę, iż obecna generacja konsol pociągnie jakieś 5 lat, co by oznaczało, że nową powinniśmy zobaczyć pod koniec 2018 roku.
mbe2014.06.16, 12:38
A jeszcze jedno. Sony też jest członkiem fundacji HSA i na pewno zrezygnowali by z tego co pomagali sami tworzyć.
mbe2014.06.16, 12:35
SunTzu @ 2014.06.16 11:52  Post: 758455
mbe @ 2014.06.16 11:03  Post: 758435
(...)

AMD na swojej konferencji przed premierą PS4 potwierdziło że ta konsola wspiera wszystkie technologie HSA...

potem dementowało tą informację (była podana przez PRowca, ile PRowiec wie przepytaj bruna) i powiedziało, że nie będzie wypowiadać się o produktach swoich klientów Sony/MS.
Potem ważny portal napisał, że nie ma hUMA i też 'dementowali' tą informację. Nie pisząc, że ma, ale pisząc oględnie, że ma GPGPU....

Ale powiedz mi skoro ma hUMA to czemu ma 'garlic' 'onion', jak richland. Skoro ma hUMA to czemu do wspólnej przestrzeni musi adresować jak richland/llano? Jak mi to wyjaśnisz to może ogarnę to, bo opis NUMA AMD jest copy/past opisem archi PS4.


Nie wiem kto to dementował bo na pewno nie AMD. XO nie ma hUMA przez edram. PS4 ma. Nie porównuj APU z konsol do konsumenckich bo trochę inny kaliber.
*Konto usunięte*2014.06.16, 11:52
mbe @ 2014.06.16 11:03  Post: 758435
Luk4s @ 2014.06.14 18:39  Post: 758178
(...)

Generalnie AMD ani nie potwierdziło ani nie zaprzeczyło, że ng mają wsparcie hUMA. Poszukałem troche w sieci i z dostępnych info wychodzi na to, że PS4 wspiera hUMA (co do XO nie mam pewności). GPU/CPU mają dostęp do wspólnej pamięci RAM i mogą wymieniać się wskaźnikami a także mogą zachować zgodność cache poprzez wewnętrzne magistrale. Możliwości użycia tych magistral jest kilka, więc dev mogą z hUMA korzystać albo nie korzystać, ewentualnie jakoś korzystać połowicznie.

(...)

Chyba właśnie na komentowanie na głównej ma bana a na forum nie, bo widziałem ostatnio jakiś jego post :P.

AMD na swojej konferencji przed premierą PS4 potwierdziło że ta konsola wspiera wszystkie technologie HSA...

potem dementowało tą informację (była podana przez PRowca, ile PRowiec wie przepytaj bruna) i powiedziało, że nie będzie wypowiadać się o produktach swoich klientów Sony/MS.
Potem ważny portal napisał, że nie ma hUMA i też 'dementowali' tą informację. Nie pisząc, że ma, ale pisząc oględnie, że ma GPGPU....

Ale powiedz mi skoro ma hUMA to czemu ma 'garlic' 'onion', jak richland. Skoro ma hUMA to czemu do wspólnej przestrzeni musi adresować jak richland/llano? Jak mi to wyjaśnisz to może ogarnę to, bo opis NUMA AMD jest copy/past opisem archi PS4.

KazubinZobacz profil
Poziom ostrzeżenia: 0%
Kazubin2014.06.16, 11:52
diodaq303 @ 2014.06.16 11:42  Post: 758447
bialy 0 @ 2014.06.13 14:47  Post: 757738
Do tej pory konsolowcy śmiali się z pecetowców, że muszą upgrejdowac kompa co 4 lata, żeby pograć na fullhd. Wygląda na to, że konsolowcy będą musieli zmieniać konsole co 4 lata, żeby pograć w full hd :D

Upgrade kompa co 4 lata? Chyba sobie żartujesz...2 lata to max, chyba że masz na mysli zejście w ciągu tych 4 lat z detali full na minimum i obniżanie rozdzielczości.

Dziwne siedzę i siedzę na i5 750, a kupiona później stara 580 lata i lata ;)

Cykl życia PC od dawna jest już mocno wydłużony, nie ma tutaj żadnych wątpliwości.

PS4 powinno żyć właśnie około 5 lat, jest mniej więcej średniej klasy PC, więc taki okres wydaję się całkiem dobrym kompromisem dla wszystkich.
diodaq303Zobacz profil
Poziom ostrzeżenia: 0%
diodaq3032014.06.16, 11:42
bialy 0 @ 2014.06.13 14:47  Post: 757738
Do tej pory konsolowcy śmiali się z pecetowców, że muszą upgrejdowac kompa co 4 lata, żeby pograć na fullhd. Wygląda na to, że konsolowcy będą musieli zmieniać konsole co 4 lata, żeby pograć w full hd :D

Upgrade kompa co 4 lata? Chyba sobie żartujesz...2 lata to max, chyba że masz na mysli zejście w ciągu tych 4 lat z detali full na minimum i obniżanie rozdzielczości.
mbe2014.06.16, 11:03
Luk4s @ 2014.06.14 18:39  Post: 758178
SunTzu @ 2014.06.14 18:18  Post: 758174
Nie wiem czy Ci tu to pisałem. Konsole nie mają hUMA, ale NUMA. To oczywiste
W materiałach na temat działania PS4 wyraźnie jest opisane NUMA. hUMA dopiero weszło do Kaverii, konsole tego nie mają.

Generalnie AMD ani nie potwierdziło ani nie zaprzeczyło, że ng mają wsparcie hUMA. Poszukałem troche w sieci i z dostępnych info wychodzi na to, że PS4 wspiera hUMA (co do XO nie mam pewności). GPU/CPU mają dostęp do wspólnej pamięci RAM i mogą wymieniać się wskaźnikami a także mogą zachować zgodność cache poprzez wewnętrzne magistrale. Możliwości użycia tych magistral jest kilka, więc dev mogą z hUMA korzystać albo nie korzystać, ewentualnie jakoś korzystać połowicznie.

SunTzu @ 2014.06.14 18:18  Post: 758174
Mi Hashi poprawiał humor. Chyba nie ma bana na komentarze.

Chyba właśnie na komentowanie na głównej ma bana a na forum nie, bo widziałem ostatnio jakiś jego post :P.

AMD na swojej konferencji przed premierą PS4 potwierdziło że ta konsola wspiera wszystkie technologie HSA...
KazubinZobacz profil
Poziom ostrzeżenia: 0%
Kazubin2014.06.16, 09:53
Luk4s @ 2014.06.15 22:48  Post: 758361
SunTzu @ 2014.06.15 22:35  Post: 758356
@up
1 rdzeń i5 ma wydajność większą od 4 jaguarów...
... 50% mocy z 4 rdzeni to dalej więcej niż 8 rdzeniowy jaguar.

Coś nie bardzo. Był kiedyś na PCL test Celeron vs Kabini i wychodziło, że przy tym samym takcie 2 rdzenie IB miały wydajność 4 rdzeni Jaguar.

Celeronem do i5 ? ;)
*Konto usunięte*2014.06.16, 00:26
@up
Czyli CPU Intel-a, który nie jest ograniczonym celeronem ma trochę MB więcej cachu i 2x wyższy zegar + nowe archi powinien być szybszy prawda?
Luk4sZobacz profil
Poziom ostrzeżenia: 0%
Luk4s2014.06.15, 22:48
SunTzu @ 2014.06.15 22:35  Post: 758356
@up
1 rdzeń i5 ma wydajność większą od 4 jaguarów...
... 50% mocy z 4 rdzeni to dalej więcej niż 8 rdzeniowy jaguar.

Coś nie bardzo. Był kiedyś na PCL test Celeron vs Kabini i wychodziło, że przy tym samym takcie 2 rdzenie IB miały wydajność 4 rdzeni Jaguar.
*Konto usunięte*2014.06.15, 22:35
@up
1 rdzeń i5 ma wydajność większą od 4 jaguarów...
... 50% mocy z 4 rdzeni to dalej więcej niż 8 rdzeniowy jaguar.
KazHZobacz profil
Poziom ostrzeżenia: 0%
KazH2014.06.15, 21:25
SunTzu @ 2014.06.15 19:23  Post: 758330
chyba nie sądzisz, że developerzy będą robić gry dla wersji z i bez kinecta

DX11 poważnie ogranicza wydajność szybszego sprzętu.
Ogranicza karty AMD...
ale w jakim stopniu? jeden rdzeń i5@turbo ma wydajność na poziomie 4 rdzeni jaguarów


Deweloperzy mogą teraz zdecydować pisząc grę czy chcą zablokować Kinecta czy nie. Jeżeli deweloper ustawi flagę że Kinect jest zablokowany to konsola zwalnia te zasoby i przekazuje je deweloperowi. Gra może skorzystać z pełnej mocy GPU ale użytkownik traci możliwość wydawania poleceń głosowych i np. rozglądania się po wnętrzu samochodu za pomocą ruchów głowy itp. Jeżeli deweloper nie zablokuje Kinecta to otrzymuje do dyspozycji tylko 90% mocy GPU/CPU a pozostałe 10% system rezerwuje na analizę danych Kinecta. Ponieważ traci się zarówno 10% GPU oraz 10% CPU to realny spadek (lub wzrost) wydajności jest znaczący. W przypadku gry Destiny dzięki zwolnieniu zasobów CPU/GPU rezerwowanych przez Kinecta gra zwiększyła rozdzielczość z 900p na 1080p. Z innymi grami będzie podobnie jeżeli deweloperzy zastosują nowe biblioteki. Być może gry takie jak Ryse lub Titanfall zwiększą dzięki temu rozdzielczość gdy tylko dostaną najnowszą aktualizację.

Co do DirectX to z tego co mówił szef Futuremarka to różnica jest spora. Porównywał kilka dni temu DirectX 11 z wersją alfa DirectX 12 Preview. I twierdził że różnica to spadek obciążenia CPU o 50%. To spora zmiana. Bo od kilku lat szybkie GPU są dławione przez CPU. Kilka lat temu było tak że jak jakaś karta miała 640 procesorów strumieniowych to była 2x szybsza niż karta z 320 procesorami strumieniowymi. Wzrost był prawie że liniowy. Ale szybko okazało się że zwiększenie ilości procesorów do 1500-2000 już nie dawało wzrostu liniowego. Wąskim gardłem okazało się CPU oraz magistrala po której trzeba było wysłać polecenia do GPU.

Jeżeli dobrze rozumiem tą całą zmianę to po wyjściu finalnej wersji DX12 szybsze karty powinny działać szybciej niż do tej pory. Ale niedługo powinniśmy się o tym przekonać. Przecieki wskazują na to że otwarta beta DX12 powinna pojawić się razem z Windows 8.1 update 2 jeszcze w tym roku.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.