artykuły

AMD APU13 – AMD Kaveri, Mantle, Java na GPU

Co słychać w AMD? Konferencja APU13 w pigułce

52
18 listopada 2013, 17:02 Mateusz Brzostek

Konferencja APU13 już za nami. Czego się dowiedzieliśmy o bliższych i dalszych planach AMD i związanych z nim firm? Poruszono kilka ważnych zagadnień. Jednym z nich były nadchodzące jednostki APU o roboczej nazwie Kaveri. Usłyszeliśmy też całkiem sporo nowego na temat API o nazwie Mantle, które już kilkukrotnie było przez nas omawiane. AMD ma również nowe rozwiązania dla rynku serwerów. Ale to nie wszystko! Java na GPU? Brzmi interesująco...

Spis treści

Krzemowe nowości AMD

APU Kaveri

Po długim oczekiwaniu w końcu zapowiedziano APU nowej generacji, Kaveri. Więcej informacji znajdziecie w odpowiedniej aktualności, przypomnijmy jednak: chodzi o układy do laptopów i desktopów ze średniej i niskiej półki, zbudowane z nowych rdzeni Steamroller i układu graficznego w architekturze GCN. Kaveri to czip pełen nowości: pierwszy raz AMD będzie wykonywać swoje „duże” rdzenie x86 w wymiarze 28 nm i integrować z nimi układ graficzny GCN; jest to też pierwszy czip z obsługą funkcji HSA: hUMA i hQ. Producenci krzemu starają się na ogół kierować zasadą, żeby nie zmieniać jednocześnie architektury, wymiaru procesu produkcyjnego i innych funkcji, bo tyle nowych rozwiązań naraz utrudnia testowanie i zwiększa prawdopodobieństwo wystąpienia nieprzewidzianych komplikacji w produkcji. Układy Kaveri najwyraźniej mają się dobrze, choć prawdopodobnie pierwsze modele nie osiągnęły takich częstotliwości taktowania, jakich spodziewali się wcześniej inżynierowie AMD – i nie jest to pierwszy raz, kiedy wyniki nowego procesu technologicznego Global Foundries mijają się z oczekiwaniami.

Niskoenergetyczne APU Beema i Mullins

Oprócz dużego APU Kaveri zapowiedziano nowe układy do urządzeń przenośnych. Nazwy robocze Beema i Mullins oznaczają to samo krzemowe jądro w dwóch wariantach.

Beema, o TDP od 10 W do 25 W, zastąpi układy Kabini w niewielkich laptopach i stacjonarnych maszynach typu HTPC i all-in-one. Mullins, o TDP 4,5 W, zastąpi układy Temash w tabletach i podobnych urządzeniach z małym budżetem energetycznym. Co ciekawe, reprezentanci AMD pierwszy raz użyli metryki SDP (Scenario Design Power), zastosowanej parę lat temu przez Intela i od tamtej pory chętnie wykorzystywanej do szokowania dziennikarzy niskimi liczbami. SDP oznacza pewien poziom chłodzenia i zasilania, jaki trzeba zapewnić SoC-owi wykonującemu typowe (na ogół mało intensywne obliczeniowo) zadania.

Beema i Mullins zadziwiają rzekomym wzrostem wydajności w stosunku do pobieranej energii. Wydajność ma być o 20–30% lepsza od tej, jaką zapewniają poprzednicy, a przy tym oba układy mają być znacznie bardziej energooszczędne, co jak twierdzi AMD, daje ponad dwukrotnie lepszą sprawność. Oczywiście, zmierzoną wielkość (wydajność) podzielono tu przez wybraną wielkość (TDP), ale nawet jeśli oceny są trochę przesadzone, postęp jest imponujący, jak na układ wykonany wciąż w tym samym procesie technologicznym i w bardzo podobnej architekturze. Taki wzrost jest zapewne głównie zasługą znacznie ulepszonych mechanizmów oszczędzania energii i trybów turbo.

 Beema
15 W
Kabini
25 W
Wydajność
/TDP
Mullins
4,5 W
Temash
8 W
Wydajność
/TDP
Wydajność
(PCMark 7)
2312 1861 + 107% 1809 1343 + 139%
Wydajność
(3DMark 11)
823 685 + 100% 570 468 + 116%

Oba układy będą zbudowane z rdzeni Puma, które wyewoluowały z Jaguara, znanego z Kabini i nowej generacji konsol – nie ujawniono jednak, co dokładnie zostało ulepszone w nowych rdzeniach. Beema i Mullins mają takie samo opakowanie i taki sam rozkład wyprowadzeń, jak poprzednicy. Oba układy wciąż mają jednokanałowy kontroler pamięci, choć Mullins obsługuje szybszą pamięć niż Temash (do DDR-1333). 

Jednym z największych usprawnień w obu nowych SoC-ach będzie najprawdopodobniej wspomniany agresywny tryb turbo, z możliwością przesuwania budżetu energetycznego między CPU a GPU. To technika, która jest po prostu niezbędna w urządzeniach przenośnych, a której trochę brakowało w Kabini i Temashu. W SoC-u będzie też umieszczony dodatkowy rdzeń ARM A5, używany do obsługi techniki TrustZone. To sprzętowe rozwiązanie umożliwiające odseparowanie programów wymagających najwyższego bezpieczeństwa, na przykład używanych do płatności czy dostępu do korporacyjnych sieci. Wszystkie obecnie stosowane rdzenie ARM, a więc ogromna część świata smartfonów i tabletów, obsługują TrustZone, choć jeszcze niewiele programów z tego korzysta. Kiedy ta technika się rozpowszechni, stanie się dodatkowym atutem nowych małych APU AMD, ale na razie nie będzie miała dużego wpływu na ich ewentualny sukces. Beema i Mullins mają być dostarczane do producentów komputerów jeszcze w pierwszej połowie 2014 roku, zatem na półkach sklepowych zobaczymy je pewnie w połowie lata.

A gdzie następca Vishery?

W harmonogramie AMD na przyszły rok nie ma żadnych nowych procesorów, które mogłyby zastąpić rodzinę FX-9000. Oczywiście, brak czegokolwiek w oficjalnym „rozkładzie jazdy” oznacza tylko tyle, że firma nie chce ujawniać żadnych informacji na ten temat. Z drugiej strony, gdyby następca Vishery był tuż-tuż, to na pewno pojawiłby się na schematach. W segmencie procesorów serwerowych też nie szykuje się żaden duży układ z rdzeniami Steamroller, co pozwala się domyślać, że w całym 2014 roku raczej nie zobaczymy żadnego najwyższej klasy procesora desktopowego.

Strona:
tunkZobacz profil
Poziom ostrzeżenia: 0%
tunk2013.11.18, 17:15
15#1
Polacy patriotycznie będą rozchwytywać Warszawę
MagnezZobacz profil
Poziom ostrzeżenia: 0%
Magnez2013.11.18, 17:15
19#2
Tyle mówią o następcy Temasha, a ja się pytam gdzie w ogóle są urządzenia oparte na tym Soc?
HΛЯPΛGŌNZobacz profil
Poziom ostrzeżenia: 0%
HΛЯPΛGŌN2013.11.18, 17:20
To Mantle brzmi jakby miało dać 50% kopa,a prawda jest taka, że to nadmuchany balonik, który w najlepszym wypadku przy złożonym kodzie gry przyśpieszy może o 5-8%. Bo nie wierzę, że DX jest tak zafajdany, że knoci wydajność procesorów graficznych o nie wiadomo ile. Bez przesady.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2013.11.18, 17:33
22#4
Ten Mullins zapowiada się bardzo ciekawie. Ok. 90% wydajności Kabini 25W z TDP 4,5W. Jeśli im się uda, będzie to dość imponujące osiągnięcie.

Optymizmu co do Mantle'a nie podzielam. Nie wiem po co Nvidia czy Intel mieliby to implementować, skoro większość zalet Mantle'a zawiera OpenGL. Zwłaszcza Intel powinien przeznaczyć czas na poprawę wsparcia OpenGL zamiast bawić się w takie wynalazki.
pawel054Zobacz profil
Poziom ostrzeżenia: 0%
pawel0542013.11.18, 17:38
@Harpagon
Zobacz jakie podzespoły mają przykładowo Xbox360 i PS3 i zobacz jaki obraz nadal potrafią renderować - to nie jest sprawa podzespołów tylko właśnie API i sterowników. Teraz wyobraź sobie jakbyś miał w konsoli procesor klasy i5/i7 i grafikę klasy HD7970/GTX'a 670 itp - oczywiście wątpię, żeby mantle aż tak dobrze wykorzystywało potencjał podzespołów jak w konsolach ale moim zdaniem jest duża szansa, że wzrost wydajności będzie naprawdę spory.
skoti48Zobacz profil
Poziom ostrzeżenia: 0%
skoti482013.11.18, 18:05
21#6
'Po pierwsze, programiści mają większą kontrolę nad pamięcią i zasobami GPU'... mają większą kontrolę niż w OpenGL 4.3, no ale od wersji 4.4 mamy GL_ARB_buffer_storage, które daje pełną kontrolę co gdzie i jak jest przechowywane w pamięci.

'Po drugie, Mantle umożliwia dowolne rozdzielanie zadań między rdzenie procesora.'... W DX też wszystko można rozrzucać na wiele rdzeni, a i w niektórych implementacjach OpenGL możesz wykorzystać to (jednak ze względu na to, że wielowątkowy rendering przy niskim narzucie jak w OpenGL tylko zmniejsza wydajność i zajmuje rdzenie które powinny zająć się fizyką jest to odradzane).

'Po trzecie, Mantle pozwala programistom tworzyć oddzielne kolejki zadań dla każdego typu jednostek wykonawczych, jakie składają się na GPU.'
Budowanie gotowego setu zadań zmniejsza narzut (zamiast wielu funkcji z narzutami wystarczy wrzucić już zbudowany... coś takiego mamy w OpenGL z GL_ARB_multi_bind który pozwala wiele bindowań uprościć do jednego Api Calla).

'Znając awersję Nvidii do otwartych standardów, a Intela – do jakichkolwiek innych niż własne'
Awersję Nvidii do otwartych standardów? Pomijając to, że Mantle nie jest otwartym standardem (jest jak najbardziej zamkniętym - CUDA jest dużo bardziej otwarte, razem z otwartym kompilatorem (który bez problemu AMD może wykorzystać), otwartą dokumentacją...). Nvidia wspiera praktycznie wszystkie otwarte standardy.
Intel wspiera praktycznie same cudze standardy, bo swoich nie posiada ;p.

'...więc ewentualne wykorzystanie Mantle w telefonach i tabletach będzie zależało od współpracy Google'
Zważając na to, jak bardzo Google nie pozwala na wejście innych API, jest to bardzo wątpliwe... Google nawet nie pozwala na OpenCL (które wspiera ARM, Intel, AMD i praktycznie wszystkie mobilne GPU), bo oni chcą swojego RenderScripta.

PS. Zaskoczyło mnie w slajdach Mantle to, że mówią o 100k drawcalli na klatkę... gdy na sterownikach OpenGL AMD przez GL_ARB_multi_draw_indirect można spokojnie mówić o 900k drawcallach, a u Nvidii nawet 2x więcej (już nie mówiąc o wykorzystaniu GL_NV_bindless_multi_draw_indirect który pozwala na jeszcze więcej). I wszystko to na jednym wątku (na wielu wątkach na sterownikach nVidii przy wykorzystaniu nowoczesnego OpenGL jest tylko wolniej), czyli nie obciąża rdzeni, które mogą zajmować się fizyką, a nie obsługą GPU.

pawel054 @ 2013.11.18 17:38  Post: 702577
Zobacz jakie podzespoły mają przykładowo Xbox360 i PS3 i zobacz jaki obraz nadal potrafią renderować - to nie jest sprawa podzespołów tylko właśnie API i sterowników.

W obu przypadkach jest to zasługa podzespołów czyli współdzielonej pamięci o bardzo wysokiej przepustowości i w wypadku PS3 rdzeni SPE procesora (procesor jest wydajniejszy niż GPU, i robi większość pixel shaderów, a może to robić właśnie dzięki współdzielonej szybkiej pamięci (Cell FlexIO bus interface i kości XDR) której w PC nie znajdziesz).
AlartZobacz profil
Poziom ostrzeżenia: 0%
Alart2013.11.18, 18:54
14#7
APARAPI
eee makarena!

Tak myślę sobie, że AMD zamiast urządzać konferencje mogliby zwolnić kucharzy, zatrudnić inżynierów i spełnić część obietnic. W tym co proponują jest ta wada, że zakładają że to wszystko będzie działać. Nie są mi obce problemy sterowników z kartami AMD, więc podejrzewam, że to po prostu nie będzie dobrze działać i na tym koniec.
Yoshi75Zobacz profil
Poziom ostrzeżenia: 0%
Yoshi752013.11.18, 19:19
-10#8
pawel054 @ 2013.11.18 17:38  Post: 702577
@Harpagon
Zobacz jakie podzespoły mają przykładowo Xbox360 i PS3 i zobacz jaki obraz nadal potrafią renderować


A co powiedzieć o PS4 ta maszynka dopiero jakie będzie renderować obrazy ech....

Według jednego z prezesów Naughty Dog, Uncharted na PS4 będzie niesamowite:
Rozwiniemy przedstawienie historii oraz grę aktorską, jak zawsze. Ale gdy zobaczycie to, nad czym aktualnie pracuje zespół, to ukaże wam się największy skok jakościowy jeśli chodzi o grafikę. Jestem pewien, że będziecie zachwyceni gdy doświadczycie tego, nad czym pracujemy'

'Czyżby Yoshida nie kłamał, że nowy Uncharted wygląda niczym CGI ;) pamiętam news, który (to) opisywał jego wizytę w ND i o tym jaką to miał zgachę jak zobaczył ich 'nową' grę (teraz już wiemy, że to kolejny Uncharted) i powiedział fajne CGI a oni na to, że to już gameplay'

Będzie dym :)

Yoshida o ukrytej mocy w PS4

Jest wiele ukrytej mocy w naszym systemie. Możesz być zaznajomiony z GPGPU i PS4 ma dużo więcej procesów GPGPU co jest trudne do nauczenia się i opanowania, podobnie jak w przypadku procesora Cell. Więc każdego roku gry na PS4 będą wyglądały lepiej ponieważ prawdopodobnie większość grup od tytułów startowych nie używa GPGPU – prawdopodobnie używają oni normalnej grafiki. Więc jeżeli deweloperzy zaczną używać większej ilości mocy w ciągu dwóch, trzech lat, grafika będzie naprawdę zdumiewająca.

Niskopoziomowe API bezpośredni dostęp do hardware współdzielona pamięć talent developerów i będziemy mieli podwójny dym :)

Próbka tego co przygotowuje studio Quantic Dream od Heavy Rain i Beyond Two Souls.
Tech demo realtime PS4
http://youtu.be/wvXqAEfY-cY?t=2m52s
A tu już pierwsze tytuły
http://www.youtube.com/watch?v=p43e2UnY-tk
http://youtu.be/1pLU1T8_vvU?t=1m13s
Widać potencjał nie ma ciula we wsi ;)
.sizeerZobacz profil
Poziom ostrzeżenia: 0%
.sizeer2013.11.18, 19:29
-9#9
No ja nie mogę. Czy jest jakiś portal w którym nie będę musiał czytać o AMD APU i lamentach ich [...]?
TrakotitekZobacz profil
Poziom ostrzeżenia: 0%
Trakotitek2013.11.18, 19:30
-5#10
pawel054 @ 2013.11.18 17:38  Post: 702577
@Harpagon
Zobacz jakie podzespoły mają przykładowo Xbox360 i PS3 i zobacz jaki obraz nadal potrafią renderować - to nie jest sprawa podzespołów tylko właśnie API i sterowników. Teraz wyobraź sobie jakbyś miał w konsoli procesor klasy i5/i7 i grafikę klasy HD7970/GTX'a 670 itp - oczywiście wątpię, żeby mantle aż tak dobrze wykorzystywało potencjał podzespołów jak w konsolach ale moim zdaniem jest duża szansa, że wzrost wydajności będzie naprawdę spory.


Tyle tylko, że zapominasz o tym, że bebechy PS3, czy X360 są na całym świecie i w każdym modelu dokładnie takie same. Samo niskopoziomowe API na niewiele się zda gdy trzeba będzie je przystosować nie tylko dla jednej konfiguracji/serii kart a dla nieskończenie wielu konfiguracji - to, że gra będzie działać dobrze na np. FX 8350 + 7970 nie oznacza, że będzie działać tak samo na FX 6300 + 7790. Tutaj nawet Glide od 3DFXa poległ gdy na rynku było już VooDoo 3. Gdy posiadacz VooDoo 3 chciał pograć np. w Gex 3D, które działało dobrze na V1 czekałą go niespodzianka - Glide z VooDoo 3 nie był kompatybilny z Glide z V1. Tylko od twórców gier zależało, czy grę będzie można odpalić na danej karcie/akceleratorze. Glide od V3 nie był kompatybilny w dół. Oczywiście w sieci, a następnie na płytach dołączanych do czasopism pojawiały się modyfikacje umożliwiające odpalenie bardziej popularnych gier na nowych kartach, ale smrodek pozostał.
Obawiam się, że z Mantle po jakimś czasie będzie podobnie.
Zaloguj się, by móc komentować
1