aktualności

HP: Radeon R9 380 pod koniec czerwca. AMD Fiji pojawił się w CodeXL

10
5 maja 2015, 07:32 Piotr Gontarczyk

Firma Hewlett-Packard w oficjalnej informacji na temat nowych komputerów stacjonarnych HP Envy ujawniła, że będą one dostępne w konfiguracjach z kartami graficznymi Nvidia GeForce GTX 980, ale także AMD Radeon R9 380. Produkt Nvidii znamy już dobrze, ale drugi po raz pierwszy pojawia się w oficjalnych przekazach. Warto od razu zauważyć, że według HP komputery Envy z nowymi Radeonami dostępne będą pod koniec czerwca.

Zacznijmy od tego, że dokładna specyfikacja karty Radeon R9 380 nie została ujawniona, ale w nocie prasowej HP zawarto poważną podpowiedź odnośnie jej wydajności. Z reguły gdy producent jako opcje podaje dwie karty graficzne (jedną z GPU Nvidii i jedną AMD), to można śmiało przypuszczać, że ich wydajność jest na co najmniej podobnym poziomie. Oczywiście nie ma na to spisanej zasady i właśnie dlatego należy pozostawić sobie pewien margines niepewności.

Wciąż niewiele wiadomo na temat Radeonów R9 380 i R9 380X. Według niektórych źródeł modele są odświeżonymi wersjami Radeonów R9 290 i Radeona R9 290X, choć nie ma na to twardych dowodów. Niedawno pojawiło się zdjęcie karty XFX Radeon R9 380 Double Dissipation, które jest główną podstawą tego doniesienia. Oczywiście teoretycznie odświeżenie modeli 290 jest możliwe, ale łatwo dojść do wniosku, że byłby to bardzo ryzykowny ruch ze strony AMD. Według niektórych zapowiedziany przez HP Radeon R9 380 (OEM) może być oparty na odświeżonym układzie Tahiti albo Tonga, ale pierwszy z nich jest już tak stary, że trudno w ogóle brać spekulacje z nim związane za warte dyskusji. Z układem Tonga wiąże się inny problem. O ile jest on oparty na nowszej architekturze i mógłby teoretycznie by wykorzystany w serii 300, ale z drugiej strony konstrukcja rdzenia raczej nie daje szans na to aby oparta na nim karta graficzna mogła realnie konkurować z modelem GeForce GTX 980.

O wiele bardziej prawdopodobnym kandydatem wydaje się być procesor Hawaii, który co prawda pierwszej świeżości nie jest, ale to właśnie on spośród dotychczasowych konstrukcji AMD ma w ogóle szansę na to aby, po podniesieniu częstotliwości pracy, rywalizować z GTX-em 980. Jeżeli zatem Radeon R9 380 (OEM) jest faktycznie oparty na Hawaii, to uzyskamy kartę z 2816 procesorami strumieniowymi, 176 jednostkami teksturującymi, 64 jednostkami ROP i 4 GB pamięci RAM typu GDDR5, połączoną z GPU interfejsem o szerokości 256 bitów.

Firma Hewlett-Packard ujawniła też istnienie nowych kart graficznych Radeon dla komputerów przenośnych, należące do serii A300. Litera "A" niech nikogo nie zmyli. Mimo że mobilne Radeony kojarzymy raczej z literą "M", to jednak wszystko będzie się zgadzać. Radeony M300 to karty graficzne wykonane w formacie MXM, a Radeony A300 to modele wpinane bezpośrednio w interfejs PCI Express. W informacji od HP zawarto na razie tylko dwa modele nowej serii - Radeona R7 A330 oraz R7 A360. Nie będą to karty z wysokiego segmentu wydajnościowego, ale mimo to R7 A360 będzie mieć 4 GB pamięci RAM.

Jednocześnie w sieci można znaleźć informację o tym, że nowy procesor grafiki AMD Fiji pojawił się na liście konstrukcji obsługiwanych przez CodeXL w wersji 1.7. Ujawnione dane sugerują trzy rzeczy. Po pierwsze oficjalna prezentacja Radeonów z Fiji jest już blisko, choć to raczej nie jest wielkie zaskoczenie. Druga kwestia może wydać się dość kontrowersyjna. Otóż CodeXL wskazuje, że AMD Fiji to GPU oparty na tej samej architekturze co znany nam już z Radeonów R9 285 układ Tonga. Ostatnia sprawa to identyfikator urządzenia (Device ID) 7300, który do tej pory zajęty był przez produkt o nazwie kodowej Bermuda. Oznaczałoby to, że z technicznego punktu widzenia Fiji to właśnie Bermuda. Wokół nazw kodowych nowych GPU firmy AMD było już niemało zamieszania i co ciekawe to właśnie z identyfikacją Bermudy były do tej pory problemy.

KazHZobacz profil
Poziom ostrzeżenia: 0%
KazH2015.05.05, 07:52
-6#1
Wątpię by zrobili premierę tej karty w czerwcu raczej zaczekają do końca lipca. Nie jest tajemnicą że karty AMD mają w trybie DX11 kłopoty z dużym narzutem pojedynczej operacji na CPU. Im karta ma więcej rdzeni tym potrzebuje szybszego CPU i już aktualne karty AMD są hamowane przez CPU dlatego AMD promowało Mantle. Bo tylko w Mantle ich najszybsze karty mogły pokazać pełną moc. Problem był w tym że tej mocy nie dało się porównać z konkurencją bo ona Mantle nie miała.

Wszystko zmieni się w lipcu. W benchmarkach DirectX 12 karty AMD mają niższy narzut na CPU niż karty Nvidii. Nawet na słabym procesorze praktycznie każda karta może pokazać pełnię swojej mocy. Podczas konferencji Build MS pokazał konfigurację z czterema kartami Titan X obsługiwanymi przez pojedyncze CPU Core i7. Jedno CPU wystarczyło by w pełni obciążyć 12 000 rdzeni CUDA (4 x 3000). W trybie DX11 żadne istniejące CPU nie obsłużyłoby wydajnie takiej ilości rdzeni.

Moim zdaniem z premierą karty zaczekają do premiery DirectX 12. I przygotują dema w trybie DX12 które będą działały szybciej niż na sprzęcie NV. Także gry takie jak Wiedzmin3 oraz Batman będą miały tryb DX12. To pozwoli im pokazać się z lepszej strony niż gdyby recenzenci używali aplikacji DX11 w których AMD zawsze wypadało gorzej niż NV. A miesiąc opóźnienia nic nie znaczy bo w lipcu, sierpniu i tak nie ma żadnych premier gier

PS: Jak się popatrzy na dotychczasowe banchmarki to w trybie DX11 prawie zawsze dominuje Nvidia. Ale jak popatrzymy na tryb DX12 np. 3DMarka to proporcje się odwracają i lepiej wypada sprzęt AMD w porównaniu do swojej klasy cenowej. AMD ma aktualnie lepszą obsługę niskopoziomowego API w swoich sterownikach bo ma lata doświadczenia dzięki Mantle
KenjiroZobacz profil
Poziom ostrzeżenia: 0%
Kenjiro2015.05.05, 08:25
11#2
KazH, co ty bredzisz?! Jaki tryb DX12 w 3DMarku? To jest tylko API overhead test i nie ma nic wspólnego z realną wydajnością sceny po nałożeniu tekstur, shaderów, etc.
Jak to będzie faktycznie, dowiemy się dopiero, gdy pojawią się prawdziwe (pełne) produkcje przygotowane pod DX12. W tej chwili wróżysz z fusów tym bardziej, że nVidia już raz pokazała, iż można przepisać sterowniki, a AMD niezbyt...

PS. Żeby nie było, posiadam od wieków AMD, ale ich programistyczna nieudolność mnie coraz bardziej razi (tylko przypomnę CCC, które nadawało się do działania po jakichś dwóch latach od pierwszego wydania).
SebZMCZobacz profil
Poziom ostrzeżenia: 0%
SebZMC2015.05.05, 08:36
-9#3
Obsuwa goni obsuwę, slajdy przygotowywane są na czas, ziew..
KazHZobacz profil
Poziom ostrzeżenia: 0%
KazH2015.05.05, 08:42
-7#4
Kenjiro @ 2015.05.05 08:25  Post: 864235
KazH, co ty bredzisz?! Jaki tryb DX12 w 3DMarku? To jest tylko API overhead test i nie ma nic wspólnego z realną wydajnością sceny po nałożeniu tekstur, shaderów, etc.


Ten test pokazuje narzut CPU na pojedynczą operację GPU. Jeżeli popatrzysz na wyniki z ostatnich lat to karty AMD zawsze miały dużo większy narzut na CPU. Jeżeli miałeś kartę AMD oraz NV o teoretycznie tej samej mocy sprzętu to w przypadku karty AMD musiałeś mieć znacznie szybsze CPU by to było możliwe w trybie DX11. Najszybsze karty AMD wymagały olbrzymiej mocy CPU. W przypadku DX12 jest odwrotnie. Testy 3DMarka pokazują że w trybie DX12 to karty AMD mają niższy narzut niż karty Nvidii. Zmiana o 180 stopni. I dlatego z premierą szybkich kart lepiej jest im zaczekać do DX12 bo benchmarki w trybie DX11 pokazywałyby ich w gorszym świetle.

Poczytaj sobie o benchmarkach DX12 zrobiły je wszystkie większe portale poświęcone PC. Są przetestowane wszystkie karty z każdym procesorem. I wnioski są bardzo ciekawe. Idą dobre czasy dla AMD
SebZMCZobacz profil
Poziom ostrzeżenia: 0%
SebZMC2015.05.05, 08:49
-1#5
KazH @ 2015.05.05 08:42  Post: 864240
Kenjiro @ 2015.05.05 08:25  Post: 864235
KazH, co ty bredzisz?! Jaki tryb DX12 w 3DMarku? To jest tylko API overhead test i nie ma nic wspólnego z realną wydajnością sceny po nałożeniu tekstur, shaderów, etc.


Ten test pokazuje narzut CPU na pojedynczą operację GPU. Jeżeli popatrzysz na wyniki z ostatnich lat to karty AMD zawsze miały dużo większy narzut na CPU. Jeżeli miałeś kartę AMD oraz NV o teoretycznie tej samej mocy sprzętu to w przypadku karty AMD musiałeś mieć znacznie szybsze CPU by to było możliwe w trybie DX11. Najszybsze karty AMD wymagały olbrzymiej mocy CPU. W przypadku DX12 jest odwrotnie. Testy 3DMarka pokazują że w trybie DX12 to karty AMD mają niższy narzut niż karty Nvidii. Zmiana o 180 stopni. I dlatego z premierą szybkich kart lepiej jest im zaczekać do DX12 bo benchmarki w trybie DX11 pokazywałyby ich w gorszym świetle.

Poczytaj sobie o benchmarkach DX12 zrobiły je wszystkie większe portale poświęcone PC. Są przetestowane wszystkie karty z każdym procesorem. I wnioski są bardzo ciekawe. Idą dobre czasy dla AMD

Widzę, że dalej nie rozumiesz. Włącz sobie te wykresy rzekomej wydajności w DX12, co widzisz? Słupki Mantle i DX12 są bardzo bliskie. A teraz włącz dowolny test w grach (nie puste benchmarki) Mantle vs DX11, co widzisz? Jajco, korzystając z Mantle masz śmiesznie niski wzrost fpsów. Nie broń czerwonych, bo to 'pokazanie pazura' radków w DX12 jest równie prawdziwe, jak ten 'rewolucyjny' wzrost wydajności buldożerów w Win8.
Markiz88Zobacz profil
Poziom ostrzeżenia: 0%
Markiz882015.05.05, 09:13
SebZMC @ 2015.05.05 08:49  Post: 864245
KazH @ 2015.05.05 08:42  Post: 864240
(...)


Ten test pokazuje narzut CPU na pojedynczą operację GPU. Jeżeli popatrzysz na wyniki z ostatnich lat to karty AMD zawsze miały dużo większy narzut na CPU. Jeżeli miałeś kartę AMD oraz NV o teoretycznie tej samej mocy sprzętu to w przypadku karty AMD musiałeś mieć znacznie szybsze CPU by to było możliwe w trybie DX11. Najszybsze karty AMD wymagały olbrzymiej mocy CPU. W przypadku DX12 jest odwrotnie. Testy 3DMarka pokazują że w trybie DX12 to karty AMD mają niższy narzut niż karty Nvidii. Zmiana o 180 stopni. I dlatego z premierą szybkich kart lepiej jest im zaczekać do DX12 bo benchmarki w trybie DX11 pokazywałyby ich w gorszym świetle.

Poczytaj sobie o benchmarkach DX12 zrobiły je wszystkie większe portale poświęcone PC. Są przetestowane wszystkie karty z każdym procesorem. I wnioski są bardzo ciekawe. Idą dobre czasy dla AMD

Widzę, że dalej nie rozumiesz. Włącz sobie te wykresy rzekomej wydajności w DX12, co widzisz? Słupki Mantle i DX12 są bardzo bliskie. A teraz włącz dowolny test w grach (nie puste benchmarki) Mantle vs DX11, co widzisz? Jajco, korzystając z Mantle masz śmiesznie niski wzrost fpsów. Nie broń czerwonych, bo to 'pokazanie pazura' radków w DX12 jest równie prawdziwe, jak ten 'rewolucyjny' wzrost wydajności buldożerów w Win8.

Testy są bezlitosne, samo ułatwienie pracy przez DX pomoże grom ale cudów tak jak piszesz oczekiwać nie można. Należy pamiętać że żeby w pełni wykorzystać dane API to trzeba silnik zbudować w większości od podstaw, albo co najmniej gruntownie przebudować.
KazH @ 2015.05.05 08:42  Post: 864240
Kenjiro @ 2015.05.05 08:25  Post: 864235
KazH, co ty bredzisz?! Jaki tryb DX12 w 3DMarku? To jest tylko API overhead test i nie ma nic wspólnego z realną wydajnością sceny po nałożeniu tekstur, shaderów, etc.


Ten test pokazuje narzut CPU na pojedynczą operację GPU. Jeżeli popatrzysz na wyniki z ostatnich lat to karty AMD zawsze miały dużo większy narzut na CPU. Jeżeli miałeś kartę AMD oraz NV o teoretycznie tej samej mocy sprzętu to w przypadku karty AMD musiałeś mieć znacznie szybsze CPU by to było możliwe w trybie DX11. Najszybsze karty AMD wymagały olbrzymiej mocy CPU. W przypadku DX12 jest odwrotnie. Testy 3DMarka pokazują że w trybie DX12 to karty AMD mają niższy narzut niż karty Nvidii. Zmiana o 180 stopni. I dlatego z premierą szybkich kart lepiej jest im zaczekać do DX12 bo benchmarki w trybie DX11 pokazywałyby ich w gorszym świetle.

Poczytaj sobie o benchmarkach DX12 zrobiły je wszystkie większe portale poświęcone PC. Są przetestowane wszystkie karty z każdym procesorem. I wnioski są bardzo ciekawe. Idą dobre czasy dla AMD

A przez tyle lat nvidia miała problemy z dwoma rdzeniami i była cacy? Litości, sterowniki nie udaje się przebudować z dnia na dzień, nawet to nie jest kwestia miesięcy, a praktycznie lat. Nvidia około 8 lat naprawiała swoje sterowniki pod dx10 i 11, przy czym początkowo udawali że nie ma problemu. Na pewno amd musi popracować nad sterownikami do win7 i 8 i zapewne to teraz robią, ale lepiej by wydali przebudowane i stabilne sterowniki z poprawą wydajności, niż przyniosły zaledwie namiastkę z brakiem stabilności. Na magiczny przeskok ludzi z win 7/8/8.1 na 10 też bym nie liczył bo nie ma w sporej ilości przypadków takiej potrzeby. A przesiadka nie daje żadnego przyrostu wydajności
https://www.youtube.com/watch?v=yWx77esggyE
szkoda że stara kompilacja win 10, niemniej jednak testy pokazują że wzrost wydajności w obecnych grach i najnowszym windowsie na poziomie błędu pomiarowego.

Natomiast sam znaczek w grze dx12 nie gwarantuje cudownego wzrostu wydajności, bo silnik gry musi być przebudowany gruntownie i musi być zrobiony dobrze bez olania jednego z dx w celu pokazania wyższości. Na razie dx12 i mantle najlepiej wypadają w syntetykach, a to mało. W paru grach mantle poprawiło wydajność jednak ten standard umarł na rzecz Volcana.
MarucinsZobacz profil
Poziom ostrzeżenia: 0%
Marucins2015.05.05, 09:35
Ciekawy artykuł :D
Jak mam odnieść się do specyfikacji z CodeXL czy tak jak do tej z GPU-Z i słynnej GTXowej 970tki?

W sumie wtedy była nVidia teraz to AMD więc...
ertbZobacz profil
Poziom ostrzeżenia: 0%
ertb2015.05.05, 10:01
SebZMC @ 2015.05.05 08:49  Post: 864245
[...] A teraz włącz dowolny test w grach (nie puste benchmarki) Mantle vs DX11, co widzisz? Jajco, korzystając z Mantle masz śmiesznie niski wzrost fpsów. [...]

http://pclab.pl/art55953-3.html (1 gra z Mantle)
Ja widzę do niemal 100% wzrost wydajności w grze o dobrze zaimplementowanym Mantle. Ale racja, w reszcie gier poświęcono tylko tyle czasu nad Mantle by wydajność nie była mniejsza od tej z DX. Pewnie dlatego, że już wtedy zdano sobie sprawę, że osiągnięto cel - Microsoft zaczął pracę nad DX 12 i Mantle może odejść, bo to w końcu dodatkowa praca dla deweloperów. Przyszłe gry z Mantle pojawią się tylko dlatego, że wydawcy zobowiązali się do tego. Samo AMD powiedziało, że to trup.
Markiz88Zobacz profil
Poziom ostrzeżenia: 0%
Markiz882015.05.05, 10:07
ertb @ 2015.05.05 10:01  Post: 864276
SebZMC @ 2015.05.05 08:49  Post: 864245
[...] A teraz włącz dowolny test w grach (nie puste benchmarki) Mantle vs DX11, co widzisz? Jajco, korzystając z Mantle masz śmiesznie niski wzrost fpsów. [...]

http://pclab.pl/art55953-3.html (1 gra z Mantle)
Ja widzę do niemal 100% wzrost wydajności w grze o dobrze zaimplementowanym Mantle. Ale racja, w reszcie gier poświęcono tylko tyle czasu nad Mantle by wydajność nie była mniejsza od tej z DX. Pewnie dlatego, że już wtedy zdano sobie sprawę, że osiągnięto cel - Microsoft zaczął pracę nad DX 12 i Mantle może odejść, bo to w końcu dodatkowa praca dla deweloperów. Przyszłe gry z Mantle pojawią się tylko dlatego, że wydawcy zobowiązali się do tego. Samo AMD powiedziało, że to trup.

Nie powiedziało ze to trup, tylko po co rozwijać tą platformę jak mantle stanowi podstawę volcana który ma być ogólnie dostępny w przeciwieństwie do mantle.
DamianHZobacz profil
Poziom ostrzeżenia: 0%
DamianH2015.05.06, 12:10
Kenjiro @ 2015.05.05 08:25  Post: 864235
KazH, co ty bredzisz?!
PS. Żeby nie było, posiadam od wieków AMD, ale ich programistyczna nieudolność mnie coraz bardziej razi (tylko przypomnę CCC, które nadawało się do działania po jakichś dwóch latach od pierwszego wydania).


Je.łem. Masz AMD od wieków a przespałeś moment gdy to właśnie oni mieli lepsze sterowniki? No no... jest poziom ;)
Zaloguj się, by móc komentować
1