artykuły

AMD Radeon RX Vega 56 – test wydajności

Godny rywal?

79
20 września 2017, 14:30 Piotr Gołąb

Model AMD Radeon RX Vega 56 ma odebrać Nvidii jak najwięcej potencjalnych nabywców kart z serii GeForce GTX 1070. Czy nowa Vega jest lepsza od popularnej konstrukcji konkurencyjnej marki?

Spis treści

Firma AMD w tym roku wprowadziła dwie udane serie procesorów: do zastosowań domowych i profesjonalnych. Trzecia nowość, najbardziej wyczekiwana przez graczy, czyli karty graficzne oparte na układach Vega 10, okazała się niezbyt udana. AMD Radeon RX Vega 64 został przyjęty bardzo chłodno, głównie ze względu na wydajność. Oczekiwania były ogromne, bo ten model miał być rywalem GeForce'a GTX-a 1080, a tymczasem w prawie każdej grze był wolniejszy. W naszym teście wygrał tylko w 3 grach z 12, pobierając przy tym znacznie więcej energii elektrycznej.

Przyjrzyjmy się jednak jego młodszemu i tańszemu bratu, modelowi AMD Radeon RX Vega 56.

Jest to karta oparta na najnowszym układzie graficznym Vega 10, w którym pracuje 56 jednostek CU, te zaś składają się z 3584 jednostek cieniujących, 224 jednostek teksturujących oraz 64 rasteryzatorów. GPU w karcie referencyjnej jest taktowane z częstotliwością 1396 MHz w trybie turbo – takie wartości podają WattMan oraz najnowszy GPU-Z 2.4.0. Pamięć HBM 2 o pojemności 8 GB jest taktowana z częstotliwością 800 MHz.

Od razu widać, że AMD Radeon RX Vega 56 ma tylko nieznacznie gorsze parametry od układu Vega 64, dlatego spodziewaliśmy się zbliżonej wydajności i zarazem mniejszego poboru energii. Mieliśmy też nadzieję, że czas, który upłynął od pierwszego testu karty, pozwolił producentowi dopracować sterowniki, które początkowo (były wtedy dostępne w wersji beta) powodowały wiele problemów. Nie chodzi tylko o wydajność: otóż nie wszystkie funkcje Radeon Software działały poprawnie, a  wartości podawane przez narzędzie WattMan były błędne.

Testy przeprowadziliśmy więc z wykorzystaniem sterowników AMD Radeon Software Crimson ReLive w wersji 17.9.1. To już piąte wydanie od czasu, gdy Vega trafiła do sklepów. Z jednej strony zasługuje na pochwałę to, że AMD stara się dopracować swoje sterowniki, by wykluczyć wszystkie błędy, z drugiej jednak widać, jak bardzo były początkowo niedopracowane. 

AMD Radeon RX Vega 56
Taktowanie bazowe rdzenia

1396 MHz

Realne taktowanie rdzenia w grach 1396 MHz
Taktowanie pamięci 800 MHz
Pamięć –
ilość/rodzaj

8096 MB / HBM2
Spoczynek (pulpit):
Temperatura rdzenia
Prędkość wentylatora

40°C
10% / 618 obr./min
Obciążenie (Wiedźmin 3):
Temperatura rdzenia
Prędkość wentylatora

81°C
41% / 2389 obr./min

 

AMD Radeon RX Vega 56 – model referencyjny

Karta dostarczona do testów przez AMD to oczywiście model referencyjny. Wygląda właściwie tak samo jak AMD Radeon RX Vega 64. Układ chłodzenia składa się z trzech elementów: aluminiowego radiatora, który styka się z układem graficznym oraz kośćmi pamięci HBM 2, wentylatora promieniowego, który przepycha powietrze przez radiator, i szczelnej obudowy, która kieruje powietrze na aluminiowe żeberka.

AMD Radeon RX Vega 56

Front z napisem Radeon i małymi kwadratowymi wcięciami, symetrycznie rozmieszczonymi na całej powierzchni, jest bardzo zgrabny. Widać też otwór wentylatora, przez który zasysane jest chłodne powietrze.

AMD Radeon RX Vega 56 

Na grzbiecie znajdują się dwa ośmiopinowe złącza zasilania oraz podświetlane na czerwono logo Radeon.

AMD Radeon RX Vega 56

Z tyłu karty zamontowano metalową usztywniającą płytkę z wycięciem pod GPU, przez które widać kondensatory. Rząd ośmiu diod nad złączami zasilania pozwala szybko sprawdzić obciążenie karty graficznej. Są też dwa małe przełączniki do sterowania podświetleniem logo Radeon i diod. Do wyboru są trzy opcje: można ustawić kolor diod na niebieski lub czerwony albo w ogóle zrezygnować z podświetlenia.

AMD Radeon RX Vega 56 

AMD Radeon RX Vega 56 ma trzy złącza Display Port 1.4, pozwalające przesyłać obraz 4K z częstotliwością 120 razy na sekundę. Można podłączyć dwa takie ekrany. Oprócz tego jest dostępne jedno wyjście HDMI 2.0. 

AMD Radeon RX Vega 56

Strona:
tyr83Zobacz profil
Poziom ostrzeżenia: 0%
tyr832017.09.23, 12:08
ghs @ 2017.09.23 09:20  Post: 1096735
o. widzę że vega przebiła kulturą pracy i poborem energii premierowego refetenta 290x. 290x miał chociaż konkurencyjną cenę w stosunku do gtx780. niezłych debili od strategii mają minimalni w swoich szeregach.

nie mogłem się oprzeć :)
[media]https://youtu.be/u5YJsMaT_AE
[/media]
Ha ha, filmik trafia w sedno :D
ghs2017.09.23, 09:20
o. widzę że vega przebiła kulturą pracy i poborem energii premierowego refetenta 290x. 290x miał chociaż konkurencyjną cenę w stosunku do gtx780. niezłych debili od strategii mają minimalni w swoich szeregach.

nie mogłem się oprzeć :)
[media]https://youtu.be/u5YJsMaT_AE[/media]
tyr83Zobacz profil
Poziom ostrzeżenia: 0%
tyr832017.09.23, 07:31
Pontoneiros @ 2017.09.22 14:49  Post: 1096583
myszka91 @ 2017.09.20 14:57  Post: 1095969
Eh co za czasy Radeon za 2600 zł, 10 lat temu za taką kwotę można było złożyć cały komputer który uciągnął Crysisa na maksymalnych detalach. Najśmieszniejsze, a zarazem tragiczne jest to, że gry przez te 10 lat nie dostały jakiegoś duże wyskoku pod względem graficzny aby wymagały dziesięciu krotnie większej mocny obliczeniowej sprzętu. Już nie wspominając o tym, że od czasów Half-Life 2 fizyka w grach stoi w miejscu czy też sztuczna inteligencja komputerowego przeciwnika od czasów pierwszego F.E.A.R
Oczywiście te największe korporacje które produkują sprzęt komputerowy są wiecznie nastawione na nieskończony zysk także muszą nam tak naprawdę wciskać to samo od co najmniej tych 10 lat, może trochę przesadzam ale popatrzcie jak gry wyglądały od roku 1997 do roku 2007, a jak już od 2007 do 2017.
Przecież najpopularniejsze obecnie gówno zwane PLAYERUNKNOWN'S BATTLEGROUNDS ma tekstury jak w grach z lat 2000-2003, a jakie wymagania?


Zgadam się z Tobą w 100% Rynek bardzo zwonił i progres jest niewielki a ceny chorendalnie wysokie. Za 4000 PLN w 2007 jak wychodził crysis można było złożyć sprzęt marzenie z gtx 8800 na pokładzie i gra hulała, dzisiaj???? jest to niemożliwe... Sama karta 1080 kosztuje 2300, procesor i7 1500zł i praktycznie już nie masz pieniędzy na nic. Zaraz ktoś powie że ekonomia i inflacja jest inna i Polski złoty jest inny. Dobrze to popatrzmy na to inaczej. Powiedzmy że pracujemy w 2007 za minmalną krajową przez 3 miesiące(1000PLN*3 =3000PLN) natomiast dzisiaj(1800PLN*3 = 5400PLN) Jak sie popatrzy na polskie sklepy internetowe takie jak morele i x com i normalnie jak kiedyś zamówi cały sprzęt to za 5000PLN nie złożymy nawet konfiguracji SLI...


Akurat gralem zaraz po premierze w crysisa na 8800gt i nie powiedzialbym, ze tak super hulal, owszem trzymal do polowy gry 30 fps jako tako w 1280x720, ale potem jak sie pojawili latajcy kosmici i duza rozwalka to spadalo ponizej 30 fps i juz byla lipa... Teraz gram w 2560x1440p w okolicach 60 fps nawet w najbardziej wymagajace tytuly z detalami w wiekszosci ultra na gf 1070, wiec na samej liczbie pikseli karta musi liczyc prawie 4 razy wiecej, do tego dodajmy podowjny fps wiec wychodzi juz 8 razy wiecej no i badzmy szczerzy, postep w jakosci grafiki tez jest ogromny 2007 -> 2017. Zapominasz tez, ze dolar byl dawniej duuużo tańszy.
AmitozaZobacz profil
Poziom ostrzeżenia: 0%
Amitoza2017.09.22, 23:42
-1#76
Pontoneiros @ 2017.09.22 14:49  Post: 1096583
myszka91 @ 2017.09.20 14:57  Post: 1095969
Eh co za czasy Radeon za 2600 zł, 10 lat temu za taką kwotę można było złożyć cały komputer który uciągnął Crysisa na maksymalnych detalach. Najśmieszniejsze, a zarazem tragiczne jest to, że gry przez te 10 lat nie dostały jakiegoś duże wyskoku pod względem graficzny aby wymagały dziesięciu krotnie większej mocny obliczeniowej sprzętu. Już nie wspominając o tym, że od czasów Half-Life 2 fizyka w grach stoi w miejscu czy też sztuczna inteligencja komputerowego przeciwnika od czasów pierwszego F.E.A.R
Oczywiście te największe korporacje które produkują sprzęt komputerowy są wiecznie nastawione na nieskończony zysk także muszą nam tak naprawdę wciskać to samo od co najmniej tych 10 lat, może trochę przesadzam ale popatrzcie jak gry wyglądały od roku 1997 do roku 2007, a jak już od 2007 do 2017.
Przecież najpopularniejsze obecnie gówno zwane PLAYERUNKNOWN'S BATTLEGROUNDS ma tekstury jak w grach z lat 2000-2003, a jakie wymagania?


Zgadam się z Tobą w 100% Rynek bardzo zwonił i progres jest niewielki a ceny chorendalnie wysokie. Za 4000 PLN w 2007 jak wychodził crysis można było złożyć sprzęt marzenie z gtx 8800 na pokładzie i gra hulała, dzisiaj???? jest to niemożliwe... Sama karta 1080 kosztuje 2300, procesor i7 1500zł i praktycznie już nie masz pieniędzy na nic. Zaraz ktoś powie że ekonomia i inflacja jest inna i Polski złoty jest inny. Dobrze to popatrzmy na to inaczej. Powiedzmy że pracujemy w 2007 za minmalną krajową przez 3 miesiące(1000PLN*3 =3000PLN) natomiast dzisiaj(1800PLN*3 = 5400PLN) Jak sie popatrzy na polskie sklepy internetowe takie jak morele i x com i normalnie jak kiedyś zamówi cały sprzęt to za 5000PLN nie złożymy nawet konfiguracji SLI...

a pamiętasz po ile był dolar w 2007 roku? na początku roku niecałe 3zł, pod koniec 2,5zł, a w 2008 dobił do 2zł. wspomniany przez Ciebie 8800GTX kosztował 600$ Więc tyle co dzisiaj GTX1080. z cenami procesorów też było podobnie.

ps. crysis hulał na 8800GTX? chyba w 1024x768 a i tak do 60FPS troche brakowało. Teraz na GTX1080 w fullHD każda gra praktycznie poleci powyżej 60FPS.
R4zenZobacz profil
Poziom ostrzeżenia: 0%
R4zen2017.09.22, 22:28
Test w podsumowaniu w wiedźmin 3 w dx12... Jak gra ma tylko dx11. Nadal niepoprawne mimo Zgłoszenia błędu. Choć chciałbym by była to prawda...
DenySmithZobacz profil
Poziom ostrzeżenia: 0%
DenySmith2017.09.22, 15:55
Chłodzenie referencyjne jest bardzo kiepskiej jakości, cena 2430 zlotych, a w sklepach od 2500-2600 w górę. GTX 1080 Gigabyte w wersji AOURUS za 2300 złotych jest 10 razy lepszym wyborem. Kolejny raz AMD wydaje takie karty za późno i za drogo. Zakup kompletnie nieopłacalny. O ile z Ryzenami wstrzelili się na rynek idealnie to z Vegami im kompletnie nie wyszło. Co najlepsze nadal nie potrafią zrobić wydajniejszej karty od konkurencji, a jedynie ją gonić. GTX 1080 w swojej cenie jest królem wydajności.
PontoneirosZobacz profil
Poziom ostrzeżenia: 0%
Pontoneiros2017.09.22, 14:49
-4#73
myszka91 @ 2017.09.20 14:57  Post: 1095969
Eh co za czasy Radeon za 2600 zł, 10 lat temu za taką kwotę można było złożyć cały komputer który uciągnął Crysisa na maksymalnych detalach. Najśmieszniejsze, a zarazem tragiczne jest to, że gry przez te 10 lat nie dostały jakiegoś duże wyskoku pod względem graficzny aby wymagały dziesięciu krotnie większej mocny obliczeniowej sprzętu. Już nie wspominając o tym, że od czasów Half-Life 2 fizyka w grach stoi w miejscu czy też sztuczna inteligencja komputerowego przeciwnika od czasów pierwszego F.E.A.R
Oczywiście te największe korporacje które produkują sprzęt komputerowy są wiecznie nastawione na nieskończony zysk także muszą nam tak naprawdę wciskać to samo od co najmniej tych 10 lat, może trochę przesadzam ale popatrzcie jak gry wyglądały od roku 1997 do roku 2007, a jak już od 2007 do 2017.
Przecież najpopularniejsze obecnie gówno zwane PLAYERUNKNOWN'S BATTLEGROUNDS ma tekstury jak w grach z lat 2000-2003, a jakie wymagania?


Zgadam się z Tobą w 100% Rynek bardzo zwonił i progres jest niewielki a ceny chorendalnie wysokie. Za 4000 PLN w 2007 jak wychodził crysis można było złożyć sprzęt marzenie z gtx 8800 na pokładzie i gra hulała, dzisiaj???? jest to niemożliwe... Sama karta 1080 kosztuje 2300, procesor i7 1500zł i praktycznie już nie masz pieniędzy na nic. Zaraz ktoś powie że ekonomia i inflacja jest inna i Polski złoty jest inny. Dobrze to popatrzmy na to inaczej. Powiedzmy że pracujemy w 2007 za minmalną krajową przez 3 miesiące(1000PLN*3 =3000PLN) natomiast dzisiaj(1800PLN*3 = 5400PLN) Jak sie popatrzy na polskie sklepy internetowe takie jak morele i x com i normalnie jak kiedyś zamówi cały sprzęt to za 5000PLN nie złożymy nawet konfiguracji SLI...
MikroponZobacz profil
Poziom ostrzeżenia: 0%
Mikropon2017.09.22, 11:03
p.r. @ 2017.09.20 15:26  Post: 1095979
myszka91 @ 2017.09.20 14:57  Post: 1095969
Eh co za czasy Radeon za 2600 zł, 10 lat temu za taką kwotę można było złożyć cały komputer który uciągnął Crysisa na maksymalnych detalach.

O inflacji to słyszałeś kiedyś?
10 lat temu średnia pensja wynosiła 2477,23.
W chwili obecnej około 4500.

10 lat temu grałeś w full hd rozdzielczości. Teraz niektórym 4k mało (czyli 16x więcej pikseli do obrobienia). Za komputer który odpali grę przy podobnych założeniach jak 10 lat temu crysisa zapłacisz prawie identyczna kwotę liczoną jako % od średniej krajowej...

Czyli twierdzisz że przez ostatnie 10 lat inflacja wyniosła pawie 100% ?
tyr83Zobacz profil
Poziom ostrzeżenia: 0%
tyr832017.09.22, 09:09
pwil @ 2017.09.21 11:55  Post: 1096196
Tramwaj z Bombaju @ 2017.09.20 14:48  Post: 1095965
Nie zgodzę się, że Vega 56 jest ciekawym produktem dla konsumenta. Wyszła rok po serii 10xx i chociaż osiągnęła zadowalającą wydajność względem 1070, powinna kosztować 2/3 obecnej ceny, by móc z nim rywalizować. Teraz to karta dla nikogo.


Można trafić w promocji za ~400EUR i za tyle zdecydowanie się opłaca w porównaniu z 1070 za 450EUR. Po UV i UC rdzenia oraz OC pamięci można mieć jeszcze niższe TDP (okolice 1070 przy wyższej wydajności). Gdybym miał na coś zmieniać 1060-tkę, to pewnie VEGA56 (za ~400EUR).


Ale przybajdurzyłeś, zalinkuj tą promocję na vege 56 za 400 euro:D Predzej znajdziesz promocje za 600 euro.
shinigamiZobacz profil
Poziom ostrzeżenia: 0%
shinigami2017.09.21, 20:56
- droższa od gtx1080, wydajnościowo porównywalna z gtx1070
- prądożerna
- gorąca
Plusów brak :/ Przynajmniej nie w tej cenie.
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.
1