aktualności

AMD tłumaczy, dlaczego zrezygnowało z obsługi CrossFire na kartach Navi

14
11 lipca 2019, 08:00 Adrian Kotowski

Od kilku dni wiemy, że Radeony serii RX 5700 nie będą obsługiwać techniki CrossFire. Dla części osób może być to mały problem, inni nawet nie zauważą braku wspomnianej funkcji. Teraz dowiedzieliśmy się, dlaczego AMD zdecydowało się na taki krok i choć nie popieramy zmniejszania dostępnych opcji dla nabywców danego sprzętu, to tłumaczenia wydają się być całkiem logiczne.

Odejście od CrossFire było sugerowane przez AMD już od jakiegoś czasu, choć wcześniej firma pokładała spore nadzieje względem takich konfiguracji. Jeśli sobie przypomnicie premierę Polarisów, to jeden z najsłynniejszych pokazów dotyczył właśnie działania konfiguracji multi GPU z Radeonów RX 480, które w tandemie miały wyprzedzać dużo droższego GeForce’a GTX 1080. U wielu osób prezentacja ta do dzisiaj wywołuje lekki uśmiech, bo w rzeczywistości zestaw działający w trybie CrossFire nawet nie zbliżał się wydajnościowo do przedstawiciela rodziny Pascal, co potwierdziliśmy w naszych testach.

Teraz Radeony RX 5700 XT i RX 5700, zastępujące na rynku modele Vega (wspierające zresztą CF), funkcji CF nie oferują. Serwis PCGamesN postanowił zapytać o tę kwestię Sasę Marinkovica z AMD, a uzyskana wiadomość raczej nie zaskakuje. Według rozmówcy portalu powód jest bardzo prosty – jego dane wskazują, że z konfiguracji multi-GPU korzysta mniej niż 1 procent użytkowników, a reszta wybiera jedną kartę, bo po prostu jest to bardziej sensowny i mniej problematyczny wybór. Chodzi m.in. o kwestię skalowania na takich platformach, bo są gry, gdzie jest ono prawie idealne, ale są też tytuły, w których jest ujemne, co zupełnie zabija sens korzystania z CrossFire.

Marinkovic widzi jeszcze możliwość używania funkcji multi-GPU w grach z API DX12 i Vulkan, ale sam zauważa, że implementacja takiego rozwiązania zależy od deweloperów. A ci się raczej do tego nie kwapią, więc zestawy złożone z wielu kart graficznych powoli umierają. Słowa przedstawiciela czerwonych sugerują również to, czego większość z Was pewnie się domyślała - szkoda marnować zasoby ludzkie i pieniężne na wspieranie funkcji, z której prawie nikt nie korzysta. Może to wyglądać słabo z perspektywy klientów, ale takie niestety są fakty. 

Źródło: PCGamesN
KenjiroZobacz profil
Poziom ostrzeżenia: 0%
Kenjiro2019.07.11, 08:11
12#1
Smutne, lecz prawdziwe.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2019.07.11, 08:48
10#2
Akurat dzisiaj jest czas, w którym sporo ludzi by chętnie z tego korzystało gdyby było jakiekolwiek sensowne wsparcie ze strony producentów GPU i gier. W końcu po wielu latach upowszechniły się monitory i TV 4K i 120+ Hz, a monolityczne GPU są koszmarnie drogie i z trudem wystarczają do grania w 4k60. SLI/CF nie jest dzisiaj popularne dlatego, że od wejścia DX12 większość gier w ogóle nie multi-GPU.
Rybaczek KoziołkaZobacz profil
Poziom ostrzeżenia: 0%
Rybaczek Koziołka2019.07.11, 09:35
Sprawa jest bardzo prosta. dla konsumenta rozwiązanie jest drogie, więc go nie kupuje. Rozwiązanie też okazało się wadliwe, i nie przynosi oczekiwanego wzrostu wydajności. Rozwój i utrzymanie tego rozwiązania to też koszt, więc lepiej jest z niego po prostu zrezygnować.

Być może kiedyś AMD pokona te problemy, i idea multi GPU powróci. Póki co AMD musi trochę popracować nad CPU, aby:
1. poprawić kontroler RAM aby zredukować opóźnienia
2. zredukować opóźnienia na linii Core / cache L1/2/3
3. zredukować opóźnienia pomiędzy rdzeniami

Obecnie jest niewiele gorzej niż u Intela, ale niestety widać to gorzej bo ta sama wypasiona grafika na platformie AMD działa po prostu nieco wolniej. A co dopiero multi gpu :)

do minusowych przegrywów. nie hejtuję AMD, stwierdzam fakty. ostatnio kupuję niemal wyłącznie rozwiązania oparte o AMD, z uwagi na ceny do jakości/wydajności. ale gdyby było nawet porównywalnie, wybrałbym AMD.
floyd252Zobacz profil
Poziom ostrzeżenia: 0%
floyd2522019.07.11, 10:00
Assassin @ 2019.07.11 08:48  Post: 1210692
Akurat dzisiaj jest czas, w którym sporo ludzi by chętnie z tego korzystało gdyby było jakiekolwiek sensowne wsparcie ze strony producentów GPU i gier. W końcu po wielu latach upowszechniły się monitory i TV 4K i 120+ Hz, a monolityczne GPU są koszmarnie drogie i z trudem wystarczają do grania w 4k60. SLI/CF nie jest dzisiaj popularne dlatego, że od wejścia DX12 większość gier w ogóle nie multi-GPU.

Problem w tym, że podwójne GPU nie sprawdza się dobrze, generuje mnóstwo problemów wiążących się z synchronizacją, przez co zdarzają się widoczne przycięcia. No i nie zapominaj, że to w sytuacji idealnej wzrost 2x, ale okupiony kosztem nie tylko 2x GPU, ale również odpowiedniej płyty głównej i zasilacza, dlatego takie konfiguracje mają sens tylko wtedy gdy łączymy topowe karty, bo nie da się kupić jednej wydajniejszej.
PutoutZobacz profil
Poziom ostrzeżenia: 0%
Putout2019.07.11, 10:17
dobrze zrobili. nie ma sensu pakować zasobów w coś co interesuje procent klientów. celem powinno być mgpu
Rybaczek KoziołkaZobacz profil
Poziom ostrzeżenia: 0%
Rybaczek Koziołka2019.07.11, 10:22
-3#6
Putout @ 2019.07.11 10:17  Post: 1210702
dobrze zrobili. nie ma sensu pakować zasobów w coś co interesuje procent klientów. celem powinno być mgpu


No cóż, przy obecnej różnicy w cenach i wydajnościach, zamiast pchać się w AMD CrossFire, zdaje się że lepiej jest kupić pojedynczą grafę od NV. Co przyniesie przyszłość, zobaczymy.

ps: obecnie grafiki są na tyle mocne, że konfiguracje z przeszłości z 4rema grafikami odeszły w zapomnienie. No chyba że liczymy krypto waluty, ale ten biznes jest coraz gorszy. zamiast GPU ogólnego przeznaczenia, trzeba się pchać w specjalizowane TPU, a tych ostatnich nie opłaca się kupować w małych ilościach, i koło się zamyka.
AbdulahZobacz profil
Poziom ostrzeżenia: 0%
Abdulah2019.07.11, 10:27
Można na to patrzeć z innej strony. AMD ma już Infinity Fabric Link zastosowany w GPU dla maca pro. Osoby korzystające z CrossFire raczej muszą budować cały PC pod multi GPU(miejsce w budzie, zasiłka, mobo, chłodzenie). Chyba rzadziej jest tak, że ktoś myśli: 'brakuje mi mocy, dokupię sobie drugie GPU'. Czyli w zasadzie podobny efekt AMD mogłoby uzyskać poprzez produkcję kart z kilkoma GPU na płytce połączonych przez Infinity Fabric(tak jak dla wspomnianego Maca)... zwłaszcza, że standard PCI ostatnio dość prężnie się rozwija i nie powinien być wąskim gardłem.
Edytowane przez autora (2019.07.11, 11:58)
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2019.07.11, 10:29
floyd252 @ 2019.07.11 10:00  Post: 1210700
Problem w tym, że podwójne GPU nie sprawdza się dobrze, generuje mnóstwo problemów wiążących się z synchronizacją, przez co zdarzają się widoczne przycięcia. No i nie zapominaj, że to w sytuacji idealnej wzrost 2x, ale okupiony kosztem nie tylko 2x GPU, ale również odpowiedniej płyty głównej i zasilacza, dlatego takie konfiguracje mają sens tylko wtedy gdy łączymy topowe karty, bo nie da się kupić jednej wydajniejszej.

Tyle, że trzeba wyraźnie odróżniać przyczyny od skutków. Sprzętowy frame pacing i zwiększenie przepustowości między kartami rozwiązało wiele bolączek multi-GPU, ale bardzo słabe wsparcie programowe nie pozwoliło tej technologii na nowo ruszyć z miejsca. Miałem swego czasu GTX 980 SLI i dość fajnie to działało z monitorem 120 Hz w ówczesnych grach AAA (np. GTA 5).

Gdyby multi-GPU było wspierane co najmniej na poziomie sprzed paru lat to taki posiadacz GTX1070 czy 1070Ti mógłby poważnie rozważać zakup drugiej karty za ~1000 zł zamiast brać RTX 2080 za 3000 zł. Może nie byłoby idealnie, ale w parze z monitorem 1440@144 Hz (z Adaptive Sync/G-Sync) grałoby się ok. I może właśnie tu leży problem? Konkurencja dla nowych, ciągle drożejących kart ze strony używanych kart łączonych w multi-GPU przeważyła korzyści wynikające ze zwiększenia sprzedaży topowych modeli pod SLI/CF?

A co do odpowiednich płyt... Nawet dzisiaj gdy multi-GPU jest martwe wiele osób bierze wyższe modele typu X470/570/Z370/Z390, z różnych powodów.

Rybaczek Koziołka @ 2019.07.11 10:22  Post: 1210703
ps: obecnie grafiki są na tyle mocne, że konfiguracje z przeszłości z 4rema grafikami odeszły w zapomnienie. No chyba że liczymy krypto waluty, ale ten biznes jest coraz gorszy. zamiast GPU ogólnego przeznaczenia, trzeba się pchać w specjalizowane TPU, a tych ostatnich nie opłaca się kupować w małych ilościach, i koło się zamyka.

Z tym się właśnie nie zgadzam. Rynek poszedł w zwiększanie rozdzielczości i przez to współczesne grafiki są za słabe, brakuje im mocy. Jedynie topowy sprzęt za 3000+ zł jako tako ciągnie obraz 4K60. Pośrednio hamuje to też popyt na highendowe CPU, bo kto nie chce wydawać majątku na GPU, temu 'starcza' Ryzen 1600 za niecałe 500 zł.
Edytowane przez autora (2019.07.11, 10:33)
Makavcio2Zobacz profil
Poziom ostrzeżenia: 0%
Makavcio22019.07.11, 11:24
@Assassin
No tak, ale zabawa w przyczyny i skutki to trochę takie akademickie rozważanie.

Multi-GPU to dla wszystkich problem.
Twórcy gier muszą się na to przygotować, a już teraz optymalizacja zazwyczaj leży.
Producenci sprzętu muszą stosować dodatkowe technologie, bardziej się męczyć ze sterownikami i dla maleńkiego rynku podwajać ilość pracy w niektórych obszarach.
Użytkownik z kolei nie może sobie z marszu dowalić drugiej 1070ti, bo mu tego zasilacz nie uciągnie, a w puszce się wszystko zagotuje. Winny tych problemów będzie oczywiście producent gpu.

Gra jest po prostu nie warta świeczki i chociaż założenie było szczytne i sensowne, nie wytrzymało starcia z prozą życia.
bab11Zobacz profil
Poziom ostrzeżenia: 0%
bab112019.07.11, 11:38
Idea była słuszna. Dołożyć drugą kartę, aby mieć dwa razy więcej wydajności. Ale rozwiązanie wyszło nieciekawe. Może jeszcze kiedyś się do tego przysiądą i postarają stworzyć coś zdecydowanie mniej problematycznego. Ponieważ gdyby to działało co najmniej bardzo dobrze, i byłoby wsparcie w każdym tytule, zainteresowanie byłoby oczywiście dużo większe.
Edytowane przez autora (2019.07.11, 11:39)
Zaloguj się, by móc komentować
1