Chip do zadań specjalnych. Intel zaprezentował dzisiaj swój najnowszy produkt, jakim jest jednostka Stratix 10 GX 10M FPGA. Układ cechuje ogromne upakowanie elementów logicznych i całkiem interesująca budowa, czerpiąca z projektów heterogenicznych jednostek, o których niebiescy wspominają od wielu miesięcy. Sprawdźmy, czym tak naprawdę jest nowy chip i jak prezentuje się jego wydajność.
Intel Stratix 10 GX 10M FPGA zbudowany jest tak naprawdę z dwóch matryc Stratix 10 GX FPGA, które połączono ze sobą za pomocą interfejsu EMIB. To pierwszy taki chip Intela, który wykorzystuje tego typu łączność przy dwóch wysokowydajnych rdzeniach – wcześniej firma korzystała z niej np. przy komunikacji GPU z pamięcią HBM. Dodatkowe połączenia wyprowadzono dla różnego rodzaju interfejsów wejścia/wyjścia, w tym bloków PCIE 4.0, czy po prostu dla pamięci HBM2.

Intel twierdzi, że dzięki "sklejeniu" dwóch chipów w jeden osiągnął najlepsze upakowanie elementów logicznych na rynku – tych jest aż 10,2 mln. Stratix 10 GX 10M FPGA ma również aż 48,3 mld tranzystorów, 6912 elementów DSP i 48 przekaźników o przepustowości 17,4 Gb/s. TDP nowego FPGA nie zostało ujawnione, ale według serwisu Anandtech powinno wynosić od 150 do 400 W, w zależności od wymagań klientów.

Ci ostatni mają kupować opisany wyżej układ przede wszystkim z myślą o emulacji ASIC oraz prototypowaniu systemów związanych z projektowaniem oprogramowania dla SoC, weryfikacją RTOS, testami regresywnymi, czy tworzeniem algorytmów dla sprzętu. Cena produktu nie jest znana, ale trudno spodziewać się, by była niska. Mimo wszystko, Stratix 10 GX 10M FPGA może przyciągnąć do siebie wiele firm, zainteresowanych naprawdę dużymi możliwościami tej jednostki.
- sprawdź aktualną cenę procesora Core i9-9900K,
- sprawdź aktualną cenę procesora Core i7-9700K,
- sprawdź aktualną cenę procesora Core i5-9600K.

Przynajmniej jeśli mówimy o obecnym praktycznym zastosowaniu. Bo generalnie IF to protokół. Dałoby się np. zastosować protokół IF po EMIB, czemu nie?
Przecież EMiB dokładnie po to powstał żeby łączyć mniejsze kawałki krzemu w jeden, co pozwoli obniżyć koszty i zachować zalety monolitu.
A ten @Caroozo to nie ma pojęcia o czym mówi.
EMIB=IF jesli chodzi o zasade dzialania, z tym ze EMIB ma mniejszy interposer a IF moze pracowac na zasadzie protokolu. Jedno i drugie to technicznie 'sklejka' wiec wychodzi na to samo, o Foverosie nikt nie mowil, takze 'znaffco' nie podskakuj
Nie wychodzi na to samo bo emib zapewnia dużo większą wydajność. IF ma opóźnienia na poziomie drugiego socketu u intela. Emib w pierwszej wersji łączył gpu vega z hbm więc było dużo szybciej. Z resztą nie w tym rzecz.
Najważniejsze jest to że łączenie chipletów to nie klasyczny MCM i tutaj sprawdzi się bardzo dobrze.
Software to teoretycznie nie problem, mieliśmy przecież implicit multi-GPU, teraz niby jest explicit muti-GPU, ale to po prostu wymaga za dużo pracy, żeby działało w każdym programie. Dlatego właśnie potrzebne są rozwiązania sprzętowe. Multi-GPU działające i widoczne dla aplikacji jako 1 GPU. Nie wiem dokładnie jakie parametry (przepustowość i opóźnienia) wyciąga obecnie EMIB, ale wydaje się krokiem we właściwym kierunku.
Przecież EMiB dokładnie po to powstał żeby łączyć mniejsze kawałki krzemu w jeden, co pozwoli obniżyć koszty i zachować zalety monolitu.
A ten @Caroozo to nie ma pojęcia o czym mówi.
EMIB=IF jesli chodzi o zasade dzialania, z tym ze EMIB ma mniejszy interposer a IF moze pracowac na zasadzie protokolu. Jedno i drugie to technicznie 'sklejka' wiec wychodzi na to samo, o Foverosie nikt nie mowil, takze 'znaffco' nie podskakuj
Software to teoretycznie nie problem, mieliśmy przecież implicit multi-GPU, teraz niby jest explicit muti-GPU, ale to po prostu wymaga za dużo pracy, żeby działało w każdym programie. Dlatego właśnie potrzebne są rozwiązania sprzętowe. Multi-GPU działające i widoczne dla aplikacji jako 1 GPU. Nie wiem dokładnie jakie parametry (przepustowość i opóźnienia) wyciąga obecnie EMIB, ale wydaje się krokiem we właściwym kierunku.
Przecież EMiB dokładnie po to powstał żeby łączyć mniejsze kawałki krzemu w jeden, co pozwoli obniżyć koszty i zachować zalety monolitu.
A ten @Caroozo to nie ma pojęcia o czym mówi.
Software to teoretycznie nie problem, mieliśmy przecież implicit multi-GPU, teraz niby jest explicit muti-GPU, ale to po prostu wymaga za dużo pracy, żeby działało w każdym programie. Dlatego właśnie potrzebne są rozwiązania sprzętowe. Multi-GPU działające i widoczne dla aplikacji jako 1 GPU. Nie wiem dokładnie jakie parametry (przepustowość i opóźnienia) wyciąga obecnie EMIB, ale wydaje się krokiem we właściwym kierunku.
Taki drobny skok 150 hop i już jest 400W!
Nie jest problemem EMIB czy IF - problemem są sterowniki i sposób działania takiej karty. Tak jak np. w przypadku emulatora x86 PCem liczy się bardzo mocny pojedynczy wątek, który będzie emulować procesor, a dodatkowe mogą służyć do emulacji Voodoo 1/Voodoo 2 i tak samo jak w przypadku PCSX2 czy Dolphina, nie da się pewnych operacji rozbić na mniejsze bez dużej rewolucji w tym zakresie.
Pełna zgoda że każda karta GPU to tak naprawdę setki/tysiące wyspecjalizowanych układów, ale już ich sposób komunikacji wymaga monolitu. Było kilka kart z dwoma rdzeniami, ale 'to nie było to'. Cóż - z tego co pisała nVidia mają coś takiego na półce, AMD ze swoim IF również może spróbować zmierzyć się z tym tematem. Także hardware nie jest tak dużym problemem, jak właśnie software.