Technologie i wydarzenia
Artykuł
Mateusz Brzostek, Poniedziałek, 9 marca 2015, 10:25

Wydajność układów obliczeniowych zwiększa się na przestrzeni lat znacznie szybciej niż wydajność interfejsów wejścia-wyjścia i pamięci. Gęstość pamięci i stopień złożoności maszyn obliczeniowych rosną w tempie bliskim założeniom słynnego prawa Moore'a, a prędkość i efektywność energetyczna interfejsów pamięci – znacznie wolniej. Z czasem, gdy będzie trzeba budować superkomputery o wiele potężniejsze od dzisiejszych, możemy rozbić się o „ścianę pamięci”. Transfer danych już teraz wymaga nawet połowy energii zużywanej przez superkomputery. Również prędkość pamięci jest niewystarczająca do wielu zastosowań.

UWAGA: By zrozumieć ten artykuł, należy się zapoznać z wcześniejszym, o trójwymiarowej mikroelektronice: „Układy scalone w trzech wymiarach – przyszłość mikroelektroniki”. Opisujemy tam techniki produkcji urządzeń, o których za chwilę będzie mowa.

Pamięć blisko procesora

Wiele problemów obecnie stosowanych systemów pamięci jest związanych z ich fizyczną formą. Długość ścieżek ogranicza maksymalną prędkość interfejsu. Powierzchnia płyty drukowanej nie pozwala umieścić między pamięcią a procesorem zbyt wielu ścieżek. Jeśli typ pamięci wymaga umieszczenia modułu w gnieździe, dodatkowe połączenie również osłabia jakość sygnału i obniża maksymalną osiągalną prędkość interfejsu.

Wszystkie te problemy pozwala złagodzić przysunięcie pamięci bliżej procesora i usunięcie wymiennych modułów oraz gniazd.

Karty graficzne z kośćmi GDDR5 pokazują, że tradycyjne formy pamięci nie pozwalają jej umieścić jeszcze bliżej procesora. Żeby to zrobić, trzeba ją gęściej upakować: rozwiązaniem tego problemu może być układanie krzemowych jąder zawierających komórki pamięci nie obok siebie, ale jedno na drugim, z wykorzystaniem niedawno udoskonalonych technik, o których mowa we wspomnianym artykule.

W ostatnich latach i miesiącach wyłoniły się trzy standardy opisujące wykorzystanie pamięci DRAM w warstwowej formie: HBM (High Bandwidth Memory), HMC (Hybrid Memory Cube) oraz Wide I/O. Przyjrzyjmy się szczegółom technicznym i potencjalnym zastosowaniom. Zauważmy, że chodzi o popularną, dobrze znaną pamięć w innych obudowach i z innym interfejsem: w samych jej komórkach nie ma nic innowacyjnego.

Ocena artykułu:
Ocen: 19
Zaloguj się, by móc oceniać
ZIB2000 (2015.03.09, 10:34)
Ocena: -4

33%
w zasadzie nic nowego tylko postęp miniaturyzacji

już w którymś z 8-bitowców chcąc rozszerzyć pamięć dolutowało się kolejny scalak na istniejący
macieqq (2015.03.09, 10:43)
Ocena: 12

0%
I dochodzimy do momentu gdzie najlepiej mieć CPU+GPU+RAM+kontrolery w jednym.
Niedługo pamięć flash będą na stałe lutować bo zacznie ograniczać ją interface... oh wait.
Bogie (2015.03.09, 11:23)
Ocena: 9

0%
Od wielu lat to obserwujemy. Z CPU integrowano koprocesory, pamięć cache, kontrolery pamięci, pci-express, grafikę. Zawsze z zyskiem dla wydajności, zawsze z zyskiem dla zużycia energii. Zmniejszające się procesy technologiczne na to pozwalały. Z RAM bylo trudniej, bo nikt nie umiał go robić warstwowo - teraz się to zmienia. Technologia przyda się jednak bardziej łakomym na przepustowość GPU i serwerom - bo raczej nie ma szans, żeby HBM zbliżył się wydajnością do cache, w którym mieści się większość programów dla CPU.
tftd (2015.03.09, 13:42)
Ocena: 13

0%
ZIB2000 @ 2015.03.09 10:34  Post: 843701
w zasadzie nic nowego tylko postęp miniaturyzacji

już w którymś z 8-bitowców chcąc rozszerzyć pamięć dolutowało się kolejny scalak na istniejący

A adresował ten kolejny scalak Duch Święty?
mbrzostek (2015.03.09, 13:55)

0%
velocityx @ 2015.03.09 13:19  Post: 843789
co pclab pokazuje w rozdziale o HBM? oczywiscie render nvidii z pascalem i HBM. zero fanboystwa. zero totalnie.

Ja fanbojem Nvidii? :D :D :D

Jesli dysponujesz zdjęciem GPU AMD z pamięcią HBM (lepszym niż zdjęcie prototypu przekładki Amkora z 2011 roku), możesz je anonimowo podesłać na redakcja@pclab.pl. Przyjmujemy również informacje chronione NDA :)
SunTzu (2015.03.09, 14:40)
Ocena: 8

0%
Może coś przegapiłem... ale więcej takich artów :)
Zaloguj się, by móc komentować
Artykuły spokrewnione
Facebook
Ostatnio komentowane