Samsung zdradza odległe plany na przyszłość, pamięć HBM będzie szybka niczym światło
Od kiedy ludzkość zrozumiała, że można zmieniać elektrony w fotony, a światło w prąd elektryczny nasze życie stało się po prostu lepsze. Nie tylko za sprawą tak prostych urządzeń jak żarówki, ale również tych bardziej skomplikowanych jak fotodiody i fototranzystory, bez których nie istniałyby panele fotowoltaiczne czy światłowody. Samsung jednak postanowił, wznieć tę technologię na jeszcze wyższy poziom, opracowując rozwiązania z zakresu fotoniki dla pamięci HBM.
Samsung podczas wydarzenia Open Compute Project Global Summit 2023 zdradził plany na przyszłość magistrali pamięci i kości pamięci HBM, która ma wykorzystać rozwiązania z zakresu fotoniki i zbliżyć się do prędkości światła.
Isambard-AI - w Wielkiej Brytanii powstaje nowy superkomputer, który zajmie wysoką pozycję w rankingu najszybszych maszyn
Kości pamięci HBM kojarzy chyba każdy, kto nie przespał premiery takich kart graficznych jak AMD Radeon VII czy Radeon RX VEGA 64. Moduły tego typu z powodzeniem są używane w dalszym ciągu, jednak całkowicie poza segmentem konsumenckim. Choć wymienione karty posiadają pamięci HBM2, to dziś (2023) standardem jest HBM3, a w przyszłym roku ma pojawić się kolejna iteracja HBM3e. Jednak producenci na tym nie poprzestają i tak oto Samsung podczas wydarzenia Open Compute Project Global Summit 2023 zdradził plany na jej przyszłość. Yan Li z zespołu ds. zaawansowanego pakowania chipów przedstawiła obecne badania oraz koncepcje na stworzenie takiej pamięci HBM, która wykorzystałaby do komunikacji z jednostkami logiki (np. GPU i CPU) promienie światła. Choć taka technologia zapewne wydaje się wam czymś z zakresu sci-fi, to tak naprawdę nie jest to taka odległa przyszłość.
Roboty z Boston Dynamics potrafią już mówić i oprowadzać zwiedzających. Wszystko dzięki integracji z ChatGPT i usługami AI
Samsung ma dwie konkretne wizje na wykorzystanie wspomnianych pamięci. Pierwsza z nich to umieszczenie kości pamięci HBM obok lub nad (à la 3D V-Cache) układem logiki i połączenie ich za pomocą fotooptycznej magistrali, najprawdopodobniej zbudowanej ze światłowodów lub technologii pochodnej. Takowa magistrala mieściłaby się między substratem a właściwymi częściami chipu. Należy wspomnieć, że między kością HBM a magistralą musiałby znaleźć się stosowny konwerter I/O, który zamieniłby wiązki światła w sygnały prądowe (zero-jeden). Podobnie zresztą sytuacja miałaby się między układem logiki a magistralą. Drugim poruszonym pomysłem jest oddzielenie kości pamięci od jednostki obliczeniowej. Zatem powstałby konstrukt zbliżony do obecnie praktykowanych rozwiązań z pamięcią RAM. Zasada działania pozostałby jednak taka sama, jednak umożliwiłoby to stworzenie niejako modułów RAM zawierających kości HBM i zdecydowanie obniżyłoby koszty budowy układów scalonych w tej technologii. Natomiast ten koncept wymusiłby zmianę ścieżek elektrycznych na światłowody w laminatach (np. płyt głównych) i substratach wszelkiej maści chipów wykorzystujących taką pamięć HBM.
Amazon - roboty humanoidalne zaczynają współpracę z ludźmi. Przyszłość rysuje się bardzo ciekawie, choć nie dla wszystkich
Przed Samsungiem i zespołem Yan Li stoją jednak dwie duże przeszkody przed wprowadzeniem tego rozwiązania już dziś. Jak wspominałem wyżej, fotooptyczna magistrala wymaga konwerterów światło/prąd elektryczny, które muszą cechować się odpowiednimi i nieosiągalnymi dziś szybkościami oraz bardzo niskimi opóźnieniami. Mówimy tutaj o przepustowości równej lub większej niż zastosowane kości HBM. Przypomnę, że dla standardu HBM3 pojedynczy stos pamięci osiąga aż 819 GB/s, a dla HBM3e ma być to 1 TB/s. Drugą poważną barierą jest wprowadzenie całego nowego standardu, zarówno w laminatach płytach głównych, odpowiednich interfejsach czy nawet w konstrukcji chipów jak i kontrolerów pamięci. Jednakże technologia ta ma wiele plusów: możliwe do uzyskania wysokie transfery (nawet bliskie prędkości światła) na względnie długich odległościach na PCB, brak zakłóceń sygnałów, bardzo niskie opóźnienia sygnału świetlnego (femtosekundy) i niewielkie straty siły sygnału, a co za tym idzie brak wydzielania ciepła, które stanowi coraz większy problem w dzisiejszej elektronice.
Powiązane publikacje

ARM ma już 40 lat. Architektura, która zasila smartfony, serwery i roboty, trafiła do ponad 250 miliardów urządzeń
22
Anthropic chce zajrzeć do wnętrza AI. Czy do 2027 roku odkryjemy, jak naprawdę myślą modele językowe?
22
Firma Elona Muska xAI chce pozyskać 25 miliardów dolarów na budowę superkomputera Colossus 2 z milionem GPU NVIDIA
60
Nowatorski interfejs mózg-komputer od Georgia Tech może zmienić sposób, w jaki ludzie komunikują się z technologią i otoczeniem
4