Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły

Damian Marusiak | 19-08-2021 15:17 |

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegółyOmówiliśmy już szczegóły dotyczące architektury Xe-HPG dla kart graficznych oraz Alder Lake (wraz z rdzeniami Performance, a także Efficient) dla konsumenckich procesorów 12 generacji. To nie wszystkie nowości jakie producent ujawnił podczas prezentacji w ramach Architecture Day 2021. Kolejnym ważnym punktem były serwerowe procesory Sapphire Rapids. Dla firmy to bardzo ważny segment, który z powodów problemów przy wdrażaniu 10 nm litografii miał spore kłopoty z kolejnymi premierami układów Xeon. Dopiero w tym roku do sprzedaży weszły jednostki oparte na architekturze Ice Lake-SP. Sapphire Rapids jednak pod wieloma względami będzie dużo bardziej dopracowany, z kilkoma bardzo ciekawymi rozwiązaniami. Czy to jednak wystarczy, aby pokonać nadchodzące układy AMD EPYC Genoa z maksymalnie 96 rdzeniami?

Podczas Intel Architecture Day 2021 zdradzono w końcu więcej informacji na temat możliwości oferowanych przez serwerowe procesory Sapphire Rapids, które mają być najbardziej rewolucyjną architekturą w portfolio firmy od przeszło 10 lat.

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [1]

Intel Alder Lake oraz Intel Thread Director - szczegóły dotyczące hybrydowej architektury procesorów Core 12. generacji

Procesory Intel Sapphire Rapids, w przeciwieństwie do obecnych układów Xeon, mają budowę składającą się z kilku odrębnych "kafelek obliczeniowych" (compute tile), na które składają się przede wszystkim wydajne rdzenie Performance - w większości podobne jak w konsumenckich procesorach Alder Lake, ale z kilkoma zauważalnymi zmianami. Po pierwsze zwiększono wielkość pamięci cache poziomu L2 - zamiast 1.25 MB (Alder Lake) w Sapphire Rapids znajdziemy 2 MB. Rdzeń Performance (tylko w układach przygotowanych z myślą o Data Center, a więc mowa w tym wypadku o Sapphire Rapids) będzie także zauważalnie bardziej dopakowany pod względem wsparcia obliczeń związanych z algorytmami sztucznej inteligencji. Procesor Xeon nowej generacji będzie także oferował nowy układ Matrix Engine, który w dużej mierze bazuje na instrukcjach Advanced Matrix Extensions. 

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [2]

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [3]

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [4]

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [5]

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [6]

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [7]

Intel Xe-HPG oraz XeSS - omówienie architektury kart graficznych ARC oraz techniki konkurencyjnej dla NVIDIA DLSS

Obecne generacje procesorów Xeon Scalable wykorzystują dwa rodzaje instrukcji do przyspieszania obliczeń związanych ze sztuczną inteligencją: AVX512_VNNI oraz AVX512_B16. Oba wspomniane rozszerzenia bazującą na instrukcjach AVX-512, podczas gdy AMX (Advanced Matrix Extensions) to samodzielne rozszerzenie z własną pamięcią oraz operacjami. Podczas Intel Architecture Day 2021, producent zademonstrował możliwości w dziedzinie obliczeń opartych na algorytmach sztucznej inteligencji. Przy wykorzystaniu rozszerzeń AVX512_VNNI, procesor Intel Xeon oferował do 256 operacji INT8 na każdy cykl i rdzeń układu. Przy przejściu na rozszerzenia Advanced Matrix Extensions, liczba wykonanych operacji INT8 w pojedynczym cyklu i rdzeniu procesora zwiększyła się 8-krotnie - do 2048 INT8.

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [8]

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [9]

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [10]

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [11]

Instrukcje typu Advanced Matrix Extensions, wprowadzają zupełnie nowy plik rejestru macierzowego z ośmioma rejestrami tensorowymi (macierzowymi), które nazywane są także kafelkami (tiles). Instrukcje AMX są zsynchronizowane w strumieniu instrukcji z operacjami ładowania/przechowywania pamięci dzięki kafelkom, które są spójne z dostępem do pamięci hosta. Podobnie jak inne rozszerzenia, AMX może być przeplatany innym kodem x86, a także innymi rozszerzeniami, takimi jak przykładowo AVX-512. Plik rejestrów macierzy składa się z ośmiu kafelek (tiles), gdzie każda płytka ma następujące nazwy: TMM0, TMM1, TMM2, TMM3, TMM4, TMM5, TMM6 oraz TMM7. Każdy z omawianych kafelków ma maksymalny rozmiar 16 wierszy na 64-bajtowe kolumny, co daje łączną pojemność 1 KB na rejestr oraz 8 KB dla całego pliku rejestru. Poprzez rejestr kontrolny płytek (TILECFG), programista jest w stanie skonfigurować rozmiar tych płytek (w kategoriach wierszy oraz bajtów na wiersz).

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [12]

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [13]

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [14]

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [15]

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [16]

Procesory Intel Sapphire Rapids posiadają także dodatkowe moduły do sprzętowej akceleracji wykonywanych zadań, umożliwiające odciążenie zadań trybu wspólnego i w ten sposób zwiększanie efektywności rdzeni Performance. Jednym z głównych modułów akceleracji, zaszyty w procesorach Sapphire Rapids jest Intel Data Streaming Accelerator (DSA) - zaprojektowany w celu odciążenia najczęstszych zadań związanych z ruchem danych, które powodują koszty ogólne widoczne we wdrożeniach na skalę centrum danych. Intel DSA usprawnia przetwarzanie tych zadań w celu zwiększenia ogólnej wydajności pracy i może przenosić dane między procesorem, pamięcią i cache, a także wszystkimi podłączonymi urządzeniami pamięciowymi, magazynowymi i sieciowymi. Obecność silnika DSA umożliwia wykonanie o 39% więcej cykli przez rdzenie CPU. Drugi moduł zaimplementowany w Sapphire Rapids to tzw. Intel Quick Assist Technology Acceleration Engine (Intel QAT), którego zadaniem jest przyspieszanie obliczeń związanych z kryptografią oraz kompresją/dekompresją danych. Jego użycie sprawia, że procesor wciąż posiada do 98% wolnych zasobów na przetwarzanie kolejnych zadań.

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [17]

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [18]

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [19]

Intel Sapphire Rapids - rewolucyjna architektura procesorów serwerowych. Producent zdradza pierwsze szczegóły [20]

Oprócz sprzętowej akceleracji dla obliczeń AI oraz wbudowanych modułów przyspieszające akcelerację konkretnych zadań, procesory serwerowe Intel Sapphire Rapids zaoferują także inne nowości. Przede wszystkim wsparcie dla pamięci DDR5, interfejsu PCIe 5.0 oraz będą oferować natywną obsługę standardu Compute Express Link (CXL). Omawiana technologia pozwala procesorom oraz innym układom tj. SoC, GPU oraz FPGA komunikować się bezpośrednio ze sobą, a także koordynować proces współdzielenia pamięci. Jedną z najważniejszych funkcjonalności Compute Express Linku jest transmitowanie danych w trybie asynchronicznym. Początkowo serwerowe układy Sapphire Rapids będą korzystać z 8-kanałowego kontrolera pamięci DDR5. W późniejszym czasie pojawią się także dodatkowe jednostki, wyposażone w pamięć HBM o wysokiej przepustowości - na każdy socket będzie to 64 GB o przepustowości 1 TB/s. Według producenta w niektórych zadaniach obecność własnej pamięci HBM spowoduje brak konieczności wykorzystania podstawowych modułów DDR5.

Źródło: PurePC.pl
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 25

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.