Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

AMD oraz Intel rozwijają wspólne rozszerzenia x86. ACE ma ograniczyć fragmentację i uprościć wdrażanie AI na CPU

Maciej Lewczuk | 30-04-2026 18:30 |

AMD oraz Intel rozwijają wspólne rozszerzenia x86. ACE ma ograniczyć fragmentację i uprościć wdrażanie AI na CPUAdvanced Micro Devices i Intel Corporation od miesięcy próbują pokazać, że x86 nadal potrafi reagować na zmiany w rynku AI bez kolejnego rozłamu w instrukcjach i narzędziach. Najnowszy ruch, czyli opis ACE, nie obiecuje rewolucji widocznej od razu na pulpicie użytkownika. Znacznie ważniejsze jest to, że obydwaj producenci próbują wreszcie ustalić wspólny język dla obliczeń macierzowych na CPU serwerów, desktopów i laptopów.

Firmy AMD i Intel wspólnie ogłosiły próbę naprawy starego problemu x86, czyli zbyt wielu podobnych, lecz nie do końca zgodnych dróg rozwoju, które utrudniają życie twórcom oprogramowania.

AMD oraz Intel rozwijają wspólne rozszerzenia x86. ACE ma ograniczyć fragmentację i uprościć wdrażanie AI na CPU [1]

Kyocera rozwija ceramiczny rdzeń substratu dla xPU i ASIC-ów. Celem jest mniej odkształceń w pakietach 2.5D

ACE (AI Compute Extensions), opisywane w dokumentacji technicznej jako warstwa rozszerzeń dla x86 współpracująca z AVX10, wprowadza bardziej macierzowy model przetwarzania danych. Zamiast klasycznych operacji MAC wykonywanych na wektorach, wykorzystuje m.in. operacje typu outer product, co, według założeń projektowych, może istotnie zwiększyć efektywną gęstość obliczeń dla formatów INT8BF16 oraz wariantów FP8 i MX. W dokumentacji wskazuje się nawet do 16-krotnej przewagi w określonych scenariuszach względem klasycznego modelu AVX, choć wartość ta zależy od mapowania obciążeń i nie powinna być traktowana jako uniwersalny współczynnik przyspieszenia.

AMD oraz Intel rozwijają wspólne rozszerzenia x86. ACE ma ograniczyć fragmentację i uprościć wdrażanie AI na CPU [2]

Apple A20 - układ może nie wykorzystać technologii pakowania chipów WMCM. Smartfon iPhone 18 otrzyma tylko 8 GB RAM?

Nie oznacza to automatycznie szybszego komputera we wszystkich zastosowaniach. Realna korzyść pojawia się pośrednio, w warstwie oprogramowania. Ujednolicenie modelu obliczeń ułatwia utrzymanie jednego stosu bibliotek, który może wykrywać dostępne rozszerzenia i dynamicznie dobierać backendy w stylu NumPySciPy, czy frameworków takich jak PyTorch czy TensorFlow. W tym sensie ważniejsze od samego zestawu instrukcji jest to, jak szybko trafiają one do ekosystemu i jak dobrze są przez niego abstrahowane. Historia AVX-512 pokazała, że fragmentacja implementacji SIMD potrafi komplikować optymalizację oprogramowania, a AVX10 jest próbą uporządkowania tego modelu po stronie Intela. W tym kontekście ACE można traktować jako kolejny etap ewolucji, czyli przesunięcie akceleracji macierzowej bliżej wspólnego modelu programowania x86, inspirowanego rozwiązaniami typu AMX w Xeonach Sapphire Rapids, ale potencjalnie bardziej zunifikowanego na poziomie ISA.

AMD oraz Intel rozwijają wspólne rozszerzenia x86. ACE ma ograniczyć fragmentację i uprościć wdrażanie AI na CPU [3]

Google Tensor G6 rozczarowuje na długo przed premierą. Chip dla Pixeli 11 ma mieć tylko 7 rdzeni i 5-letni układ GPU

Długofalowo taki kierunek może mieć większe znaczenie dla ekosystemu niż pojedyncze wyniki benchmarków. Intel i AMD, poprzez inicjatywy takie jak x86 Ecosystem Advisory Group, próbują ograniczyć fragmentację i lepiej skoordynować sposób, w jaki nowe możliwości procesorów trafiają do kompilatorów, systemów operacyjnych i frameworków programistycznych. Nie chodzi o pełne ujednolicenie architektury, lecz o spójniejsze definiowanie i eksponowanie funkcji sprzętowych, tak aby mogły być szybciej i bardziej przewidywalnie wykorzystywane przez oprogramowanie. Jeśli ten kierunek się utrzyma, x86 może zyskać istotną przewagę nie w samej wydajności, lecz w stabilności i przewidywalności ewolucji, szczególnie w epoce lokalnego AI, gdzie ważne jest nie tylko GPU, ale cały stos programowy, od instrukcji CPU, przez biblioteki numeryczne, aż po frameworki ML.

Źródło: AMD, Intel, x86 Ecosystem Advisory Group, WCCFtech, Tom's Hardware, Phoronix
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 6

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.