Sam Altman odwiedził TSMC na Tajwanie w ramach planów produkcji własnych chipów AI w procesie 3 nm
Rozwój zaawansowanych modeli AI jest nierozerwalnie związany z dostępem do ogromnej mocy obliczeniowej. Obecnie rynek ten jest zdominowany przez jednego gracza, co rodzi problemy z dostępnością i warunkuje wysokie ceny komponentów. Najwięksi gracze w branży AI zaczynają więc szukać alternatyw. Jednym z nich jest OpenAI, które podejmuje coraz śmielsze kroki, aby zabezpieczyć swoją przyszłość sprzętową i zmniejszyć zależność od zewnętrznych dostawców.
Strategiczne działania firmy OpenAI, w tym rozmowy z TSMC i współpraca z Broadcom, jasno wskazują na dążenie do stworzenia własnego ekosystemu sprzętowego dla sztucznej inteligencji.
NVIDIA inwestuje 100 miliardów dolarów w OpenAI na budowę centrów danych o mocy 10 gigawatów z układami Vera Rubin
Firma OpenAI przyspiesza prace mające na celu zmniejszenie zależności od procesorów NVIDII poprzez rozwój własnych układów AI. Sam Altman, prezes firmy, odbył wizytę na Tajwanie, podczas której przeprowadził rozmowy z przedstawicielami Taiwan Semiconductor Manufacturing Company, a także Foxconn Technology Group. Spotkania dotyczyły dwóch głównych obszarów. Chodziło o produkcję autorskich procesorów AI OpenAI, jak również o szczegóły realizacji projektu Stargate.
OpenAI GPT-5-Codex. Specjalistyczny model do autonomicznego kodowania z dynamicznym czasem myślenia i integracją GitHub
Rozmowy z TSMC koncentrowały się na wykorzystaniu najnowszego procesu technologicznego 3 nm do produkcji pierwszych procesorów OpenAI. Wielokrotnie informowaliśmy o zaawansowanych technologiach TSMC, w tym o procesie 3 nm wykorzystywanym przez AMD EPYC Turin czy układy MediaTek Dimensity 9500. OpenAI planuje rozpocząć masową produkcję chipów w 2026 roku, współpracując z firmą Broadcom przy projektowaniu układów ASIC oznaczanych wewnętrznie jako XPU. Proces technologiczny 3 nm ma zapewnić wysoką wydajność przy relatywnie niskim zużyciu energii, co jest istotne dla centrum danych OpenAI.
ChatGPT z nowym mechanizmem kontroli dostępu. OpenAI testuje model AI do predykcji wieku użytkownika i opcję weryfikacji ID
Równocześnie OpenAI systematycznie rozbudowuje swój zespół sprzętowy, rekrutując specjalistów od procesorów Google Tensor Processing Unit. Richard Ho, były lider projektu Google Cloud TPU, objął stanowisko szefa działu sprzętowego OpenAI w listopadzie 2023 roku. W sierpniu 2025 roku dołączył do niego Safeen Huda, były inżynier oprogramowania Google TPU, który przez ponad sześć lat pracował nad optymalizacją energetyczną systemów akceleratorów wielkoskalowych. Zespół liczący około 40 osób ma za zadanie opracowanie rozwiązań konkurencyjnych wobec układów NVIDII, które obecnie dominują w segmencie AI.
Powiązane publikacje

Kalifornia przyjęła ustawę SB 53. Firmy AI mają publikować protokoły bezpieczeństwa i raporty incydentów krytycznych
2
Amazon, Apple i Microsoft muszą wyjaśnić zatrudnianie 50 tys. specjalistów H-1B po zwolnieniu dziesiątek tysięcy amerykanów
47
Rada Ministrów przyjęła nowelizację ustawy wdrażającej DSA. UKE i KRRiT otrzymają nowe uprawnienia do blokowania treści
123
NVIDIA inwestuje 100 miliardów dolarów w OpenAI na budowę centrów danych o mocy 10 gigawatów z układami Vera Rubin
39