Anthropic chce zajrzeć do wnętrza AI. Czy do 2027 roku odkryjemy, jak naprawdę myślą modele językowe?
Wraz z rosnącym znaczeniem technologii wykorzystujących AI, coraz częściej pojawiają się pytania o sposób ich projektowania i dalszy rozwój. Przejrzystość, bezpieczeństwo i odpowiedzialność stają się tematami, które interesują nie tylko specjalistów, lecz także opinię publiczną. Nowe inicjatywy badawcze podejmowane przez twórców modeli językowych mogą w najbliższych latach zmienić sposób myślenia o systemach AI i ich zastosowaniach.
Rozwój AI bez zrozumienia jej działania jest nie do przyjęcia. Musimy wiedzieć, jak te systemy podejmują decyzje – Dario Amodei, CEO Anthropic.
Anthropic Claude zyskał dostęp do internetu. Nowa funkcja zwiększa użyteczność AI w codziennych zastosowaniach
Anthropic, jedna z najważniejszych firm zajmujących się rozwojem bezpiecznej i zrównoważonej sztucznej inteligencji, ogłosiła nowy cel strategiczny. Do 2027 roku chce znacząco poszerzyć rozumienie tego, jak modele językowe podejmują decyzje. Szef firmy, Dario Amodei, w obszernym wpisie na blogu zatytułowanym The Urgency of Interpretability, porównał obecny stan badań nad AI do budowania reaktora jądrowego bez schematów i narzędzi diagnostycznych. Podkreślił, że sztuczna inteligencja stała się zbyt potężna, aby nadal traktować ją jako „czarną skrzynkę”, której wewnętrzne procesy pozostają dla ludzi nieczytelne. Według Amodei, ignorowanie tego problemu może prowadzić do realnych zagrożeń, zwłaszcza że modele są coraz bardziej autonomiczne, a także wykorzystywane w wrażliwych sektorach, takich jak bezpieczeństwo narodowe, medycyna czy finanse.
Nadchodzą chatboty, które będą działać 10x szybciej od obecnych. Mercury to pierwsza seria dLLM, która to udowadnia
Plany Anthropic są bardziej konkretne niż większość dotychczasowych deklaracji branży AI w tym zakresie. Firma nie tylko określiła ramy czasowe (2027), ale także wskazała realne podejścia badawcze, które już testuje. Wśród nich są m.in. metody pozwalające mapować działanie poszczególnych neuronów w dużych modelach językowych, analiza powtarzalnych wzorców w podejmowaniu decyzji przez AI oraz testowanie narzędzi typu mechanistic interpretability. Jednym z przykładów jest projekt próbujący przypisać „znaczenie” konkretnym fragmentom sieci neuronowej. Celem jest ustalenie, czy można systematycznie rozpoznać, które części modelu odpowiadają za konkretne działania lub odpowiedzi. Choć to wciąż badania podstawowe, zdaniem Anthropic, sukces w tej dziedzinie mógłby zmienić sposób, w jaki tworzy się i kontroluje zaawansowane modele AI. Firma liczy też na współpracę z innymi graczami, zarówno środowiskami akademickimi, jak też i partnerami z branży technologicznej.
Powiązane publikacje

ARM ma już 40 lat. Architektura, która zasila smartfony, serwery i roboty, trafiła do ponad 250 miliardów urządzeń
22
Firma Elona Muska xAI chce pozyskać 25 miliardów dolarów na budowę superkomputera Colossus 2 z milionem GPU NVIDIA
60
Nowatorski interfejs mózg-komputer od Georgia Tech może zmienić sposób, w jaki ludzie komunikują się z technologią i otoczeniem
4
Google uczy sztuczną inteligencję języka delfinów. Ambitny projekt może odmienić sposób, w jaki komunikujemy się ze zwierzętami
14