Anthropic chce zajrzeć do wnętrza AI. Czy do 2027 roku odkryjemy, jak naprawdę myślą modele językowe?
Wraz z rosnącym znaczeniem technologii wykorzystujących AI, coraz częściej pojawiają się pytania o sposób ich projektowania i dalszy rozwój. Przejrzystość, bezpieczeństwo i odpowiedzialność stają się tematami, które interesują nie tylko specjalistów, lecz także opinię publiczną. Nowe inicjatywy badawcze podejmowane przez twórców modeli językowych mogą w najbliższych latach zmienić sposób myślenia o systemach AI i ich zastosowaniach.
Rozwój AI bez zrozumienia jej działania jest nie do przyjęcia. Musimy wiedzieć, jak te systemy podejmują decyzje – Dario Amodei, CEO Anthropic.
Anthropic Claude zyskał dostęp do internetu. Nowa funkcja zwiększa użyteczność AI w codziennych zastosowaniach
Anthropic, jedna z najważniejszych firm zajmujących się rozwojem bezpiecznej i zrównoważonej sztucznej inteligencji, ogłosiła nowy cel strategiczny. Do 2027 roku chce znacząco poszerzyć rozumienie tego, jak modele językowe podejmują decyzje. Szef firmy, Dario Amodei, w obszernym wpisie na blogu zatytułowanym The Urgency of Interpretability, porównał obecny stan badań nad AI do budowania reaktora jądrowego bez schematów i narzędzi diagnostycznych. Podkreślił, że sztuczna inteligencja stała się zbyt potężna, aby nadal traktować ją jako „czarną skrzynkę”, której wewnętrzne procesy pozostają dla ludzi nieczytelne. Według Amodei, ignorowanie tego problemu może prowadzić do realnych zagrożeń, zwłaszcza że modele są coraz bardziej autonomiczne, a także wykorzystywane w wrażliwych sektorach, takich jak bezpieczeństwo narodowe, medycyna czy finanse.
Nadchodzą chatboty, które będą działać 10x szybciej od obecnych. Mercury to pierwsza seria dLLM, która to udowadnia
Plany Anthropic są bardziej konkretne niż większość dotychczasowych deklaracji branży AI w tym zakresie. Firma nie tylko określiła ramy czasowe (2027), ale także wskazała realne podejścia badawcze, które już testuje. Wśród nich są m.in. metody pozwalające mapować działanie poszczególnych neuronów w dużych modelach językowych, analiza powtarzalnych wzorców w podejmowaniu decyzji przez AI oraz testowanie narzędzi typu mechanistic interpretability. Jednym z przykładów jest projekt próbujący przypisać „znaczenie” konkretnym fragmentom sieci neuronowej. Celem jest ustalenie, czy można systematycznie rozpoznać, które części modelu odpowiadają za konkretne działania lub odpowiedzi. Choć to wciąż badania podstawowe, zdaniem Anthropic, sukces w tej dziedzinie mógłby zmienić sposób, w jaki tworzy się i kontroluje zaawansowane modele AI. Firma liczy też na współpracę z innymi graczami, zarówno środowiskami akademickimi, jak też i partnerami z branży technologicznej.
Powiązane publikacje

Przenośny laser o mocy 250 W zbudowany przez YouTubera z części policyjnego radaru i układów chłodzenia PC
26
Crew Dragon z zapasowym systemem lądowania i kompozytową osłoną termiczną. SpaceX i NASA szykują się do historycznego startu
0
Implant mózgowy BrainGate2 pozwala sparaliżowanym mówić i śpiewać. Technologia UC Davis działa błyskawicznie i dokładnie
9
Doktorant MIT opracował system AI do odrestaurowania obrazów. Jest 66 razy szybszy od tradycyjnych metod konserwatorskich
44