Helix sprawi, że roboty humanoidalne staną się lepsze. Nowy model AI umożliwia im pracę z obiektami, których nigdy nie widziały
Nowości ze świata tzw. sztucznej inteligencji pomagają również rozwijać dziedzinę robotyki. Roboty humanoidalne mają obecnie problemy z podejmowaniem nowych zadań w domach, gdyż w tych znajduje się zazwyczaj spora liczba przedmiotów. Jeśli robot wcześniej czegoś nie widział, to ciężko skierować wobec tego jakieś polecenie. Rozwiązaniem ma się okazać nowy model AI, który nie tylko przeskakuje ten problem, ale i pozwala koordynować pracę dwóch robotów naraz.
Amerykańska firma Figure zaprezentowała nowy model VLA o nazwie Helix, który pozwala kontrolować pracę górnych części robotów humanoidalnych i może działać jednocześnie na dwóch modelach. Dzięki niemu roboty są w stanie wykonać polecenia głosowe nawet na rzeczach, których nie znają.
Unitree G1 - humanoidalny robot, który imponuje możliwościami. Model szykuje się do masowej produkcji
Helix to model VLA (Vision-Language-Action), a więc taki, który potrafi odpowiednio przetworzyć obraz, zrozumieć mowę, a także wykonać konkretne działania w stosunku do usłyszanego polecenia (np. podnieś przedmiot X i połóż go w odpowiednim miejscu). Jak już wspomniano, jest on w stanie kontrolować wszystkie górne części robotów humanoidalnych (nawet tak małe, jak palce). Na dodatek mówimy tu o pierwszym systemie, który może funkcjonować na dwóch robotach jednocześnie i synchronizować ich pracę - nawet w przypadku przedmiotów, z którymi nigdy wcześniej nie mieli okazji się zapoznać. Wystarczy więc wydać proste polecenie, a roboty zaczną wspólne działania, co możemy zobaczyć na poniższym materiale. Całość co prawda nie wygląda zbyt imponująco pod względem szybkości wykonywanych ruchów, natomiast warto mieć na uwadze, że roboty nie były szkolone do pracy z przedstawionymi obiektami i jest to początkowa faza nowego modelu.
Tesla Optimus Gen 2 - nowa generacja robota humanoidalnego od Elona Muska. Filmy Sci-Fi coraz bliżej rzeczywistości
Helix korzysta z procesorów graficznych, które pobierają niewiele energii. Składa się on z dwóch systemów: jeden (System 2 - S2; 7 mld parametrów) został wstępnie wyszkolony w Internecie, działa z częstotliwością 7-9 herców i rozumie język oraz sceny; drugi (System 1 - S1; 80 mln parametrów) przetwarza informacje z pierwszego, aby przełożyć je na wykonywanie ruchów (częstotliwość 200 herców). Wszystko jest bardzo dobrze zorganizowane, a twórcy mówią, że jest to tylko wierzchołek góry lodowej i pracują nad zwiększeniem możliwości Helixa. Bardziej szczegółowe omówienie nowości (w języku angielskim) znajdziemy pod tym adresem.
Powiązane publikacje

ARM ma już 40 lat. Architektura, która zasila smartfony, serwery i roboty, trafiła do ponad 250 miliardów urządzeń
22
Anthropic chce zajrzeć do wnętrza AI. Czy do 2027 roku odkryjemy, jak naprawdę myślą modele językowe?
22
Firma Elona Muska xAI chce pozyskać 25 miliardów dolarów na budowę superkomputera Colossus 2 z milionem GPU NVIDIA
60
Nowatorski interfejs mózg-komputer od Georgia Tech może zmienić sposób, w jaki ludzie komunikują się z technologią i otoczeniem
4