Implant mózgowy BrainGate2 pozwala sparaliżowanym mówić i śpiewać. Technologia UC Davis działa błyskawicznie i dokładnie
Interfejsy mózg-komputer przechodzą przez rewolucyjny okres rozwoju, otwierając nowe możliwości osobom z ciężkimi zaburzeniami komunikacji. Najnowsze osiągnięcia naukowców z UC Davis pokazują, jak AI w połączeniu z precyzyjnymi mikroelektrodami mogą przywracać zdolność mowy pacjentom z chorobami neurodegeneracyjnymi. Technologia ta wykracza poza dotychczasowe rozwiązania, oferując niemal natychmiastową syntezę głosu.
Nasza technologia pozwala użytkownikom neuroprotez na większe włączenie się w konwersację. Mogą na przykład przerywać rozmówcy, a ludzie rzadziej będą ich przypadkowo przerywać - Sergey Stavisky, UC Davis.
Doktorant MIT opracował system AI do odrestaurowania obrazów. Jest 66 razy szybszy od tradycyjnych metod konserwatorskich
Badacze z University of California Davis osiągnęli przełom w dziedzinie interfejsów mózg-komputer, opracowując system BrainGate2 umożliwiający niemal natychmiastową syntezę mowy bezpośrednio z sygnałów neuronalnych. Nowa technologia wykorzystuje cztery matryce mikroelektrodowe z łączną liczbą 256 elektrod, wszczepianych w lewy zakręt przedśrodkowy mózgu pacjenta z ALS (stwardnieniem zanikowym bocznym).
Firma Billa Gatesa TerraPower dostała 650 mln USD od NVIDII i innych na budowę komercyjnego reaktora chłodzonego sodem
System ten dekoduje próby wypowiedzi i przekształca je w słyszalną mowę w czasie poniżej 10 milisekund. To ogromny postęp w porównaniu z wcześniejszymi rozwiązaniami bazującymi na tekście. Najważniejszym osiągnięciem zespołu, którym kierują Sergey Stavisky i Maitreyee Wairagkar, jest precyzyjne dekodowanie nie tylko treści wypowiedzi, ale także cech ekspresyjnych mowy. Pacjent może kontrolować intonację, zadawać pytania poprzez podnoszenie tonu na końcu zdania, a nawet śpiewać proste melodie. Dokładność systemu osiąga 97% przy słowniku obejmującym 125 000 słów, znacznie przewyższając możliwości wcześniejszych interfejsów BCI. Na PurePC wielokrotnie informowaliśmy o postępach w tej dziedzinie, w tym o osiągnięciach firm Synchron, Georgia Tech, a także Neuralink.
Naukowcy zbudowali robota, który gra w badmintona lepiej niż większość ludzi. Zobacz, co potrafi ANYmal‑D od ETH Zurich
Obecnie przedstawione rozwiązanie UC Davis wyróżnia się szczególnie krótkim czasem odpowiedzi i możliwością kontroli ekspresji głosowej. Technologia wykorzystuje zaawansowane algorytmach głębokiego uczenia maszynowego, które analizują wzorce aktywności setek neuronów jednocześnie. System najpierw rejestruje sygnały z tych obszarów mózgu, które są odpowiedzialne za kontrolę mięśni traktu głosowego. Następnie neural decoder wyodrębnia cechy mowy takie jak wysokość dźwięku czy dźwięczność, a vocoder syntetyzuje dźwięk przypominający naturalny głos pacjenta sprzed choroby. W porównaniu z konkurencyjnymi rozwiązaniami, takimi jak system Neuralink, który niedawno otrzymał od FDA status breakthrough device dla aplikacji związanych z przywracaniem mowy, technologia UC Davis oferuje znacznie krótsze opóźnienia i większą swobodę ekspresji. Wyniki badań opublikowane w Nature pokazują, że słuchacze byli w stanie zrozumieć prawie 60% syntezowanych słów, podczas gdy bez wspomagania BCI zrozumiałość mowy pacjenta wynosiła jedyne 4%.
Powiązane publikacje

Doktorant MIT opracował system AI do odrestaurowania obrazów. Jest 66 razy szybszy od tradycyjnych metod konserwatorskich
43
Firma Billa Gatesa TerraPower dostała 650 mln USD od NVIDII i innych na budowę komercyjnego reaktora chłodzonego sodem
73
TSMC zapowiada CoPoS i PLP. Znacząca ewolucja, która pozwoli uzyskać więcej miejsca dla chipów
21
PCI-SIG finalizuje specyfikację PCI Express 7.0. Interfejs przygotowany jest na potrzeby systemów AI i cloud computing
42