Broadcom i CAMB.AI projektują chipset z NPU do tłumaczenia audio w czasie rzeczywistym bez dostępu do chmury
W erze wszechobecnej AI toczymy nieustanną walkę o to, gdzie faktycznie przetwarzane są dane. Chmura, choć potężna, zawsze rodzi pytania o prywatność, szybkość i stabilność połączenia. Teraz wkracza Broadcom, ważny dostawca układów dla urządzeń domowej rozrywki, który właśnie ogłosił współpracę, mającą szansę zrewolucjonizować jeden z najbardziej pożądanych elementów nowoczesnej technologii, czyli tłumaczenie audio w czasie rzeczywistym.
Nasza misja w CAMB.AI zawsze polegała na przełamywaniu barier językowych dla 8 miliardów ludzi na całym świecie - powiedział Akshat Prakash, współzałożyciel i CTO CAMB.AI.
Broadcom zaprojektuje dla OpenAI dedykowane akceleratory AI. Celem jest uniezależnienie się od NVIDII i redukcja kosztów
Wyobraź sobie, że oglądasz francuskiego youtubera, a Twój telewizor na bieżąco tłumaczy jego wypowiedzi bez łączenia się z internetem. To właśnie zapowiadają Broadcom i CAMB.AI, partnerstwo, które może odmienić sposób konsumowania zagranicznych treści. Projektant półprzewodników ogłosił współpracę z kalifornijskim startupem nad integracją zaawansowanych modeli AI bezpośrednio w układach SoC. Całość ma działać lokalnie, eliminując opóźnienia i obawy o prywatność. Nowy chipset Broadcom z zintegrowanym NPU otrzymał obsługę technologii CAMB.AI, startupu znanego z projektów dla NASCAR, Comcast NBCUniversal czy Eurowizji. W sercu rozwiązania leżą dwa modele AI, MARS (emulacja głosu i synteza mowy) oraz BOLI (tłumaczenie). Mają one zamienić zwykłe dekodery i routery w wielojęzyczne centra rozrywki obsługujące ponad 150 języków.
Intel 18A przyciąga uwagę. NVIDIA i Broadcom testują nowy proces, otwierając drogę do potencjalnej współpracy
Najważniejsze jest przetwarzanie całkowicie na urządzeniu końcowym, co oznacza że żadne dane nie trafiają do zewnętrznych serwerów. To oznacza ogromne zmniejszenie opóźnień, wzmocnioną prywatność i zmniejszone zapotrzebowanie na przepustowość sieci. Demonstracyjne wideo pokazuje AI opisujące scenę z "Ratatouille" w różnych językach. Rozwiązanie trafia przede wszystkim do osób z problemami związanymi ze wzrokiem, ale jego potencjał sięga znacznie dalej. Czytelnicy znają już NPU z procesorów MediaTek Dimensity czy inicjatywę Copilot+ PC. Współpraca Broadcom z CAMB.AI idzie dalej, wdrażając wyspecjalizowane modele językowe bezpośrednio do chipsetów konsumenckich. To różnica wobec Google Pixel czy Galaxy, gdzie tłumaczenia czasem wymagają częściowego dostępu do chmury.
Okulary Ray-Ban Meta z funkcjami AI. Tłumaczenia na żywo i integracja z Instagramem dostępne w kolejnych krajach
Broadcom nie podał daty premiery, ale przypomina, że jego chipy działają już w pół miliarda urządzeń na całym świecie, czyli dekoderach telewizyjnych, routerach i sprzęcie internetowym. Jeśli integracja się powiedzie, miliony gospodarstw mogłyby zyskać funkcję tłumaczenia poprzez aktualizację oprogramowania. Pozostaje pytanie o dokładność w rzeczywistych scenariuszach. CAMB.AI chwali się zachowaniem tonu i emocji, ale brak niezależnych testów porównawczych z Google Translate czy DeepL. Broadcom i CAMB.AI będą musieli udowodnić, że technologia sprawdzi się nie tylko w warunkach demonstracyjnych, ale też w codziennym użytkowaniu.
Powiązane publikacje

AMD Ryzen 7 9850X3D - specyfikacja nie kryje już przed nami tajemnic. To będzie wymarzony chip dla graczy
60
Samsung zapowiada autorski chip Exynos 2600. Układ zasili nadchodzące smartfony z serii Galaxy S26
21
AMD ma podnieść ceny procesorów Ryzen 9000, a także starszych modeli. To może być ostatni dobry moment na zakup
110
Z litografii Intel 18A-P może skorzystać firma Apple do produkcji kolejnych generacji procesorów dla MacBooków Air i iPadów
21







![Broadcom i CAMB.AI projektują chipset z NPU do tłumaczenia audio w czasie rzeczywistym bez dostępu do chmury [1]](/image/news/2025/11/12_broadcom_i_camb_ai_projektuja_chipset_z_npu_do_tlumaczenia_audio_w_czasie_rzeczywistym_bez_dostepu_do_chmury_0.jpg)
![Broadcom i CAMB.AI projektują chipset z NPU do tłumaczenia audio w czasie rzeczywistym bez dostępu do chmury [2]](/image/news/2025/11/12_broadcom_i_camb_ai_projektuja_chipset_z_npu_do_tlumaczenia_audio_w_czasie_rzeczywistym_bez_dostepu_do_chmury_1.jpg)





