Nadchodzą chatboty, które będą działać 10x szybciej od obecnych. Mercury to pierwsza seria dLLM, która to udowadnia
Niemal wszystkie dzisiejsze małe i duże modele językowe opierają się na tej samej metodzie działania - niemal, gdyż właśnie zadebiutowała nowość od Inception Labs, która funkcjonuje w inny, choć całkiem znany sposób, tyle że z innego segmentu tzw. sztucznej inteligencji. Mowa o rodzinie dyfuzyjnych dużych modeli językowych (dLLM) o nazwie Mercury. Zamiast generować tekst od lewej do prawej, dane wyjściowe są wydobywane z szumu. Taki proces ma wiele zalet.
Mercury to nowa rodzina dyfuzyjnych dużych modeli językowych, która została stworzona przez Inception Labs. Nowości opierają się na tym samym sposobie działania, co modele obrazu i wideo, takie jak Midjourney, czy Sora. Szybkość, potencjalnie mniejsze halucynacje i niższe koszty, to główne zalety.
OpenAI prezentuje GPT-4.5. Największy model AI już dostępny dla subskrybentów ChatGPT Pro. Większa wiedza i naturalne rozmowy
Dzisiejsze duże modele językowe (LLM) są autoregresyjne, a więc - jak już wspomniano - tworzą tekst od lewej do prawej i wykonują wszystko sekwencyjnie. Kolejny token (fragment tekstu) jest generowany dopiero po sfinalizowaniu poprzedniego. Metoda ta jest powszechnie używana, ale wymaga sporych zasobów obliczeniowych do działania, co zarazem zwiększa ogólne koszty. Inaczej jest z dyfuzyjnymi dużymi modelami językowymi (diffusion large language models - dLLM). Nie muszą one generować tekstu po kolei, gdyż wyjściowe dane są odszumiane - pozwala to na dużo szybszą pracę, a przy tym może się przyczynić do zmniejszenia halucynacji przez korygowanie błędów w trakcie całego procesu. Pierwsze komercyjne modele AI od Inception Labs, które są oparte na takiej metodzie działania, ujrzały właśnie światło dziennie.
Claude 3.7 Sonnet oraz Claude Code - nowości od Anthropic dla programistów. Łatwiejsze pisanie i sprawdzanie kodu
Mercury Coder, bo o tej rodzinie dLLM mowa, składa się z dwóch odsłon: Mini oraz Small. Nowości są w stanie działać od 5 do 10 razy szybciej od obecnych LLM. Z użyciem akceleratora NVIDIA H100 Mercury Coder Mini generuje odpowiedzi z prędkością ponad 1100 tokenów na sekundę - do takiej wartości żadne konkurencyjne rozwiązanie ze strony Google, Anthropic, DeepSeek, czy też OpenAI, po prostu nie ma podejścia. Modele są przystosowane do generowania kodu, a rozwiązanie można samemu przetestować pod tym adresem. Na utworzonej platformie możemy przy okazji uruchomić kod, co okazuje się naprawdę bardzo przydatne. Na koniec można dodać, że Inception Labs zostało utworzone przez profesorów z Uniwersytetu Stanforda, Uniwersytetu Kalifornijskiego, a także Uniwersytetu Cornella, a pracownicy pochodzą z takich firm jak NVIDIA, OpenAI, Microsoft, Meta, czy też z laboratorium badawczego Google DeepMind.
Powiązane publikacje

Jak dalej korzystać z Windows 10 za darmo? Microsoft daje nową opcję dla osób z Europy, która przedłuży wsparcie o rok
27
Audio2Face 3D udostępniony za darmo. NVIDIA otwiera kod źródłowy zaawansowanego systemu lip-sync wspomaganego AI
7
Ekosystem aplikacji dla Copilot+ PC dynamicznie rośnie. Microsoft potwierdza natywne wsparcie dla najważniejszych programów
14
Google Jules to autonomiczny agent AI korzystający z Gemini 2.5 Pro. Samodzielnie pisze, testuje i wdraża kod
32