Nadchodzą chatboty, które będą działać 10x szybciej od obecnych. Mercury to pierwsza seria dLLM, która to udowadnia
Niemal wszystkie dzisiejsze małe i duże modele językowe opierają się na tej samej metodzie działania - niemal, gdyż właśnie zadebiutowała nowość od Inception Labs, która funkcjonuje w inny, choć całkiem znany sposób, tyle że z innego segmentu tzw. sztucznej inteligencji. Mowa o rodzinie dyfuzyjnych dużych modeli językowych (dLLM) o nazwie Mercury. Zamiast generować tekst od lewej do prawej, dane wyjściowe są wydobywane z szumu. Taki proces ma wiele zalet.
Mercury to nowa rodzina dyfuzyjnych dużych modeli językowych, która została stworzona przez Inception Labs. Nowości opierają się na tym samym sposobie działania, co modele obrazu i wideo, takie jak Midjourney, czy Sora. Szybkość, potencjalnie mniejsze halucynacje i niższe koszty, to główne zalety.
OpenAI prezentuje GPT-4.5. Największy model AI już dostępny dla subskrybentów ChatGPT Pro. Większa wiedza i naturalne rozmowy
Dzisiejsze duże modele językowe (LLM) są autoregresyjne, a więc - jak już wspomniano - tworzą tekst od lewej do prawej i wykonują wszystko sekwencyjnie. Kolejny token (fragment tekstu) jest generowany dopiero po sfinalizowaniu poprzedniego. Metoda ta jest powszechnie używana, ale wymaga sporych zasobów obliczeniowych do działania, co zarazem zwiększa ogólne koszty. Inaczej jest z dyfuzyjnymi dużymi modelami językowymi (diffusion large language models - dLLM). Nie muszą one generować tekstu po kolei, gdyż wyjściowe dane są odszumiane - pozwala to na dużo szybszą pracę, a przy tym może się przyczynić do zmniejszenia halucynacji przez korygowanie błędów w trakcie całego procesu. Pierwsze komercyjne modele AI od Inception Labs, które są oparte na takiej metodzie działania, ujrzały właśnie światło dziennie.
Claude 3.7 Sonnet oraz Claude Code - nowości od Anthropic dla programistów. Łatwiejsze pisanie i sprawdzanie kodu
Mercury Coder, bo o tej rodzinie dLLM mowa, składa się z dwóch odsłon: Mini oraz Small. Nowości są w stanie działać od 5 do 10 razy szybciej od obecnych LLM. Z użyciem akceleratora NVIDIA H100 Mercury Coder Mini generuje odpowiedzi z prędkością ponad 1100 tokenów na sekundę - do takiej wartości żadne konkurencyjne rozwiązanie ze strony Google, Anthropic, DeepSeek, czy też OpenAI, po prostu nie ma podejścia. Modele są przystosowane do generowania kodu, a rozwiązanie można samemu przetestować pod tym adresem. Na utworzonej platformie możemy przy okazji uruchomić kod, co okazuje się naprawdę bardzo przydatne. Na koniec można dodać, że Inception Labs zostało utworzone przez profesorów z Uniwersytetu Stanforda, Uniwersytetu Kalifornijskiego, a także Uniwersytetu Cornella, a pracownicy pochodzą z takich firm jak NVIDIA, OpenAI, Microsoft, Meta, czy też z laboratorium badawczego Google DeepMind.
Powiązane publikacje

Duolingo stawia na AI. Chodzi o automatyzację procesów, a także redukcję kontraktorów w edukacyjnej rewolucji
22
Microsoft Recall oraz Click to Do trafiły do zapoznawczej aktualizacji Windowsa 11 dla komputerów Copilot+ AI
17
Dystrybucja OpenMandriva Lx 6.0 Rock już dostępna. Stabilna odsłona z KDE Plasma 6, która oferuje jądro Linux 6.15
28
Windows 11 - kwietniowe aktualizacje systemu i zabezpieczeń powodują błędy BSOD, a także problemy z logowaniem
78