DeepSeek zmienia oblicze rynku AI przez serię DeepSeek-R1. NVIDIA traci miliardy dolarów, a pozycja OpenAI wydaje się zagrożona
Ostatnie dni w segmencie sztucznej inteligencji były bardzo burzliwe i mocno wpłynęły na pozycję rynkową takich gigantów technologicznych, jak NVIDIA. Wszystko przez serię dużych modeli językowych DeepSeek-R1, która została przedstawiona przez chińską firmę o niemal tej samej nazwie. Nowość wskazywała, że za niską kwotę można wyszkolić LLM, które będzie dorównywało OpenAI o1. Koszt skorzystania z niej przez interfejs API jest też o wiele niższy od konkurencyjnego modelu OpenAI.
Chińska firma DeepSeek dokonuje sporego przetasowania na rynku sztucznej inteligencji. Wprowadziła bowiem rodzinę modeli językowych o nazwie DeepSeek-R1, która jest dostępna za darmo, ma zbliżone możliwości do OpenAI o1 i mogła nie wymagać dużych nakładów finansowych do szkolenia.
OpenAI wkracza w erę agentów AI. Sztuczna inteligencja zrobi, o co prosisz... o ile jej zapłacisz. Operator już dostępny w USA
Słowem wstępu: rodzina DeepSeek-R1 składa się z dużych modeli językowych, które mogą się "zastanowić" przed udzieleniem odpowiedzi. Dzięki temu mają być one trafniejsze, a przy tym uzyskujemy wgląd do procesu myślowego. Nowy LLM został zbudowany na fundamencie modelu DeepSeek-V3 - ten z kolei miał zostać wyszkolony zaledwie na 2048 akceleratorach (z wyliczeń The Next Platform) NVIDIA H800 (rodzina Hopper, a dziś można już kupić modele z serii Blackwell), a szacowany koszt szkolenia miał wynieść tylko 5,576 mln dolarów (w tym przypadku pod uwagę wzięto szacunkowe opłaty za wypożyczenie akceleratorów NVIDIA H800 na ten czas, a przy tym mowa wyłącznie o kosztach oficjalnego szkolenia - bez wcześniej prowadzonych badań i eksperymentów). Nadal jednak jest to niezwykle niska kwota, biorąc pod uwagę ten rynek. Cała rodzina DeepSeek-R1 została udostępniona za darmo, więc bez problemu sami możemy z niej skorzystać (a przynajmniej z mniejszych odsłon, gdyż wariant z 671 mld parametrów potrzebuje naprawdę wydajnego zaplecza sprzętowego).
NVIDIA prezentuje Project DIGITS. Komputer do obsługi AI ze 128 GB RAM, który łączy architekturę Grace i Blackwell
Jak możemy zauważyć na powyższej grafice, dostęp do DeepSeek-R1 przez interfejs API jest o wiele tańszy, niż w przypadku OpenAI o1. Za milion wyjściowych tokenów w pierwszym przypadku trzeba bowiem zapłacić 2,19 dolarów, z kolei w drugim jest to aż 60 dolarów (warto jednak napomknąć, że DeepSeek-V3 jest jeszcze tańszy od "R1"). Potencjalnie niższe koszty szkolenia, a przy tym możliwość użycia starszych akceleratorów NVIDII wywołały spore zamieszanie na rynku. Nie ma pewności, czy informacje od DeepSeek dotyczące szacunkowych kosztów szkolenia, a zarazem użytych akceleratorów są prawdziwe. Niemniej jednak wiadomości te mocno wpłynęły na rynek sztucznej inteligencji. Skoro za ułamek kwoty, jaką OpenAI wydaje na tworzenie i szkolenie swoich modeli, można uzyskać podobne efekty, a dodatkowo nie trzeba korzystać z najdroższych akceleratorów od NVIDII... Kapitalizacja rynkowa tej ostatniej bardzo mocno spadła i obecnie wartość Zielonych w tym aspekcie wynosi ok. 2,968 biliona dolarów (jeszcze nie tak dawno było to prawie 3,4 biliona dolarów)
Powiązane publikacje

Kolejna kara dla Apple za nadużywanie swojej pozycji. Tym razem sprawa wiąże się z App Tracking Transparency
17
Szykują się podwyżki na rynku pamięci. Firma Micron oficjalnie informuje swoich klientów. Czy w ślad za nią pójdą inni?
32
Chiny prezentują pierwszy w pełni rodzimy serwer z procesorami Loongson 3C6000/D. 64 rdzenie i 100% krajowych komponentów
95
Bill Gates przewiduje, że sztuczna inteligencja zastąpi ludzi w większości zawodów w najbliższych 10 latach
158