Jak skorzystać z DeepSeek-R1 za darmo? Lokalna instalacja nowych modeli AI jest bardzo prosta. Zobacz krótki poradnik
Rodzina dużych modeli językowych DeepSeek-R1 wciąż wywołuje niemałe poruszenie na świecie. Nawet bezpośrednia konkurencja, a więc OpenAI, przyznała, że możliwości flagowego modelu z tej serii są "imponujące" - szczególnie jeśli zestawimy je z kosztami, jakie trzeba ponieść przez korzystanie z interfejsu API (kwota za milion wyjściowych tokenów to zaledwie ułamek tego, co trzeba zapłacić w przypadku modelu OpenAI o1). Firma DeepSeek udostępniła wszystkie modele z nowej linii zupełnie za darmo i możemy z nich skorzystać na swoim własnym komputerze. Nie warto się nastawiać na to, że sprawdzimy największy model, ale zapewne będziemy w stanie lokalnie uruchomić mniejsze warianty.
Modele z rodziny DeepSeek-R1 są dostępne za darmo i łatwo można z nich skorzystać na swoim komputerze. Wystarczy chwila, aby stworzyć chatbota, który będzie działał lokalnie, więc o prywatność nie trzeba się martwić.
DeepSeek zmienia oblicze rynku AI przez serię DeepSeek-R1. NVIDIA traci miliardy dolarów, a pozycja OpenAI wydaje się zagrożona
Do lokalnego uruchomienia nowych dużych modeli językowych od firmy DeepSeek wystarczy posłużyć się programem o nazwie Ollama. To darmowe oprogramowanie daje nam dostęp do pokaźnej bazy LLM, które można w bardzo łatwy sposób pobierać, a następnie z nich korzystać. Najpierw musimy przejść pod ten adres i nacisnąć przycisk Download. Ollama dostępna jest dla różnych dystrybucji opartych na jądrze Linux, a także systemu macOS oraz Windows. W pierwszym przypadku wystarczy uruchomić terminal i wykonać widoczne na stronie polecenie. W dwóch ostatnich po prostu pobieramy instalator, włączamy go i przechodzimy przez standardowy proces instalacji. Tuż po niej wystarczy uruchomić terminal i wpisać polecenie ollama pull nazwa_modelu. Kiedy wybrany przez nas model zostanie pobrany, wpisujemy ollama run nazwa_modelu, aby zacząć z niego korzystać.
Liczba parametrów | Rozmiar | Komenda do instalacji | Komenda do uruchomienia | |
DeepSeek-R1 | 1,5 mld | 1,1 GB | ollama pull deepseek-r1:1.5b | ollama run deepseek-r1:1.5b |
DeepSeek-R1 | 7 mld | 4,7 GB | ollama pull deepseek-r1:7b | ollama run deepseek-r1:7b |
DeepSeek-R1 | 8 mld | 4,9 GB | ollama pull deepseek-r1:8b | ollama run deepseek-r1:8b |
DeepSeek-R1 | 14 mld | 9,0 GB | ollama pull deepseek-r1:14b | ollama run deepseek-r1:14b |
DeepSeek-R1 | 32 mld | 20 GB | ollama pull deepseek-r1:32b | ollama run deepseek-r1:32b |
DeepSeek-R1 | 70 mld | 43 GB | ollama pull deepseek-r1:70b | ollama run deepseek-r1:70b |
DeepSeek-R1 | 671 mld | 404 GB | ollama pull deepseek-r1:671b | ollama run deepseek-r1:671b |
GPT-4o mini - nowy model językowy od OpenAI. Sztuczna inteligencja staje się przystępniejsza cenowo
Warto mieć na uwadze, że im niższa liczba parametrów, tym mniejsze możliwości danego modelu językowego, ale za to wymagania co do pamięci VRAM też będą niższe. Ponadto najmniejsze modele mogą się zapętlać w "myśleniu" (można więc pominąć edycje z 1,5, 7 oraz 8 mld parametrów - z testów przeprowadzonych przez redakcję The Register). Model DeepSeek-R1 z 14 mld parametrów zużyje ok. 10,6 GB pamięci VRAM, z kolei wariant z 32 mld parametrów wykorzysta już 21,3 GB podczas działania (NVIDIA GeForce RTX 4090 radzi sobie z nim bez problemu, ale za to większy model jest już zbyt dużym wyzwaniem). Oczywiście najlepiej wypada pełna, flagowa edycja z 671 mld parametrów, natomiast na konsumenckich układach graficznych nie ma sensu brać go pod uwagę.
Polecenie | |
Uruchomienie usługi Ollama | ollama serve |
Instalacja modelu językowego | ollama pull nazwa_modelu |
Uruchomienie (+ewentualna instalacja) modelu językowego | ollama run nazwa_modelu |
Wyjście z konwersacji z modelem językowym | /bye |
Usunięcie modelu językowego | ollama rm nazwa_modelu |
Lista wszystkich zainstalowanych modeli | ollama list |
Wyświetlanie działającego modelu językowego | ollama ps |
Wersja programu Ollama | ollama -v |
Licencja danego modelu językowego | ollama show nazwa_modelu --license |
Powiązane publikacje

CrystalMark Retro 2.0.0 to nowa wersja kultowego benchmarku z obsługą systemów od Microsoft Windows 95 do Windows 11
13
Google Gemini 2.5 Pro dostępny za darmo. Nowy model AI zaskakuje wynikami w testach i multimodalnością
24
Apple planuje rewolucję w aplikacji Zdrowie, wprowadzając wirtualnego lekarza wykorzystującego sztuczną inteligencję
24
Przeglądarka internetowa Vivaldi integruje się z Proton VPN. Użytkownicy mogą stać się bardziej anonimowi w Internecie
142