Gemini 2.0 - debiut nowej rodziny modeli AI od Google. Lepsze możliwości multimodalne i funkcja Deep Research
Google zaprezentowało właśnie nową rodzinę modeli AI, która ostatecznie ma wprowadzić nowe możliwości. Ma, ponieważ na ten moment publicznie dostępny jest tylko jeden wariant, który nie zapewnia dostępu do wszystkich funkcji. Gemini 2.0 zaoferuje zwiększone natywne możliwości multimodalne, a przy tym seria umożliwi nam posługiwanie się agentami AI. Możemy liczyć na lepszą wydajność oraz niższe opóźnienia niż do tej pory.
Nowa seria modeli AI Gemini 2.0 jest już częściowo dostępna. Szybsza praca łączy się ze zwiększonymi możliwościami multimodalnymi. Cała rodzina da początek agentom AI oraz asystentowi, który zbada za nas złożone kwestie.
Gemini - Google prezentuje nowy, multimodalny model sztucznej inteligencji. Możliwościami wyprzedza ChatGPT
Z nowej rodziny Gemini 2.0 obecnie dostępny jest tylko Gemini 2.0 Flash Experimental. Możemy z niego skorzystać poprzez chatbota Gemini, wybierając odpowiednią opcję w lewym górnym rogu. Jest on zoptymalizowany pod kątem czatu, a już wkrótce trafi także do aplikacji mobilnej. Oprócz tego deweloperzy mogą uzyskać do niego dostęp poprzez interfejs Gemini API w Google AI Studio oraz Vertex AI. Zarazem wprowadzony zostaje nowy interfejs Multimodal Live API, który jest w stanie obsłużyć dane w czasie rzeczywistym i umożliwia korzystanie z kilku połączonych narzędzi. Czego możemy więc spodziewać się po nowej wersji?
Gemini 1.5 Flash - nowa wersja chatbota dostępna za darmo. Google walczy z halucynacjami i zwiększa możliwości usługi
Gemini 2.0 Flash ma działać dwukrotnie szybciej niż Gemini 1.5 Pro, a przy tym w niektórych testach osiąga od niego lepsze wyniki. Wyróżnia go obsługa multimodalnych danych wejściowych, jak i wyjściowych. Może więc analizować obrazy, filmy i dźwięki, a oprócz tego jest w stanie „natywnie wygenerować obrazy połączone z tekstem oraz sterowalnym dźwiękiem TTS w wielu językach”. Nie będzie dla niego problemem skorzystanie z wyszukiwarki Google, wykonanie określonego kodu, czy też uruchomienie zewnętrznych funkcji, które zostaną określone przez użytkownika. Dodatkowo dostępna jest opcja Deep Research (tylko dla użytkowników Gemini Advanced), dzięki której będziemy mogli zbadać bardziej złożone kwestie i uzyskać raporty na ich temat. Gemini 2.0 Flash ma się stać ogólnie dostępny w styczniu 2025 roku, a przynajmniej taki jest plan firmy Google. Eksperymentalna wersja z chatbota Gemini zdaje się nie oferować wszystkich omawianych funkcji. Gemini 2.0 przysłuży się także do tworzenia agentów AI, ale o tym będziemy mogli przeczytać w następnym materiale.
Powiązane publikacje

Raport IFS Polska 2025 wskazuje, że Polski biznes stawia na AI jak nigdy dotąd. Problem? Większość firm działa na ślepo
17
Linux z kamieniem milowym na Steamie. Odnotowano rekordowy udział w ankiecie dotyczącej sprzętu i oprogramowania
18
Automatyczna moderacja YouTube uderza w kanały techniczne. Usunięto poradniki obejścia wymagań Windows 11
51
Meta Quest 3 i Quest 3S wykorzystają Windowsa 11 w innym wymiarze. Wirtualne monitory jak w Apple Vision Pro
17







![Gemini 2.0 - debiut nowej rodziny modeli AI od Google. Lepsze możliwości multimodalne i funkcja Deep Research [1]](/image/news/2024/12/11_gemini_2_0_debiut_nowej_rodziny_modeli_ai_od_google_lepsze_mozliwosci_multimodalne_i_funkcja_deep_research_0.jpg)
![Gemini 2.0 - debiut nowej rodziny modeli AI od Google. Lepsze możliwości multimodalne i funkcja Deep Research [2]](/image/news/2024/12/11_gemini_2_0_debiut_nowej_rodziny_modeli_ai_od_google_lepsze_mozliwosci_multimodalne_i_funkcja_deep_research_2.png)
![Gemini 2.0 - debiut nowej rodziny modeli AI od Google. Lepsze możliwości multimodalne i funkcja Deep Research [3]](/image/news/2024/12/11_gemini_2_0_debiut_nowej_rodziny_modeli_ai_od_google_lepsze_mozliwosci_multimodalne_i_funkcja_deep_research_1.jpg)





