Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

llm

Meta ogłosiła, że zacznie wykorzystywać dane użytkowników z Unii Europejskiej do trenowania modeli sztucznej inteligencji

Meta ogłosiła, że zacznie wykorzystywać dane użytkowników z Unii Europejskiej do trenowania modeli sztucznej inteligencji

Od dawna wiadomo, że w sieci nie jesteśmy anonimowi, a nasze dane są zbierane przez liczne podmioty, takie jak Google, Meta czy Microsoft. Choć w Europie chroni nas rozporządzenie RODO, w dobie dynamicznego rozwoju sztucznej inteligencji jego skuteczność coraz częściej bywa ograniczona. Tymczasem Meta, właściciel platform takich jak Facebook, Instagram i WhatsApp - oficjalnie ogłosiła, że rozpocznie agregację danych użytkowników w celu szkolenia modeli LLaMA.

Micron i NVIDIA łączą siły. Nowe pamięci HBM3E i SOCAMM dla centrów danych i AI

Micron i NVIDIA łączą siły. Nowe pamięci HBM3E i SOCAMM dla centrów danych i AI

Micron ogłasza współpracę z NVIDIA, dostarczając pamięci HBM3E i SOCAMM dla nowej generacji serwerów AI i centrów danych. HBM3E 12H 36GB została zoptymalizowana pod kątem NVIDIA GB300 Grace Blackwell, a HBM3E 8H 24GB będzie wspierać HGX B200 i GB200 NVL72. Dzięki 1,2 TB/s przepustowości nowe moduły zapewnią wyższą wydajność AI i HPC. Micron zapowiedział także LPDDR5X SOCAMM, nowy format pamięci serwerowej dla rozwiązań AI i edge computing.

SK hynix prezentuje na NVIDIA GTC 2025 przełomowe technologie pamięci przeznaczone dla AI

SK hynix prezentuje na NVIDIA GTC 2025 przełomowe technologie pamięci przeznaczone dla AI

Podczas konferencji GTC 2025 SK hynix zaprezentował 12-warstwową pamięć HBM3E oraz SOCAMM, nowy standard dla serwerów AI. Nowe moduły zapewnią 60% wyższą wydajność i ponad 2 TB/s przepustowości, wspierając rozwój nowej generacji AI. SK hynix ogłosił również, że masowa produkcja HBM4 ruszy w drugiej połowie 2025 roku, a technologia ta znajdzie zastosowanie w przyszłych układach NVIDIA Rubin.

Nowy Mac Studio już dostępny. Apple M4 Max lub Apple M3 Ultra, porty Thunderbolt 5 i nawet 512 GB RAM

Nowy Mac Studio już dostępny. Apple M4 Max lub Apple M3 Ultra, porty Thunderbolt 5 i nawet 512 GB RAM

Apple wprowadziło w ostatnim czasie wiele nowych produktów do swojej oferty i można je już nabyć w ramach przedsprzedaży. Należą do nich: MacBook Air (M4), iPad (A16), a także iPad Air (M3). Lista na tych urządzeniach się jednak nie kończy, gdyż ostatnią nowością jest nowy Mac Studio, którego Apple nazywa 'najpotężniejszym komputerem Mac, jaki kiedykolwiek stworzyli'. Produkt jest na tyle wszechstronny, że sprawdzi się do zadań kreatywnych, jak również do lokalnej obsługi AI.

Nadchodzą chatboty, które będą działać 10x szybciej od obecnych. Mercury to pierwsza seria dLLM, która to udowadnia

Nadchodzą chatboty, które będą działać 10x szybciej od obecnych. Mercury to pierwsza seria dLLM, która to udowadnia

Niemal wszystkie dzisiejsze małe i duże modele językowe opierają się na tej samej metodzie działania - niemal, gdyż właśnie zadebiutowała nowość od Inception Labs, która funkcjonuje w inny, choć całkiem znany sposób, tyle że z innego segmentu tzw. sztucznej inteligencji. Mowa o rodzinie dyfuzyjnych dużych modeli językowych (dLLM) o nazwie Mercury. Zamiast generować tekst od lewej do prawej, dane wyjściowe są wydobywane z szumu. Taki proces ma wiele zalet.

OpenAI prezentuje GPT-4.5. Największy model AI już dostępny dla subskrybentów ChatGPT Pro. Większa wiedza i naturalne rozmowy

OpenAI prezentuje GPT-4.5. Największy model AI już dostępny dla subskrybentów ChatGPT Pro. Większa wiedza i naturalne rozmowy

Zgodnie z wcześniejszymi zapowiedziami firma OpenAI zaprezentowała nowy duży model językowy o nazwie GPT-4.5, który jest już dostępny do przetestowania dla niektórych użytkowników usługi ChatGPT. Nowość nie jest taka jak poprzednicy. Model nie będzie mógł bowiem dłużej zastanowić się nad udzieleniem odpowiedzi, ale konwersacja z nim ma być naturalniejsza, a zakres wiedzy dużo większy. Ponadto oczekuje się, że nie będzie mieć tylu halucynacji, co jego bracia.

Claude 3.7 Sonnet oraz Claude Code - nowości od Anthropic dla programistów. Łatwiejsze pisanie i sprawdzanie kodu

Claude 3.7 Sonnet oraz Claude Code - nowości od Anthropic dla programistów. Łatwiejsze pisanie i sprawdzanie kodu

Firma Anthropic zaprezentowała nowy, duży model językowy, który ma się okazać sporą pomocą dla programistów - choć nie tylko. Tytułowy Claude 3.7 Sonnet jest bowiem pierwszym hybrydowym modelem, który szybko wykonuje proste zadania, ale jest w stanie się także dłużej zastanowić, jeśli zajdzie taka potrzeba. Wraz z ogłoszeniem tej nowości przedstawiono także narzędzie Claude Code, które jest agentem kodowania. Pozwoli pisać i sprawdzać kod, ale możliwości są większe.

Mimo debiutu DeepSeek-R1 usługa ChatGPT zyskała na popularności. Nowe statystyki od OpenAI i zapowiedź GPT-5

Mimo debiutu DeepSeek-R1 usługa ChatGPT zyskała na popularności. Nowe statystyki od OpenAI i zapowiedź GPT-5

Rok 2025 zaczął się od dość poważnego przetasowania na rynku tzw. sztucznej inteligencji. Na początku pojawił się duży model językowy DeepSeek-R1, który ma możliwości płatnych modeli, a jest dostępny za darmo. Nie tak dawno zadebiutował Grok 3 od xAI, który z kolei został wytrenowany na setkach tysięcy akceleratorów NVIDIA H100 i prezentuje sobą całkiem wysoki poziom. W nowej rzeczywistości musi się odnaleźć OpenAI, które właśnie ogłosiło nadchodzące zmiany.

Grok 3 zadebiutował. Nowy model AI od Elona Muska ma być lepszy od innych. Skorzystał z setek tysięcy akceleratorów NVIDIA H100

Grok 3 zadebiutował. Nowy model AI od Elona Muska ma być lepszy od innych. Skorzystał z setek tysięcy akceleratorów NVIDIA H100

Najnowsza generacja dużych modeli językowych od firmy xAI, która zarządzana jest przez Elona Muska, doczekała się swojej oficjalnej premiery. Mowa o tytułowej rodzinie Grok 3, w skład której wchodzi kilka modeli. Wyróżnia się ona na tle innych rozwiązań głównie tym, że została wyszkolona na naprawdę ogromnej liczbie akceleratorów od przedsiębiorstwa NVIDIA. Możliwości mają być większe od obecnej konkurencji, takiej jak Gemini 2.0 Pro, DeepSeek-V3, a także GPT-4o.

Jak skorzystać z DeepSeek-R1 za darmo? Lokalna instalacja nowych modeli AI jest bardzo prosta. Zobacz krótki poradnik

Jak skorzystać z DeepSeek-R1 za darmo? Lokalna instalacja nowych modeli AI jest bardzo prosta. Zobacz krótki poradnik

Rodzina dużych modeli językowych DeepSeek-R1 wciąż wywołuje niemałe poruszenie na świecie. Nawet bezpośrednia konkurencja, a więc OpenAI, przyznała, że możliwości flagowego modelu z tej serii są "imponujące" - szczególnie jeśli zestawimy je z kosztami, jakie trzeba ponieść przez korzystanie z interfejsu API (kwota za milion wyjściowych tokenów to zaledwie ułamek tego, co trzeba zapłacić w przypadku modelu OpenAI o1). Firma DeepSeek udostępniła wszystkie modele z nowej linii zupełnie za darmo...

DeepSeek zmienia oblicze rynku AI przez serię DeepSeek-R1. NVIDIA traci miliardy dolarów, a pozycja OpenAI wydaje się zagrożona

DeepSeek zmienia oblicze rynku AI przez serię DeepSeek-R1. NVIDIA traci miliardy dolarów, a pozycja OpenAI wydaje się zagrożona

Ostatnie dni w segmencie sztucznej inteligencji były bardzo burzliwe i mocno wpłynęły na pozycję rynkową takich gigantów technologicznych, jak NVIDIA. Wszystko przez serię dużych modeli językowych DeepSeek-R1, która została przedstawiona przez chińską firmę o niemal tej samej nazwie. Nowość wskazywała, że za niską kwotę można wyszkolić LLM, które będzie dorównywało OpenAI o1. Koszt skorzystania z niej przez interfejs API jest też o wiele niższy od konkurencyjnego modelu OpenAI.

NVIDIA prezentuje Project DIGITS. Komputer do obsługi AI ze 128 GB RAM, który łączy architekturę Grace i Blackwell

NVIDIA prezentuje Project DIGITS. Komputer do obsługi AI ze 128 GB RAM, który łączy architekturę Grace i Blackwell

Wydawać by się mogło, że na targach CES 2025 NVIDIA zaprezentowała już wszystkie nowości. Tymczasem okazuje się, że oprócz nowych kart graficznych NVIDIA GeForce RTX z serii 50 i technik z nimi związanych (takich jak DLSS 4), już wkrótce na rynek konsumencki wkroczy mały komputer, który został przystosowany do obsługi sztucznej inteligencji, a konkretniej dużych modeli językowych. Za wydajność odpowiadać będzie specjalny SoC, przy którego tworzeniu uczestniczył MediaTek.

Moore Threads MTT X300 - chińska karta graficzna, którą stworzono do edycji wideo oraz oprogramowania CAD

Moore Threads MTT X300 - chińska karta graficzna, którą stworzono do edycji wideo oraz oprogramowania CAD

Chińskie przedsiębiorstwo Moore Threads zaprezentowało nową kartę graficzną, która przeznaczona jest do zastosowań profesjonalnych. Mowa o obróbce wideo, projektowaniu (CAD), czy też modelowaniu informacji o budynkach (BIM). Firma zapewnia, że wydajność w zakresie przetwarzania grafiki 3D wzrosła kilkukrotnie w porównaniu z poprzednikiem - MTT S50. Nowość korzysta z architektury MUSA drugiej generacji i oferuje przyzwoitą pojemność pamięci VRAM.

Duży model językowy został z powodzeniem uruchomiony na systemie Windows 98 i wiekowym komputerze

Duży model językowy został z powodzeniem uruchomiony na systemie Windows 98 i wiekowym komputerze

Obliczenia powiązane ze sztuczną inteligencją zazwyczaj kojarzą się z koniecznością dysponowania olbrzymią mocą obliczeniową. W praktyce są już jednak dostępne na rynku modele językowe, które z powodzeniem działają na zwykłym sprzęcie. Rzadko jednak zdarza się, by ktoś próbował je uruchomić na wiekowym komputerze. Takiego przedsięwzięcia podjął się jeden z serwisów poświęconych AI. Rezultaty opublikowano na materiale wideo i blogu.

Sztuczna inteligencja uczy się korzystać z komputera. Anthropic zwiększa możliwości modelu Claude 3.5 Sonnet

Sztuczna inteligencja uczy się korzystać z komputera. Anthropic zwiększa możliwości modelu Claude 3.5 Sonnet

Rozwój dużych modeli językowych (LLM) przybiera dziś stosunkowo nowy kierunek. Zakres zrozumienia różnych zagadnień przez popularne chatboty staje się coraz lepszy, ale nie jest idealny. Jednak już teraz firmy pracują nad tym, aby modele AI były w stanie same obsługiwać komputer. Jedną z nich jest Anthropic, która udoskonaliła swój model Claude 3.5 Sonnet, aby mógł sprostać temu zadaniu. Przy okazji ogłoszono, że wkrótce stanie się dostępny model Claude 3.5 Haiku.

I-XRAY - wystarczy na kogoś spojrzeć, żeby sporo się o nim dowiedzieć. Możliwości modeli AI i okularów z kamerami

I-XRAY - wystarczy na kogoś spojrzeć, żeby sporo się o nim dowiedzieć. Możliwości modeli AI i okularów z kamerami

Zapewne większość osób pogodziła się już z tym, że w Internecie prywatność praktycznie nie istnieje. Dane o nas zbierane są na każdym kroku, a najczęściej wykorzystywanym do tego "narzędziem" są nasze smartfony. Odkąd mamy dostęp do dużych modeli językowych (LLM) kwestia prywatności stoi pod jeszcze większym znakiem zapytania. Kiedy sztuczna inteligencja otrzyma oczy w postaci kamer w okularach, jest w stanie szybko podać informacje o ludziach, których widzi.

Deepin 23 - nowa wersja oryginalnej dystrybucji Linuksa debiutuje. Świetny wygląd, wsparcie dla AI i lepszy system aktualizacji

Deepin 23 - nowa wersja oryginalnej dystrybucji Linuksa debiutuje. Świetny wygląd, wsparcie dla AI i lepszy system aktualizacji

Doczekaliśmy się premiery kolejnej wersji systemu deepin, który jest jedną z dystrybucji Linuksa opartych na Debianie. Oferuje on nam jednak autorskie środowisko graficzne, które wygląda bardzo nowocześnie i przypomina nieco Windowsa 11. Nowość wprowadza lepszą obsługę sprzętową, dodaje bogatsze opcje personalizacji, a także oddaje do użytku nowy system instalacji i aktualizacji, dzięki któremu po awarii łatwo można wrócić do w pełni funkcjonalnego systemu.

Grok-2 - kolejna rodzina modeli AI od firmy xAI. W benchmarku MMLU wypada lepiej od Gemini 1.5 Pro

Grok-2 - kolejna rodzina modeli AI od firmy xAI. W benchmarku MMLU wypada lepiej od Gemini 1.5 Pro

W świecie modeli językowych wciąż zachodzą spore postępy i kolejne odsłony oferują coraz lepsze możliwości, a przy tym nieco zmniejszają się ich halucynacje. Tym razem swoją premierę ma nowa generacja modeli AI Grok-2, za którą odpowiada firma xAI, a więc Elon Musk. Nowość jest dostępna we wczesnej wersji (beta) i to jedynie dla osób, które opłacają subskrypcję X Premium lub X Premium+. Natomiast już wkrótce z usługi będą mogły skorzystać także firmy.

GPT-4o mini - nowy model językowy od OpenAI. Sztuczna inteligencja staje się przystępniejsza cenowo

GPT-4o mini - nowy model językowy od OpenAI. Sztuczna inteligencja staje się przystępniejsza cenowo

Firma OpenAI, która odpowiada za stworzenie najpopularniejszego chatbota do tej pory, czyli usługi ChatGPT, ogłosiła właśnie dostępność nowego modelu językowego. Tytułowy GPT-4o mini przewyższa swoimi możliwościami model GPT-3.5 Turbo, a przy tym wymaga od niego dużo mniej zasobów do działania. Celem OpenAI jest teraz zwiększanie możliwości modeli AI przy jednoczesnym obniżaniu związanych z nimi kosztów. Sztuczna inteligencja ma być łatwo dostępna dla każdego.

Najpierw Apple, a teraz Meta. Kolejna firma wycofuje usługi AI z krajów Unii Europejskiej

Najpierw Apple, a teraz Meta. Kolejna firma wycofuje usługi AI z krajów Unii Europejskiej

Akt o rynkach cyfrowych został wprowadzony przez Komisję Europejską pod koniec 2022 roku. Jego celem jest zapobieganie sytuacji, w której duża firma nadużywałaby swojej dominującej pozycji. Nowe regulacje są nieco kłopotliwe do spełnienia dla niektórych przedsiębiorstw. Nie tak dawno Apple wyraziło obawy, że ich pakiet Apple Intelligence może nie zawitać w 2024 roku do krajów UE właśnie z uwagi na DMA. Teraz podobny komunikat, jednak dotyczący modelu AI, wydała Meta.

Dzisiejsze chatboty są dalekie od prawdziwej sztucznej inteligencji. System od OpenAI umieścił je na pierwszym poziomie

Dzisiejsze chatboty są dalekie od prawdziwej sztucznej inteligencji. System od OpenAI umieścił je na pierwszym poziomie

Mimo że chatbot ChatGPT, który ukazał się w listopadzie 2022 roku, uważany jest za początek rewolucji związanej ze sztuczną inteligencją, to zarówno jemu, jak i pozostałym rozwiązaniom opierającym się na dużych modelach językowych (LLM) wciąż wiele brakuje, aby określać ich tym mianem. OpenAI stworzyło wewnętrzny system, który określa możliwości modeli AI poprzez konkretne poziomy. Do osiągnięcia prawdziwej sztucznej inteligencji (AGI) pozostała jeszcze daleka droga.

Grok 3 - kolejna generacja modelu AI może się okazać rewolucyjna. Elon Musk wykorzysta tysiące układów NVIDIA H100

Grok 3 - kolejna generacja modelu AI może się okazać rewolucyjna. Elon Musk wykorzysta tysiące układów NVIDIA H100

Wyścig związany ze sztuczną inteligencją wciąż nabiera tempa. Kolejne firmy zakupują coraz więcej akceleratorów graficznych, które mają za zadanie wprowadzić na rynek modele AI o jeszcze większych możliwościach. Sporo wskazuje na to, że już wkrótce jednym z bardziej liczących się graczy na rynku zostanie startup xAI, za którym stoi Elon Musk. Wszystko przez nadchodzący model Grok 3, którego szkolenie odbędzie się na ogromnej ilości układów od NVIDII.

Gemma 2 - Google udostępnia zaawansowany otwarty model LLM, który stawia na efektywność działania

Gemma 2 - Google udostępnia zaawansowany otwarty model LLM, który stawia na efektywność działania

Na rynku sztucznej inteligencji trwa nieustannie wyścig zbrojeń. Dotyczy to zwłaszcza dużych modeli językowych, które z upływem czasu będą coraz bardziej zaawansowane. Jedną z firm, które prowadzą intensywne prace nad AI jest Google. Kilka miesięcy temu przedsiębiorstwo zaprezentowało model Gemma. Jest to stosunkowo lekkie rozwiązanie, które stawia na wydajność obliczeń i otwartość implementacji. Teraz zaprezentowano jego następcę, czyli Gemma 2.

Apple odrzuca partnerstwo z Metą. Llama nie zawita więc do ekosystemu - zamiast niego trafią tam modele od OpenAI i Google

Apple odrzuca partnerstwo z Metą. Llama nie zawita więc do ekosystemu - zamiast niego trafią tam modele od OpenAI i Google

Już wkrótce do ekosystemu firmy Apple zawitają usługi oparte na sztucznej inteligencji, które zbiorczo wejdą w skład pakietu Apple Intelligence. Przedsiębiorstwo pozwoli użytkownikom systemów iOS 18, iPadOS 18 oraz macOS Sequoia na skorzystanie nie tylko z ulepszonej asystentki Siri, ale również z modelu językowego od OpenAI, a mianowicie GPT-4o. Apple zintegruje z ekosystemem również inne modele AI, natomiast wśród nich nie znajdzie się Llama od Mety.

Stwórz własnego chatbota w 5 minut! Lokalna instalacja modeli językowych na Linuksie i Windowsie. Poradnik krok po kroku

Stwórz własnego chatbota w 5 minut! Lokalna instalacja modeli językowych na Linuksie i Windowsie. Poradnik krok po kroku

Usługi związane ze sztuczną inteligencją cały czas się rozwijają, a prym wśród nich wiodą chatboty, które są oparte na dużych modelach językowych (LLM). Najbardziej znanym jest oczywiście ten od firmy OpenAI, czyli ChatGPT, gdyż to on zapoczątkował całą rewolucję. Jednak chatboty mają wspólną cechę, która wiele osób skłania do tego, aby z nich nie korzystać - jest nią fakt, że wszystkie dane są przetwarzane w chmurze, więc nasze konwersacje z modelami językowymi nie są prywatne. Ba,...

Project Astra - Google przedstawia asystenta AI przyszłości. Na dodatek zapomniane Google Glass mają szansę powrócić

Project Astra - Google przedstawia asystenta AI przyszłości. Na dodatek zapomniane Google Glass mają szansę powrócić

Do tej pory asystenci głosowi nie byli specjalnie przydatni przez fakt, że nie oferowali zbyt dużej funkcjonalności. Owszem, Asystent Google pozwalał przy pomocy głosowych poleceń ustawić budzik, zadzwonić do wybranej osoby, wyszukać coś w internecie, czy opowiedzieć żart, ale na tych prostych czynnościach jego (i wielu innych rozwiązań) możliwości się kończyły. Powoli wkraczamy jednak w nową erę, w której asystenci AI będą mogli pomagać nam w każdej codziennej sprawie.

MediaTek Dimensity 9300+ - oficjalna premiera flagowego układu dla smartfonów. Lokalna obsługa LLM i nowy układ rdzeni

MediaTek Dimensity 9300+ - oficjalna premiera flagowego układu dla smartfonów. Lokalna obsługa LLM i nowy układ rdzeni

MediaTek oficjalnie zaprezentował swój nowy flagowy układ mobilny, o którym wiedzieliśmy już całkiem sporo z dotychczasowych doniesień. Aktualny wariant jest nieco odświeżoną edycją modelu Dimensity 9300, który zadebiutował pod koniec 2023 roku. Ponownie mamy więc do czynienia jedynie z wydajnymi rdzeniami - bez energooszczędnych. MediaTek skupił się też na aspekcie sztucznej inteligencji, a dokładniej na lokalnej obsłudze dużych modeli językowych.

Phi-3 - kolejna generacja modeli językowych od Microsoftu. Skorzystają z niej smartfony i mniej wydajne urządzenia

Phi-3 - kolejna generacja modeli językowych od Microsoftu. Skorzystają z niej smartfony i mniej wydajne urządzenia

Spośród obecnych modeli językowych wyróżnia się te o naprawdę dużych możliwościach, które charakteryzują się wysoką liczbą parametrów, a także ich mniejsze odpowiedniki. Do tej drugiej grupy należą rozwiązania, które nie wymagają do działania bardzo wydajnych urządzeń, ponieważ są w stanie funkcjonować nawet na smartfonach. Właśnie w tym segmencie pojawiła się kolejna generacja modeli od Microsoftu — tytułowa Phi-3.

Facebook, Instagram, WhatsApp i Messenger integrują się z asystentem Meta AI. Nowy model AI Llama 3 już dostępny

Facebook, Instagram, WhatsApp i Messenger integrują się z asystentem Meta AI. Nowy model AI Llama 3 już dostępny

„Sztuczna inteligencja” wkrada się do coraz większej liczby usług i nic nie wskazuje na to, żeby w najbliższym czasie miało się to zmienić. Jednak tym razem za dość spore zmiany odpowiada Mark Zuckerberg, a dokładniej jego firma Meta, więc będą one dotyczyły naprawdę wielu osób. Wraz z wprowadzeniem nowego modelu językowego Llama 3 został usprawniony wirtualny asystent Meta AI, który niebawem zawita we wszystkich usługach tego przedsiębiorstwa.

Humane AI Pin - następca smartfona jednak za szybko go nie zastąpi. Gadżet wykorzystujący AI okazał się totalną porażką

Humane AI Pin - następca smartfona jednak za szybko go nie zastąpi. Gadżet wykorzystujący AI okazał się totalną porażką

Odkąd mamy do czynienia z "rewolucją" w branży technologicznej spowodowaną dynamicznym rozwojem "sztucznej inteligencji", na rynku zaczęły się pojawiać kolejne gadżety, które miały się okazać tak samo rewolucyjne. Większość z nich opiera się na wykorzystaniu dużych modeli językowych (LLM), które leżą u podstaw chatbotów. Technologia ta jest w wielu aspektach niedopracowana, co przekłada się na jakość produktów. Do kolejnej porażki można zaliczyć Humane AI Pin.

Opera One - przeglądarka internetowa wprowadza lokalną obsługę modeli AI. Bez trudu stworzymy własnego chatbota

Opera One - przeglądarka internetowa wprowadza lokalną obsługę modeli AI. Bez trudu stworzymy własnego chatbota

Integracja swoich usług ze „sztuczną inteligencją” jest dziś priorytetem dla wielu firm, dlatego na rynku pojawia się coraz więcej adekwatnych aktualizacji różnego rodzaju oprogramowania. Tym razem nowej funkcji doczekała się Opera One, a więc przeglądarka internetowa, która już od 2023 roku skupia się wokół opcji związanych z AI. Nowością jest lokalna obsługa dużych modeli językowych (LLM), których można używać zamiast wbudowanego asystenta, jakim jest Aria Chat.

Model GPT-4 od OpenAI został zdetronizowany. Użytkownicy wybrali następnego króla, którym jest nowość od Anthropic

Model GPT-4 od OpenAI został zdetronizowany. Użytkownicy wybrali następnego króla, którym jest nowość od Anthropic

Dużych modeli językowych (LLM), a co za tym idzie także chatbotów, jest na rynku coraz więcej. Mimo że ich twórcy szczycą się możliwościami swoich produktów, to nie przedstawiają wyników, które byłyby interesujące dla typowego użytkownika. Istnieje jednak pewna platforma, która pozwala ocenić dany model w dużo ciekawszy sposób. Wynika z niej, że po raz pierwszy na tronie nie zasiada już LLM od OpenAI. Teraz króluje startup Anthropic z modelami z rodziny Claude 3.

NVIDIA oraz Inworld współpracują przy tworzeniu dema Covert Protocol, w którym AI ożywi postacie niezależne

NVIDIA oraz Inworld współpracują przy tworzeniu dema Covert Protocol, w którym AI ożywi postacie niezależne

W zeszłym roku zaprezentowano technologię NVIDIA ACE for Games, która może w przyszłości pozwolić na porzucenie tradycyjnych dialogów z postaciami niezależnymi w grach na rzecz otwartych i dynamicznych konwersacji. Ich bazą będzie oczywiście sztuczna inteligencja. Podczas GTC 2024 NVIDIA zapowiedziała wraz z firmą Inworld demo technologiczne Covert Protocol. Do ożywienia postaci wykorzystane zostanie zarówno ACE for Games, jak i inne technologie.

Przez sztuczną inteligencję przemawia rasizm i stereotypy. Test z udziałem modelu GPT-3.5 od OpenAI dobitnie to potwierdza

Przez sztuczną inteligencję przemawia rasizm i stereotypy. Test z udziałem modelu GPT-3.5 od OpenAI dobitnie to potwierdza

Wraz z wprowadzeniem na szerszą skalę dużych modeli językowych (LLM), wszystkie branże zaczęły się zmieniać od środka. Z jednej strony nowe narzędzia przyczyniły się do redukcji etatów, natomiast z drugiej aktualnie w wielu firmach służą do tego, aby zatrudniać nowe osoby. Panuje ogólne przekonanie, że „AI” jest mniej stronnicza od ludzi, kiedy analizuje wybrane CV, natomiast najnowsze badania świadczą o czymś zupełnie innym. Technologia ta kieruje się mocnymi uprzedzeniami.

Seeing AI - aplikacja dla niewidomych od Microsoftu trafia na Androida. Sztuczna inteligencja pozwoli im zobaczyć świat

Seeing AI - aplikacja dla niewidomych od Microsoftu trafia na Androida. Sztuczna inteligencja pozwoli im zobaczyć świat

Osoby niedowidzące oraz niewidome mają dość utrudnione życie w dzisiejszym świecie. Oczywiście do tej pory mogli liczyć na pewne ułatwienia, jednak aktualna technologia daje im dużo większe możliwości. Na systemie Android pojawiła się właśnie nowa aplikacja od Microsoftu, która nazywa się Seeing AI. Pozwala ona na identyfikowanie obiektów, scen i ludzi, którzy znajdują się przed kamerą smartfona, a następnie głosowe opisanie wybranych elementów przez asystenta AI.

Claude 3 - nowa rodzina modeli AI, która możliwościami przerasta GPT-4 od OpenAI. Rywal jest jednak tylko częściowo darmowy

Claude 3 - nowa rodzina modeli AI, która możliwościami przerasta GPT-4 od OpenAI. Rywal jest jednak tylko częściowo darmowy

Oprócz OpenAI, a więc jednego z największych graczy, jeśli chodzi o tworzenie dużych modeli językowych (LLM), na rynku istnieje jeszcze kilku innych zawodników, z których najbardziej spokrewnionym ze wspomnianą organizacją jest startup Anthropic. Utworzony został bowiem przez byłych członków OpenAI, a od końcówki 2023 roku wspierany jest przez firmy Amazon oraz Google. Właśnie ogłoszono kolejną generację modeli AI, a mianowicie Claude 3.

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.