OpenAI zaprezentowało następcę ChatGPT. Model GPT-4 ma znacznie większe możliwości, w tym multimedialne. Rozumie nawet memy
Świat z zainteresowaniem śledzi losy rozwoju modelu językowego sztucznej inteligencji autorstwa firmy OpenAI (pracującej przy wsparciu Microsoftu). Już od dłuższego czasu zapowiadano nową wersję ChatGPT (opartego na GPT-3.5) oznaczonego cyfrą cztery. Kwestia ta ma bowiem znaczenie znacznie większe niż technologiczne. Działalność AI będzie mieć wpływ na rynek pracy, sposób pozyskiwania informacji i system edukacji - oprogramowanie będzie mieć znaczenie dla wszystkich.
14 marca 2023 roku OpenAI zaprezentowało światu możliwości nowego modelu GPT-4. Sztuczna inteligencja w nowym wydaniu rozumie więcej, popełnia mniej błędów oraz jest w stanie analizować oraz generować treści multimedialne. W tej chwili GPT-4 jest dostępny wyłącznie dla płatnych subskrybentów usługi, jak też właśnie z tej wersji będzie korzystać Bing, wyszukiwarka i chatbot Microsoftu.
ChatGPT wkracza do smartwatchy. Oto aplikacja WatchGPT, którą można synchronizować z asystentem głosowym Siri
Produkt w tej chwili jest na tyle zaawansowany, że odróżnienie działania wersji GPT-3.5 od GPT-4.0 nie jest możliwe podczas prostej rozmowy. Różnica ujawnia się dopiero wtedy, gdy przekroczony zostanie pewien próg złożoności zadania, którego poprzednie wydanie nie było w stanie osiągnąć. Odpowiedzi mają być ponadto bardziej naturalne i zbliżone do naturalnej konwersacji z człowiekiem. W związku z tym GPT-4 jest w stanie otrzymać pozytywny rezultat w przypadku egzaminów, w których dotychczasowo sztuczna inteligencja radziła sobie przeciętnie, jak na przykład sprawdziany umiejętności w zawodach prawniczych. W czasie oficjalnej prezentacji model radził sobie na przykład z poradą podatkową czy podsumowaniem w jednym zdaniu dłuższego tekstu złożonego ze słów zaczynających się na jedną literę.
ChatGPT - komercjalizacja usługi będzie wymagała gigantycznej liczby układów graficznych NVIDII
Równie interesująco zapowiadają się możliwości związane z analizą multimediów. Dotychczasowo z dziełem OpenAI można było porozumieć się wyłącznie za pomocą słów. W tej chwili oprogramowanie rozszerzyło zakres dostępnych danych wejściowych i jest w stanie wyjaśnić, czemu dany obrazek może być postrzegany jako zabawny (jak zdjęcie wiewiórki z aparatem fotograficznym). Niektóre opcje związane z obrazem nie działają jeszcze tak dobrze jak w przypadku DALL-E czy Midjourney, jednak już teraz robią wrażenie. Dla przykładu, wystarczy wyciąć kadr z filmu, by otrzymać informacje, jacy aktorzy znajdują się na ekranie w danej scenie. Ogólny pozytywny odbiór nowości mogą zakłócić jednak pytania o efekty środowiskowe. Już jedno zapytanie GPT-3.5 wymagało znacznych pokładów mocy (a więc energii) w stosunku do klasycznych zapytań wyszukiwarek. Rewolucja ma zatem swoje koszty, które należy zrównoważyć poprzez postęp w innych dziedzinach.