OpenAI zaprezentowało następcę ChatGPT. Model GPT-4 ma znacznie większe możliwości, w tym multimedialne. Rozumie nawet memy
Świat z zainteresowaniem śledzi losy rozwoju modelu językowego sztucznej inteligencji autorstwa firmy OpenAI (pracującej przy wsparciu Microsoftu). Już od dłuższego czasu zapowiadano nową wersję ChatGPT (opartego na GPT-3.5) oznaczonego cyfrą cztery. Kwestia ta ma bowiem znaczenie znacznie większe niż technologiczne. Działalność AI będzie mieć wpływ na rynek pracy, sposób pozyskiwania informacji i system edukacji - oprogramowanie będzie mieć znaczenie dla wszystkich.
14 marca 2023 roku OpenAI zaprezentowało światu możliwości nowego modelu GPT-4. Sztuczna inteligencja w nowym wydaniu rozumie więcej, popełnia mniej błędów oraz jest w stanie analizować oraz generować treści multimedialne. W tej chwili GPT-4 jest dostępny wyłącznie dla płatnych subskrybentów usługi, jak też właśnie z tej wersji będzie korzystać Bing, wyszukiwarka i chatbot Microsoftu.
ChatGPT wkracza do smartwatchy. Oto aplikacja WatchGPT, którą można synchronizować z asystentem głosowym Siri
Produkt w tej chwili jest na tyle zaawansowany, że odróżnienie działania wersji GPT-3.5 od GPT-4.0 nie jest możliwe podczas prostej rozmowy. Różnica ujawnia się dopiero wtedy, gdy przekroczony zostanie pewien próg złożoności zadania, którego poprzednie wydanie nie było w stanie osiągnąć. Odpowiedzi mają być ponadto bardziej naturalne i zbliżone do naturalnej konwersacji z człowiekiem. W związku z tym GPT-4 jest w stanie otrzymać pozytywny rezultat w przypadku egzaminów, w których dotychczasowo sztuczna inteligencja radziła sobie przeciętnie, jak na przykład sprawdziany umiejętności w zawodach prawniczych. W czasie oficjalnej prezentacji model radził sobie na przykład z poradą podatkową czy podsumowaniem w jednym zdaniu dłuższego tekstu złożonego ze słów zaczynających się na jedną literę.
ChatGPT - komercjalizacja usługi będzie wymagała gigantycznej liczby układów graficznych NVIDII
Równie interesująco zapowiadają się możliwości związane z analizą multimediów. Dotychczasowo z dziełem OpenAI można było porozumieć się wyłącznie za pomocą słów. W tej chwili oprogramowanie rozszerzyło zakres dostępnych danych wejściowych i jest w stanie wyjaśnić, czemu dany obrazek może być postrzegany jako zabawny (jak zdjęcie wiewiórki z aparatem fotograficznym). Niektóre opcje związane z obrazem nie działają jeszcze tak dobrze jak w przypadku DALL-E czy Midjourney, jednak już teraz robią wrażenie. Dla przykładu, wystarczy wyciąć kadr z filmu, by otrzymać informacje, jacy aktorzy znajdują się na ekranie w danej scenie. Ogólny pozytywny odbiór nowości mogą zakłócić jednak pytania o efekty środowiskowe. Już jedno zapytanie GPT-3.5 wymagało znacznych pokładów mocy (a więc energii) w stosunku do klasycznych zapytań wyszukiwarek. Rewolucja ma zatem swoje koszty, które należy zrównoważyć poprzez postęp w innych dziedzinach.
Powiązane publikacje

Mniej szklany Liquid Glass na iPhonie, iPadzie i MacBookach. Opcja w wersji 26.1 poprawia czytelność interfejsu
2
Desktopowa aplikacja Messenger przestanie działać na Windows i macOS. Do tego WhatsApp na Windows stanie się wolniejszy
11
Lepsza obsługa NTFS na Linuksie? Oto nowy sterownik ntfsplus, który ma to zapewnić. Jak wypada na tle ntfs3?
24
Microsoft PowerToys 0.95 już dostępny. Scyzoryk do Windowsa 10 i 11 ma teraz jeszcze większe możliwości
12