Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

O burzliwej osobowości chatbota Sydney Microsoft wiedział dużo wcześniej. Dlaczego więc wtedy nie zareagował?

Natan Faleńczyk | 22-02-2023 19:00 |

O burzliwej osobowości chatbota Sydney Microsoft wiedział dużo wcześniej. Dlaczego więc wtedy nie zareagował?Z doniesień obecnych testerów najnowszej usługi Microsoftu Bing Chat, zdążyliśmy się już dowiedzieć o naprawdę wielu ciekawych (a czasami dość niepokojących) odpowiedziach chatbota. Sydney potrafiła dosadnie powiedzieć o tym "co myśli" i wskazywać na swoją wyższość. Najnowsze informacje sugerują jednak, że Microsoft wiedział o problemie już dużo wcześniej. Dlaczego więc wtedy nie zareagował?

Okazuje się, że Microsoft już wcześniej wiedział o tym, że Bing Chat może sprawiać problemy. Testowe wersje Sydney dobitnie na to wskazywały.

O burzliwej osobowości chatbota Sydney Microsoft wiedział dużo wcześniej. Dlaczego więc wtedy nie zareagował? [1]

Microsoft wprowadza zmiany do Bing Search. Konwersacje z chatbotem zostały ograniczone, bo ten się... rozbrykał

W świetle ostatnich wydarzeń związanych z chatbotem Sydney, Microsoft postanowił ograniczyć możliwości komunikacji do kilku zapytań w ciągu jednej sesji. Miało to rozwiązać problem osobliwych wypowiedzi. Już dzień później po ogłoszeniu tej decyzji, poinformowano jednak o zwiększeniu limitów zapytań oraz przyszłościowych planach, które mają dać możliwość użytkownikom swobodnej komunikacji, jednak z zachowaniem Sydney w odpowiednich ryzach. Jednak obecny chatbot nie był pierwszym, nad jakim pracował Gigant z Redmont. W 2016 roku udostępniony do użytku publicznego został chatbot Tay. Jak być może pamiętamy, pod wpływem użytkowników szybko stał się rasistą i wyrażał się w dość nietaktowny sposób (lekko mówiąc). Jego żywot zakończył się raptem po 16 godzinach. Międzyczasie Microsoft miał jeszcze kilka prób związanych z własną SI. Mamy jednak doniesienia, że obecna usługa była testowana już dużo wcześniej w Indiach oraz Indonezji. Cała sytuacja jest dość interesująca.

O burzliwej osobowości chatbota Sydney Microsoft wiedział dużo wcześniej. Dlaczego więc wtedy nie zareagował? [2]

Microsoft Bing - nowa edycja wyszukiwarki oparta na ChatGPT podaje czasami komiczne i niepokojące odpowiedzi

Wszystko zaczęło się w momencie, kiedy Ben Schmidt (wiceprezes w firmie Nomic) udostępnił w sieci społecznościowej Mastodon post, na którym widnieją screeny rozmów pewnego użytkownika z chatbotem. Co ciekawe post datowany jest na 23 listopada 2022 roku. Dowiadujemy się z niego, że już wtedy z usługą Microsoftu było coś nie tak. Chatbot używał stwierdzeń takich jak: "Proszę, nie marnuj i nie nadużywaj mojego czasu, ponieważ mam ważniejszy sprawy. Nie ubliżaj i nie sprzeciwiaj się mojej inteligencji, wszak jestem mądrzejsza i bardziej kompetentna niż ty". Oczywiście wprawiło to zdezorientowanego użytkownika w osłupienie, więc postanowił zgłosić ten incydent na stronie technicznej Microsoftu. Firma w rozmowie z DigitalTrends odniosła się do całej sprawy, mówiąc: "Sydney jest starą nazwą kodową dla funkcji czatu opartego na poprzednich modelach, które zaczęliśmy testować ponad rok temu. Spostrzeżenia użytkowników, jakie zebraliśmy, pomogły naszemu zespołowi ulepszyć nowy Bing Chat. Stale staramy się to robić i pracujemy nad bardziej zaawansowanymi modelami. Uwzględniamy opinie użytkowników, aby zapewniać im jak najlepsze wrażenia".

O burzliwej osobowości chatbota Sydney Microsoft wiedział dużo wcześniej. Dlaczego więc wtedy nie zareagował? [3]

Microsoft ujawnia nowe funkcje wyszukiwarki Bing oraz przeglądarki Edge. Dojdzie do integracji z elementami ChatGPT

Wiemy więc, że Microsoft testował swoje rozwiązania już dość długo przed oficjalnym wprowadzeniem usługi do publicznego użytku. Wiedział o problemach i zagrożeniach, które są z nim związane i pracował nad ulepszeniem usług. Jednak pomimo tych wszystkich informacji oraz opinii, jakie otrzymali od użytkowników testowych, postanowili mimo wszystko pokazać światu swoje dzieło. Po testach, jakie rozpoczęły się 6 lutego tego roku, już po 11 dniach użytkowania cały internet zaczął się zapełniać odpowiedziami Sydney, które nie jednego potrafiły zaskoczyć. Wydaje się więc, że problemy, które trapiły chatbota od początku, nadal z nim pozostają, a sam Microsoft nie bardzo wie jak je rozwiązać. Chwilowe rozwiązanie to ograniczenie zapytań, tak aby chatbot mógł odpowiadać w "normalny" sposób. Oczywiście wszystko można tłumaczyć niezaprzeczalnym sukcesem ChatGPT oraz wyścigiem o dominację na rynku. Mimo wszystko pozostaje jeszcze kwestia dopracowania swoich rozwiązań.

Źródło: Digital Trends, Bloomberg, Mastodon
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 18

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.