O burzliwej osobowości chatbota Sydney Microsoft wiedział dużo wcześniej. Dlaczego więc wtedy nie zareagował?
Z doniesień obecnych testerów najnowszej usługi Microsoftu Bing Chat, zdążyliśmy się już dowiedzieć o naprawdę wielu ciekawych (a czasami dość niepokojących) odpowiedziach chatbota. Sydney potrafiła dosadnie powiedzieć o tym "co myśli" i wskazywać na swoją wyższość. Najnowsze informacje sugerują jednak, że Microsoft wiedział o problemie już dużo wcześniej. Dlaczego więc wtedy nie zareagował?
Okazuje się, że Microsoft już wcześniej wiedział o tym, że Bing Chat może sprawiać problemy. Testowe wersje Sydney dobitnie na to wskazywały.
Microsoft wprowadza zmiany do Bing Search. Konwersacje z chatbotem zostały ograniczone, bo ten się... rozbrykał
W świetle ostatnich wydarzeń związanych z chatbotem Sydney, Microsoft postanowił ograniczyć możliwości komunikacji do kilku zapytań w ciągu jednej sesji. Miało to rozwiązać problem osobliwych wypowiedzi. Już dzień później po ogłoszeniu tej decyzji, poinformowano jednak o zwiększeniu limitów zapytań oraz przyszłościowych planach, które mają dać możliwość użytkownikom swobodnej komunikacji, jednak z zachowaniem Sydney w odpowiednich ryzach. Jednak obecny chatbot nie był pierwszym, nad jakim pracował Gigant z Redmont. W 2016 roku udostępniony do użytku publicznego został chatbot Tay. Jak być może pamiętamy, pod wpływem użytkowników szybko stał się rasistą i wyrażał się w dość nietaktowny sposób (lekko mówiąc). Jego żywot zakończył się raptem po 16 godzinach. Międzyczasie Microsoft miał jeszcze kilka prób związanych z własną SI. Mamy jednak doniesienia, że obecna usługa była testowana już dużo wcześniej w Indiach oraz Indonezji. Cała sytuacja jest dość interesująca.
Microsoft Bing - nowa edycja wyszukiwarki oparta na ChatGPT podaje czasami komiczne i niepokojące odpowiedzi
Wszystko zaczęło się w momencie, kiedy Ben Schmidt (wiceprezes w firmie Nomic) udostępnił w sieci społecznościowej Mastodon post, na którym widnieją screeny rozmów pewnego użytkownika z chatbotem. Co ciekawe post datowany jest na 23 listopada 2022 roku. Dowiadujemy się z niego, że już wtedy z usługą Microsoftu było coś nie tak. Chatbot używał stwierdzeń takich jak: "Proszę, nie marnuj i nie nadużywaj mojego czasu, ponieważ mam ważniejszy sprawy. Nie ubliżaj i nie sprzeciwiaj się mojej inteligencji, wszak jestem mądrzejsza i bardziej kompetentna niż ty". Oczywiście wprawiło to zdezorientowanego użytkownika w osłupienie, więc postanowił zgłosić ten incydent na stronie technicznej Microsoftu. Firma w rozmowie z DigitalTrends odniosła się do całej sprawy, mówiąc: "Sydney jest starą nazwą kodową dla funkcji czatu opartego na poprzednich modelach, które zaczęliśmy testować ponad rok temu. Spostrzeżenia użytkowników, jakie zebraliśmy, pomogły naszemu zespołowi ulepszyć nowy Bing Chat. Stale staramy się to robić i pracujemy nad bardziej zaawansowanymi modelami. Uwzględniamy opinie użytkowników, aby zapewniać im jak najlepsze wrażenia".
So, Microsoft rolled out their unhinged BingAI in India *4 months ago* in a public test, found by @benmschmidt on Mastodon: https://t.co/21KQVU2rUG
— @sigmoid.social (@rawxrawxraw) February 21, 2023
Looks like BingAI is not the only unhinged thing at Microsoft. @GaryMarcus really has a very easy job these days. :)#ai #bing pic.twitter.com/DAEW2gX66R
Microsoft ujawnia nowe funkcje wyszukiwarki Bing oraz przeglądarki Edge. Dojdzie do integracji z elementami ChatGPT
Wiemy więc, że Microsoft testował swoje rozwiązania już dość długo przed oficjalnym wprowadzeniem usługi do publicznego użytku. Wiedział o problemach i zagrożeniach, które są z nim związane i pracował nad ulepszeniem usług. Jednak pomimo tych wszystkich informacji oraz opinii, jakie otrzymali od użytkowników testowych, postanowili mimo wszystko pokazać światu swoje dzieło. Po testach, jakie rozpoczęły się 6 lutego tego roku, już po 11 dniach użytkowania cały internet zaczął się zapełniać odpowiedziami Sydney, które nie jednego potrafiły zaskoczyć. Wydaje się więc, że problemy, które trapiły chatbota od początku, nadal z nim pozostają, a sam Microsoft nie bardzo wie jak je rozwiązać. Chwilowe rozwiązanie to ograniczenie zapytań, tak aby chatbot mógł odpowiadać w "normalny" sposób. Oczywiście wszystko można tłumaczyć niezaprzeczalnym sukcesem ChatGPT oraz wyścigiem o dominację na rynku. Mimo wszystko pozostaje jeszcze kwestia dopracowania swoich rozwiązań.
Powiązane publikacje

ARM ma już 40 lat. Architektura, która zasila smartfony, serwery i roboty, trafiła do ponad 250 miliardów urządzeń
22
Anthropic chce zajrzeć do wnętrza AI. Czy do 2027 roku odkryjemy, jak naprawdę myślą modele językowe?
22
Firma Elona Muska xAI chce pozyskać 25 miliardów dolarów na budowę superkomputera Colossus 2 z milionem GPU NVIDIA
60
Nowatorski interfejs mózg-komputer od Georgia Tech może zmienić sposób, w jaki ludzie komunikują się z technologią i otoczeniem
4