Prawnik powołał się w sądzie na nieistniejące sprawy, które zostały wygenerowane przez... chatbota Google Bard
Dzisiejsze chatboty nie zawsze udzielają poprawnych odpowiedzi i nie można uznać tego źródła za całkowicie pewne i rzetelne. Wydawać by się mogło, że większość osób zdaje sobie z tego sprawę. Jednak okazuje się, że wcale tak nie jest. Dość głośna staje się właśnie sytuacja, w której to w sądzie użyto wygenerowanych przez chatbota Google Bard spraw sądowych. Kiedy wszystko wyszło na jaw, winny tej sytuacji stwierdził, że nie wiedział, że korzysta z chatbota.
Chatboty pokroju Google Bard, czy też ChatGPT nie dla każdego są w pełni zrozumiałe. Wiele osób uznaje ich odpowiedzi za absolutnie pewne i używa tych narzędzi w codziennym życiu. W pewnej sprawie sądowej posłużono się wynikami wyszukiwania z Google Barda, które były całkowicie zmyślone.
The New York Times pozywa Microsoft i OpenAI. Powodem jest naruszenie praw autorskich przez ChatGPT i Microsoft Copilot
Cała sytuacja jest spowodowana działaniami byłego prawnika Donalda Trumpa - Michaela Cohena. Swego czasu przyznał się on do wykonywania nielegalnych działań, stracił prawo do wykonywania zawodu i odbył karę więzienia. Teraz trwa proces w jego sprawie, aby wcześniej zakończyć nadzór sądowy. Obecnym prawnikiem Cohena jest David Schwartz. Wniosek sądowy o złagodzenie nadzoru zawierał jednak odwołanie do innych spraw, które po prostu nie istnieją. Okazuje się, że Michael Cohen korzystał z Google Barda, aby dokonać badań w swojej sprawie (dosł. research). Znalazł on wiele nieistniejących spraw, które podał swojemu prawnikowi Schwartzowi. Sędzia Jesse Furman od razu po zapoznaniu się z wnioskiem stwierdził, że cytaty odnoszą się do spraw, które nigdy nie miały miejsca. Padło również pytanie, czy Davidowi pomagał Michael w składaniu tego wniosku.
Apple nie może już sprzedawać swoich nowych smartwatchy. Wszystko przez kradzież opatentowanej technologii
W rezultacie Cohen przyznał się, że korzystał z Barda, jednak uważał, że ma do czynienia z bardzo zaawansowaną wyszukiwarką, a nie z chatbotem. Wydawało mu się, że wszystkie znalezione sprawy są prawdziwe i nie wiedział, że jego prawnik użyje ich bez żadnego sprawdzenia, czy w ogóle istnieją. Shwartz będzie musiał się teraz mierzyć ze skutkami takich działań, za które grożą mu kary pieniężne. Okazuje się jednak, że obecna sytuacja nie jest niczym nowym. Już wcześniej używano ChatGPT do przedstawiania fałszywych spraw sądowych. Niektórzy prawnicy wykorzystują także chatboty, aby pomagały im generować odpowiedzi z odpowiednimi argumentami, których użyją później w procesie. Całość można uznać za dość kuriozalną. Na dodatek nie powinno mieć to nigdy miejsca, szczególnie w tak ważnych instytucjach, jak sąd. Dość ciekawe jest również to, że sporo osób (nawet pozornie oczytanych) nie zdaje sobie sprawy z tego, jak działają aktualne chatboty i że często generują fałszywe odpowiedzi (halucynacje).
Powiązane publikacje

Szykują się podwyżki na rynku pamięci. Firma Micron oficjalnie informuje swoich klientów. Czy w ślad za nią pójdą inni?
21
Chiny prezentują pierwszy w pełni rodzimy serwer z procesorami Loongson 3C6000/D. 64 rdzenie i 100% krajowych komponentów
91
Bill Gates przewiduje, że sztuczna inteligencja zastąpi ludzi w większości zawodów w najbliższych 10 latach
157
TSMC przyspiesza budowę fabryk w USA. Czy to wystarczy do odzyskania przez USA pozycji lidera w produkcji półprzewodników?
24