ChatGPT może ujawniać loginy i hasła pochodzące z prywatnych konwersacji użytkowników
ChatGPT to przykład narzędzia, z którym wiązane duże nadzieje na przyszłość, ale także obawy. Te ostatnie dotyczą szeregu problemów, wśród których wymienia się między innymi kwestię praw autorskich czy poszanowania prywatności. Jak każda aplikacja komputerowa, także ChatGPT nie jest pozbawiony błędów. Ostatnio doszło jednak do incydentu, który z pewnością zdarzyć się nie powinien. ChatGPT ujawnił bowiem loginy i hasła bliżej nieokreślonych użytkowników.
ChatGPT może mieć poważny problem z prywatnością. Jeden z użytkowników uzyskał dostęp do loginów i haseł pochodzących od innych osób. W podobny sposób "wyciekły" także inne prywatne dane.
Modele językowe w roli prawdziwych ludzi także oszukują i zacierają ślady. ChatGPT bez problemu dokona nielegalnych czynów
Problem zgłosił jeden z czytelników serwisu Ars Technica. Za pośrednictwem narzędzia firmy OpenAI uzyskał on dostęp do loginów, haseł oraz innych prywatnych informacji dotyczących bliżej nieokreślonych użytkowników. Dane te pojawiły się krótko po skierowaniu zapytania do ChatGPT w zupełnie niezwiązanej ze sprawą kwestii. Oprócz standardowej odpowiedzi na zadane pytanie, w historii konwersacji pojawiły się pozycje pochodzące od innych użytkowników. Wśród nich są także loginy i hasła używane najprawdopodobniej w systemie wsparcia wykorzystywanym przez pracowników portalu zajmującego się sprzedażą leków na receptę. Na tym jednak nie koniec. W historii konwersacji czytelnik portalu Ars Technica znalazł także pozycje dotyczące nazwy prezentacji, nad którą ktoś pracował, szczegóły na temat nieopublikowanej propozycji badań naukowych czy skrypt napisany w języku PHP.
The New York Times pozywa Microsoft i OpenAI. Powodem jest naruszenie praw autorskich przez ChatGPT i Microsoft Copilot
Choć sprawę łagodzi nieco fakt, że historia rozmowy, w której pojawiają się loginy i hasła, jest dosyć stara (o ile nie ma błędu w dacie), to do podobnej sytuacji nigdy nie powinno dojść. Warto odnotować, że obecny "wyciek" nie jest pierwszym w historii ChatGPT. Już w zeszłym roku OpenAI borykało się podobnym błędem, choć dotyczył on głównie tytułów konwersacji. Teraz sprawa wydaje się poważniejsza. Badacze już wcześniej dowodzili, że do treningu modelu językowego stojącego za ChatGPT wykorzystywane były także dane prywatne. Obecny problem jest prawdopodobnie pośrednio wynikiem wykorzystywania urządzeń lub oprogramowania pośredniczącego, które w celu poprawy wydajności zapisuje w cache określone dane. Na skutek ich błędnego rozpoznania, informacje z jednego konta pojawiają się na innym koncie. OpenAI już bada opisywany przypadek.
Powiązane publikacje

Duolingo stawia na AI. Chodzi o automatyzację procesów, a także redukcję kontraktorów w edukacyjnej rewolucji
22
Microsoft Recall oraz Click to Do trafiły do zapoznawczej aktualizacji Windowsa 11 dla komputerów Copilot+ AI
17
Dystrybucja OpenMandriva Lx 6.0 Rock już dostępna. Stabilna odsłona z KDE Plasma 6, która oferuje jądro Linux 6.15
28
Windows 11 - kwietniowe aktualizacje systemu i zabezpieczeń powodują błędy BSOD, a także problemy z logowaniem
78