Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

ChatGPT może ujawniać loginy i hasła pochodzące z prywatnych konwersacji użytkowników

Łukasz Stefaniak | 30-01-2024 14:00 |

ChatGPT może ujawniać loginy i hasła pochodzące z prywatnych konwersacji użytkownikówChatGPT to przykład narzędzia, z którym wiązane duże nadzieje na przyszłość, ale także obawy. Te ostatnie dotyczą szeregu problemów, wśród których wymienia się między innymi kwestię praw autorskich czy poszanowania prywatności. Jak każda aplikacja komputerowa, także ChatGPT nie jest pozbawiony błędów. Ostatnio doszło jednak do incydentu, który z pewnością zdarzyć się nie powinien. ChatGPT ujawnił bowiem loginy i hasła bliżej nieokreślonych użytkowników.

ChatGPT może mieć poważny problem z prywatnością. Jeden z użytkowników uzyskał dostęp do loginów i haseł pochodzących od innych osób. W podobny sposób "wyciekły" także inne prywatne dane.

ChatGPT może ujawniać loginy i hasła pochodzące z prywatnych konwersacji użytkowników [1]

Modele językowe w roli prawdziwych ludzi także oszukują i zacierają ślady. ChatGPT bez problemu dokona nielegalnych czynów

Problem zgłosił jeden z czytelników serwisu Ars Technica. Za pośrednictwem narzędzia firmy OpenAI uzyskał on dostęp do loginów, haseł oraz innych prywatnych informacji dotyczących bliżej nieokreślonych użytkowników. Dane te pojawiły się krótko po skierowaniu zapytania do ChatGPT w zupełnie niezwiązanej ze sprawą kwestii. Oprócz standardowej odpowiedzi na zadane pytanie, w historii konwersacji pojawiły się pozycje pochodzące od innych użytkowników. Wśród nich są także loginy i hasła używane najprawdopodobniej w systemie wsparcia wykorzystywanym przez pracowników portalu zajmującego się sprzedażą leków na receptę. Na tym jednak nie koniec. W historii konwersacji czytelnik portalu Ars Technica znalazł także pozycje dotyczące nazwy prezentacji, nad którą ktoś pracował, szczegóły na temat nieopublikowanej propozycji badań naukowych czy skrypt napisany w języku PHP.

ChatGPT może ujawniać loginy i hasła pochodzące z prywatnych konwersacji użytkowników [2]

The New York Times pozywa Microsoft i OpenAI. Powodem jest naruszenie praw autorskich przez ChatGPT i Microsoft Copilot

Choć sprawę łagodzi nieco fakt, że historia rozmowy, w której pojawiają się loginy i hasła, jest dosyć stara (o ile nie ma błędu w dacie), to do podobnej sytuacji nigdy nie powinno dojść. Warto odnotować, że obecny "wyciek" nie jest pierwszym w historii ChatGPT. Już w zeszłym roku OpenAI borykało się podobnym błędem, choć dotyczył on głównie tytułów konwersacji. Teraz sprawa wydaje się poważniejsza. Badacze już wcześniej dowodzili, że do treningu modelu językowego stojącego za ChatGPT wykorzystywane były także dane prywatne. Obecny problem jest prawdopodobnie pośrednio wynikiem wykorzystywania urządzeń lub oprogramowania pośredniczącego, które w celu poprawy wydajności zapisuje w cache określone dane. Na skutek ich błędnego rozpoznania, informacje z jednego konta pojawiają się na innym koncie. OpenAI już bada opisywany przypadek.

ChatGPT może ujawniać loginy i hasła pochodzące z prywatnych konwersacji użytkowników [3]

ChatGPT może ujawniać loginy i hasła pochodzące z prywatnych konwersacji użytkowników [4]

ChatGPT może ujawniać loginy i hasła pochodzące z prywatnych konwersacji użytkowników [5]

ChatGPT może ujawniać loginy i hasła pochodzące z prywatnych konwersacji użytkowników [6]

Źródło: Ars Technica
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 18

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.