OpenAI miało przypadkowo usunąć dane, na których trenowało ChatGPT. Uniemożliwia to weryfikację ich legalności
O zagrożeniach związanych z wykorzystaniem sztucznej inteligencji mówi się sporo od samego początku. Niektóre z nich pojawiają się już na etapie treningu. Choć technologia jest ciągle stosunkowo świeża, to w ostatnich miesiącach nie brakowało doniesień o przypadkach nieuprawnionego wykorzystania danych w tym celu. Z takimi zarzutami musi mierzyć się firma OpenAI. Sprawę dodatkowo skomplikowało usunięcie części materiałów, które służyły do treningu.
Usunięcie przez inżynierów OpenAI części danych służących do treningu sztucznej inteligencji, uniemożliwi wiarygodną z prawnego punktu widzenia weryfikację, czy zostały one wykorzystane legalnie.
ChatGPT lepszy od lekarzy. Chatbot od OpenAI wyprzedził nawet tych, którzy mogli korzystać z jego pomocy
Przeciwko OpenAI toczą się procesy sądowe dotyczące nielegalnego wykorzystania materiałów przy szkoleniu sztucznej inteligencji. Jeden z nich wytoczyły wspólnie The New York Times oraz Daily News. Podmioty te twierdzą, że duży model językowy, na którym bazuje usługa ChatGPT, był trenowany między innymi na materiałach ich autorstwa, bez uzyskania odpowiedniej zgody. OpenAI jakiś czas temu zgodziło się udostępnić dane treningowe przechowywane na dwóch maszynach wirtualnych, żeby zainteresowane strony mogły sprawdzić, czy rzeczywiście znajdują się tam należące do nich informacje. Część materiałów zostało już przeszukanych przez ekspertów wynajętych przez The New York Times oraz Daily News, ale ostatnio doszło do zaskakującego zwrotu w tej sprawie.
OpenAI pozyskało kolejne miliardy od inwestorów. Szacowana wycena spółki osiągnęła imponującą wartość
Okazuje się, że 14 listopada inżynierowie OpenAI usunęli dane przechowywane na jednej z dwóch wymienionych maszyn wirtualnych. Operacja miała zostać przeprowadzona nieumyślnie, jednak twierdzenia te nie uchroniły amerykańskiego podmiotu przed oskarżeniami o niszczenie dowodów. Firma zdołała, co prawda, odzyskać utracone dane, ale są one obecnie w formacie, który wyklucza ich wykorzystanie w postępowaniach prawnych. Brak oryginalnych materiałów sprawia, że nie mogą one być w tym przypadku wykorzystane jako dowód przeciwko OpenAI. Mamy zatem tutaj do czynienia z bardzo kontrowersyjną sytuacją, która rodzi wiele wątpliwości.
Powiązane publikacje

Chińskie dochodzenie antymonopolowe przeciwko NVIDII może skutkować karami do 10 proc. rocznej sprzedaży firmy w regionie
10
Wirtualny minister AI w Albanii ma wyeliminować korupcję z przetargów publicznych wykorzystując algorytmy decyzyjne
34
UE zmusi WhatsApp i Signal do skanowania twoich zdjęć przed wysłaniem. Chat Control 2.0 oznacza masową inwigilację
115
Regulatorzy w USA chcą informacji od OpenAI, Meta i Character.AI o zabezpieczeniach chatbotów dla młodych użytkowników
6