Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

OpenAI miało przypadkowo usunąć dane, na których trenowało ChatGPT. Uniemożliwia to weryfikację ich legalności

OpenAI miało przypadkowo usunąć dane, na których trenowało ChatGPT. Uniemożliwia to weryfikację ich legalnościO zagrożeniach związanych z wykorzystaniem sztucznej inteligencji mówi się sporo od samego początku. Niektóre z nich pojawiają się już na etapie treningu. Choć technologia jest ciągle stosunkowo świeża, to w ostatnich miesiącach nie brakowało doniesień o przypadkach nieuprawnionego wykorzystania danych w tym celu. Z takimi zarzutami musi mierzyć się firma OpenAI. Sprawę dodatkowo skomplikowało usunięcie części materiałów, które służyły do treningu.

Usunięcie przez inżynierów OpenAI części danych służących do treningu sztucznej inteligencji, uniemożliwi wiarygodną z prawnego punktu widzenia weryfikację, czy zostały one wykorzystane legalnie.

OpenAI miało przypadkowo usunąć dane, na których trenowało ChatGPT. Uniemożliwia to weryfikację ich legalności [1]

ChatGPT lepszy od lekarzy. Chatbot od OpenAI wyprzedził nawet tych, którzy mogli korzystać z jego pomocy

Przeciwko OpenAI toczą się procesy sądowe dotyczące nielegalnego wykorzystania materiałów przy szkoleniu sztucznej inteligencji. Jeden z nich wytoczyły wspólnie The New York Times oraz Daily News. Podmioty te twierdzą, że duży model językowy, na którym bazuje usługa ChatGPT, był trenowany między innymi na materiałach ich autorstwa, bez uzyskania odpowiedniej zgody. OpenAI jakiś czas temu zgodziło się udostępnić dane treningowe przechowywane na dwóch maszynach wirtualnych, żeby zainteresowane strony mogły sprawdzić, czy rzeczywiście znajdują się tam należące do nich informacje. Część materiałów zostało już przeszukanych przez ekspertów wynajętych przez The New York Times oraz Daily News, ale ostatnio doszło do zaskakującego zwrotu w tej sprawie.

OpenAI miało przypadkowo usunąć dane, na których trenowało ChatGPT. Uniemożliwia to weryfikację ich legalności [2]

OpenAI pozyskało kolejne miliardy od inwestorów. Szacowana wycena spółki osiągnęła imponującą wartość

Okazuje się, że 14 listopada inżynierowie OpenAI usunęli dane przechowywane na jednej z dwóch wymienionych maszyn wirtualnych. Operacja miała zostać przeprowadzona nieumyślnie, jednak twierdzenia te nie uchroniły amerykańskiego podmiotu przed oskarżeniami o niszczenie dowodów. Firma zdołała, co prawda, odzyskać utracone dane, ale są one obecnie w formacie, który wyklucza ich wykorzystanie w postępowaniach prawnych. Brak oryginalnych materiałów sprawia, że nie mogą one być w tym przypadku wykorzystane jako dowód przeciwko OpenAI. Mamy zatem tutaj do czynienia z bardzo kontrowersyjną sytuacją, która rodzi wiele wątpliwości.

Źródło: WCCFTech
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 51

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.