Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Materiały zmodyfikowane przez AI nie mogą być dowodem w sprawie sądowej. Amerykański organ wydał oświadczenie

Materiały zmodyfikowane przez AI nie mogą być dowodem w sprawie sądowej. Amerykański organ wydał oświadczenieUsługi oparte na sztucznej inteligencji umożliwiają dziś całkiem sporo — szczególnie w kwestii generowania i poprawiania jakości obrazów oraz nagrań wideo. Jednak oprócz pozytywnych aspektów takich rozwiązań z łatwością możemy dostrzec także zagrożenia, takie jak wykorzystywanie spreparowanych dowodów w sprawie sądowej. Orzeczenie w pewnym procesie pokazuje, że materiał dowodowy, który został poddany obróbce przez AI, nie może być użyty w tak istotnych sprawach.

Jakikolwiek materiał dowodowy, który został stworzony bądź też poprawiony przez sztuczną inteligencję, nie może zostać użyty w sprawie sądowej. Wydano jedno z pierwszych orzeczeń w tej kwestii.

Materiały zmodyfikowane przez AI nie mogą być dowodem w sprawie sądowej. Amerykański organ wydał oświadczenie [1]

Elon Musk składa pozew przeciwko OpenAI. Wymierzony jest w Sama Altmana, choć z równie wielką siłą uderza w Microsoft

W największym sądzie pierwszej instancji w stanie Waszyngton, a mianowicie King County Superior Court, wydano orzeczenie, które ma bezpośredni związek z wykorzystaniem narzędzi opartych na sztucznej inteligencji w tym organie państwowym. Sprawa dotyczyła pewnego mężczyzny, który odpowiadał przed sądem za zabójstwo trzech osób. Twierdził on jednak, że działał wtedy w samoobronie. Dowodem w sprawie było nagranie, które zostało wykonane telefonem komórkowym przez świadka tego zdarzenia. Adwokaci oskarżonego postanowili skorzystać z usług osoby, która wykorzystała oprogramowanie od firmy Topaz Labs (zapewne Video AI 4), aby poprawić jakość uchwyconego materiału wideo. Program używał jednak sztucznej inteligencji do działania, więc omawiany dowód został odrzucony przez sędziego Leroya McCullogha.

Materiały zmodyfikowane przez AI nie mogą być dowodem w sprawie sądowej. Amerykański organ wydał oświadczenie [2]

Sztuczna inteligencja to miecz obosieczny. Cyberprzestępstwa z udziałem inteligentnych botów wzrosły bardziej niż kiedykolwiek

Stwierdzono bowiem, że model AI nie odwzorowuje dokładnie prawdziwego nagrania wideo. Chodzi o fakt, że algorytmy nie zawsze poprawnie interpretują konkretny materiał wideo, więc zdarza się, że generowane są klatki, które mogą się nieco różnić od rzeczywistości. Tym bardziej że mowa tu o skalowaniu wideo z niskiej do wysokiej rozdzielczości. Orzeczenie jest więc jednym z pierwszych, które otwarcie wskazuje na to, że w sądzie nie mogą być użyte materiały dowodowe, jeśli w jakimkolwiek stopniu zostały zmodyfikowane (nawet jeśli chodzi o poprawę jakości) przez sztuczną inteligencję. Oczywiście można założyć, że jest to dość logicznie dla większości osób, a sprawa nie była zbyt skomplikowana, więc odrzucenie dowodu nie stanowiło dużego wyzwania. Niebawem w sądzie może dojść jednak do o wiele poważniejszych sytuacji, w których odróżnienie stworzonych materiałów przez AI nie będzie już takie łatwe — a to już stanowi znaczący problem, którego nie można bagatelizować.

Źródło: NBC News
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 50

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.