Materiały zmodyfikowane przez AI nie mogą być dowodem w sprawie sądowej. Amerykański organ wydał oświadczenie
Usługi oparte na sztucznej inteligencji umożliwiają dziś całkiem sporo — szczególnie w kwestii generowania i poprawiania jakości obrazów oraz nagrań wideo. Jednak oprócz pozytywnych aspektów takich rozwiązań z łatwością możemy dostrzec także zagrożenia, takie jak wykorzystywanie spreparowanych dowodów w sprawie sądowej. Orzeczenie w pewnym procesie pokazuje, że materiał dowodowy, który został poddany obróbce przez AI, nie może być użyty w tak istotnych sprawach.
Jakikolwiek materiał dowodowy, który został stworzony bądź też poprawiony przez sztuczną inteligencję, nie może zostać użyty w sprawie sądowej. Wydano jedno z pierwszych orzeczeń w tej kwestii.
Elon Musk składa pozew przeciwko OpenAI. Wymierzony jest w Sama Altmana, choć z równie wielką siłą uderza w Microsoft
W największym sądzie pierwszej instancji w stanie Waszyngton, a mianowicie King County Superior Court, wydano orzeczenie, które ma bezpośredni związek z wykorzystaniem narzędzi opartych na sztucznej inteligencji w tym organie państwowym. Sprawa dotyczyła pewnego mężczyzny, który odpowiadał przed sądem za zabójstwo trzech osób. Twierdził on jednak, że działał wtedy w samoobronie. Dowodem w sprawie było nagranie, które zostało wykonane telefonem komórkowym przez świadka tego zdarzenia. Adwokaci oskarżonego postanowili skorzystać z usług osoby, która wykorzystała oprogramowanie od firmy Topaz Labs (zapewne Video AI 4), aby poprawić jakość uchwyconego materiału wideo. Program używał jednak sztucznej inteligencji do działania, więc omawiany dowód został odrzucony przez sędziego Leroya McCullogha.
Sztuczna inteligencja to miecz obosieczny. Cyberprzestępstwa z udziałem inteligentnych botów wzrosły bardziej niż kiedykolwiek
Stwierdzono bowiem, że model AI nie odwzorowuje dokładnie prawdziwego nagrania wideo. Chodzi o fakt, że algorytmy nie zawsze poprawnie interpretują konkretny materiał wideo, więc zdarza się, że generowane są klatki, które mogą się nieco różnić od rzeczywistości. Tym bardziej że mowa tu o skalowaniu wideo z niskiej do wysokiej rozdzielczości. Orzeczenie jest więc jednym z pierwszych, które otwarcie wskazuje na to, że w sądzie nie mogą być użyte materiały dowodowe, jeśli w jakimkolwiek stopniu zostały zmodyfikowane (nawet jeśli chodzi o poprawę jakości) przez sztuczną inteligencję. Oczywiście można założyć, że jest to dość logicznie dla większości osób, a sprawa nie była zbyt skomplikowana, więc odrzucenie dowodu nie stanowiło dużego wyzwania. Niebawem w sądzie może dojść jednak do o wiele poważniejszych sytuacji, w których odróżnienie stworzonych materiałów przez AI nie będzie już takie łatwe — a to już stanowi znaczący problem, którego nie można bagatelizować.
Powiązane publikacje

Chińskie dochodzenie antymonopolowe przeciwko NVIDII może skutkować karami do 10 proc. rocznej sprzedaży firmy w regionie
12
Wirtualny minister AI w Albanii ma wyeliminować korupcję z przetargów publicznych wykorzystując algorytmy decyzyjne
37
UE zmusi WhatsApp i Signal do skanowania twoich zdjęć przed wysłaniem. Chat Control 2.0 oznacza masową inwigilację
115
Regulatorzy w USA chcą informacji od OpenAI, Meta i Character.AI o zabezpieczeniach chatbotów dla młodych użytkowników
6