Roboty podmiotem w świetle prawa? Takie rzeczy tylko w UE
Nie ulega wątpliwości, że na naszych oczach odbywa się prawdziwa rewolucja. Sztuczna inteligencja przestaje być już jedynie mrzonką fantastów, a staje się technologią, która zaczyna coraz śmielej wchodzić w różne sfery naszego życia. Wraz z nią pojawiają się niestety także dylematy, których do tej pory ludzkość nie znała. Co zrobić, jeśli taki robot albo program wyrządzi komuś szkodę? Czy pociągnąć do odpowiedzialności jego właściciela, podmiot odpowiedzialny za zaprogramowanie sztucznej inteligencji czy może samą maszynę? Choć ostatni wariant wydaje się uciekać mocno w klimaty science-fiction, to okazuje się, że właśnie w tym kierunku chcieliby pójść unijni urzędnicy, planując nadanie robotom podmiotowości prawnej. Na całe szczęście naukowcy wystosowali do Komisji Europejskiej list, w którym próbują jej przedstawicielom wybić z głowy ten kompletnie absurdalny pomysł.
Zdaniem unijnych urzędników roboty są gotowe by ponieść odpowiedzialność za własne czyny. Naukowcy próbują wyprowadzić ich z błędu.
Niemcy przyrzekają nie wykorzystywać AI do zabijania ludzi
Zacznijmy od początku. W roku 2017 Komisja Europejska wystosowała raport, którego jeden z punktów proponował nadanie robotom podmiotowości prawnej. Rzecz jasna nie chodzi o to, aby nagle zostały one zrównane w prawach z ludźmi, a raczej żeby mogły ponosić odpowiedzialne za wyrządzone przez siebie szkody. Brzmi to co prawda równie idiotycznie, ale ma przynajmniej jakieś racjonalne podstawy - w końcu jeśli sztuczna inteligencja może sama podejmować decyzje na podstawie zgromadzonych samodzielnie informacji, to czy za jej działania można winić kogokolwiek innego? Jak widać unijni urzędnicy wyszli z założenia, że nie. Teoretycznie takiego stanowiska można nawet próbować bronić, bo z etycznego punktu widzenia sprawa wcale nie jest taka oczywista.
Parlament Europejski walczy z postarzaniem produktów
Z prawnego punktu widzenia sytuacja wygląda jednak zgoła inaczej i jestem szczerze zaskoczony, że ktokolwiek z wykształceniem prawniczym był w ogóle gotów taki pomysł zaakceptować. Od niepamiętnych czasów to właściciel ponosi odpowiedzialność za szkody powstałe w wyniku działania danej rzeczy, a nie sama rzecz. Tak samo to właściciel zwierzęcia czy rodzice dziecka ponoszą odpowiedzialność za jego działania i filozoficzne dywagacje schodzą na dalszy plan, bo chodzi o pieniądze. W jaki sposób zobowiązać AI do naprawienia szkody, jeśli ani jej właściciel, ani twórca nie będą ponosić żadnej odpowiedzialności? Ma wykopać kryptowalutę i zapłacić Bitcoinem? Żarty żartami, ale boję się, że unijni urzędnicy mogli wymyślić coś jeszcze głupszego.
Trybunał Sprawiedliwosci UE ustępuje w sprawie Intela
Na absurd pomysłu z przyznawaniem robotom podmiotowości prawnej zwracają uwagę także naukowcy. W swoim liście otwartym 156 specjalistów z dziedziny sztucznej inteligencji krytykuje propozycję Komisji Europejskiej, sugerując, że rozumienie problemu przez unijnych urzędników zostało "wypaczone przez twórczość science-fiction". Zdaniem przedstawicieli świata nauki rolą legislacji w dzisiejszych czasach nie powinno być prowadzenie dysput filozoficznych na temat tego ile AI ma w sobie z człowieka, a raczej przygotowywanie takich przepisów, które zagwarantowałyby ludziom bezpieczeństwo w obliczu dynamicznego rozwoju tej gałęzi technologii. Trudno się z tym stanowiskiem nie zgodzić i pozostaje tylko mieć nadzieję, że słowa naukowców trafią na podatny grunt.
Powiązane publikacje

ARM ma już 40 lat. Architektura, która zasila smartfony, serwery i roboty, trafiła do ponad 250 miliardów urządzeń
22
Anthropic chce zajrzeć do wnętrza AI. Czy do 2027 roku odkryjemy, jak naprawdę myślą modele językowe?
22
Firma Elona Muska xAI chce pozyskać 25 miliardów dolarów na budowę superkomputera Colossus 2 z milionem GPU NVIDIA
60
Nowatorski interfejs mózg-komputer od Georgia Tech może zmienić sposób, w jaki ludzie komunikują się z technologią i otoczeniem
4