Chiny: wyścig zbrojeń z AI może prowadzić do przypadkowej wojny
Eksperci i politycy w Chinach martwią się, że pęd do integracji sztucznej inteligencji w broń i sprzęt wojskowy mógłby przypadkowo doprowadzić do wojny między narodami. Zgodnie z nowym raportem opublikowanym przez amerykański ośrodek bezpieczeństwa USA Center for a New American Security (CNAS), chińscy urzędnicy coraz częściej dostrzegają dynamikę "wyścigu zbrojeń" z AI jako zagrożenie dla globalnego pokoju. Gdy kraje starają się czerpać korzyści ze sztucznej inteligencji w różnych dziedzinach, w tym wojsku, istnieje obawa, że międzynarodowe normy kształtujące komunikację między krajami staną się przestarzałe, prowadząc do zamieszania i potencjalnego konfliktu.
Zgodnie z nowym raportem opublikowanym przez amerykański ośrodek bezpieczeństwa, chińscy urzędnicy coraz częściej dostrzegają dynamikę wyścigu zbrojeń z AI jako zagrożenie dla globalnego pokoju.
SoftBank Vision Fund sprzedał wszystkie swoje akcje NVIDIA
Jak wyjaśnia Allen, starszy adiunkt w CNAS i autor nowego raportu, działanie dronów stało się w ostatnich latach coraz bardziej zautomatyzowane. W USA są one w stanie przechodząc na podstawowy autopilot, wykonać proste zadania, takie jak latanie w kółko wokół celu. Jednak to Chiny są bardziej agresywne we wprowadzaniu większych poziomów autonomii, którym bliżej do określenia w stylu śmiercionośne użycie siły. Jednym z przykładów jest dron Blowfish A2, który Chiny eksportują na cały świat i który jest reklamowany jako zdolny do pełnej autonomii, aż do ukierunkowanych ataków. Badania dowodzą, że ponieważ drony są kontrolowane zdalnie, to osoby je obsługujące są bardziej skłonne do używania ich jako urządzeń śmiercionośnych.
USA: Stan Pensylwania chce opodatkować brutalne gry wideo
Allen twierdzi także, że taką postawę będzie można również zaobserwować w wojnach cyfrowych, w których kraje wybiorą środki, których nie użyliby, gdyby w akcje zaangażowane były bezpośrednio istoty ludzkie. Podkreśla jednak inną kwestię: Chodzi mi o to, że nie jest jasne, w jaki sposób obie strony będą interpretować pewne zachowania obejmujące autonomiczny sprzęt, mówi Allen. Strona wysyłająca autonomiczny dron pomyśli, że nie jest to nic wielkiego, ponieważ nie ma ryzyka wypadku, podczas gdy druga strona może zestrzelić urządzenia z innych pobudek. Nie ma bowiem uzgodnionych ram dotyczących tego, jakie przesłanie jest wysyłane przez daną stronę, wraz z posyłaniem na obcy teren urządzeń autonomicznych.
Apple ureguluje podatki od nieujawnionych dochodów we Francji
Zagrożenia w takim scenariuszu stają się większe, gdy uwzględni się zaawansowaną autonomię. Jeśli na przykład dron lub robot wystrzeliłby ostrzeżenie na oddziały wroga, jak będzie interpretowane to działanie? Czy żołnierze zrozumieją to jako automatyczną reakcję, czy też pomyślą, że to decyzja ludzkiego dowódcy? Jak by się dowiedzieli w obu przypadkach? Kraje na całym świecie muszą jeszcze zdefiniować normy konfliktu zbrojnego dla systemów autonomicznych. Im dłużej to trwa, tym większe ryzyko niezamierzonej eskalacji. Bez zrozumienia strategii różnych narodów w tych dziedzinach, mówi Allen, zwiększają się szanse nieporozumień i konfliktów - zauważa Allen.
Powiązane publikacje

Tajwan ogranicza eksport technologii TSMC. Nowe regulacje mają chronić najważniejsze procesy przed zagraniczną konkurencją
28
Wielka Brytania planuje zakazać aplikacji AI tworzących deepfake dzieci. Ofcom i rząd UK podejmują stosowne działania
36
IBM zainwestuje 150 mld USD w USA, a konkretniej w rozwój AI, komputerów kwantowych, a także produkcji lokalnej
14
Prawnicy MyPillow użyli AI i wpadli w pułapkę fikcyjnych spraw. Grożą im naprawdę poważne konsekwencje
72