Rząd USA chce inwigilować telefony osób z chorobami psychicznymi
Kontrowersyjne plany administracji Donalda Trumpa nie powinny już nikogo szokować. Przyzwyczailiśmy się już między innymi do natarczywego obwiniania gier komputerowych, za wywoływanie agresji czy strzelanin (choć cała rzesza naukowców mówi wyraźnie, że jedno z drugim niewiele ma wspólnego). Jak pisze Washington Post, dziś Biały Dom znalazł sobie nowego kozła ofiarnego. A są nimi osoby chore umysłowo. Projekt rządu ma na celu zbadanie, czy masowym strzelaninom można zapobiec, poprzez monitorowanie osób chorych psychicznie pod kątem drobnych zmian, które mogłyby wskazywać na ewentualne, przyszłe użycie przemocy. Jak wyglądałby taki monitoring?
Rząd Donalda Trumpa rozważa nową propozycję walki z masowymi strzelaninami, w ramach której telefony osób chorych umysłowo miałyby być w jakiś sposób monitorowane, aby zapobiec aktom agresji.
Huawei wraca do gry - Donald Trump usunął firmę z czarnej listy
Jak czytamy w Washington Post, były przewodniczący NBC, Bob Wright, wieloletni przyjaciel i współpracownik prezydenta Trumpa, poinformował najwyższych urzędników, w tym prezydenta i wiceprezydenta, o propozycji utworzenia nowego ramienia badawczego o nazwie Health Advanced Research Projects Agency (HARPA), które miałoby pracować nad sposobami radzenia sobie z problemami zdrowotnymi, w sposób podobny jak robi to Agencja Obrony Zaawansowanych Projektów Badawczych (DARPA) dla wojska.
Donald Trump rzuca groźby Google, Facebookowi i Twitterowi
Zespół Wrighta doszedł bowiem do wniosku, że istnieje mocne powiązanie między masowymi strzelaninami a osobami chorymi psychicznie. Przemyślenia przedstawiono w trzystronicowym dokumencie, w którym rząd zachęcany jest do przeprowadzenia badań, czy technologia może pomóc w zwalczaniu przemocy. Według ekipy Wrighta, nowoczesne urządzenia (jak smartfony czy smartwatche) mogłyby wykrywać, kiedy ludziom chorym psychicznie grozi wybuch agresji.
Przemoc w grach według Trumpa i odpowiedź Games for Change
Powyższy sposób na wykrywanie nadchodzących aktów agresji zaalarmował ekspertów zajmujących się prewencją przemocy, technologią czy psychologią. Naukowcy obawiają się nie tylko pogwałcenia praw dotyczących wolności obywatelskiej (nie do końca wiadomo, jak daleko miałby sięgać taki monitoring), ale także zbyt wielu błędnych odczytów. Nawet jeśli taka technologia zostałaby opracowana, istnieje duże prawdopodobieństwo, że taki program oznaczałby zdecydowanie zbyt wielu podejrzanych, niż tylko faktycznych, potencjalnych strzelców. Czy tylko mi za mocno "pachnie" tu Raportem Mniejszości?
Powiązane publikacje

Tajwan ogranicza eksport technologii TSMC. Nowe regulacje mają chronić najważniejsze procesy przed zagraniczną konkurencją
28
Wielka Brytania planuje zakazać aplikacji AI tworzących deepfake dzieci. Ofcom i rząd UK podejmują stosowne działania
36
IBM zainwestuje 150 mld USD w USA, a konkretniej w rozwój AI, komputerów kwantowych, a także produkcji lokalnej
14
Prawnicy MyPillow użyli AI i wpadli w pułapkę fikcyjnych spraw. Grożą im naprawdę poważne konsekwencje
72