Technologia wykrywająca emocje zgubą dla kandydatów o pracę
Maszyny mogą nie mieć emocji, ale to nie znaczy, że nie mogą ich rozpoznać. Jest to jedna z dziedzin technologii, w którą inwestuje się grube dolary, i która działa już w wielu firmach w równie wielu celach. Od nieznanych jeszcze startupów po znanych graczy, takich jak Amazon czy Microsoft, wiele firm technologicznych oferuje obecnie "analizę emocji", czyli systemy zaprojektowane do analizy twarzy konkretnej osoby, aby określić, jak się ona czuje. Istnieją jednak przesłanki, które sugerują, że systemy te mogą wyrządzić więcej szkody niż pożytku, gdy są stosowane np. w celu rozpoznawania emocji u kandydatów starających się o pracę bądź w systemie edukacji.
Wiele firm technologicznych oferuje "analizę emocji", czyli systemy do analizy twarzy osoby, aby określić, jak się czuje. Może to być jednak szkodliwe dla wielu branż.
Badania Epson: praca z domu nieuniknioną przyszłością
Zgodnie z nowym artykułem The Guardian systemy wykrywania emocji są kombinacją dwóch technologii. Pierwszą jest komputerowa wizja. Oznacza to nic innego jak rejestrowanie przez maszynę zdjęcia bądź wideo przedstawiającego ludzką twarz. Drugą jest sztuczna inteligencja. To ona analizuje informacje, by określić co dana osoba czuje. Może więc osobę o zmarszczonych brwiach uznać jako złą, zaś uśmiechniętą jako szczęśliwą. Systemy te są już wykorzystywane do wielu zastosowań. IBM, Unilever i kilka innych firm ma systemy, których używają np. do przesiewania kandydatów do pracy, zaś Disney używa systemu wykrywania emocji, aby określić, w jaki sposób publiczność postrzega filmy podczas projekcji.
Indie wprowadzą sztuczną inteligencję jako przedmiot szkolny
"Z technologią tą eksperymentuje się także w środowisku szkolnym, aby sprawdzić, czy uczeń jest zajęty, znudzony lub zły podczas lekcji" - powiedziała The Guardian, Meredith Whittaker, dyrektor instytutu badawczego AI Now. Nietrudno dostrzec korzyści tego rodzaju technologii dla Disney'a czy IBM (o ile systemy są wyjątkowo dokładne). Ale w innych zastosowaniach może ona przynieść wiele szkody. W grudniu naukowcy z Wake Forest University opublikowali badanie, w którym przetestowali kilka systemów wykrywania emocji, w tym od Microsoftu i odkryli, że systemy przypisywały negatywne emocje zdjęciom osób czarnoskórych częściej, niż zdjęciom ludzi białych, nawet gdy uśmiechali się w tym samym stopniu. "Taka informacja może być wykorzystywana w sposób, który uniemożliwi ludziom zdobycie pracy lub ukształtuje sposób w jaki będą traktowani i oceniani np. w szkole" - dodała Whittaker - "Jeśli analiza nie będzie wyjątkowo dokładna, będziemy mieli do czynienia z wieloma problemami".
Powiązane publikacje

ARM ma już 40 lat. Architektura, która zasila smartfony, serwery i roboty, trafiła do ponad 250 miliardów urządzeń
22
Anthropic chce zajrzeć do wnętrza AI. Czy do 2027 roku odkryjemy, jak naprawdę myślą modele językowe?
22
Firma Elona Muska xAI chce pozyskać 25 miliardów dolarów na budowę superkomputera Colossus 2 z milionem GPU NVIDIA
60
Nowatorski interfejs mózg-komputer od Georgia Tech może zmienić sposób, w jaki ludzie komunikują się z technologią i otoczeniem
4