Technologia wykrywająca emocje zgubą dla kandydatów o pracę
Maszyny mogą nie mieć emocji, ale to nie znaczy, że nie mogą ich rozpoznać. Jest to jedna z dziedzin technologii, w którą inwestuje się grube dolary, i która działa już w wielu firmach w równie wielu celach. Od nieznanych jeszcze startupów po znanych graczy, takich jak Amazon czy Microsoft, wiele firm technologicznych oferuje obecnie "analizę emocji", czyli systemy zaprojektowane do analizy twarzy konkretnej osoby, aby określić, jak się ona czuje. Istnieją jednak przesłanki, które sugerują, że systemy te mogą wyrządzić więcej szkody niż pożytku, gdy są stosowane np. w celu rozpoznawania emocji u kandydatów starających się o pracę bądź w systemie edukacji.
Wiele firm technologicznych oferuje "analizę emocji", czyli systemy do analizy twarzy osoby, aby określić, jak się czuje. Może to być jednak szkodliwe dla wielu branż.
Badania Epson: praca z domu nieuniknioną przyszłością
Zgodnie z nowym artykułem The Guardian systemy wykrywania emocji są kombinacją dwóch technologii. Pierwszą jest komputerowa wizja. Oznacza to nic innego jak rejestrowanie przez maszynę zdjęcia bądź wideo przedstawiającego ludzką twarz. Drugą jest sztuczna inteligencja. To ona analizuje informacje, by określić co dana osoba czuje. Może więc osobę o zmarszczonych brwiach uznać jako złą, zaś uśmiechniętą jako szczęśliwą. Systemy te są już wykorzystywane do wielu zastosowań. IBM, Unilever i kilka innych firm ma systemy, których używają np. do przesiewania kandydatów do pracy, zaś Disney używa systemu wykrywania emocji, aby określić, w jaki sposób publiczność postrzega filmy podczas projekcji.
Indie wprowadzą sztuczną inteligencję jako przedmiot szkolny
"Z technologią tą eksperymentuje się także w środowisku szkolnym, aby sprawdzić, czy uczeń jest zajęty, znudzony lub zły podczas lekcji" - powiedziała The Guardian, Meredith Whittaker, dyrektor instytutu badawczego AI Now. Nietrudno dostrzec korzyści tego rodzaju technologii dla Disney'a czy IBM (o ile systemy są wyjątkowo dokładne). Ale w innych zastosowaniach może ona przynieść wiele szkody. W grudniu naukowcy z Wake Forest University opublikowali badanie, w którym przetestowali kilka systemów wykrywania emocji, w tym od Microsoftu i odkryli, że systemy przypisywały negatywne emocje zdjęciom osób czarnoskórych częściej, niż zdjęciom ludzi białych, nawet gdy uśmiechali się w tym samym stopniu. "Taka informacja może być wykorzystywana w sposób, który uniemożliwi ludziom zdobycie pracy lub ukształtuje sposób w jaki będą traktowani i oceniani np. w szkole" - dodała Whittaker - "Jeśli analiza nie będzie wyjątkowo dokładna, będziemy mieli do czynienia z wieloma problemami".
Powiązane publikacje

NVIDIA DGX GH200 - zapowiedziano platformę komputerową w pełni korzystającą z zalet superchipów Grace Hopper
9
Aurora genAI - Intel prezentuje model sztucznej inteligencji z bilionem parametrów. Rozwój w dziedzinie nauki stoi otworem
25
Sensor OLED - Samsung opracował wyświetlacz OLED z wbudowanym czytnikiem linii papilarnych oraz pomiarem pulsu
8
Sprzęt Intela dominuje ilościowo wśród najszybszych superkomputerów, ale AMD także ma się czym pochwalić
38