Technologia wykrywająca emocje zgubą dla kandydatów o pracę
Maszyny mogą nie mieć emocji, ale to nie znaczy, że nie mogą ich rozpoznać. Jest to jedna z dziedzin technologii, w którą inwestuje się grube dolary, i która działa już w wielu firmach w równie wielu celach. Od nieznanych jeszcze startupów po znanych graczy, takich jak Amazon czy Microsoft, wiele firm technologicznych oferuje obecnie "analizę emocji", czyli systemy zaprojektowane do analizy twarzy konkretnej osoby, aby określić, jak się ona czuje. Istnieją jednak przesłanki, które sugerują, że systemy te mogą wyrządzić więcej szkody niż pożytku, gdy są stosowane np. w celu rozpoznawania emocji u kandydatów starających się o pracę bądź w systemie edukacji.
Wiele firm technologicznych oferuje "analizę emocji", czyli systemy do analizy twarzy osoby, aby określić, jak się czuje. Może to być jednak szkodliwe dla wielu branż.
Badania Epson: praca z domu nieuniknioną przyszłością
Zgodnie z nowym artykułem The Guardian systemy wykrywania emocji są kombinacją dwóch technologii. Pierwszą jest komputerowa wizja. Oznacza to nic innego jak rejestrowanie przez maszynę zdjęcia bądź wideo przedstawiającego ludzką twarz. Drugą jest sztuczna inteligencja. To ona analizuje informacje, by określić co dana osoba czuje. Może więc osobę o zmarszczonych brwiach uznać jako złą, zaś uśmiechniętą jako szczęśliwą. Systemy te są już wykorzystywane do wielu zastosowań. IBM, Unilever i kilka innych firm ma systemy, których używają np. do przesiewania kandydatów do pracy, zaś Disney używa systemu wykrywania emocji, aby określić, w jaki sposób publiczność postrzega filmy podczas projekcji.
Indie wprowadzą sztuczną inteligencję jako przedmiot szkolny
"Z technologią tą eksperymentuje się także w środowisku szkolnym, aby sprawdzić, czy uczeń jest zajęty, znudzony lub zły podczas lekcji" - powiedziała The Guardian, Meredith Whittaker, dyrektor instytutu badawczego AI Now. Nietrudno dostrzec korzyści tego rodzaju technologii dla Disney'a czy IBM (o ile systemy są wyjątkowo dokładne). Ale w innych zastosowaniach może ona przynieść wiele szkody. W grudniu naukowcy z Wake Forest University opublikowali badanie, w którym przetestowali kilka systemów wykrywania emocji, w tym od Microsoftu i odkryli, że systemy przypisywały negatywne emocje zdjęciom osób czarnoskórych częściej, niż zdjęciom ludzi białych, nawet gdy uśmiechali się w tym samym stopniu. "Taka informacja może być wykorzystywana w sposób, który uniemożliwi ludziom zdobycie pracy lub ukształtuje sposób w jaki będą traktowani i oceniani np. w szkole" - dodała Whittaker - "Jeśli analiza nie będzie wyjątkowo dokładna, będziemy mieli do czynienia z wieloma problemami".
Powiązane publikacje
![OpenAI wycofuje jeden z głosów, którym operuje ChatGPT. Powodem zbytnie podobieństwa do znanej aktorki](/files/Image/m165/43647.png)
OpenAI wycofuje jeden z głosów, którym operuje ChatGPT. Powodem zbytnie podobieństwa do znanej aktorki
15![Arm chce wejść na rynek sztucznej inteligencji. Trwają prace nad prototypami nowych chipów](/files/Image/m165/43560.jpg)
Arm chce wejść na rynek sztucznej inteligencji. Trwają prace nad prototypami nowych chipów
10![NVIDIA była w 2023 roku największą firmą zajmującą się projektowaniem układów scalonych](/files/Image/m165/43549.png)
NVIDIA była w 2023 roku największą firmą zajmującą się projektowaniem układów scalonych
23![Cały potencjał TSMC w zakresie pakowania CoWoS i SoIC został zarezerwowany do końca 2025 roku](/files/Image/m165/43513.png)
Cały potencjał TSMC w zakresie pakowania CoWoS i SoIC został zarezerwowany do końca 2025 roku
11![TSMC zaprezentowało proces technologiczny A16. Produkcja masowa bazujących na nim chipów przewidziana jest na 2026 rok](/files/Image/m165/43440.png)