Google wykorzysta AI do moderacji treści na YouTube
Stanisław Lem napisał kiedyś "dopóki nie skorzystałem z internetu, nie wiedziałem, że na świecie jest tylu idiotów". Stwierdzenie przykre, ale niestety prawdziwe. Problemem wielu portali jest jednak nie tyle sama głupota odwiedzających je użytkowników, a niebezpieczne treści, które są za ich pomocą przekazywane. Nie jest tajemnicą, że m.in. Facebook czy YouTube stanowiły już wielokrotnie narzędzia komunikacji oraz propagandy dla terrorystów, a mniej skrajnych przejawów nawoływania do nienawiści nawet trudno zliczyć. Jest to duży problem i to nie tylko moralny, ale także wizerunkowy, a co za tym idzie - także biznesowy. Z tego powodu właściciele portali planują z tym walczyć. Odpowiednie kroki w tym kierunku podjął Google, który właśnie ogłosił, że w serwisie YouTube do zwalczania filmików z treściami ekstremistycznymi wykorzysta m.in. algorytmy oparte o sztuczną inteligencję.
Nowy mechanizm na YouTube pozwoli na identyfikację treści nawołujących do nienawiści oraz podjęcie stosownych działań przez moderatorów.
Problem ekstremistycznych treści na portalu YouTube jest bezpośrednio powiązany z mechanizmami monetyzacji na platformie. Fakt, że przy filmikach nawołujących do nienawiści pojawiały się reklamy, wywoływał wśród wielu użytkowników niesmak, a część reklamodawców skłonił nawet do zrezygnowania z promowania się na platformie. W ramach reakcji Google przygotował zestaw nowych mechanizmów, które mają pomóc w identyfikacji takich niepożądanych treści i blokowaniu możliwości zarabiania na nich, a w skrajnych przypadkach nawet ich usuwaniu. Ma w tym pomóc nowy algorytm, który wykorzystuje mechanizmy poznawania maszynowego w celu ich identyfikacji. Podobne rozwiązanie jest już stosowane na portalu, jednak służy ono wyłącznie rozpoznawaniu treści związanych z terroryzmem. Jest w tym zresztą całkiem skuteczne, ponieważ pozwala na wyłapanie ponad 50% takich filmików. Obecnie firma pracuje nad poszerzeniem zakresu zainteresowania algorytmu o inne treści związane z nawoływaniem do nienawiści. Materiały tego typu będą usuwane, a w przypadkach z pogranicza umieszczane będą ostrzeżenia i wyłączona zostanie możliwość ich monetyzacji.
YouTube wprowadziło obsługę technologii High Dynamic Range
Wykorzystanie sztucznej inteligencji do moderacji treści w internecie może budzić niepokój u każdego fana science-fiction, ale na całe szczęście nie wygląda na to, żebyśmy póki co mieli powody do obaw. Oprócz komputerów nad całą procedurą weryfikacji treści będzie czuwać jeszcze sztab pracowników YouTube, do których będzie należała ostateczna decyzja o usunięciu danego materiału. Poza tym krok o zastosowaniu mechanizmów poznawania maszynowego do nadzorowania działań użytkowników wydaje się być w obecnym internecie koniecznością, bowiem ilość generowanych treści znacznie przekracza możliwości ich indywidualnej weryfikacji przez człowieka. Dość powiedzieć, że na samego YouTube'a każdej minuty wrzucanych jest 300h materiału. Pozostaje jedynie mieć nadzieję, że doświadczenie Google na tym polu zaprocentuje i nie będziemy mieli powtórki z Facebooka, gdzie automatyczna cenzura treści o charakterze seksualnym potrafiła prowadzić do absurdalnych sytuacji.
YouTube Red - Płatna subskrypcja usuwająca reklamy
Powiązane publikacje

ARM ma już 40 lat. Architektura, która zasila smartfony, serwery i roboty, trafiła do ponad 250 miliardów urządzeń
22
Anthropic chce zajrzeć do wnętrza AI. Czy do 2027 roku odkryjemy, jak naprawdę myślą modele językowe?
22
Firma Elona Muska xAI chce pozyskać 25 miliardów dolarów na budowę superkomputera Colossus 2 z milionem GPU NVIDIA
60
Nowatorski interfejs mózg-komputer od Georgia Tech może zmienić sposób, w jaki ludzie komunikują się z technologią i otoczeniem
4