Platformy społecznościowe nie są w stanie usuwać fałszywych kont
Przestrzeń internetowa oferuje ogrom informacji, ale i sztucznego szumu, lub czegoś znacznie gorszego. Mowa oczywiście o botach, czy też tzw. cyborgach (częściowo prawdziwa aktywność, częściowo zautomatyzowana), a wręcz nawet ich zorganizowanych "armiach". Wszyscy niemal są zgodni z tym, że ich istnienie to prawdziwy problem i zmora internetu. Pytanie tylko, czy ktoś w tym temacie podejmuje realne działania? Jak wynika z raportu NATO StratCom – niekoniecznie. Ekipa badawcza tej organizacji w okresie pomiędzy majem a sierpniem 2019 sprawdziła, jak sobie z fałszywymi kontami radzą właściele platform społecznościowych. Odpowiedź brzmi – co pewnie nie jest zaskoczeniem – niezbyt dobrze.
Z badania NATO StratCom wynika, że platformy mediów społecznościowych nie są w stanie usunąć znakomitej większości fałszywych kont.
Za trzysta euro badacze byli w stanie zakupić 3520 komentarzy, 25 750 lajków, 20 000 wyświetleń oraz 5100 obserwujących odpowiednio na Facebooku, Instagramie, Twitterze i YouTube. Dysponując takim zapleczem ekipa StratCom weszła w interakcje z 19 000 fejkowymi kontami stworzonymi w celu manipulacji informacyjnej. Następnie miesiąc po wykupieniu fałszywego ruchu sieciowego na mediach społecznościowych badacze sprawdzili, co się z tymi wszystkimi kontami stało. Ku ich zdziwieniu 80% z nich nadal było aktywnych. Zgłosili więc ich losową próbkę jako nieautentyczne. Co się okazało? Trzy tygodnie po zgłoszeniu, 95% z tych kont nadal miało aktywny status. Konkluzja ekipy badawczej NATO StratCom była następująca: "samoregulacja nie działa". – Opierając się na tym eksperymencie i kilku innych badaniach w ciągu dwóch ostatnich lat, w naszej ocenie Facebook, Instagram, Twitter i YouTube nadal nie są w stanie adekwatnie zareagować na fałszywą aktywność na tych platformach – możemy wyczytać w raporcie.
Chiny będą traktować deepfakes i fake news jako przestępstwo
Jaki z tego morał? Im więcej pieniędzy pompujemy w takie kampanie, tym większe szanse, że trwały ślad po nich zostanie, a my praktycznie będziemy bezkarni. Niezbyt to pocieszająca konkluzja, gdy na horyzoncie mamy wybory w wielu ogromnych krajach. Problem jest taki, że przy 2,45 miliardach użytkowników Facebooka, jest to zbyt duże środowisko, aby moderować treści ręcznie, a narzędzia które potrafiłyby tego skutecznie dokonać w sposób zautomatyzowany na taką skalę także jeszcze nie istnieją. Co więcej, sam Facebook ma problem z decyzyjnością w sprawie zwalczania fake news, gdyż istnienie tego typu zjawiska sprzyja jemu modelowi biznesowemu, czegokolwiek by Zuckerberg w tej sprawie nie deklarował.