Platformy społecznościowe nie są w stanie usuwać fałszywych kont
Przestrzeń internetowa oferuje ogrom informacji, ale i sztucznego szumu, lub czegoś znacznie gorszego. Mowa oczywiście o botach, czy też tzw. cyborgach (częściowo prawdziwa aktywność, częściowo zautomatyzowana), a wręcz nawet ich zorganizowanych "armiach". Wszyscy niemal są zgodni z tym, że ich istnienie to prawdziwy problem i zmora internetu. Pytanie tylko, czy ktoś w tym temacie podejmuje realne działania? Jak wynika z raportu NATO StratCom – niekoniecznie. Ekipa badawcza tej organizacji w okresie pomiędzy majem a sierpniem 2019 sprawdziła, jak sobie z fałszywymi kontami radzą właściele platform społecznościowych. Odpowiedź brzmi – co pewnie nie jest zaskoczeniem – niezbyt dobrze.
Z badania NATO StratCom wynika, że platformy mediów społecznościowych nie są w stanie usunąć znakomitej większości fałszywych kont.
Za trzysta euro badacze byli w stanie zakupić 3520 komentarzy, 25 750 lajków, 20 000 wyświetleń oraz 5100 obserwujących odpowiednio na Facebooku, Instagramie, Twitterze i YouTube. Dysponując takim zapleczem ekipa StratCom weszła w interakcje z 19 000 fejkowymi kontami stworzonymi w celu manipulacji informacyjnej. Następnie miesiąc po wykupieniu fałszywego ruchu sieciowego na mediach społecznościowych badacze sprawdzili, co się z tymi wszystkimi kontami stało. Ku ich zdziwieniu 80% z nich nadal było aktywnych. Zgłosili więc ich losową próbkę jako nieautentyczne. Co się okazało? Trzy tygodnie po zgłoszeniu, 95% z tych kont nadal miało aktywny status. Konkluzja ekipy badawczej NATO StratCom była następująca: "samoregulacja nie działa". – Opierając się na tym eksperymencie i kilku innych badaniach w ciągu dwóch ostatnich lat, w naszej ocenie Facebook, Instagram, Twitter i YouTube nadal nie są w stanie adekwatnie zareagować na fałszywą aktywność na tych platformach – możemy wyczytać w raporcie.
Chiny będą traktować deepfakes i fake news jako przestępstwo
Jaki z tego morał? Im więcej pieniędzy pompujemy w takie kampanie, tym większe szanse, że trwały ślad po nich zostanie, a my praktycznie będziemy bezkarni. Niezbyt to pocieszająca konkluzja, gdy na horyzoncie mamy wybory w wielu ogromnych krajach. Problem jest taki, że przy 2,45 miliardach użytkowników Facebooka, jest to zbyt duże środowisko, aby moderować treści ręcznie, a narzędzia które potrafiłyby tego skutecznie dokonać w sposób zautomatyzowany na taką skalę także jeszcze nie istnieją. Co więcej, sam Facebook ma problem z decyzyjnością w sprawie zwalczania fake news, gdyż istnienie tego typu zjawiska sprzyja jemu modelowi biznesowemu, czegokolwiek by Zuckerberg w tej sprawie nie deklarował.
Powiązane publikacje

Meta kontra FTC. Kevin Systrom ujawnia, że Mark Zuckerberg postrzegał Instagram jako zagrożenie dla Facebooka
23
OpenAI rozważa zakup przeglądarki Chrome od Google, co oznacza potencjalną rewolucję w dostępie do sztucznej inteligencji
22
Użytkownicy skarżą się, że ChatGPT zbyt często ich chwali. Czy sztuczna inteligencja przestała mówić prawdę?
44
Facebook traci znaczenie wśród młodszych pokoleń. Wewnętrzne e-maile Meta pokazują rosnące problemy z atrakcyjnością platformy
57