Meta podaje więcej informacji o tym, w jaki sposób systemy SI decydują, co zobaczysz na Facebooku i Instagramie
Przeglądając serwisy społecznościowe takie jak Facebook, czy też Instagram zazwyczaj widzimy posty naszych znajomych, a także grup, które obserwujemy. Ukazywane są one w naszych aktualnościach. Jednak od czasu do czasu wyświetlają się treści spoza naszego kręgu obserwowanych, które są dopasowywane do naszych bieżących zainteresowań. Jednak aby to wszystko było możliwe, systemy Sztucznej Inteligencji oparte o różne modele językowe muszą poprawnie działać.
W celu usprawnienia działania serwisów społecznościowych Meta używa Sztucznej Inteligencji, która stara się dopasować treści, jakie zobaczymy, do naszych osobistych preferencji oraz zainteresowań. Firma zdradziła na ten temat trochę więcej.
Meta zaprezentowała nowy model AI o nazwie SAM. Z powodzeniem potrafi on identyfikować i izolować obiekty ze zdjęć
Zazwyczaj osoby korzystające z Facebooka lub Instagrama nie zastanawiają się nad sposobem działania tych serwisów. Jednak wszystkie treści, jakie codziennie widzą na stronie głównej, muszą zostać najpierw przefiltrowane przez zaawansowane systemy. Łatwiej sprawa wygląda w sytuacji, kiedy są to posty znajomych i obserwowanych grup. Natomiast jak się okazuje 20% wszystkich treści, jakie widzą użytkownicy serwisów społecznościowych Mety, pochodzą od osób, których w ogóle nie znają. Taki zabieg ma kilka celów: pokazać użytkownikowi posty, które opierają się na jego zainteresowaniach, a przy okazji dotarcie do innych ludzi lub grup, co dodatkowo pomoże mu zobaczyć treści, jakich nie miałby okazji widzieć. Jednak dana osoba może interesować się przez chwilę wędkarstwem, a za moment kolarstwem lub jazdą figurową. Zainteresowania ludzi bardzo często się zmieniają. Tak więc aby treści, które ktoś zobaczy w swoich aktualnościach, były faktycznie interesujące, w omawianych serwisach funkcjonują specjalne systemy, które opierają się na wielu różnych modelach. Modele te potrafią rozpoznawać pismo, mowę, dźwięki oraz materiały graficzne i wideo (MViT, XLM-R/XLM-V, FLAVA/Omnivore).
Meta z wyciekiem narzędzi sztucznej inteligencji. Korporacyjny Large Language Model Meta AI pojawił się na forum 4chan
Imponująca jest natomiast szybkość, z jaką potrafią one działać. W ciągu ułamka sekundy taki system potrafi przefiltrować miliony treści, aby następnie zawęzić je do setek, które mogą spodobać się użytkownikowi. Meta udostępniła dodatkowo informacje o kartach owych systemów (jest ich łącznie 22, obejmują one Aktualności, Rolki, Relacje, Proponowane grupy Wyszukiwarkę czy Łączenie Rolek). Możemy z nich się dowiedzieć jeszcze więcej, jak na przykład co powoduje, że dane krótkie wideo w postaci Rolki lub Reelsa będzie umieszczone wyżej w rankingu. Decyduje tutaj głównie kilka czynników: polubienia, długość oglądania materiału wideo, sytuacja, w której użytkownik zatrzymuje filmik i w jakim momencie to robi. Agregowanie treści dla miliardów użytkowników byłoby nieosiągalne bez dopracowanych systemów. Całość jest naprawdę dość skomplikowana i jeśli chcemy się dowiedzieć więcej na ten temat, to link znajdziemy wcześniej w tym akapicie.
Powiązane publikacje

ARM ma już 40 lat. Architektura, która zasila smartfony, serwery i roboty, trafiła do ponad 250 miliardów urządzeń
22
Anthropic chce zajrzeć do wnętrza AI. Czy do 2027 roku odkryjemy, jak naprawdę myślą modele językowe?
22
Firma Elona Muska xAI chce pozyskać 25 miliardów dolarów na budowę superkomputera Colossus 2 z milionem GPU NVIDIA
60
Nowatorski interfejs mózg-komputer od Georgia Tech może zmienić sposób, w jaki ludzie komunikują się z technologią i otoczeniem
4