Google zdradza ile zawartości internetu to duplikaty, a ile materiały unikatowe. Możecie być zaskoczeni
Śmiem twierdzić, że wielu z Was nie dziwi fakt, że w sieci jest sporo treści, która się na siebie nakłada. Wystarczy wziąć filmik z YouTube - z dużą pewnością taki sam znajdziemy też na innych portalach z materiałami wideo, nie wspominając już o masie identycznych zdjęć, a już zwłaszcza o torrentach. Jeśli jednak mielibyście oszacować, jaka dokładnie część sieci to duplikaty, to na ile byście obstawili?
Google chwali się, że obliczyło ile wszystkich materiałów w sieci to duplikaty, a ile materiały unikatowe. Wynik trochę zaskakuje...
Nie dla Google Workspace i Office 365 we francuskich szkołach. Ministerstwo edukacji obawia się o prywatność danych
Tak się składa, że nie musimy już niczego zgadywać. Otóż według Google, tylko ok. 40% zbiorów internetu to oryginalne / niezduplikowane dane i informacje. Proste obliczenia zdradzają więc, że duplikaty zajmują dokładnie 60% przestrzeni internetowej. Cóż, to w zasadzie całkiem sporo, ale osobiście myślałem, że odsetek ów będzie jeszcze większy. Oczywiście Google nie ma dostępu do danych z całej sieci, więc liczby te mogą być ostatecznie nieco inne (kwestia kilku, kilkunastu procent różnicy w jedną bądź drugą stronę).
About 60% of the Internet is duplicate. @methode
— Kenichi Suzuki鈴木謙一 (@suzukik) November 24, 2022
#SearchCentralLive pic.twitter.com/jcuu1qrSKQ
Brytyjski organ ochrony konkurencji bierze Apple i Google na celownik. Powodem duopol w sektorze mobilnym
Druga rzecz - nie do końca wiadomo, co dokładnie Google uznaje za 'duplikat' - czy tylko materiały o identycznej zawartości, a zarazem identycznej wadze pliku? Czy więc jeśli w jednym z materiałów (np. zdjęciu) jakiś grafik zastosował zwiększenie kontrastu, to nie będzie to już duplikat? Bardziej niż pewnym jest z kolei to, że Google do tych obliczeń skorzystało z algorytmów sztucznej inteligencji, dlatego też - jak już podkreśliłem - wyników tych nie należy brać za pewnik, a jedynie jako przybliżone szacunki.