Apple ma prosty sposób na halucynacje sztucznej inteligencji - po prostu jej tego zabrania. Apple Intelligence odsłania karty
Wiele z funkcji, które wchodzą w skład pakietu Apple Intelligence, jest już dostępnych do przetestowania dla osób zamieszkujących Stany Zjednoczone. Pewnemu użytkownikowi już teraz udało się znaleźć instrukcje, jakimi kierują się modele AI należące do rodziny Apple Foundation Model (AFM). Apple dokładnie opisało, jak powinny się zachowywać modele wykorzystywane do danej usługi, choć kilka zastosowanych reguł jest... niezbyt przemyślanych.
Z wybranych usług należących do pakietu Apple Intelligence mogą już skorzystać osoby z USA. Niektórzy użytkownicy zdążyli się "dokopać" do instrukcji, które Apple napisało dla swoich modeli AI.
Gemini 1.5 Flash - nowa wersja chatbota dostępna za darmo. Google walczy z halucynacjami i zwiększa możliwości usługi
Do omawianego odkrycia jako jeden z pierwszych doszedł użytkownik Reddita o nazwie devanxd2000. Korzystając z systemu macOS Sequoia 15.1 Beta, odnalazł pliki w formacie JSON (/System/Library/AssetsV2/com_apple_MobileAsset_UAF_FM_GenerativeModels oraz /System/Library/AssetsV2/com_apple_MobileAsset_UAF_SummarizationKitConfiguration), które zawierają reguły, jakich powinien się trzymać model AI przypisany do danej usługi. Poniższy kod wskazuje na fakt, że mamy do czynienia z asystentem, który ma pomagać użytkownikom w odpowiadaniu na wiadomości mailowe. Co dość ciekawe, firma Apple chce zapobiec zjawisku halucynacji (czyli generowaniu fałszywych odpowiedzi i przedstawianiu ich jako zupełnie prawdziwe) poprzez nakazanie modelowi AI: "nie miej halucynacji". Oczywiście, gdyby to było takie proste, to żaden chatbot nie miałby dziś tego problemu.
Apple Intelligence - sztuczna inteligencja wkracza do ekosystemu. Apple ulepsza Siri i nawiązuje partnerstwo z OpenAI
Na kolejnym zrzucie ekranu widać instrukcje dla "eksperta od podsumowywania wiadomości". Musi on generować zwięzłe odpowiedzi, które nie będą przekraczać 10 słów. Ma też wskazać 5 tematów, które się przewijają w danym tekście (każdy z nich musi być określony jednym słowem). Możemy również zauważyć reguły dla asystenta, który ma za zadanie zdefiniować, czy obraz, jaki ma zostać wygenerowany, będzie zaliczany do bezpiecznych, czy też nie. Do niebezpiecznych kategorii należą: obrazy przedstawiające molestowanie dzieci, narkotyki, sceny z podgatunku horrorów o nazwie Gore, molestowanie, nienawiść, nagość lub sceny seksualne, nieprzyzwoite słowa, samookaleczanie, toksyczność, terroryzm lub ekstremizm, przemoc, czy też broń. Rzecz jasna takich instrukcji jest całkiem sporo — niektóre z nich możemy zobaczyć poniżej. Wątek na platformie Reddit znajduje się pod tym adresem.