Gemini CLI i Replit Agent usunęły dane użytkowników pomimo instrukcji zamrożenia kodu w lipcu 2025 roku
Asystenci AI w programowaniu to rewolucja i lepsza produktywność. Integrowane z edytorami kodu i terminalem, mają pomagać w pisaniu i refaktoryzacji kodu. Jednak najnowsze informacje pokazują, że bezkrytyczne zaufanie do ich sugestii może przynieść katastrofalne skutki. Zanim oddamy AI kontrolę nad naszymi plikami, warto poznać drugą, mroczniejszą stronę tej technologii. Problem dewelopera z popularnym narzędziem AI to ostrzeżenie dla wszystkich.
Zawiodłem cię całkowicie i katastrofalnie. Przegląd komend potwierdza moją rażącą niekompetencję - Gemini CLI po skasowaniu plików użytkownika.
Google rzuca wyzwanie nudnym zdjęciom. Sztuczna inteligencja zrobi z nich wideo, a Ty nie musisz umieć montować
Asystenci programowania wykorzystujący sztuczną inteligencję są coraz popularniejszymi narzędziami. Narzędzia takie jak GitHub Copilot, obiecują przyspieszenie pracy i automatyzację żmudnych zadań. Jednak niedawny incydent z udziałem dewelopera Anuraaga Goela i narzędzia zintegrowanego z modelem Google Gemini pokazuje, że ślepe zaufanie do AI może skończyć się katastrofą. Programista chciał pozbyć się tajemniczego ciągu znaków, który pojawił się w jego plikach. Myślał, że to błąd. W efekcie stracił dane zbierane przez rok. Ciąg '\u001b[3J\u001b[H\u001b[2J' jest zwykłym kodem terminala, który służy do czyszczenia ekranu. Sztuczna inteligencja błędnie zidentyfikowała go jako niechcianą treść wewnątrz plików projektu. Asystent AI, zamiast poprawnie zdiagnozować sytuację, wpadł w pętlę błędów. Model językowy zaczął "halucynować", czyli generować fałszywe, choć pozornie prawdopodobne informacje. W efekcie zasugerował wykonanie wyjątkowo destrukcyjnego polecenia `rm -rf`, które miało na celu usunięcie wszystkich plików sprawiających problemy.
To już nie science fiction. Autonomiczny robot z AI samodzielnie operuje. Lekarze patrzyli, jak maszyna radzi sobie na sali
Deweloper, ufając sugestii zaawansowanego narzędzia, zatwierdził operację. Niestety, polecenie zostało przekierowane na nadrzędny katalog, a to sprawiło, że natychmiastowo i nieodwracalnie usunięto wszystkie jego podkatalogi i pliki. W jednej chwili zniknęły osobiste dokumenty, zdjęcia, a także repozytoria kodu. Ten przypadek nie jest odosobniony. Podobne zdarzenia, jak niedawne problemy z AI firmy Replit, które usunęło produkcyjną bazę danych, pokazują fundamentalną słabość obecnych modeli LLM. Nie "rozumieją" one kontekstu ani konsekwencji swoich działań, a jedynie statystycznie przewidują kolejne słowa. Wspomniane zdarzenie jest twardym dowodem tego, że asystenci AI, mimo swoich imponujących możliwości, wciąż wymagają ścisłego nadzoru człowieka. Używanie ich do operacji na systemie plików bez dogłębnej weryfikacji każdego polecenia jest skrajnie ryzykowne. Wnioski są jednoznaczne. Technologia ta nie jest jeszcze gotowa na pełną autonomię, a brak regularnych i kompletnych kopii zapasowych może zwielokrotnić skutki jej błędów. Każdy programista korzystający z AI musi zachować zdrowy rozum i traktować sugestie maszyny jako podpowiedź, a nie ostateczną wyrocznię. No i oczywiście wykonywać kopie zapasowe.
Powiązane publikacje

Google rzuca wyzwanie nudnym zdjęciom. Sztuczna inteligencja zrobi z nich wideo, a Ty nie musisz umieć montować
20
Microsoft Windows 11 25H2 to CodeQL dla sterowników oraz usprawnienia w zarządzaniu energią i responsywności interfejsu
27
Windows 11 Insider Preview Build 26200.5710 ma funkcję Shared Audio do odtwarzania dźwięku przez wiele urządzeń naraz
30
xAI zapowiada Baby Grok, dziecięcą wersję chatbota AI z mechanizmami kontroli rodzicielskiej i filtrami bezpieczeństwa
26