Nawet giganci AI popełniają błędy w podstawach bezpieczeństwa
Wyobraź sobie, że zostawiłeś klucze do domu na ławce w parku. Anthropic, lider w świecie sztucznej inteligencji, właśnie przeżył coś podobnego. Ich "klucze" to tajne plany nowego, rewolucyjnego modelu AI.
Dziennikarze Fortune odkryli, że firma wystawiła na widok publiczny cały folder z wrażliwymi danymi. Chodzi o prawie 3 tysiące plików, zdjęć i PDF-ów o nadchodzącym modelu "Claude Mythos". Wszystko leżało otwarcie na ich własnej stronie internetowej. Każdy mógł to znaleźć i pobrać.
Dlaczego to takie niepokojące?
Dokumenty same w sobie brzmią alarmująco. Anthropic opisuje Claude Mythos jako swój "najpotężniejszy i potencjalnie najbardziej ryzykowny" model. Firma ostrzega przed "niespotykanymi zagrożeniami cyberbezpieczeństwa". Budowniczowie AI sami przyznają: to może być niebezpieczne. A potem zostawili schematy na widoku.
Skutki dla całej branży
To nie tylko wpadka Anthropic – choć na pewno ich zawstydza. To sygnał ostrzegawczy dla wszystkich firm AI. Tworzą coraz mocniejsze systemy, które wpłyną na nasze życie. Jeśli nie radzą sobie z prostymi zasadami bezpieczeństwa, jak mamy im ufać?
Ironia gryzie: wszędzie wciskają nam dwuetapowe logowanie i menedżery haseł. A tu topowy gracz wystawia tysiące plików przez głupi błąd konfiguracji.
Szerszy kontekst
Ta historia pokazuje przepaść między gadaniem a praktyką. Firmy AI chwalą się protokołami bezpieczeństwa i testami. Ale wystarczy jedna pomyłka, by wyszło szydło z worka. Nawet najlepsi mają słabe punkty w codziennej ochronie.
Kto widział te pliki? Konkurencja? Hakerzy? Nie wiemy. Ale takie pytania powinny niepokoić każdego specjalistę od bezpieczeństwa.
Co dalej?
Zwykle kończy się na przeprosinach i poprawkach. W AI to za mało. Musimy wymagać dowodów, że innowacje idą w parze z solidnym bezpieczeństwem. Po co budować superzamki, skoro zostawiasz klucze w drzwiach?
Źródło: https://fortune.com/2026/03/27/anthropic-leaked-ai-mythos-cybersecurity-risk