Wenn selbst KI-Giganten bei Security-Grundlagen patzen
Stellt euch vor, ihr lasst euer Tagebuch auf dem Bus liegen. Anthropic, ein Top-Player in der KI-Szene, hat genau das kürzlich hingelegt – nur dass das Tagebuch Blaupausen für eines der stärksten KI-Modelle aller Zeiten enthielt.
Fortune hat das aufgedeckt: Ein Ordner mit sensiblen Daten stand monatelang offen im Netz. Fast 3.000 Dateien, Bilder und PDFs zu ihrem neuen Modell „Claude Mythos“. Nicht versteckt in irgendwelchen Ecken – nein, direkt auf der Firmenwebsite, für jeden erreichbar, der draufstößt.
Warum das richtig alarmierend ist
Die Leaks enthüllen: Claude Mythos ist kein simpler Chatbot-Nachschub. Anthropics eigene Unterlagen nennen es ihr „mächtigstes und potenziell gefährlichstes“ Modell bisher. Es birgt „beispiellose Cybersicherheitsrisiken“, heißt es da schwarz auf weiß.
Die Entwickler selbst warnen also vor echter Gefahr. Und dann lassen sie die Bedienungsanleitung einfach rumliegen.
Warum das die ganze Branche trifft
Das ist nicht nur ein Ausrutscher für Anthropic – es ist ein Alarmsignal für alle. Diese Firmen bauen immer potenteren Kram. Wenn sie bei simplen Sicherheitsregeln scheitern, wie sollen wir ihnen dann Tech anvertrauen, die unser Leben verändert?
Der Witz: Wir hören ständig von starken Passwörtern und Zwei-Faktor-Auth. Und ausgerechnet KI-Pioniere legen Tausende Geheimdateien durch einen dummen Fehler offen.
Der große Kontext
Mich fasziniert, wie das den Graben zwischen Prahlerei und Praxis zeigt. KI-Firmen schwärmen von Safety-Checks und verantwortungsvoller Entwicklung. Doch so ein Vorfall macht klar: Selbst Elite-Teams stolpern bei der Basis-Sicherheit.
Offen bleibt: Wer hat die Dateien gesehen? Konkurrenz? Hacker? Solche Fragen sollten IT-Abteilungen wachhalten.
Was nun?
Normalerweise kommt dann eine Untersuchung, Sorry-Mails und neue Regeln. In der KI-Welt reicht das nicht. Wir müssen mehr fordern. Wer unser Vertrauen will bei Supermodelle, muss Security so ernst nehmen wie den Hype.
Ein Hammer-Modell wie Claude Mythos? Toll. Aber wozu, wenn der Safe offen steht?
Quelle: https://fortune.com/2026/03/27/anthropic-leaked-ai-mythos-cybersecurity-risk