Selv AI-giganter roter med grunnleggende sikkerhet
Tenk deg å legge igjen husnøklene på dørstammen. Anthropic, en av de største i AI-bransjen, gjorde nettopp noe verre. De lot en hel mappe med hemmelige filer ligge åpen på nettet. Dette handlet om nesten 3000 dokumenter, bilder og PDF-er knyttet til deres nye super-AI, Claude Mythos. Alt sto på selskapets egen nettside, synlig for hvem som helst.
Hvorfor er dette så alvorlig?
Dokumentene avslører at Claude Mythos ikke er en vanlig oppgradering. Anthropic kaller den selv deres "mest kraftfulle og potensielt farligste modell noensinne". De advarer om "uante cybersikkerhetsrisikoer". Byggerne frykter altså at AI-en kan bli et ekte problem. Og så etterlater de oppskriften ute i det fri.
Et signal til hele bransjen
Feilen rammer ikke bare Anthropic. Den viser svakheter i hele AI-verdenen. Firmaer utvikler stadig sterkere systemer. Hvis de ikke klarer enkle sikkerhetstiltak, hvordan skal vi stole på dem med teknologi som påvirker oss alle?
Ironien biter: Vi hører stadig om passordhåndtering og tofaktor-autentisering. Likevel klarer en AI-leder å legge ut tusenvis av filer på grunn av slurv.
Det større bildet
Historien blottlegger avstanden mellom prat og praksis. AI-selskaper skryter av sikkerhetstester og ansvarlig utvikling. Men en slik lekkasje viser at selv de beste kan feile på det grunnleggende.
Hvem rakk å laste ned filene? Konkurrenter? Hackere? Det vet vi ikke. Slike spørsmål burde plage sikkerhetssjefer.
Hva nå?
Vanligvis kommer en etterforskning, unnskyldninger og nye regler. I AI-bransjen må vi kreve mer. Innovasjon er fint, men uten sikkerhet er det verdiløst. Som å lage det perfekte låset og henge nøkkelen utenpå.
Kilde: https://fortune.com/2026/03/27/anthropic-leaked-ai-mythos-cybersecurity-risk