Quando Anche le Aziende AI Sbagliano le Basi della Sicurezza
Ti è mai capitato di lasciare il portafoglio sul tavolo di un bar affollato? Immagina di fare lo stesso con i progetti segreti del tuo modello AI più potente. È quello che è successo ad Anthropic, leader nel settore dell'intelligenza artificiale. Hanno esposto online una cartella piena di dati sensibili sul loro prossimo modello, Claude Mythos.
L'inchiesta di Fortune rivela i dettagli: quasi 3.000 file non ancora pubblicati, tra immagini, PDF e documenti tecnici. Tutto era lì, sul sito aziendale, alla portata di chiunque con un link diretto. Niente angoli oscuri del web, solo un errore banale.
Perché È un Problema Grave?
I documenti trapelati non mentono. Claude Mythos non è un semplice aggiornamento di un chatbot. Anthropic lo definisce il loro modello "più potente e potenzialmente più rischioso". Parliamo di pericoli informatici senza precedenti, secondo loro stessi.
Riflettici: chi lo ha creato ammette che potrebbe essere pericoloso. E poi lo lasciano in bella vista su internet, come un manuale di istruzioni abbandonato per strada.
Un Allarme per Tutto il Settore
Non è solo una figuraccia per Anthropic. È un campanello d'allarme per l'intera industria AI. Stanno costruendo sistemi sempre più potenti, capaci di cambiare il mondo. Se non riescono a impostare una sicurezza di base, come fidarsi?
L'ironia è lampante. Tutti ci bombarda con consigli su password forti e autenticazione a due fattori. Eppure, un'azienda all'avanguardia espone migliaia di file per un oversight elementare.
Il Quadro Completo
Questa storia mette a nudo il divario tra promesse e realtà. Le big dell'AI vantano protocolli di sicurezza ferrei, test rigorosi e sviluppo responsabile. Poi arriva un incidente del genere e capisci: anche i giganti inciampano sulle basi operative.
E chi ha visto quei file mentre erano online? Concorrenti? Hacker? Non lo sappiamo, ma sono domande che dovrebbero tormentare i team di sicurezza.
Cosa Aspettarsi Ora?
Di solito, segue un'indagine, scuse pubbliche e ritocchi alle policy. Ma nel mondo AI serve di più. Vogliamo prove concrete che la sicurezza conti quanto l'innovazione.
Claude Mythos può essere un capolavoro tecnico, ma a che serve se non lo proteggi? È come inventare una cassaforte inviolabile e lasciare la porta aperta.
Fonte: https://fortune.com/2026/03/27/anthropic-leaked-ai-mythos-cybersecurity-risk