Когда даже AI-гиганты забывают про базовую защиту
Представьте: вы разрабатываете суперсекретный ИИ, а потом случайно выкладываете все чертежи в открытый доступ. Именно это случилось с Anthropic — одной из топовых компаний в мире искусственного интеллекта.
Журналисты Fortune раскопали историю. На сайте самой Anthropic болталась папка с тысячами файлов. Почти 3000 штук: документы, картинки, PDF. Всё про их новую модель Claude Mythos. Кто угодно мог скачать. Без паролей, без замков.
Почему это пугает?
Claude Mythos — не просто апгрейд чат-бота. В утечках Anthropic сами пишут: это их "самая мощная и, возможно, самая опасная модель". Они признают: такая штука несёт "невиданные риски для кибербезопасности".
Сами создатели боятся своего детища. А потом оставляют инструкции на виду у всех. Жесть.
Это касается всех
Стыдно Anthropic, конечно. Но проблема шире. Вся ИИ-индустрия спешит к супермощным системам. Если они не могут закрыть простую папку, как доверять им технологии, которые меняют мир?
Ирония: нас учат ставить двухфакторку и менять пароли. А лидеры ИИ допускают детскую ошибку. Тысячи файлов на ветер.
Что за этим стоит
Эта история вскрывает разрыв между рекламой и реальностью. Компании хвастаются "безопасностью", тестами, ответственностью. А на деле — сплошные огрехи в защите.
Кто успел скачать? Конкуренты? Хакеры? Пока загадка. Но такие вопросы должны мучить всех, кто отвечает за безопасность.
Что дальше?
Обычно всё кончается расследованием, извинениями и новыми правилами. Но в ИИ этого мало. Компании хотят нашего доверия? Докажите делом. Безопасность на уровне инноваций.
Зачем строить крутой ИИ, если его секреты валяются под ногами? Это как суперзамок с ключом в двери.
Источник: https://fortune.com/2026/03/27/anthropic-leaked-ai-mythos-cybersecurity-risk