Мир науки и технологий
← Главная
Отключат ли ИИ-гиганты свои модели во время войны? Anthropic отвечает: «Никогда!»

Отключат ли ИИ-гиганты свои модели во время войны? Anthropic отвечает: «Никогда!»

21 Мар 2026 1 просмотров

Когда ИИ сталкивается с геополитикой: новая зона риска

Представьте: разгорается третья мировая. Что станет с нашими ИИ-помощниками? Звучит как фантастика. Но это уже серьёзные разговоры в политике. ИИ везде — от армии до офисов.

Недавно Anthropic, создатели Claude, вынуждены были официально опровергнуть слухи. Мол, не будем ломать свои ИИ в случае войны. Сам факт такого заявления — сигнал тревоги в мире ИИ.

Откуда взялся такой вопрос

Смотрите стратегически. Компании вроде Anthropic, OpenAI и Google строят мощные системы. Они роют данные, пишут код, планируют операции, ускоряют исследования. В руках врага — это супероружие для одной стороны.

Вот дилемма: а если твоя технология помогает противнику? Захочется нажать "выкл". Ведь это частные фирмы с принципами и лояльностью. Не как электричество — нейтральное.

Anthropic рубит сплеча: нет!

Они чётко сказали: не будем вредить своим ИИ даже в военное время. Это их философия — ИИ как нейтральный инструмент. Доступен всем, несмотря на конфликты.

Но страшно другое. Они не станут делать это сами. А если государство прикажет? В кризисах правительства давят на бизнес. Легко.

Шире взгляд: ИИ как ключевой актив

Речь о статусе ИИ. Он уже критическая инфраструктура? Как сети или энергосистемы — их берегут в войнах. ИИ тоже стоит охранять.

Проблема: всё в руках приватных фирм. С их ценностями и странами. Нет "безопасного" ИИ. Все привязаны к политике.

Мой вывод: нужна открытость

Я слежу за ИИ годами. Этот скандал показывает: пора раскрывать карты. Как фирмы поведут себя в аду?

Уважаю Anthropic за честность. Лучше спорить сейчас, чем в панике во время беды. ИИ слишком важен для чисто частного контроля. Нужна глобальная координация. Типа Женевских конвенций для ИИ — правила на войну.

Что это значит для нас

Для обычных юзеров — сигнал. ИИ не просто софт. Это продукт компаний с их взглядами и слабостями.

Не бросайте Claude или ChatGPT (я не брошу). Но думайте о рисках. Имейте план Б для важных дел.

Эра "нейтрального ИИ" кончается, не начавшись. Придётся с этим жить, пока технологии рулят миром.

А вы как? Должны ли ИИ-компании клясться в нейтралитете? Или это сказки в нашем мире?

Источник: https://www.wired.com/story/anthropic-denies-sabotage-ai-tools-war-claude

#artificial intelligence #ai ethics #geopolitics #anthropic #technology policy