Провал доверия ИИ для армии
Стыдоба вышла. Минюст США прямо сказал Anthropic — тем самым, кто создал Claude — что они не годятся для военных дел. Как будто тебя не пустили за столик с крутыми ребятами. Только здесь на кону оружие и безопасность страны.
Я чешу затылок: куда катится ИИ в армии? С одной стороны, техно-гиганты позируют этичными. С другой — власти решают сами, кому верить.
Почему это не пустяк
Дело не в одной фирме. Речь о том, кто возьмёт руль ИИ для войн. И это пугает всех нас.
Anthropic хвалится безопасностью ИИ. Они твердят про выравнивание моделей, ответственное развитие. Всё, чтобы мы спали спокойно. Но Пентагону этого мало.
Широкий контекст — сплошной цирк
Интересно, как это зеркалит разлад в IT-мире. Компании красуются моралью перед публикой и сотрудниками. А сами глаз не сводят с жирных госконтрактов. Хочется быть прогрессивным стартапом, но и системы смерти строить.
Армия требует железных гарантий. Не то что кремниевая долина с её "быстрее-бей". Здесь жизни на карте, доверие — всё.
Что ждёт впереди
А не начало ли это раскола в ИИ? Будут "военные" фирмы и "мирные"? Логично, но жутко.
Правда в том, что ИИ для обороны слишком важен. Правительство не проглотит что попало из Силиконовой долины. А таланты и идеи — именно там.
Мой взгляд на бардак
Понимаю осторожность Минюста. Доверие завоёвывают делами, не словами. Но проблема глубже: нет норм для проверки ИИ в военных целях.
Лучше ввести жёсткий контроль, чёткие правила, открытость. Что значит "надёжный" ИИ? Пока все лепят на коленке.
А вы как думаете? Стоит ли ИИ-компаниям лезть в армию или лучше держаться подальше? Спор только разгорается, и нам всем с этим жить.
Источник: https://www.wired.com/story/department-of-defense-responds-to-anthropic-lawsuit