AI и армията: Когато доверието се срива публично
Ето го гафа на годината. Министерството на правосъдието в САЩ просто отряза Anthropic – фирмата зад Claude AI – от военните поръчки. Като да ти кажат: "Извинявай, но не си за нашата маса". А масата тук е за оръжия и национална сигурност.
Това ме кара да се чудя накъде отиваме с изкуствения интелект в армията. От една страна, компаниите се преструват на морални стражи. От друга – правителството решава кои са надеждни.
Защо това засяга всички ни
Не става дума само за един отказ. Въпросът е кой ще държи юздите на AI във войната. Това трябва да ни притесни сериозно.
Anthropic винаги са се хвалили с "безопасност на първо място". Говорят за етика, контрол и всичко, което ни кара да спим спокойно. Но Пентагонът явно не е впечатлен.
Напрежението в света на технологиите
Интересното е как това разкрива големия сблъсък. Фирмите искат да изглеждат прогресивни пред служителите и клиентите си. Но същевременно мечтаят за сочните държавни договори. Искаш да си модерен, но да строиш машини, които могат да убият.
Армията има свои изисквания. Не е като в Кремнива долина, където всичко се пробва на момента. Тук стават въпроси за животи и сигурност. Доверието е ключът.
Къде ще стигнем оттук
Може би започва ново разделение: AI за войници и AI за цивилни. Изглежда неизбежно, но и много тревожно.
Правителството не може да разчита слепо на Силиконовата долина за националната си отбрана. Ами фирмите? Те имат мозъците и идеите, които липсват на военните.
Моето виждане за този цирк
Разбирам защо съдиите са предпазливи. Доверието се печели, не се обявява. Но проблемът е по-голям: няма ясни правила за проверка на AI фирми за военни цели.
По-добре да имаме строги стандарти, прозрачност и контрол. Сега всички импровизират. Трябва да спрем с игрите.
Вие какво мислите? Да ли AI компаниите трябва да се лепят за армията, или по-добре да стоят настрана? Дебатът току-що започва, а ние ще платим цената.
Източник: https://www.wired.com/story/department-of-defense-responds-to-anthropic-lawsuit