AI-stolpebrekk som raknet for Anthropic
Oi oi. Justisdepartementet har satt foten ned for Anthropic, skaperne av Claude AI. De er ikke godkjent for militære oppdrag. Tenk deg å bli nektet adgang til festen – der festen handler om våpen og forsvar.
Dette får meg til å lure på AIens rolle i krigføring. Tech-selskaper vil være de ansvarlige gutta. Men staten bestemmer hvem de stoler på.
Hvorfor det treffer oss alle
Det handler ikke bare om ett selskap som får kjeft. Nei, det er kjernen i hvem som styrer AI i fremtidens kriger. Det burde uro oss litt.
Anthropic har profilert seg som sikkerhetsforkjempere. De snakker mye om etisk AI og kontroll. Likevel holder ikke det for Pentagon-folket.
Det store bildet er kaotisk
Situasjonen viser spenningene i tech-verdenen. Selskaper vil virke moralske for kunder og ansatte. Samtidig jakter de på statlige penger. De vil være progressive helter – og bygge dødelige systemer.
Militæret krever strenge regler. Det passer dårlig med Silicon Valleys "raskt og galt"-filosofi. Her står nasjonal sikkerhet og liv på spill. Tillit er alt.
Fremtiden ser splittet ut
Blir det militær-AI og sivil-AI? Det virker uunngåelig. Og skummelt.
AI er for viktig for sikkerhet til at staten bare svelger Silicon Valley-produkter. Men tech-folket har ekspertisen militæret mangler.
Min dom på sirkuset
Jeg skjønner departementets skepsis. Tillit bygges, den erklæres ikke. Men det avslører et hull: Vi mangler klare regler for å vurdere AI i militær bruk.
Kanskje vi trenger bedre tilsyn, tydelige rammer og ærlighet om hva "tillitsverdig" betyr. Nå improviserer alle.
Hva synes du? Skal AI-selskaper kaste seg inn i militæret, eller holde avstand? Debatten er i gang. Vi lever med valgene.
Kilde: https://www.wired.com/story/department-of-defense-responds-to-anthropic-lawsuit