Science & Technology
← Home
Microsoft Copilot lekker hemmelige e-poster: Dette må du vite

Microsoft Copilot lekker hemmelige e-poster: Dette må du vite

2026-03-22T09:26:37.814665+00:00

Microsofts Copilot-feil: Personvernbrudd i e-posten

Hei tech-folkens! Har du testet Microsoft 365 Copilot på jobben? Da burde du lytte godt nå. En nylig feil får AI-en til å oppsummere hemmelige e-poster. Den bryter rett gjennom sikkerhetsbarrièrene som skal holde sensitiv info unna. La oss se på problemet, hvorfor det er alvorlig, og hva Microsoft gjør.

Hva skjer egentlig med feilen?

Fra slutten av januar har en bug i Copilots "arbeid"-chat i Microsoft 365 lest e-poster i Sendte elementer og Kladd. Bedrifter bruker DLP-regler og konfidensialitetsmerker for å blokkere tilgang til hemmeligheter. Det er som låser på døra for automatiske verktøy. Men feilen – kjent som CW1226324 – hopper over alt dette. Den plukker opp og oppsummerer e-poster som egentlig er sperret.

Tenk deg å skrive en privat melding eller en hemmelig rapport. Plutselig dukker en AI-oppsummering opp uten at du har bedt om det. Skummelt for firmaer som stoler på Microsoft for sikker kommunikasjon.

Hvordan fungerer Copilot?

Copilot er en AI-hjelper som sparer tid på jobben. Lansert for betalende kunder i september 2023, jobber den med Word, Excel, PowerPoint, Outlook og OneNote. Den lager tekster, analyserer tall og oppsummerer møter. "Arbeid"-chatten bruker bedriftsdata direkte – derfor er denne feilen ekstra problematisk. Den griper data den ikke skal ha.

Microsoft bekrefter: «E-poster med konfidensialitetsmerke blir feilaktig behandlet i Copilot-chat.» Enkelt sagt: Kodefeil gjør at AI-en går for langt.

Microsofts tiltak: Rettelse på vei

Gledelig nok handler Microsoft raskt. De fant feilen 21. januar og begynte å rulle ut fiks i starten av februar. Nå overvåker de prosessen og kontakter enkelte brukere for å sjekke at det funker. Ingen eksakt dato for full oppdatering ennå, og de sier ikke hvor mange som er rammet.

Problemet klassifiseres som «rådgivning» – altså begrenset omfang. Men de advarer om at bildet kan endre seg etter mer gransking. Vi venter og ser.

Hvorfor må du bry deg?

Bruker du Microsoft 365 på jobb? Denne feilen er en alarmklokke. Personvern handler om å skjerme bedriftshemmeligheter, kundedetaljer og interne meldinger. Når AI som Copilot ignorerer sikkerhet, kan sensitiv info lekke – selv utilsiktet.

Det viser også AI-utfordringen: Ny teknologi mot solid sikkerhet. Firmaer skynder seg med AI, men feil som denne minner oss på at ingenting er perfekt. Mennesker koder, og mennesker feiler.

Hva kan du gjøre selv?

Mens Microsoft fikser, her er smarte grep:

  • Sjekk merker: Bekreft at hemmelige e-poster har riktige etiketter og at DLP-regler kjører.
  • Begrens tilgang: Steng Copilot ute fra visse mapper eller slå av chatten midlertidig.
  • Følg med: Les Microsofts oppdateringer. De kontakter rammede direkte.

Det store bildet

Dette handler om tillit til AI. Copilot og lignende verktøy blir dagligdagse på jobben. De må respektere personvern uten unntak. Microsoft fikser ofte godt, men slike hendelser ryster troen – særlig hos de med sensitiv data.

Hva synes du? Har Copilot sviktet deg? Kommenter under! Del gjerne innlegget hvis det var nyttig. La oss snakke tech og privatliv videre.

Kilde: BleepingComputer

#microsoft copilot #ai privacy #data security #microsoft 365 #tech bugs