Microsoftin Copilotissa vakava vuoto: Salaiset sähköpostit vaarassa
Hei teknologiafanit! Microsoft 365 Copilotissa paljastui hiljattain bugi, joka sotkee sähköpostien yksityisyyttä. Jos käytät tätä AI-apuria työssäsi, lue tarkkaan. Se on alkanut tiivistää salaisia viestejä, vaikka suojaukset kieltävät sen. Katsotaan, mistä on kyse, miksi se pelottaa ja mitä Microsoft tekee.
Mikä bugi tämä on?
Tammikuun lopusta lähtien Copilotin "työ-välilehden" chat-toiminto on kaivanut esiin Lähetetyt ja Luonnokset -kansioiden viestejä. Yritykset luottavat DLP-sääntöihin ja luottamuksellisuusleimoille, jotka estävät automaattisia työkaluja pääsemästä herkkään dataan. Tämä vika – koodi CW1226324 – ohittaa ne kokonaan.
Kuvittele: kirjoitat luonnosta salaisesta jutusta tai lähetät luottamuksellisen raportin. Yhtäkkiä AI tiivistää sen luvatta. Yrityksille, jotka turvautuvat Microsoft 365:een, tämä on painajainen.
Miten Copilot toimii?
Copilot on AI-avustaja, joka tehostaa duunia. Se tuli maksaville bisneskäyttäjille syyskuussa 2023. Se pyörii Wordissa, Excelissä, PowerPointissa, Outlookissa ja OneNotessa. Chat-toiminto kaivaa työdataa, kuten sähköposteja. Tämän takia vika on ikävä – AI käsittelee kiellettyä tavaraa koodivirheen takia.
Microsoft myönsi: "Luottamuksellisesti leimattuja viestejä käsitellään väärin Copilot-chatissa." Eli rajat ylitetään bugin vuoksi.
Microsoftin toiminta: Korjaus käynnissä
Hyvä uutinen: Microsoft havaitsi asian 21. tammikuuta ja alkoi korjata helmikuun alussa. He seuraavat tilannetta ja ottavat yhteyttä joihinkin käyttäjiin. Täsmällistä aikataulua tai uhrilukuja ei ole annettu.
Tapahtuma on "ilmoitusluonteinen", eli rajallinen. Tutkinta jatkuu, joten vaikutus voi kasvaa.
Miksi tämä kiinnostaa sinua?
Jos käytät Microsoft 365:ttä työssä, herää hereille. Tietosuoja ei ole pelkkä muotitermi. Se suojaa liikesalaisuuksia, asiakasdataa ja sisäisiä juttuja. Kun AI ohittaa suojat, salaisuudet voivat vuotaa – vaikka vahingossa.
Tämä korostaa AI-haastetta: innovaatiot vastaan turvallisuus. Työkalut eivät ole täydellisiä. Ihmiset koodaavat, ja virheitä tulee.
Mitä itse voit tehdä?
Microsoft korjaa, mutta toimi näin:
- Tarkista leimat: Varmista, että salaiset viestit on leimattu ja DLP-säännöt päällä.
- Rajoita pääsyä: Estä Copilotin kansioihin pääsy tai sammuta chat väliaikaisesti.
- Seuraa uutisia: Pidä silmällä Microsoftin tiedotteita. He voivat kontaktoida suoraan.
Laajempi näkökulma
Ei pelkkä bugi, vaan luottokysymys AI:ssa. Copilotit sulautuvat arkeen, joten yksityisyysrajoja ei saa rikkoa. Microsoft korjaa hyvin, mutta tällaiset herättävät epäilyksiä – etenkin herkkien tietojen käsittelijöillä.
Mitä mieltä olet? Oletko törmännyt AI-ongelmiin? Kommentoi alle! Jaa juttu verkostollesi, jos oli hyödyksi. Puhutaan teknosta ja tietosuojasta.
Lähde: BleepingComputer