Microsoft Copilot xatosi: Elektron pochta maxfiyligining buzilishi
Salom, texnologiya ixlosmandlari! Microsoft 365 Copilot haqidagi so‘nggi yangiliklarni eshitdingizmi? Agar siz ushbu sun’iy intellekt yordamchisini ish jarayonlarida ishlatayotgan bo‘lsangiz, e’tiborli bo‘lishingiz kerak. Yaqinda aniqlangan xato tufayli Copilot maxfiy elektron xatlarni qisqacha mazmunlab, maxfiy ma’lumotlarni himoya qilish uchun mo‘ljallangan xavfsizlik choralarini chetlab o‘tmoqda. Keling, nima bo‘layotgani, bu nima uchun muhim ekanligi va Microsoft bunga qanday choralar ko‘rayotgani haqida gaplashamiz.
Xato nimadan iborat?
Yanvar oyi oxiridan boshlab, Microsoft 365 Copilot’ning "ish yorlig‘i" suhbat funksiyasida xato yuzaga kelib, foydalanuvchilarning "Yuborilganlar" va "Qoralamalar" jildlarida saqlangan elektron xatlarini o‘qib, ularni qisqacha mazmunlamoqda. Odatda, tashkilotlar maxfiy ma’lumotlarga kirishni cheklash uchun ma’lumotlar yo‘qolishini oldini olish (DLP) siyosatlari va maxfiylik yorliqlariga tayanadi. Bu xuddi avtomatlashtirilgan vositalar uchun raqamli “Kirish taqiqlanadi” belgilariga o‘xshaydi. Ammo CW1226324 deb nomlangan ushbu xato bu belgilarni butunlay e’tiborsiz qoldirib, kirish taqiqlangan xatlarni qayta ishlamoqda.
Tasavvur qiling, siz shaxsiy xat yozayotgan bo‘lsangiz yoki maxfiy yangilikni yuborgan bo‘lsangiz, lekin sun’iy intellekt sizning ruxsatingizsiz uni qisqacha mazmunlab qo‘yadi. Aynan shunday holat yuz bermoqda va bu Microsoft 365’ga xavfsiz aloqa uchun tayanadigan bizneslar uchun juda jiddiy muammo.
Copilot qanday ishlaydi?
Agar siz Copilot haqida ko‘p ma’lumotga ega bo‘lmasangiz, qisqacha tushuntirib o‘taylik. Microsoft 365 Copilot — bu mahsuldorlikni oshirish uchun mo‘ljallangan sun’iy intellekt yordamchisi. Uning suhbat funksiyasi 2023-yil sentyabr oyida (ba’zi xabarlarda 2025 deb xato qayd etilgan) pullik biznes mijozlari uchun taqdim etilgan bo‘lib, Word, Excel, PowerPoint, Outlook va OneNote kabi vositalar bilan integratsiyalashgan. Bu xuddi matnlar tuzish, ma’lumotlarni tahlil qilish yoki suhbatlarni qisqacha mazmunlashga yordam beradigan aqlli yordamchiga ega bo‘lishga o‘xshaydi. "Ish yorlig‘i" suhbati esa ish joyi ma’lumotlari bilan o‘zaro ta’sir qiladi, shuning uchun bu xato juda xavotirli — u ruxsat berilmagan ma’lumotlarga kirib, ularni qayta ishlamoqda.
Microsoft bu muammoni tasdiqlab, shunday dedi: “Foydalanuvchilarning maxfiy yorliq qo‘yilgan elektron xatlari Microsoft 365 Copilot suhbati tomonidan noto‘g‘ri qayta ishlanmoqda”. Boshqacha qilib aytganda, sun’iy intellekt kod xatosi tufayli o‘z chegaralaridan tashqariga chiqmoqda.
Microsoft’ning javobi: Tuzatish jarayonda
Yaxshi xabar shuki, Microsoft bu masalada qo‘l qovushtirib o‘tirmayapti. Ular muammoni 21-yanvarda aniqlagan va fevral oyining boshida tuzatishni joriy qila boshlagan. So‘nggi yangiliklarga ko‘ra, kompaniya hali ham tuzatish jarayonini kuzatib borayotgan va ba’zi ta’sirlangan foydalanuvchilar bilan bog‘lanib, tuzatishning to‘g‘ri ishlayotganiga ishonch hosil qilmoqda. Ammo ular muammoning to‘liq hal qilinishi uchun aniq muddatni yoki qancha foydalanuvchi va tashkilot ta’sirlanganini ochiqlamagan.
Hozircha bu hodisa “maslahat” sifatida belgilangan, bu odatda muammoning chegaralangan doirada ekanligini bildiradi. Ammo Microsoft, shuningdek, tekshiruv davom etar ekan, ta’sir doirasi o‘zgarishi mumkinligini ta’kidladi. Tarjimasi: hali to‘liq voqea haqida ma’lumot yo‘q, shuning uchun yangiliklarni kuzatib boring.
Nega bu sizga tegishli bo‘lishi kerak?
Agar siz Microsoft 365 foydalanuvchisi bo‘lsangiz, ayniqsa biznes muhitida, bu xato siz uchun ogohlantirishdir. Ma’lumotlar maxfiyligi shunchaki shov-shuvli so‘z emas; u savdo sirlari, mijoz ma’lumotlari va ichki aloqalarni himoya qilish uchun juda muhim. Copilot kabi sun’iy intellekt vositasi xavfsizlik choralarini chetlab o‘tib, maxfiy ma’lumotlarni ruxsatsiz ko‘zlarga ochib qo‘yish xavfini tug‘diradi, hatto bu qasddan bo‘lmasa ham.
Bu hodisa shuningdek, sun’iy intellekt vositalari bilan bog‘liq kengroq muammoni ko‘rsatadi: innovatsiya va xavfsizlik o‘rtasidagi muvozanatni ta’minlash. Kompaniyalar sun’iy intellektni kundalik ish jarayonlariga joriy etishga shoshilayotgan bir paytda, bunday xatolar bu tizimlarning mukammal emasligini eslatadi. Ular insonlar tomonidan yaratiladi va insonlar xato qiladi — yoki bu holatda, kodlash xatolariga yo‘l qo‘yadi.
Nima qilish mumkin?
Microsoft doimiy tuzatish ustida ishlayotgan bir paytda, ma’lumotlaringizni himoya qilish uchun bir nechta choralar ko‘rishingiz mumkin:
- Maxfiylik yorliqlarini tekshiring: Maxfiy xatlar to‘g‘ri yorliqlanganligiga va tashkilotingizda DLP siyosatlari faol ekanligiga ishonch hosil qiling.
- Copilot kirishini cheklang: Agar imkon bo‘lsa, Copilot’ning ayrim jildlarga kirishini cheklang yoki muammo hal bo‘lguncha suhbat funksiyasini vaqtincha o‘chirib qo‘ying.
- Yangiliklarni kuzatib boring: Microsoft’ning ushbu xato bo‘yicha yangiliklarini kuzatib boring. Agar tashkilotingiz ta’sirlangan bo‘lsa, Microsoft siz bilan to‘g‘ridan-to‘g‘ri bog‘lanishi mumkin.
Kengroq manzara
Bu faqat bitta xato haqida emas; bu sun’iy intellekt tizimlariga bo‘lgan ishonch haqida. Copilot kabi vositalar kundalik ishimizda tobora ko‘proq joylashar ekan, ularning maxfiylik chegaralarini hurmat qilishi muhim ahamiyatga ega. Microsoft muammolarni hal qilishda yaxshi tajribaga ega, ammo bunday hodisalar, ayniqsa maxfiy ma’lumotlar bilan ishlaydigan bizneslar orasida ishonchni pasaytirishi mumkin.
Siz nima deb o‘ylaysiz? Copilot kabi sun’iy intellekt vositalarida biror muammo yoki g‘alati holatlarga duch kelganmisiz? Quyida sharh qoldiring — fikrlaringizni eshitishni xohlayman! Agar ushbu post sizga foydali bo‘lgan bo‘lsa, uni tarmoqingiz bilan baham ko‘rishni unutmang. Texnologiya va maxfiylik haqidagi suhbatni davom ettiraylik.
Manba: BleepingComputer