Science & Technology
← Home
Грешка в Copilot на Microsoft разкрива тайни имейли: какво трябва да знаеш

Грешка в Copilot на Microsoft разкрива тайни имейли: какво трябва да знаеш

2026-03-22T09:28:28.626975+00:00

Грешка в Copilot на Microsoft: AI чете тайни имейли

Здравейте, фенове на технологиите! Ако работите с Microsoft 365 Copilot, спрете се за миг. Откриха се бъг, който кара AI-то да обобщава секретни имейли. Игнорира всички защити. Ще разкажа какво става, защо е проблем и какво прави Microsoft.

Каква е тази грешка?

От края на януари в чата на "work tab" има проблем. Copilot чете и обобщава имейли от папките "Изпратени" и "Чернови". Фирмите ползват DLP политики и етикети за поверителност, за да блокират достъпа. Това са като електронни ключалки. Но бъгът CW1226324 ги подминава напълно.

Представете си: пишете лично съобщение или служебна тайна. Изведнъж AI-то го преразказва без разрешение. За бизнесите, които разчитат на Outlook, това е сериозен удар.

Как работи Copilot?

Това е AI асистент за по-голяма ефективност. Стартира се за платени клиенти през септември 2023 г. Свързва се с Word, Excel, PowerPoint, Outlook и OneNote. В чата на "work tab" обработва фирмени данни. Затова този бъг е толкова опасен – стига до забранени места.

Microsoft потвърди: "Имейлите с етикет за поверителност се обработват грешно от чата на Copilot." Кодът е с грешка и AI-то прекалява.

Реакцията на Microsoft: Поправка на път

Добрата новина? Реагираха бързо. Откриха проблема на 21 януари и пуснаха поправка началото на февруари. Все още следят дали работи и пишат на засегнатите. Няма точна дата за край и не казват колко хора са засегнати.

Сега е "предупреждение" – значи ограничен мащаб. Но разследването продължава, така че пълната картина може да се промени.

Защо да ви е притрябвало?

Ако ползвате Microsoft 365 в работа, това е сигнал за тревога. Поверителността на данните е ключова – защитава фирмени тайни, клиенти и вътрешни разговори. Когато AI заобикаля бариерите, рискува да разкрие секрети, макар и случайно.

Случаят показва големия проблем с AI: бързината срещу сигурността. Инструментите не са перфектни. Хората ги пишат и правят грешки.

Какво да направите вие?

Докато Microsoft оправя, ето стъпки за защита:

  • Проверете етикетите: Уверете се, че тайните имейли са маркирани и DLP е активно.
  • Ограничете Copilot: Ако можете, блокирайте достъпа до папки или спрете чата временно.
  • Следете новините: Четете обновленията на Microsoft. Може да ви потърсят директно.

По-широката картина

Не е само един бъг – става дума за доверие към AI. Copilot влиза все по-дълбоко в работата ни. Трябва да спазва правилата за поверителност. Microsoft обикновено решава бързо, но такива инциденти разклащат увереността, особено при фирми със секретни данни.

Какво мислите? Срещали ли сте проблеми с Copilot или други AI? Коментирайте долу! Ако ви е полезно, споделете с приятели. Нека говорим за технологии и сигурност.

Източник: BleepingComputer

#microsoft copilot #ai privacy #data security #microsoft 365 #tech bugs