عالم العلوم والتكنولوجيا
← الصفحة الرئيسية
خطأ في برنامج مايكروسوفت كوبايلوت يكشف عن رسائل بريد إلكتروني سرية: ما تحتاج إلى معرفته

خطأ في برنامج مايكروسوفت كوبايلوت يكشف عن رسائل بريد إلكتروني سرية: ما تحتاج إلى معرفته

19 فبراير 2026 9 مشاهدة

خلل في Copilot من مايكروسوفت: انتهاك لخصوصية البريد الإلكتروني

مرحبًا بعشاق التكنولوجيا، هل سمعتم بآخر الأخبار حول Microsoft 365 Copilot؟ إذا كنت تستخدم هذا المساعد المدعوم بالذكاء الاصطناعي في عملك، فقد ترغب في الانتباه جيدًا. تم اكتشاف خلل جديد مؤخرًا يتسبب في قيام Copilot بتلخيص رسائل بريد إلكتروني سرية، متجاوزًا الحمايات التي تهدف إلى حماية البيانات الحساسة. دعونا نتعمق في ما يحدث، ولماذا هذا الأمر مهم، وما الذي تفعله مايكروسوفت حيال ذلك.

ما هو هذا الخلل؟

منذ أواخر يناير، كان هناك عطل في ميزة الدردشة "علامة التبويب العملية" في Microsoft 365 Copilot يقرأ ويلخص رسائل البريد الإلكتروني المخزنة في مجلدات "العناصر المرسلة" و"المسودات" للمستخدمين. عادةً، تعتمد المؤسسات على سياسات منع فقدان البيانات (DLP) وعلامات السرية لتقييد الوصول إلى المعلومات الحساسة. هذه بمثابة علامات "ممنوع الدخول" الرقمية للأدوات الآلية. لكن هذا الخلل—الذي يُعرف برقم CW1226324—يتجاهل هذه العلامات تمامًا، ويعالج رسائل بريد إلكتروني يفترض أن تكون خارج نطاق الوصول.

تخيل أنك تكتب رسالة خاصة أو ترسل تحديثًا سريًا، ليأتي الذكاء الاصطناعي ويلخصها دون إذنك. هذا بالضبط ما يحدث، وهو أمر خطير بالنسبة للشركات التي تعتمد على Microsoft 365 للتواصل الآمن.

كيف يعمل Copilot على أي حال؟

لمن لا يعرف، Microsoft 365 Copilot هو مساعد ذكاء اصطناعي مصمم لتعزيز الإنتاجية. تم إطلاق ميزة الدردشة الخاصة به للعملاء التجاريين الذين يدفعون في سبتمبر 2023 (وليس 2025 كما ذكرت بعض التقارير)، وهي تتكامل مع أدوات مثل Word وExcel وPowerPoint وOutlook وOneNote. إنه بمثابة مساعد ذكي يمكنه صياغة المحتوى، تحليل البيانات، أو تلخيص المحادثات. ميزة الدردشة في "علامة التبويب العملية" تتفاعل على وجه التحديد مع بيانات مكان العمل، ولهذا السبب يعتبر هذا الخلل مقلقًا للغاية—فهو يصل إلى معلومات ويعالجها بينما لا ينبغي له ذلك.

أكدت مايكروسوفت المشكلة، مشيرة إلى أن "رسائل البريد الإلكتروني للمستخدمين التي تحمل علامة سرية تتم معالجتها بشكل غير صحيح بواسطة دردشة Microsoft 365 Copilot". بمعنى آخر، يتجاوز الذكاء الاصطناعي حدوده بسبب خطأ في البرمجة.

رد مايكروسوفت: إصلاح قيد التنفيذ

الخبر السار؟ مايكروسوفت لا تقف مكتوفة الأيدي. لقد حددت المشكلة في 21 يناير وبدأت في نشر إصلاح في أوائل فبراير. حتى آخر تحديث، لا تزال الشركة تراقب عملية النشر وتتواصل مع بعض المستخدمين المتأثرين للتأكد من أن الإصلاح يعمل كما هو متوقع. ومع ذلك، لم تشارك الشركة جدولًا زمنيًا نهائيًا للحل الكامل أو تكشف عن عدد المستخدمين والمؤسسات المتأثرة.

في الوقت الحالي، تم تصنيف هذا الحادث على أنه "إشعار تحذيري"، وهو ما يعني عادةً أن المشكلة لها نطاق محدود. لكن مايكروسوفت أشارت أيضًا إلى أن حجم التأثير قد يتغير مع استمرار التحقيق. بمعنى آخر: لا نعرف القصة الكاملة بعد، فتابعوا معنا.

لماذا يجب أن تهتم؟

إذا كنت مستخدمًا لـ Microsoft 365—خاصة في بيئة عمل—فإن هذا الخلل بمثابة جرس إنذار. خصوصية البيانات ليست مجرد كلمة رنانة؛ إنها حاسمة لحماية الأسرار التجارية، ومعلومات العملاء، والاتصالات الداخلية. عندما تتجاوز أداة ذكاء اصطناعي مثل Copilot تدابير الأمان، فإنها تعرض تفاصيل حساسة لأعين غير مخولة، حتى لو كان ذلك عن غير قصد.

يسلط هذا الحادث الضوء أيضًا على تحدٍ أوسع مع أدوات الذكاء الاصطناعي: تحقيق التوازن بين الابتكار والأمان. مع تسابق الشركات لدمج الذكاء الاصطناعي في سير العمل اليومي، تذكرنا أخطاء مثل هذه بأن هذه الأنظمة ليست مضمونة تمامًا. فهي من صنع البشر، والبشر يرتكبون أخطاء—أو في هذه الحالة، أخطاء في البرمجة.

ماذا يمكنك أن تفعل؟

بينما تعمل مايكروسوفت على إصلاح دائم، إليك بعض الخطوات التي يمكنك اتخاذها لحماية بياناتك:

  • تحقق من علامات السرية: تأكد من أن رسائل البريد الإلكتروني السرية تحمل العلامات المناسبة وأن سياسات منع فقدان البيانات (DLP) مفعلة في مؤسستك.
  • قلل من وصول Copilot: إذا أمكن، قم بتقييد وصول Copilot إلى مجلدات معينة أو قم بتعطيل ميزة الدردشة مؤقتًا حتى يتم حل المشكلة.
  • ابقَ على اطلاع: تابع تحديثات مايكروسوفت بشأن هذا الخلل. إذا تأثرت مؤسستك، قد تتواصل معك مايكروسوفت مباشرة.

الصورة الأكبر

هذا ليس مجرد خلل واحد؛ بل يتعلق بالثقة في أنظمة الذكاء الاصطناعي. مع تزايد اندماج أدوات مثل Copilot في عملنا اليومي، يصبح ضمان احترامها لحدود الخصوصية أمرًا غير قابل للتفاوض. مايكروسوفت لديها سجل جيد في معالجة المشكلات، لكن حوادث مثل هذه قد تهز الثقة، خاصة بين الشركات التي تتعامل مع بيانات حساسة.

ما رأيك؟ هل واجهت أي مشاكل مع أدوات الذكاء الاصطناعي مثل Copilot؟ اترك تعليقًا أدناه—أحب أن أسمع آراءك! وإذا وجدت هذا المنشور مفيدًا، لا تنسَ مشاركته مع شبكتك. دعونا نواصل الحديث حول التكنولوجيا والخصوصية.

المصدر: BleepingComputer

#microsoft copilot #ai privacy #data security #microsoft 365 #tech bugs