El fallo de Copilot en Microsoft: Emails confidenciales al descubierto
¡Hola, apasionados de la tecnología! ¿Usas Microsoft 365 Copilot en tu día a día? Presta atención, porque un error reciente ha puesto en jaque la privacidad de tus correos. Esta IA, pensada para ayudarte en el trabajo, está resumiendo mensajes sensibles sin permiso, saltándose las protecciones básicas. Vamos a desgranar el problema, su impacto y las acciones de Microsoft.
¿En qué consiste el error?
Desde finales de enero, un fallo en la pestaña de "chat laboral" de Copilot accede a correos en las carpetas de Enviados y Borradores. Las empresas usan políticas de prevención de pérdida de datos (DLP) y etiquetas de confidencialidad para bloquear el acceso a info delicada. Son como barreras invisibles. Pero este bug, con código CW1226324, las ignora por completo y procesa lo que no debe.
Piensa en un email privado que redactas o envías, y de repente la IA lo resume sin tu ok. Sucede justo eso, un riesgo serio para compañías que confían en Microsoft para comunicaciones seguras.
¿Cómo funciona Copilot?
Copilot es un asistente IA que acelera tareas en Microsoft 365. Lanzado para clientes empresariales pagos en septiembre de 2023, se integra con Outlook, Word, Excel, PowerPoint y OneNote. Genera textos, analiza datos o resume chats. La pestaña de trabajo usa datos de la empresa, por eso este fallo asusta: toca archivos prohibidos por un error de programación.
Microsoft lo admitió: "Los mensajes con etiqueta confidencial se procesan mal en el chat de Copilot". Punto.
La reacción de Microsoft: parche en marcha
Buenas noticias: detectaron el fallo el 21 de enero y empezaron a corregirlo a principios de febrero. Siguen vigilando el despliegue y contactan a usuarios afectados para verificar. No hay fecha final ni cifras de impacto. Lo clasifican como "advisory", o sea, alcance limitado, pero admiten que podría variar con la investigación. Ojo, la historia no acaba aquí.
¿Por qué te afecta?
Si dependes de Microsoft 365 en el curro, esto es una alerta roja. La privacidad de datos protege secretos comerciales, datos de clientes e infos internas. Un AI que salta candados expone todo, aunque sea por accidente.
Muestra el dilema de la IA: innovar sin sacrificar seguridad. Estas herramientas son potentes, pero humanas en su base, y los errores de código pasan.
Pasos para protegerte ya
Mientras Microsoft remata el fix, haz esto:
- Revisa etiquetas: Confirma que emails sensibles tengan la marca correcta y DLP activo.
- Corta accesos: Bloquea Copilot en carpetas clave o pausa el chat temporalmente.
- Síguenos la pista: Monitorea anuncios oficiales. Si te toca, te avisarán.
El panorama general
No es un fallo aislado; cuestiona la fiabilidad de las IA en el trabajo. Copilot se mete en rutinas diarias, y fallar en privacidad erosiona la confianza, sobre todo en negocios sensibles. Microsoft suele reaccionar bien, pero estos tropiezos duelen.
¿Qué opinas? ¿Te ha pasado algo raro con Copilot u otras IA? ¡Comenta abajo! Si te sirvió, compártelo. Sigamos debatiendo tech y privacidad.
Fuente: BleepingComputer