Copilot Chat se comercializa como una forma segura para que los clientes empresariales que usan Microsoft 365 resuman correos electrónicos y respondan preguntas.
Sin embargo, la empresa confirmó que la herramienta había sacado a la luz contenido de mensajes etiquetados como confidenciales almacenados en las carpetas de Borradores y Elementos enviados de los usuarios.
Un portavoz de Microsoft declaró a la BBC:
'Identificamos y solucionamos un problema por el cual Microsoft 365 Copilot Chat podía devolver contenido de correos electrónicos etiquetados como confidenciales, creados por un usuario y almacenados en sus Borradores y Elementos enviados en Outlook para escritorio'.
El portavoz añadió:
'Si bien nuestros controles de acceso y políticas de protección de datos se mantuvieron intactos, este comportamiento no se ajustaba a la experiencia Copilot prevista, diseñada para excluir el acceso a contenido protegido'.
También indicó:
'Se ha implementado una actualización de configuración a nivel mundial para clientes empresariales'.
Microsoft declaró que 'no proporcionó a nadie acceso a información que no estuviera autorizado a ver'.
El problema fue reportado inicialmente por el medio de noticias tecnológicas Bleeping Computer, que afirmó haber visto una alerta de servicio que confirmaba el problema.
Según Bleeping Computer, un aviso de Microsoft indicaba que 'los mensajes de correo electrónico de los usuarios con una etiqueta confidencial aplicada están siendo procesados incorrectamente por Microsoft 365 Copilot Chat'.
El aviso añadió que una pestaña de trabajo dentro de Copilot Chat resumía los mensajes de correo electrónico almacenados en las carpetas de borradores y enviados de un usuario, incluso cuando se configuraban una etiqueta de confidencialidad y una póliza de prevención de pérdida de datos.
Se cree que Microsoft tuvo conocimiento del problema por primera vez en enero.
El aviso también se compartió en un papel de soporte para trabajadores del NHS en Inglaterra, y la causa principal se atribuyó a un 'problema de código'.
El sitio de soporte del NHS sugirió que se había visto afecto,, pero informó a BBC News que los borradores o correos electrónicos enviados procesados por Copilot Chat permanecerían con sus creadores y que la información del paciente no había sido expuesta.
Nader Henein, analista de protección de datos y gobernanza de IA en Gartner, declaró a la BBC:
'Este tipo de error es inevitable, dado el ritmo al que se lanzan nuevas y novedosas capacidades de IA'
Añadió:
'En circunstancias normales, las organizaciones simplemente desactivarían la función y esperarían a que la gobernanza se pusiera al día'.
Henein también añadió:
'Desafortunadamente, la presión generada por el torrente de publicidad exagerada sobre la IA lo hace casi imposible'.
El profesor Alan Woodward, experto en ciberseguridad de la Universidad de Surrey, declaró a BBC News:
'Es inevitable que estas herramientas presenten errores, sobre todo porque avanzan a una velocidad vertiginosa, así que, aunque la fuga de datos no sea intencionada, ocurrirá'.