Se descubrió una grave falla de seguridad en la herramienta de inteligencia artificial (IA) Copilot de Microsoft (NASDAQ:MSFT), que se encuentra integrada en diversas aplicaciones de Microsoft Office. Esta vulnerabilidad podría conducir a posibles ataques contra datos sensibles.
Lo que sucedió
La startup de seguridad con IA, Aim Security, identificó la falla de seguridad en Microsoft 365 Copilot. Esta falla, denominada “EchoLeak”, podría ser explotada por hackers para acceder a información sensible sin necesidad de interacción por parte del usuario.
Con Copilot de Microsoft 365, un atacante podría lanzar un ataque solo con enviar un correo electrónico a un usuario, sin necesidad de phishing ni de malware. Esto podría exponer datos confidenciales y patentados.
Adir Gruss, cofundador y director de tecnología de Aim Security, declaró a Fortune que la falla EchoLeak no es un simple error de seguridad, sino que puede tener implicaciones más amplias que se extienden más allá de Copilot, basadas en una falla de diseño fundamental inherente a los agentes de IA basados en LLM.
Gruss declaró que si dirigiera una empresa que opera con agentes de IA, estaría “aterrado”. También atribuyó las fallas de seguridad como la razón por la cual menos empresas adoptan agentes de IA. “Solo están experimentando, y tienen mucho miedo”.
Microsoft le dijo a Fortune que había resuelto el problema tras ser notificado y que ningún cliente se vio afectado. Sin embargo, Gruss afirmó que la compañía liderada por Satya Nadella tardó cinco meses en solucionar el problema. Gruss aseguró que una solución duradera requerirá una reevaluación completa de cómo se diseñan los agentes de IA.
También puedes leer: Synopsys y Broadcom logran interoperabilidad PCIe 6.x para centros de datos con IA
Por qué es importante
El descubrimiento de esta falla de seguridad plantea preocupaciones sobre los riesgos potenciales asociados con los agentes de IA. Este incidente destaca la necesidad de adoptar medidas de seguridad sólidas para proteger los datos sensibles de este tipo de vulnerabilidades.
A principios de este año, el CEO de Microsoft, Satya Nadella, presentó una nueva herramienta que permite a cualquier persona crear agentes de IA que pueden realizar tareas en aplicaciones de escritorio y web. Esta reciente falla de seguridad en la herramienta de IA Copilot subraya la importancia de garantizar la seguridad de los agentes de IA.
Mientras tanto, el gigante tecnológico Google (NASDAQ:GOOGL) (NASDAQ:GOOG) ha desplegado su modelo de IA para detectar y bloquear sitios web fraudulentos en tiempo real, lo que expande significativamente sus capacidades de seguridad. Este enfoque proactivo de Google en la seguridad de la IA podría servir de ejemplo para otras empresas interesadas en mejorar la seguridad de sus sistemas de IA.
Según las clasificaciones de acciones de Benzinga Edge, Microsoft tiene una puntuación de crecimiento del 90,75 % y una valoración de calidad del 63,33 %. Haz clic aquí para ver cómo se compara con otras empresas líderes de tecnología.
En lo que va del año, las acciones de Microsoft han experimentado un aumento del 12,9 %.
Imagen a través de Shutterstock
Esta noticia se produjo parcialmente con la ayuda de herramientas de IA, y fue revisada y publicada por los editores de Benzinga.
Recibe noticias exclusivas 30 minutos antes que otros traders
La prueba gratuita de 14 días de Benzinga Pro te brinda acceso a noticias exclusivas para que puedas realizar transacciones antes que millones de otros inversores. Comienza tu prueba gratuita de 14 días haciendo CLIC AQUÍ.
Para más actualizaciones sobre este tema, activa las notificaciones de Benzinga España o síguenos en nuestras redes sociales: X y Facebook.