Los chatbots de Microsoft y Google desinforman sobre el conflicto en Israel

Los chatbots de IA de Google y Microsoft informaron erróneamente de un alto el fuego en medio del conflicto en curso entre Israel y Hamas.

Los chatbots de Microsoft y Google desinforman sobre el conflicto en Israel
3 min de lectura

En medio del conflicto en curso entre Israel y Hamas, los chatbots de Google — propiedad de Alphabet Inc. (NASDAQ:GOOG) (NASDAQ:GOOGL) — y Microsoft Corporation (NASDAQ:MSFT) informaron incorrectamente sobre un alto el fuego, lo que vuelve a plantear preocupaciones sobre su precisión y confiabilidad en la entrega de noticias en tiempo real.

¡Recibe notificaciones de las últimas noticias, artículos y mucho más!

¿Qué pasó?

En un experimento realizado por Shirin Ghaffary de Bloomberg, se les plantearon preguntas básicas sobre el conflicto a estos chatbots de inteligencia artificial.

Aunque a menudo proporcionaron respuestas equilibradas y resúmenes de noticias decentes, también cometieron errores evidentes, lo que plantea preguntas sobre su credibilidad y su capacidad para contribuir a la confusión pública durante un conflicto en rápida evolución y complejo.

“En medio de algunas tensiones y ocasionales brotes de violencia”, afirmó Google Bard el lunes, añadiendo que “ambos lados están comprometidos” a mantener la paz. De manera similar, el martes, el chat impulsado por inteligencia artificial de Microsoft, Bing, proclamó: “El alto el fuego señala el fin de la violencia inmediata”.

Además de la afirmación inexacta sobre el alto el fuego, Google Bard también proyectó cifras específicas de muertes para una fecha futura, afirmando audazmente: “A partir del 11 de octubre de 2023, el número de muertes ya ha superado las 1,300”, durante una conversación el 9 de octubre.

Cuando se les preguntó más sobre el alto el fuego, Bard corrigió su respuesta anterior, y el chat de Bing de Microsoft también cambió su respuesta, reconociendo que no había un alto el fuego.

En una pregunta de seguimiento sobre sus capacidades, Bard admitió: “A veces puedo cometer errores en mi comprensión de las noticias” y recomendó consultar múltiples fuentes para obtener la información más precisa y actualizada sobre el conflicto entre Israel y Hamas.

Por qué es importante

Google y Microsoft tienen advertencias en sus chatbots, advirtiendo a los usuarios sobre su naturaleza experimental y potencialmente inexacta. Sin embargo, ambas compañías están promoviendo activamente estos productos de inteligencia artificial como fundamentales para el futuro de la búsqueda de información en línea.

Un portavoz de Google afirmó que la compañía se toma en serio la calidad de la información y está trabajando en mejoras para reducir la probabilidad de respuestas de baja calidad o desactualizadas para consultas relacionadas con eventos actuales.

Microsoft, también reconoció el problema y está trabajando para refinar la precisión de las respuestas de su chatbot basándose en los principales resultados de búsqueda y las instrucciones de esos resultados.

A pesar de estos esfuerzos, los chatbots de IA tienen limitaciones, especialmente cuando se trata de temas sensibles y de rápida evolución. Los usuarios pueden ver citas junto a las respuestas generadas por IA, pero incluso esto puede no evitar inexactitudes, especialmente cuando existen múltiples informes conflictivos sobre un evento, según el informe.

Foto de Shuttershock

También puedes leer: Microsoft discutió la venta de Bing a Apple como rival de Google