Las predicciones de Sam Altman sobre la persuasión de la IA

Sam Altman de OpenAI analiza los desafíos emergentes de la IA, enfocándose en su potencial persuasivo y el riesgo de propagar desinformación.

Las predicciones de Sam Altman sobre la persuasión de la IA
2 min de lectura

La última predicción de Sam Altman, cofundador y CEO de OpenAI — la empresa matriz de ChatGPT — respecto al potencial de “persuasión sobrehumana” de la inteligencia artificial, ha suscitado inquietudes entre algunos usuarios, quienes la ven como una posible fuente de “desinformación”.

¡Recibe notificaciones de las últimas noticias, artículos y mucho más!

¿Qué pasó?

El martes, Altman expresó sus pensamientos sobre el futuro de la IA en X, sugiriendo que la IA podría volverse extraordinariamente eficaz en persuasión antes de alcanzar una inteligencia general sobrehumana.

Aunque esta idea resulta intrigante, ha provocado reacciones diversas en la sección de comentarios.

Algunos usuarios han compartido que ya están utilizando activamente la persuasión impulsada por IA en campos como ventas, atención al cliente y reclutamiento, mientras que otros han enfatizado la necesidad de una nueva moneda basada en “prueba de trabajo” para contrarrestar la habilidad de la IA para manipular información.

Altman describió estos avances como “resultados extraños”, pero algunos los interpretaron como “preocupantes”, trazando paralelismos con las opiniones de Elon Musk, quien ha manifestado previamente sus reservas acerca de los riesgos potenciales de la tecnología avanzada de IA.

Una persona comentó que la IA ya está persuadiendo de manera sobrehumana, y que muchas personas confían más en el contenido generado por la IA que en la información creada por humanos.

Dentro de estas discusiones, también se filtró el sarcasmo; un usuario expresó: “Qué reconfortante”, demostrando una falta de confianza en la predicción de Altman.

Otro respondió de manera directa: “Quieres decir desinformación”, reflejando la opinión de que las capacidades persuasivas de la IA podrían no generar necesariamente resultados positivos.

Por qué es importante

En mayo de este año, se reportó que al menos 49 sitios web de noticias incluyeron contenido, como noticias de última hora, de celebridades, consejos de estilo de vida e incluso contenido patrocinado, sin especificar que se utilizó IA, como ChatGPT o Google Bard, para generarlos.

Además, las “alucinaciones” de IA ya se consideran un gran desafío para esta tecnología. CEOs de grandes empresas tecnológicas, como Sundar Pichai, han mencionado que “nadie en el campo ha resuelto aún los problemas de alucinaciones. Todos los modelos enfrentan este asunto”.

Una encuesta anterior reveló que cerca de la mitad de la población de Estados Unidos teme que la IA pueda propagar desinformación respecto a los resultados de las próximas elecciones de 2024.

También puedes leer: Elon Musk contra OpenAI en el debate sobre la monetización de Internet