OpenAI ha revelado nuevas herramientas de inteligencia artificial que pueden detectar si una imagen fue creada utilizando su generador de imágenes de inteligencia artificial DALL-E. La compañía también ha introducido técnicas avanzadas de marcas de agua para identificar mejor el contenido que genera.
Lo que sucedió
OpenAI, respaldado por Microsoft Corp. (NASDAQ:MSFT), está desarrollando métodos avanzados para rastrear y autenticar el contenido generado por la IA. Esto implica un clasificador de vanguardia para la detección de imágenes que pueda identificar las fotos generadas por IA y un sistema de marcas de agua para etiquetar contenido de audio de forma discreta, según explicó la empresa en una publicación de un blog.
Además, OpenAI también presentó Model Spec, un marco que describe los comportamientos esperados de las herramientas de IA y que guiará las futuras respuestas de herramientas de IA como GPT-4.
El clasificador es capaz de determinar si una imagen fue generada por DALL-E 3. OpenAI afirma que el clasificador sigue siendo preciso aunque la imagen se recorte, comprima o se altere la saturación.
Sin embargo, su capacidad para identificar contenido de otros modelos de inteligencia artificial es limitada, ya que solo identifica alrededor del 5 al 10% de las imágenes de otros generadores de imágenes, como Midjourney.
OpenAI ya había añadido anteriormente credenciales de contenido a los metadatos de imágenes de la Coalition of Content Provenance and Authority (C2PA). Este mes, OpenAI también se unió al comité de dirección de este organismo. La startup de inteligencia artificial también ha comenzado a añadir marcas de agua a los clips de Voice Engine, su plataforma de texto a voz que actualmente se encuentra en vista previa limitada.
Tanto el clasificador de imágenes como la señal de marcas de agua de audio siguen siendo refinados. Los investigadores y los grupos de periodismo sin fines de lucro pueden probar el clasificador de detección de imágenes aplicándolo a la plataforma de acceso a la investigación de OpenAI.
Esto sucede en un momento en que un número récord de países de todo el mundo celebran elecciones nacionales o las llevarán a cabo más adelante en 2024. Países como Estados Unidos, India y el Reino Unido celebrarán elecciones en los próximos seis meses.
También puedes leer: Elon Musk recauda 6.000 millones para competir con OpenAI
Por qué es importante
Las nuevas herramientas de detección de imágenes generadas por IA de OpenAI se producen en un momento en que las preocupaciones sobre la desinformación que se propaga a través de contenido generado por IA están en aumento.
En marzo, se informó de que las herramientas de creación de imágenes de inteligencia artificial de OpenAI y Microsoft se estaban utilizando para falsificar imágenes que podrían contribuir a la desinformación relacionada con las elecciones. Esto generó preocupaciones sobre la posibilidad de que las herramientas de inteligencia artificial se utilizaran de forma maliciosa.
La inteligencia artificial y la desinformación han sido temas candentes de cara a las elecciones de 2024, con más de la mitad de los estadounidenses manifestando preocupaciones sobre la posibilidad de que la IA difunda desinformación.
Imagen vía Shutterstock
Este contenido se produjo parcialmente con la ayuda de Benzinga Neuro y fue revisado y publicado por los editores de Benzinga.
Para más actualizaciones sobre este tema, activa las notificaciones de Benzinga España o síguenos en nuestras redes sociales: X y Facebook.