En un desarrollo reciente, la Junta de Supervisión de Meta (NASDAQ:META) ha concluido que un vídeo controvertido en Facebook que sugiere falsamente que el presidente Joe Biden es un pedófilo no viola las regulaciones actuales de la compañía. Sin embargo, la junta ha criticado las reglas como “incoherentes”.
Lo que sucedió
La Junta de Supervisión, una entidad independiente financiada por Meta, declaró que la política de contenido del vídeo se enfoca demasiado estrechamente en material generado por inteligencia artificial y carece de una justificación clara, según informó Reuters. El vídeo, que era un clip alterado de siete segundos de Biden durante las elecciones de medio mandato de EE.UU. de 2022, es el primer caso que se revisa bajo la política de “medios manipulados” de Meta.
El consejo ha sugerido que Meta extienda la regla para cubrir contenido de audio y vídeo, independientemente del uso de la IA, y aplique etiquetas que los identifiquen como manipulados. Sin embargo, aconsejó no extender la política a las fotografías, afirmando que esto podría hacer que sea demasiado difícil hacer cumplir a la escala de Meta.
El consejo dijo que la política “carece de justificación persuasiva, es incoherente y confusa para los usuarios, y no especifica claramente los daños que busca prevenir”.
Meta, que también es propietaria de Instagram y WhatsApp, informó al consejo durante la revisión que planea actualizar la política para adaptarse al panorama de la IA en evolución. El vídeo alterado de Biden comenzó a circular a principios de enero de 2023.
También puedes leer: Estafadores utilizan deepfake para robar 25M$
La Junta de Supervisión confirmó la decisión de Meta de mantener el vídeo en línea bajo su política actual, que prohíbe vídeos alterados de manera engañosa solo si son producidos por IA o si hacen que las personas parezcan decir palabras que nunca dijeron realmente. La junta enfatizó que el contenido no alterado por IA también es engañoso y recomendó que la política también se aplique al contenido solo de audio.
Por qué es importante
Este desarrollo sigue a una serie de eventos que han llevado el tema del contenido deepfake a la vanguardia. En octubre, Meta estuvo bajo escrutinio por sus políticas sobre contenido manipulado y “deepfakes” creados por inteligencia artificial después de su negativa a eliminar un vídeo engañoso de Biden de Facebook. Esto provocó una revisión por parte de la Junta de Supervisión de la empresa para evaluar la adecuación de las directrices de Meta sobre vídeos e imágenes alterados.
Mientras tanto, la difusión de imágenes explícitas generadas por inteligencia artificial de la cantante Taylor Swift provocó una pausa temporal en las búsquedas de la cantante en la plataforma de redes sociales de Elon Musk, X. Este incidente puso de relieve la creciente preocupación por el uso de la tecnología deepfake para crear y difundir contenido engañoso.
A pesar de las controversias, Meta se ha mantenido comprometido en avanzar la tecnología de IA. Durante la llamada de ganancias del cuarto trimestre de 2023 de la compañía, Mark Zuckerberg enfatizó el objetivo de Meta de desarrollar los productos y servicios de IA más populares y avanzados. Este compromiso con la innovación de IA plantea preguntas sobre cómo Meta equilibrará el avance tecnológico con la necesidad de abordar el posible mal uso de la IA, como en el caso del contenido deepfake.
Además, los esfuerzos del gobierno de EE.UU. para democratizar el acceso a la investigación de IA, con el apoyo de gigantes tecnológicos como Meta, tienen el potencial de dar forma al uso responsable de la tecnología de IA. En enero, empresas como Meta se comprometieron a ayudar al proyecto del presidente Biden para hacer que la investigación de IA sea más accesible.
Foto de DANIEL CONSTANTE en Shutterstock
También puedes leer: CEO de Microsoft, Satya Nadella, alarmado por deepfakes de Taylor Swift