La Ley de Inteligencia Artificial de la UE: Regulando el futuro de la IA

La Ley de Inteligencia Artificial de la Unión Europea establece estándares para un uso responsable de la tecnología.

La Ley de Inteligencia Artificial de la UE: Regulando el futuro de la IA
3 min de lectura

Tanto en los Estados Unidos como en el extranjero, las preocupaciones están aumentando sobre el potencial de la tecnología de inteligencia artificial (IA) para causar más daño que beneficio. Junto con la administración de Biden, la Unión Europea está tomando medidas serias con la aprobación de su Ley de Inteligencia Artificial.

¡Recibe notificaciones de las últimas noticias, artículos y mucho más!

ChatGPT continúa enviando ondas a través del mundo mientras interrumpe todo, desde la educación hasta el marketing. El problema probablemente solo continuará a medida que el capital de riesgo continúe invirtiendo miles de millones en Startups de IA.

¿Qué es la Ley de Inteligencia Artificial?

Un comité de legisladores en el Parlamento Europeo aprobó la Ley de IA de la UE, acercándola un paso más a convertirse en ley.

La Ley de IA es la primera ley para sistemas de IA en Occidente. Con un enfoque basado en el riesgo para regular la IA, la ley busca gestionar cómo las empresas desarrollan y emplean tecnologías de IA generativas.

La Ley de IA categoriza las aplicaciones en cuatro categorías de riesgo: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo o nulo.

En un mundo perfecto, todas las aplicaciones estarían dentro de la categoría de “riesgo mínimo o nulo”, pero eso no es realista. Con las crecientes preocupaciones sobre el mal uso de esta tecnología, la Ley de IA tiene una categoría definida para las aplicaciones de “riesgo inaceptable”. Cualquier aplicación que caiga dentro de esta categoría está prohibida de ser utilizada en la Unión Europea.

Como informa CNBC, así es como se definen estas tecnologías:

  • Sistemas de IA que utilizan técnicas subliminales o manipulativas o engañosas para distorsionar el comportamiento
  • Sistemas de IA que explotan vulnerabilidades de individuos o grupos específicos
  • Sistemas de categorización biométrica basados en atributos o características sensibles
  • Sistemas de IA utilizados para la puntuación social o la evaluación de la confiabilidad
  • Sistemas de IA utilizados para la evaluación de riesgos que predicen delitos o infracciones administrativas
  • Sistemas de IA que crean o expanden bases de datos de reconocimiento facial a través de la extracción no dirigida
  • Sistemas de IA que infieren emociones en la aplicación de la ley, la gestión de fronteras, el lugar de trabajo y la educación

Con estas regulaciones en su lugar, Europa está a la vanguardia de la supresión de tecnología de IA potencialmente peligrosa.

Los modelos de base también están en la mira de la Ley de IA

Los modelos de base, como ChatGPT, también están recibiendo mucha atención bajo la Ley de IA. Se han establecido requisitos para garantizar que estos grandes modelos de lenguaje actúen de manera responsable.

Por ejemplo, los desarrolladores de estos modelos deben cumplir con medidas de gobernanza, mitigación de riesgos y controles de seguridad antes de poner la tecnología a disposición del público. Estos modelos también deben tomar medidas para garantizar que sus datos de entrenamiento no violen la ley de derechos de autor.

También puedes leer: Un hombre que trabaja en tres empleos remotos gana 344.000$ al año