¿Están bloqueando Francia, Alemania e Italia las protecciones de la IA?

Francia, Alemania e Italia se oponen a ley de inteligencia artificial. Llamado a proteger derechos fundamentales por Amnistía Internacional.

La UE debate la Ley de IA: Llamado a proteger derechos fundamentales
2 min de lectura

La UE se enfrenta a un importante desafío tecnológico. Países como Francia, Alemania e Italia se oponen a una propuesta de legislación de inteligencia artificial (IA), destinada a regular los modelos fundamentales de IA.

¡Recibe notificaciones de las últimas noticias, artículos y mucho más!

La Secretaria General de Amnistía Internacional, Agnes Callamard, instó a Francia, Alemania e Italia a reconsiderar su postura y apoyar la adopción de la Ley de IA. Callamard también abordó la importancia de esta ley para salvaguardar los derechos fundamentales y abordar los riesgos que plantean las tecnologías de IA.

También puedes leer: YouTube impone etiquetas en videos con inteligencia artificial

Callamard criticó la noción de que la innovación y la regulación son mutuamente excluyentes, una perspectiva promovida a menudo por las principales empresas de tecnología para evitar regulaciones estrictas.

Ella argumentó que esta “falsa dicotomía” ha sido utilizada durante mucho tiempo para evitar la responsabilidad y que la situación actual destaca la influencia desproporcionada que estas empresas tienen en la regulación global de la IA.

La Ley de IA, propuesta por la UE, no es solo otra pieza de legislación; representa un esfuerzo pionero para crear un marco integral para la gobernanza de la IA.

Esta ley tiene como objetivo proteger los derechos humanos fundamentales y evitar que las tecnologías de IA exacerben la discriminación, especialmente en áreas sensibles como la vigilancia masiva, la policía y la distribución de bienestar.

El impacto potencial en grupos marginados, incluidos migrantes, refugiados y solicitantes de asilo, es una preocupación principal.

La declaración de Callamard llega en un momento crucial, ya que los sistemas de IA no regulados son cada vez más empleados por los estados para diversos fines, desde la evaluación del bienestar hasta la predicción del delito.

La falta de supervisión en estas aplicaciones puede llevar a violaciones significativas de los derechos humanos y discriminación.

La Ley de IA busca abordar estos problemas mediante la introducción de medidas de transparencia y responsabilidad pública, especialmente en el uso de la IA por parte de la policía, las autoridades de migración y seguridad nacional.

Ella enfatizó la urgencia de incorporar protecciones cruciales de los derechos humanos en la ley, destacando la necesidad de que los legisladores de la UE finalicen la ley antes del fin del mandato actual de la UE en 2024.

Imagen: Pixabay

También puedes leer: Tim Cook: la inteligencia artificial es fundamental en Apple