El Parlamento Europeo da luz verde a su posición sobre la Inteligencia Artificial

La Eurocámara iniciará ahora las negociaciones con el Consejo para que la ley sea una realidad. Bruselas espera que pueda estar aprobada antes de fin de año.

El miércoles, el Parlamento Europeo adoptó su posición negociadora sobre la Ley de Inteligencia Artificial (IA) con 499 votos a favor, 28 en contra y 93 abstenciones antes de las conversaciones con los Estados miembros de la UE sobre la forma final de la ley. La normativa garantizará que la IA desarrollada y utilizada en Europa se ajuste plenamente a los derechos y valores de la UE, como la supervisión humana, la seguridad, la privacidad, la transparencia, la no discriminación y el bienestar social y medioambiental.

Las normas siguen un planteamiento basado en el riesgo y establecen obligaciones para los proveedores y quienes desplieguen sistemas de IA en función del nivel de riesgo que la IA pueda generar. Así, se prohibirían los sistemas de IA con un nivel de riesgo inaceptable para la seguridad de las personas, como los utilizados para el scoring social (clasificación de personas en función de su comportamiento social o características personales). Los eurodiputados ampliaron la lista para incluir prohibiciones de usos intrusivos y discriminatorios de la IA, como: sistemas de identificación biométrica remota "en tiempo real" en espacios de acceso público; sistemas de identificación biométrica remota "a posteriori", con la única excepción de las fuerzas del orden para la persecución de delitos graves y sólo previa autorización judicial; sistemas de categorización biométrica que utilicen características sensibles (por ejemplo, sexo, raza, etnia, estatus de ciudadanía, religión, orientación política), sistemas policiales predictivos (basados en perfiles, localización o comportamientos delictivos anteriores), sistemas de reconocimiento de emociones en las fuerzas del orden, la gestión de fronteras, el lugar de trabajo y las instituciones educativas; y extracción no selectiva de imágenes faciales de Internet o de grabaciones de CCTV para crear bases de datos de reconocimiento facial (violación de los derechos humanos y del derecho a la intimidad).

Los eurodiputados aseguraron que la clasificación de aplicaciones de alto riesgo incluirá ahora los sistemas de IA que supongan un daño significativo para la salud, la seguridad, los derechos fundamentales o el medio ambiente de las personas. Los sistemas de IA utilizados para influir en los votantes y en el resultado de las elecciones y en los sistemas de recomendación utilizados por las plataformas de medios sociales (con más de 45 millones de usuarios) se añadieron a la lista de alto riesgo.

Los proveedores de modelos fundacionales -una novedad en rápida evolución en el campo de la IA- tendrían que evaluar y mitigar los posibles riesgos (para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho) y registrar sus modelos en la base de datos de la UE antes de su comercialización en el mercado comunitario. Los sistemas de IA generativa basados en tales modelos, como ChatGPT, tendrían que cumplir requisitos de transparencia (revelar que el contenido ha sido generado por IA, lo que también ayudaría a distinguir las llamadas imágenes deep-fake de las reales) y garantizar salvaguardias contra la generación de contenidos ilegales. También tendrían que hacerse públicos resúmenes detallados de los datos protegidos por derechos de autor utilizados para su entrenamiento.

Salir de la versión móvil