Aprobada la primera ley de inteligencia artificial del mundo

FUENTE:  Füture, blog de innovación de INESE,
Por Paloma González –  diciembre, 2023

La Unión Europea ha aprobado la que se considera la primera ley integral de inteligencia artificial del mundo. Tras superar diferencias entre los Estados miembros y el Parlamento Europeo, se ha llegado a un acuerdo provisional que debe ser ratificado antes de entrar en vigor, previsiblemente a finales de 2026. El objetivo de esta legislación es garantizar que los sistemas de inteligencia artificial utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores europeos.

La ley busca proporcionar certeza legal y técnica a ciudadanos y empresas, estableciendo obligaciones y normas para el uso de la inteligencia artificial. Además, pretende ser flexible para adaptarse a funciones o tecnologías aún desconocidas o para amoldarse a los cambios que experimenten las ya existentes. La nueva ley, cuya letra pequeña aún está por conocerse, parece que cuenta con la satisfacción de las partes por el “equilibrio” logrado en sus objetivos.

Sanciones y supervisión
Además, la normativa contempla un sistema de sanciones, que incluye porcentajes del volumen total de negocios de empresas infractoras el año fiscal previo o incluso una cantidad predeterminada “aún mayor”, y la creación de un ente supervisor independiente, una Oficina de IA ligada a la Comisión Europea y que estará asesorada por un panel científico y la sociedad civil.

“La UE se convierte en el primer continente que pone reglas claras para el uso de la IA”, ha señalado mientras tanto el comisario de Mercado Interior, Thierry Breton, uno de los grandes impulsores de la normativa y para quien la ley propuesta es “mucho más que un paquete de normas; es una lanzadera para que las startups europeas y los investigadores lideren la carrera global por la IA”.

La presidenta de la Comisión, Ursula von der Leyen, ha celebrado en la red social X que se trata de una normativa “pionera en el mundo”. Un marco legal “único para el desarrollo de una IA en el que se puede confiar”, ha remarcado. “Europa ha liderado y ha cumplido”, ha manifestado, por su parte, la presidenta del Parlamento Europeo, Roberta Metsola, según la cual la AI Act, como se la conoce en inglés, es una legislación “vanguardista y responsable que impone estándares globales”.

Líneas rojas
Algunos de los aspectos más “espinosos” de la negociación fueron la cuestión de cómo regular los modelos de IA de propósito general (la IA generativa o modelos fundacionales) en los que se basan populares herramientas como el ChatGPT, así como los sistemas de vigilancia biométrica (como el reconocimiento facial), que al final acabó siendo el punto más arduamente negociado y prolongó las discusiones hasta este viernes, debido a los fuertes recelos que despiertan estas tecnologías que potencialmente permiten una supervisión y control estatal que puede colisionar directamente con los derechos fundamentales de los ciudadanos.

El texto final recoge, aseguran los eurodiputados, sus principales líneas rojas, al confirmar que quedarán prohibidos varios sistemas de vigilancia biométrica que consideraban inaceptables: los sistemas de categorización biométrica (por creencias políticas, religiosas, filosóficas o por orientación sexual o raza); los sistemas para expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales y televisión; el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas; el social scoring (sistemas que puntúan a las personas en función de su comportamiento social o características personales); sistemas que manipulan comportamiento humano y la IA usada para explotar las vulnerabilidades de las personas (por ejemplo por su edad o situación social o económica).

Sistemas de vigilancia biométrica
Por otro lado, aunque se permitirán los sistemas de vigilancia biométrica en tiempo real en espacios públicos, solo podrán ser empleados por las fuerzas del orden y estarán muy limitados y rodeados de estrictas salvaguardias y autorización judicial. Su uso estará limitado en “tiempo y locación” y solo se permitirá para la búsqueda de víctimas de secuestro, tráfico humano o explotación sexual, para la prevención de una amenaza terrorista “genuina y previsible” o “genuina y presente”, o para la localización o identificación de un sospechoso de crímenes específicos.

En cuanto al otro gran punto de las negociaciones, la regulación de los sistemas de inteligencia artificial generativa en los que se basan modelos como ChatGPT, estos tendrán que cumplir criterios de transparencia, como especificar que si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial, así como garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.

Se trata de una tecnología que apenas se conocía cuando Bruselas propuso la ley, en abril de 2021, por lo que ha habido que incorporar medidas y salvaguardias a posteriori, lo que ha constituido a la vez un recordatorio de que la legislación debe ser adaptable a sistemas del futuro aún inimaginables. El reglamento no prohíbe su uso, pero sí establece una serie de criterios para detectar los modelos que pueden generar un alto riesgo en función del contexto en el que se usen y obliga a sus desarrolladores a cumplir unas salvaguardas más estrictas antes de sacarlos al mercado.

Si no ocurren imprevistos, la ley entrará en vigor a finales de 2026, pero algunas partes se implementarán antes, como la Oficina de IA que empezará a funcionar tras la ratificación del reglamento, mientras que la prohibición de los sistemas prohibidos de inteligencia artificial llegará a los seis meses y los requisitos para los sistemas y modelos de IA generativa, a los 12.

Ver más