Internacional

Ley de Inteligencia Artificial: acuerdo sobre reglas integrales para una IA confiable

Limitación del uso de sistemas de identificación biométrica por parte de las fuerzas del orden.

• Se acordaron salvaguardias sobre la inteligencia artificial de propósito general

• Derecho de los consumidores a presentar quejas y recibir explicaciones significativas

• Multas que van desde 35 millones de euros o el 7% de la facturación global hasta 7,5 millones o el 1,5% de la facturación global

Los eurodiputados llegaron a un acuerdo político con el Consejo sobre un proyecto de ley para garantizar que la Inteligencia Artificial (IA) en Europa sea segura, respete los derechos fundamentales y la democracia, mientras que las empresas puedan prosperar y expandirse.

Los negociadores del Parlamento y del Consejo llegaron a un acuerdo provisional sobre la Ley de Inteligencia Artificial. Este reglamento tiene como objetivo garantizar que los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad ambiental estén protegidos contra la IA de alto riesgo, al tiempo que impulsa la innovación y convierte a Europa en líder en este campo. Las reglas establecen obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.

Aplicaciones prohibidas

Reconociendo la amenaza potencial para los derechos de los ciudadanos y la democracia que plantean determinadas aplicaciones de la IA, los colegisladores acordaron prohibir:

sistemas de categorización biométrica que utilizan características sensibles (por ejemplo, creencias políticas, religiosas, filosóficas, orientación sexual, raza);

extracción no dirigida de imágenes faciales de Internet o imágenes de CCTV para crear bases de datos de reconocimiento facial;

reconocimiento de emociones en el lugar de trabajo y en instituciones educativas;

puntuación social basada en comportamiento social o características personales;

Sistemas de IA que manipulan el comportamiento humano para eludir su libre albedrío;

La IA solía explotar las vulnerabilidades de las personas (por su edad, discapacidad, situación social o económica).

Exenciones de aplicación de la ley

Los negociadores acordaron una serie de salvaguardias y excepciones estrechas para el uso de sistemas de identificación biométrica (RBI) en espacios de acceso público con fines policiales, sujetos a autorización judicial previa y para listas de delitos estrictamente definidas. La RBI “post-remota” se utilizaría estrictamente en la búsqueda selectiva de una persona condenada o sospechosa de haber cometido un delito grave.

La RBI “en tiempo real” cumpliría con condiciones estrictas y su uso estaría limitado en tiempo y ubicación, para los fines de:

búsquedas selectivas de víctimas (secuestro, trata, explotación sexual), prevención de una amenaza terrorista específica y presente, o la localización o identificación de una persona sospechosa de haber cometido uno de los delitos específicos mencionados en el reglamento (por ejemplo, terrorismo, trata, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización criminal, delitos medioambientales).

Obligaciones para sistemas de alto riesgo

Para los sistemas de IA clasificados como de alto riesgo (debido a su importante daño potencial a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho), se acordaron obligaciones claras. Los eurodiputados lograron incluir una evaluación obligatoria del impacto sobre los derechos fundamentales, entre otros requisitos, aplicable también a los sectores bancario y de seguros. 

Los sistemas de inteligencia artificial utilizados para influir en el resultado de las elecciones y el comportamiento de los votantes también se clasifican como de alto riesgo. Los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de IA y recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos.

Barandillas para sistemas generales de inteligencia artificial

Para tener en cuenta la amplia gama de tareas que los sistemas de IA pueden realizar y la rápida expansión de sus capacidades, se acordó que los sistemas de IA de propósito general (GPAI), y los modelos GPAI en los que se basan, tendrán que cumplir con requisitos de transparencia como propuesto inicialmente por el Parlamento. Estos incluyen la elaboración de documentación técnica, el cumplimiento de la ley de derechos de autor de la UE y la difusión de resúmenes detallados sobre el contenido utilizado para la formación.

Para los modelos GPAI de alto impacto con riesgo sistémico, los negociadores del Parlamento lograron asegurar obligaciones más estrictas. Si estos modelos cumplen ciertos criterios, tendrán que realizar evaluaciones de modelos, evaluar y mitigar riesgos sistémicos, realizar pruebas contradictorias, informar a la Comisión sobre incidentes graves, garantizar la ciberseguridad e informar sobre su eficiencia energética.

Los eurodiputados también insistieron en que, hasta que se publiquen normas armonizadas de la UE, las GPAI con riesgo sistémico pueden depender de códigos de práctica para cumplir con la regulación.

Medidas de apoyo a la innovación y a las pymes

Los eurodiputados querían garantizar que las empresas, especialmente las pymes, puedan desarrollar soluciones de inteligencia artificial sin presiones indebidas por parte de los gigantes de la industria que controlan la cadena de valor. Con este fin, el acuerdo promueve los llamados entornos de pruebas regulatorios y pruebas en el mundo real, establecidos por las autoridades nacionales para desarrollar y entrenar IA innovadora antes de su comercialización.

Sanciones

El incumplimiento de las normas puede dar lugar a multas que van desde 35 millones de euros o el 7% del volumen de negocios global hasta 7,5 millones o el 1,5% del volumen de negocios, dependiendo de la infracción y el tamaño de la empresa.

Declaración de los ponentes

Tras el acuerdo, el coponente Brando Benifei (S&D, Italia) dijo: “Fue largo e intenso, pero el esfuerzo valió la pena. Gracias a la resiliencia del Parlamento Europeo, la primera legislación horizontal del mundo sobre inteligencia artificial cumplirá la promesa europea: garantizar que los derechos y libertades estén en el centro del desarrollo de esta tecnología innovadora. La implementación correcta será clave: el Parlamento seguirá vigilando de cerca para garantizar el apoyo a nuevas ideas de negocios con sandboxes y reglas efectivas para los modelos más poderosos”.

El coponente Dragos Tudorache (Renew, Rumania) dijo: “La UE es la primera en el mundo en establecer una regulación sólida sobre la IA, guiando su desarrollo y evolución en una dirección centrada en el ser humano. La Ley de IA establece normas para modelos de IA grandes y potentes, garantizando que no presenten riesgos sistémicos para la Unión y ofrece sólidas salvaguardias para nuestros ciudadanos y nuestras democracias contra cualquier abuso de la tecnología por parte de las autoridades públicas. 

Protege a nuestras pymes, fortalece nuestra capacidad para innovar y liderar en el campo de la IA y protege a los sectores vulnerables de nuestra economía. La Unión Europea ha hecho contribuciones impresionantes al mundo; la Ley de IA es otra que tendrá un impacto significativo en nuestro futuro digital”.

Próximos pasos

El texto acordado ahora tendrá que ser adoptado formalmente tanto por el Parlamento como por el Consejo para convertirse en ley de la Unión Europea (UE). Las comisiones de Mercado Interior y Libertades Civiles del Parlamento votarán sobre el acuerdo en una próxima reunión.

En la foto: Brando Benifei, del Grupo de la Alianza Progresista de Socialistas y Demócratas en el Parlamento Europeo, y Dragos Tudorache, del Grupo Renovar Europa

Fotos: Cortesía

Arriba