Ibai AZPARREN

El Parlamento Europeo ratifica la primera ley de Inteligencia Artificial

La Eurocámara aprobó ayer el acuerdo histórico alcanzado en diciembre del año pasado entre instituciones para fijar las primeras reglas con las que limitar los riesgos de la inteligencia artificial (IA) en la Unión Europea, un nuevo marco cuya aplicación plena está prevista a partir del año 2026, aunque algunas partes se aplicarán mucho antes. La norma busca muy un equilibrio entre protección ciudadana y innovación, con varios claroscuros.

La nueva norma ofrece un enfoque basado en los niveles de riesgo.
La nueva norma ofrece un enfoque basado en los niveles de riesgo. (André M. CHANG | EUROPA PRESS)

El Parlamento Europeo ratificó ayer la ley de inteligencia artificial (IA) que pactaron en diciembre las instituciones europeas, la primera que regula esta tecnología en el mundo, y dio así un paso importante para su aprobación definitiva en la Unión Europea (UE).

Con 523 votos a favor, 46 en contra y 49 abstenciones, la Eurocámara avaló el acuerdo que a finales del año pasado cerró un grupo de representantes de las tres instituciones comunitarias. Ahora requería una última comprobación jurídico-lingüística y ser adoptado formalmente por el Consejo. Se prevé que se apruebe definitivamente en las próximas semanas, pero hasta 2026 no entrará en vigor. Algunas partes, como las prohibiciones, entrarán en vigor a los seis meses.

«Europa es ahora un referente mundial en inteligencia artificial», indicó tras la votación el comisario europeo de Mercado Interior, Thierry Breton, quien aseguró que «estamos regulando lo menos posible, pero todo lo necesario».

PROTECCIÓN E INNOVACIÓN

Ese es, precisamente, el objetivo principal de este pionero marco regulador de la UE para la IA, el equilibrio entre innovación y protección.

La ley establece que una futura Oficina Europea de Inteligencia Artificial clasificará los sistemas de IA según sus riesgos, determinando así los requisitos que deberán cumplir las empresas y organismos que los utilicen.

Se considera que la mayoría de los proveedores de IA estarán en la categoría de riesgo mínimo, lo que facilitará un amplio uso en la economía por parte de las empresas.

La categoría de alto riesgo incluirá sistemas que puedan tener un impacto negativo en la seguridad de las personas o en sus derechos fundamentales. Por ejemplo, los que puedan influir en el resultado de unas elecciones o los que empleen los bancos para evaluar la solvencia y la calificación crediticia de los clientes.

Además, la ley establece una lista detallada de usos de la IA considerados de riesgo inasumible. En líneas generales, la ley de inteligencia artificial prohíbe la vigilancia masiva en espacios públicos, la puntuación social, la manipulación subliminal de puntos vulnerables de las personas, pero con algunas excepciones. Por ejemplo, permite que las fuerzas de seguridad puedan emplear las cámaras de identificación biométrica, con previa autorización judicial, para prevenir una «amenaza terrorista». También para localizar o identificar a una persona que haya cometido delitos de «terrorismo», tráfico de personas, explotación sexual o, por ejemplo un crimen medioambiental, así como para buscar a las víctimas de estos delitos.

En ese sentido, el grupo de La Izquierda en la Eurocámara criticó la ley, en especial porque en vez de privilegiar la protección de la ciudadanía se haya preferido «hacer excepciones por motivos de seguridad nacional y extender la alfombra roja a las grandes empresas tecnológicas».

Asimismo, el reglamento establece una serie de obligaciones para los sistemas de IA generativa en los que se basan ChatGPT, de la empresa OpenAI, o Bard, de Google.

En concreto, tendrán que especificar si un texto, una canción o una fotografía se han generado a través de la IA y garantizar que los datos empleados para entrenar a los sistemas respetan los derechos de autor.