Aritz INTXUSTA
REVOLUCIÓN TECNOLÓGICA

Europa se protege de la IA con una ley pionera pero obsoleta

La normativa de la UE que regula la inteligencia artificial comenzó a desplegarse el 1 de agosto. El reglamento llega tarde y pasa por encima cuestiones esenciales, pero convierte a Europa en la única zona de mundo que trata de poner coto a esta nueva tecnología.

Bajo estas líneas, el Parlamento Europeo tras su sesión plenaria de julio. En la página siguiente, Mark Zuckerberg interrogado por el Senado en EEUU y Sam Altman (ChatGPT), en la cumbre de Davos.
Bajo estas líneas, el Parlamento Europeo tras su sesión plenaria de julio. En la página siguiente, Mark Zuckerberg interrogado por el Senado en EEUU y Sam Altman (ChatGPT), en la cumbre de Davos. (Philipp von DITFURTH-Michael BROCHSTEIN-Hannes P. ALBERT | EUROPA PRESS)

El reglamento sobre la inteligencia artificial (IA) de la Unión Europea (UE) para proteger a sus ciudadanos ante eventuales abusos pasará a los libros de historia del derecho y de la comunicación, porque convertirá a Europa en la primera zona del mundo que trata de poner límites legales a la inteligencia artificial, una herramienta con indudable potencial para transformar la sociedad y cuyo desarrollo parece aún en fase embrionaria.

Una de las consideraciones que esos manuales del derecho recogerán en los próximos años puede adelantarse hoy: el reglamento europeo fue una herramienta inadecuada que calibró mal cómo iba a evolucionar esta tecnología.

«Cuando la norma comenzó a tramitarse ni siquiera se contemplaban los sistemas de inteligencia artificial generativa, como ChatGPT», explica Conchi Cagide, asesora jurídica de la asociación Intangia, centrada en la defensa de los derechos de autor y con sede en Nafarroa.

No es, pues, una ley pensada para regular de forma específica lo que comúnmente se entiende hoy por IA, esa que escribe y resume mucho mejor que la media o genera imágenes, muchas veces, indistinguibles de la realidad.

La definición de IA que recoge la normativa es un tanto confusa y más amplia. Hace referencia a sistemas capaces de «inferir» cuestiones a partir de unos datos y, a partir de ahí, generar «resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que influir en entornos físicos o virtuales».

En otras palabras, de lo que se trata principalmente es de poner coto a lo que las inteligencias artificiales más potentes (y sus dueños) hacen con lo que conocen de los ciudadanos europeos, con esa ingente cantidad de datos que se han ido almacenando sobre ellos, de modo que no puedan abusar de ellos y vulnerar sus derechos.

Como hito principal, este nuevo reglamento describe ciertas cosas que se pueden hacer a través la IA y las cataloga en función de su peligrosidad.

MÁS POTENCIA IMPLICA MÁS PELIGRO

Hay aplicaciones que, de partida, ya son intolerables en esta normativa: publicidad subliminal, «puntuación ciudadana», predicción delictiva, inferir emociones a través del rostro en centros de estudio o de trabajo, etcétera.

La clasificación de personas en función de datos biométricos, su religión o sus posiciones políticas también está considerada un uso fraudulento.

«Es cierto que la UE va tarde, pero quizá debamos asumir todos que, en asuntos de nuevas tecnologías, la legislación siempre va un par de pasos por detrás. Y hacer algo ya con la IA era fundamental», asegura Eva Rodríguez de Luis, editora de Xataka.

El reglamento determina que hay aplicaciones de IA que, sin estar prohibidas, son de «alto riesgo». Esta peligrosidad que describe la normativa tiene que ver con la «potencia» que los sistemas estén empleando, explica Rodríguez de Luis.

Las herramientas más inteligentes y potentes, así como aquellas que se usan en infraestructuras críticas o ligadas a temas relacionados con los derechos humanos quedan, a partir de la entrada en vigor de la ley, calificadas como de alto riesgo, por lo que tendrán que cumplir una serie de requerimientos «más estrictos» dentro de la Unión Europea.

La norma planta cara, así, a las grandes multinacionales de las nuevas tecnologías, puesto que, a la postre, ellas son las propietarias de las grandes bases de datos y de las IA más avanzadas.

Lo hará, eso sí, poco a poco. El cumplimiento de los detalles del reglamento no se exigen desde el pasado día 1 de agosto, sino que se irán requiriendo de forma progresiva hasta su implementación completa dentro de dos años.

¿INTELIGENCIA ARTIFICIAL A DOS VELOCIDADES?

Aunque algo falto de ambición y desfasado, el reglamento comienza a distinguir a Europa del resto del mundo. Esta consecuencia ha dado pie a que pensadores de derechas o ultraliberales carguen contra ella por tener el potencial de crear una IA a dos velocidades.

Esos críticos abogan por la desregulación absoluta, porque sostienen que la IA avanzará más rápidamente en aquellos puntos donde se le deje jugar con sus ciudadanos como si fueran conejillos de indias y sin cortapisas (EEUU y China).

Quienes abogan por la desregulación absoluta obvian que el uso de datos que realizan las IA ha sido llevado a juicio en EEUU por asociaciones de autores, periodistas y músicos. De la resolución de estos litigios dependerá en buena medida el desarrollo de esta tecnología en ese país.

Sin embargo, algo de razón llevan los críticos en tanto que la regulación europea está espantando proyectos. Meta (el emporio de Mark Zuckerberg y Facebook) ha lanzado modelos de IA que no se pueden usar en Europa y amenaza con no llevar a la UE nunca sus tecnologías punta.

Según indica Rodríguez de Luis, Google no está llegando a esos extremos, pero sí que está retrasando la llegada de sus IA más avanzadas (Bard, Gemini) hasta cerciorarse de que no van a incurrir en ilegalidades en Europa.

El retraso de Windows 11 también se vincula a un eventual uso ilegal de algunas de las funciones de la IA que incorpora.

Las sanciones para multinacionales propietarias de sistemas de IA de alto riesgo que describe este nuevo reglamento son cuantiosas y pueden alcanzar el 7% de sus beneficios anuales. De ahí tantos miedos.

POCA ÉTICA EN LA CARRERA POR LIDERAR LA TECNOLOGÍA

Rodríguez de Luis, sin embargo, avala la necesidad de regulación y sostiene que la guerra de grandes empresas por el liderazgo de la IA está caracterizado por una ética dudosa.

Meta, por ejemplo, ha lanzado un sistema de código abierto (cualquiera puede entrar en el algoritmo para tratar de mejorarlo y cualquiera podría usarlo después) lo que da cierto barniz altruista a su iniciativa. Esta experta, sin embargo, lo considera un truco para parecer más amable y añade que «esta película ya la hemos visto».

«ChatGPT también nació como una iniciativa sin ánimo de lucro, pero en cuanto comenzó a generar millones de dólares, pasó a ser una iniciativa privada», recuerda la editora de Xataka.

Hay que entender el momento concreto en el que se encuentra esta tecnología. «En Europa usamos la IA gratis porque la entrenamos, se la hacemos mejor a su dueño al emplearla. Además, la interiorizamos, nos acostumbramos a tenerla a mano. Y, en el momento en el que dependamos de ella, nos la meterán de pago», augura la experta.

DIFERENCIAR IA DE REALIDAD

Uno de los grandes cambios prácticos del reglamento de la UE pasa por el deber de identificar que un contenido ha sido realizado con inteligencia artificial. La nueva normativa europea considera que uno de los «riesgos limitados» que conlleva el empleo masivo de la IA es que la gente no sepa que está hablando con una máquina, si un texto lo escribió una persona o una máquina o si una imagen o vídeo es real o no.

Por este motivo, todas las creaciones de texto o imágenes deberán dejar claro que se desarrollaron con una herramienta inteligente. Y en un momento en que los niveles de apariencia de verdad que consiguen las IA resultan asombrosos, esta exigencia mínima de transparencia no parece insignificante.

Más allá de esa capacidad para falsear la realidad, no es lo mismo algo que hace una persona a una creación de una máquina. «Si con ChatGPT generas una imagen, lo ha hecho una herramienta informática, no la has hecho tú. No vas a poder registrarla formalmente», explica la asesora jurídica de Intangia.

«Para registrar legalmente una creación como propia, esta debe ser el fruto del esfuerzo de una persona física y las creaciones con IA no lo son. Lo que ha hecho un programa informático no se puede proteger», afirma Cagide.

Estos problemas de autoría, sin embargo, no derivan del nuevo reglamento -ya que esta ley se pensó antes de la eclosión de este tipo de IA, como se ha indicado-.

Aun así, el reglamento sí que remite a los derechos de autor muchas de las polémicas que está despertando la IA (y que, por otra parte, constituyen el núcleo de los grandes pleitos abiertos en EEUU).

El problema radica en que las IA no solo imitan el trabajo de autores reales, lo cual puede rozar el plagio. Además, copian y replican estos trabajos en sus procesos de aprendizaje, lo que puede constituir una vulneración de procesos de reproducción.

LA FINALIDAD ELEVA LA PELIGROSIDAD

En último término, los sistemas de IA de propósito general -aquellos que, por decirlo así, aprenden por aprender- son para el nuevo reglamento herramientas de riesgo mínimo (y aquí la contradicción, pues las IA más avanzadas no tienen una finalidad concreta).

Eso sí, en el momento en el que sean entrenados o modificados para un cumplir un propósito no acorde a la legalidad, pasan automáticamente a riesgo alto, por lo que se exponen a sanciones multimillonarias, proporcionales a su tamaño.

De ahí que las grandes compañías desarrolladoras de IA y los grandes acumuladores de datos se lo piensen dos veces a la hora de extender a Europa el laboratorio de pruebas en el que han convertido al planeta. Para mal y para bien.