GAIAK

La UE trata de poner coto a los dueños de la IA con un reglamento pionero pero obsoleto

La normativa de la UE que regula la IA comenzó a desplegarse el 1 de agosto. El reglamento llega tarde y pasa por encima cuestiones esenciales, pero convierte a Europa en la única zona de mundo que trata de poner coto a esta nueva tecnología.  

La Eurocámara es la primera institución que legisla la IA. (Europa PRESS)

El reglamento sobre la IA de la UE para proteger a sus ciudadanos ante eventuales abusos pasará a los libros de historia del derecho y de la comunicación. Es la primera zona del mundo que trata de poner límites legales a la Inteligencia Artificial, una herramienta con indudable potencial para transformar la sociedad.

Una de las consideraciones que esos manuales del derecho recogerán en los próximos años puede adelantarse hoy: el reglamento europeo fue una herramienta inadecuada que calibró mal cómo iba a desarrollarse esta tecnología. 

«Cuando la norma comenzó a desarrollarse ni siquiera se contemplaban los sistemas de inteligencia artificial generativa, como ChatGPT», explica Conchi Cagide, asesora jurídica de la asociación Intangia, que defiende los derechos de autor con sede en Nafarroa. 

No es, pues, una ley pensada para regular de forma específica lo que comúnmente se entiende hoy por IA, esa que escribe y resume mucho mejor que la media o genera imágenes, muchas veces, indistinguibles de la realidad.

La definición de IA es más amplia de lo que, tras la irrupción de ChatGPT, se entiende como Inteligencia Artificial

La definición de IA que recoge la normativa es un tanto confusa y más amplia. Hace referencia a sistemas capaces de «inferir» cuestiones a partir de unos datos y, a partir de ahí, generar «resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que influir en entornos físicos o virtuales».

En otras palabras, de lo que se trata principalmente es de poner coto a lo que las inteligencias artificiales más potentes (y sus dueños) hacen con lo que conocen de los ciudadanos europeos, de modo que no puedan abusar de ellos y vulnerar así sus derechos. 

Básicamente, este reglamento describe ciertas cosas que se pueden hacer a través la IA y las cataloga en función de su peligrosidad.

Cuanto más desarrollada y más potente, más peligrosa

Hay aplicaciones que, de partida, ya son intolerables: publicidad subliminal, «puntuación ciudadana», predicción delictiva, inferir emociones a través del rostro en centros de estudio o de trabajo, etc.

La clasificación de personas en función de datos biométricos, su religión, o sus posiciones políticas también está considerada una aplicación prohibida.

«Es cierto que la UE va tarde, pero quizá debamos asumir todos que, en asuntos de nuevas tecnologías, la legislación siempre va un par de pasos por detrás. Y hacer algo ya con la IA era fundamental», asegura Eva Rodríguez de Luis, editora de Xataka. 

«Quizá debamos asumir que, en asuntos de nuevas tecnologías, la ley va un par de pasos por detrás», dice Rodríguez de Luis

La norma considera que hay aplicaciones de IA que son de «alto riesgo». Esta peligrosidad que describe la normativa tiene que ver con la «potencia» de los sistemas de IA estén empleando, explica Rodríguez de Luis.

Las herramientas más inteligentes, así como aquellas que se usan en infraestructuras críticas o ligadas a temas relacionados con los DDHH, tendrán una serie de requerimientos «más estrictos». 

La norma planta cara, así, a las grandes multinacionales de las nuevas tecnologías que, a la postre, son los propietarios de las grandes bases de datos y de las IA más avanzadas. 

Lo hará, eso sí, poco a poco. El cumplimiento de los detalles del reglamento no se exigen desde el pasado día 1, sino que se irán requiriendo de forma progresiva hasta su implementación completa dentro de dos años. 

¿IA a dos velocidades?

Aunque algo falto de ambición y desfasado, el reglamento comienza a distinguir a Europa del resto del mundo. Esta consecuencia ha dado pie a que pensadores de derechas carguen contra ella, por tener el potencial de crear una IA a dos velocidades. 

Esos críticos abogan por la desregulación absoluta, porque sostienen que la IA avanzará más rápidamente en aquellos puntos donde se le deje jugar con sus ciudadanos como si fueran conejillos de indias (EEUU y China). 

Zuckerberg, declarando en el comité judicial del Senado de EEUU. (Michael BROCHSTEIN I AFP)

Quienes abogan por la desregulación absoluta obvian que el uso de datos que realizan las IA ha sido llevado a juicio en EEUU por asociaciones de autores y periodistas y músicos. De la resolución de estos litigios dependerá en buena medida el desarrollo de esta tecnología.  

Sin embargo, algo de razón llevan los críticos en tanto que la regulación europea está espantando proyectos piloto. Meta (el emporio de Mark Zuckerber y Facebook) ha lanzado modelos de IA que no se pueden usar en Europa y amenaza con no llevar a la UE nunca las tecnologías que vaya desarrollando. 

Según indica Rodríguez de Luis, Google no está llegando a esos extremos, pero sí que está retrasando la llegada de sus tecnologías de IA más avanzadas (Bard, Gemini) hasta cerciorarse de que no van a incurrir en ilegalidades en Europa.

El retraso de Windows 11 también se vincula a un eventual uso ilegal de algunas de las funciones de la IA que incorpora.

Las sanciones para multinacionales propietarias de sistemas de IA de alto riesgo que describe este nuevo reglamento son cuantiosas y pueden alcanzar el 7% de sus beneficios anuales. 

Poca ética en la carrera por liderar la tecnología

Rodríguez de Luis avala la necesidad de regulación y sostiene que la guerra de grandes empresas por el liderazgo de la IA está caracterizado por la práctica de acciones de ética dudosa. 

Meta, por ejemplo, ha lanzado un sistema de código abierto (cualquiera puede entrar en el algoritmo para tratar de mejorarlo y cualquiera podría usarlo después) lo que da cierto barniz altruista a su iniciativa. Esta experta, sin embargo, lo considera un truco para parecer más amable y añade que «esta película ya la hemos visto». 

«ChatGPT también nació como una iniciativa sin ánimo de lucro, pero en cuanto comenzó a generar millones de dólares, pasó a ser una iniciativa privada», recuerda Rodríguez de Luis. 

Hay que entender el momento concreto en el que se encuentra esta tecnología. «En Europa usamos la IA gratis porque la entrenamos, se la hacemos mejor a su dueño al emplearla. Además, la interiorizamos, nos acostumbramos a tenerla a mano. Y, en el momento en el que dependamos de ella, nos la meterán de pago», augura la experta. 

Identificar qué está hecho por la IA

Uno de los grandes cambios prácticos del reglamento de la UE pasa por el deber de identificar que un contenido ha sido realizado con inteligencia artificial. Queda por ver cómo será su aplicación real. 

La nueva normativa europea considera que uno de los «riesgos limitados» que conlleva el empleo masivo de la IA es que la gente no sepa que está hablando con una máquina, si un texto lo escribió una persona o una máquina o si una imagen o vídeo (los 'deepfakes') es real o no. 

Sam Altman, en una presentación de su herramienta de IA, ChatGPT. (Justin SULLIVAN | AFP)

Por este motivo, todas las creaciones de texto o imágenes deberán dejar claro que se desarrollaron con una herramienta inteligente. Y en un momento en que los niveles de apariencia de verdad que consiguen las IA resultan asombrosos, esta exigencia mínima de transparencia no parece insignificante. 

Además, no es lo mismo algo que hace una persona a una creación de una máquina. «Si con Chat GPT generas una imagen, lo ha hecho una herramienta informática, no la has hecho tú. No vas a poder registrarla formalmente», explica la asesora jurídica de Intangia. 

«Para registrar una creación, esta debe ser el fruto del esfuerzo de una persona y las creaciones con IA no lo son», asegura Cagide.

«Para registrar legalmente una creación como propia, esta debe ser el fruto del esfuerzo de una persona física y las creaciones con IA no lo son. Lo que ha hecho un programa informático no se puede proteger», afirma Cagide. 

Estos problemas de autoría, sin embargo, no derivan del nuevo reglamento –ya que esta ley se pensó antes de la eclosión de este tipo de IA, como se ha indicado–.

Pero el reglamento sí que remite a los derechos de autor muchas de las polémicas que está despertando la IA (y que, por otra parte, constituyen el núcleo de los grandes pleitos abiertos en EEUU).

El problema radica en que las IA no solo imitan el trabajo de autores reales, lo cual puede rozar el plagio. Además de ello, copian y replican estos trabajos en sus procesos de aprendizaje, lo que puede constituir una vulneración de procesos de reproducción.

La finalidad y el salto de peligrosidad

Es más, los sistemas de IA de propósito general –aquellos que, por decirlo así, aprenden por aprender– son para el nuevo reglamento herramientas de riesgo mínimo (y aquí la contradicción, pues las IA más avanzadas no tienen una finalidad concreta).

Eso sí, en el momento en el que sean entrenados o modificados para un cumplir un propósito no acorde a la legalidad, pasan automáticamente a riesgo alto y se exponen a sanciones considerables. 

De ahí que las grandes compañías de IA y Big Data se lo piensen dos veces a la hora de extender a Europa el laboratorio de pruebas en el que han convertido al planeta. Para mal y para bien.