16 MAY. 2024 - 20:15h Cinco claves sobre la nueva Ley de Inteligencia Artificial de la Unión Europea Se trata de una iniciativa pionera con la que la UE asume cierto rol de liderazgo en esta materia, de manera similar a como ya hizo con el Reglamento General de Protección de Datos (RGPD), que se ha convertido en un modelo de regulación a nivel internacional. La UE quiere regular el uso de la Inteligencia Artificial. (CREATIVE COMMONS ) NAIZ En 1997, Deep Blue, una máquina creada por IBM, derrotó al campeón mundial de ajedrez Garri Kasparov. Los avances en el hardware, el aumento de la capacidad de cálculo y los nuevos algoritmos condujeron a un interés por la Inteligencia Artificial (IA) que, en realidad, venía ya de lejos, con Alan Turing, John McCarthy y Eliza. Hoy asistimos a la evolución de esta tecnología que se inmiscuye en la vida cotidiana y profesional. «La IA ha generado grandes expectativas de crecimiento, eficiencia y mejora de las condiciones de vida y de impulso de la investigación, entre otros aspectos», explica Miquel Peguera, catedrático de los Estudios de Derecho y Ciencia Política de la Universitat Oberta de Catalunya (UOC). «Sin embargo, también son muy grandes los riesgos que presenta en términos de potenciales discriminaciones y sesgos en diferentes ámbitos», añade. Por ejemplo, decisiones automatizadas que puedan comportar que ciertos individuos no tengan acceso a servicios esenciales, la denegación de créditos bancarios, riesgos de manipulación de grupos vulnerables, generación de contenidos engañosos o la distorsión del funcionamiento electoral. Para hacer frente a estos riesgos, la Unión Europea tiene previsto poner en funcionamiento la nueva Ley de Inteligencia Artificial, aún pendiente de ser aprobada por el Consejo de la UE y de su publicación oficial, que se espera que vea la luz en las próximas semanas. «La UE quiere marcar la pauta internacional en la regulación de la IA centrándose exclusivamente en aquellos sistemas que pueden ocasionar riesgos relevantes y dejando fuera el resto de las soluciones de la IA para evitar una regulación excesiva», explica Peguera. La nueva ley «establecerá sanciones económicas muy elevadas a quien infrinja el reglamento, que se aplica también a los proveedores de fuera de la UE si sus sistemas de IA se usan en el territorio europeo», comenta el experto. Los cinco puntos A su juicio, este nuevo reglamento tiene como claves principales las siguientes: 1) Regula la comercialización y el uso de sistemas de la IA en la Unión Europea. 2) Busca promover la adopción y el desarrollo de la IA y, al mismo tiempo, mitigar los riesgos que un mal uso de esta tecnología puede suponer para la salud, la seguridad y los derechos fundamentales. 3) Prohíbe determinadas prácticas que se consideran de riesgo inaceptable para los ciudadanos y para el conjunto de la sociedad. Por ejemplo, crear bases de datos de reconocimiento facial a partir de la extracción indiscriminada de imágenes de internet, evaluar o clasificar a las personas a lo largo del tiempo por su comportamiento social o sus características personales, o bien explotar las vulnerabilidades de una persona o grupo con la intención de causar daño. 4) Centra la regulación en los sistemas de la IA que considera de alto riesgo. Por ejemplo, en relación con el acceso a servicios esenciales, o con la categorización biométrica de las personas. 5) Exige transparencia con respecto a los contenidos creados o manipulados con herramientas de la IA o a los sistemas de reconocimiento de emociones. «Este reglamento afecta principalmente a las empresas que desarrollan sistemas de IA y los lanzan al mercado, pero también a quienes utilizan herramientas de IA para actividades que no sean puramente personales», explica Peguera. «Por supuesto, la regulación también afecta a los estados en términos del uso que hagan de la IA en la prestación de servicios públicos, el control de fronteras, la persecución de delitos y otros campos», concluye.