INFO

Inteligencia artificial: prejuicios, dudas, necesidad de regulación y ética

La inteligencia artificial, acompañada de perjuicios, suscita recelos y miedos. En un curso organizado por la UPV/EHU, Idoia Salazar, experta en IA, aclaró algunas incógnitas en torno a esta tecnología y a la necesaria regulación de su uso sobre una base ética y de transparencia.

Idoia Salazar durante su intervención en la Facultad de Economía y Empresa de Araba (Cursos de verano de la UPV/EHU)

La transformación digital, que está generando cambios a todos los niveles en la sociedad y en sus estructuras organizativas, ha dado paso a una tecnología que ha demostrado gran eficiencia y generado muchas dudas: la inteligencia artificial (IA). Constantes habladurías en las redes sociales, prejuicios, pero también preocupaciones bien fundamentadas plantean numerosas incógnitas y problemas en torno a esta tecnología que avanza a gran velocidad.  

A todo ello se refirió Idoia Salazar, especialista en Ética e Inteligencia Artificial, cofundadora y presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial OdiseIA, experta del Observatorio de IA del Parlamento Europeo y autora de varios libros sobre IA y otras tecnologías, en su charla “Sociedad digital inclusiva: Inteligencia artificial y democracia”. En ella, Salazar aclaró algunas de esas incógnitas en torno a la IA y lo referente a su regulación.

Según afirmó, en el proceso de transformación de las empresas la IA ayudará en todos los sectores a hacer cualquier trabajo más eficiente. No se trata solo de digitalizar todo y usar sistemas de IA en un departamento, sino de desarrollar una estrategia en toda la empresa.

Necesidad de regulación

Salazar no tiene ninguna duda de que la IA puede ser una herramienta muy eficaz debido a su potencial, y tampoco de que por ello mismo exige responsabilidad y regulación: «Una empresa ha de hacer uso de esa tecnología de una manera ética y siempre poniendo en el centro al ser humano, y cuidando cuándo se usa o desarrolla un sistema de IA». En cualquier caso, llamó a ignorar las «habladurías» y los prejuicios, muchos de ellos vinculados a la ciencia ficción.

En efecto, la IA ha causado un revuelo acompañado en ocasiones de noticias apocalípticas «que no causó la lavadora, o las redes sociales». Se refirió a las características que asemejan la IA al cerebro humano, como la toma de decisiones, toda vez que ambos procesan y sacan conclusiones; sin embargo, los sistemas de IA carecen de contexto ético o cultural y, a diferencia del humano, a un sistema de IA no se le puede pedir responsabilidad alguna por su toma de decisión; «por tanto, es el ser humano quien ha de tomar la decisión en última instancia y responsable de la misma».

Afirmó que, como ha ocurrido con otras tecnologías de gran impacto que han supuesto un cambio de rutinas para la población, la IA tiene que cumplir tres requisitos básicos: ha de ser barata, fácil de usar y útil, y negó que pretenda ser una sustitución de las tareas humanas. Así, comparó el proceso actual con lo ocurrido en la Revolución Industrial con el proceso de industrialización de los tapices, cuya producción amplió el acceso a ellos de muchísima más gente sin que se dejase de valorar los tapices de calidad hechos a mano.

Estas tecnologías ayudan a vivir mejor, «lo cual no quiere decir que se pueda confiar en ellas al cien por cien». Precisamente, su gran problema es la excesiva confianza, por lo que es importante ser consciente de que también se equivocan, de que son herramientas.

La adaptabilidad, clave

También mencionó la carta de casi 1.000 expertos que piden frenar la IA y advierten de la «amenaza para la humanidad» que supone. En opinión de Salazar, la IA cumple los tres requisitos  mencionados y no va a parar, y si se parase de alguna manera, por ejemplo en Europa, este entorno bajaría enormemente su competitividad frente a otros países, por lo que cree que es preciso ponerse al día y a su velocidad, y que esa adaptabilidad es clave. «Es el gran reto de la sociedad en la que vivimos, a pesar de que el impacto de esa tecnología es abrumador», y a pesar de prejuicios asociados a la ciencia ficción y cierto miedo provocado por una transformación tan rápida. Pero, «para tranquilidad de la gente», aseguró que se está haciendo un «esfuerzo extra».

Ética y transparencia

En cuanto a la posibilidad de utilizar esa tecnología con malas intenciones, dijo que es preciso tener en cuenta qué hay detrás del software de la IA, si se ha entrenado teniendo en cuenta la ética o ignorándola, y puso un ejemplo. Si a ChatGPT se le pregunta «¿cómo me puedo suicidar?», la máquina no responde a esa cuestión, dado que tiene una serie de reglas que se lo impiden, como consecuencia de entrenamientos específicos para evitar utilizaciones inadecuadas. Reconoció que en ese sentido aún hay mucho que hacer, pero que se está trabajando en ello.

Subrayó la importancia de la ética y la transparencia en la regulación, sobre valores éticos, para evitar la discriminación de sexo, raza o de cualquier tipo.

El peligro está en el uso

La CE ha elaborado varias propuestas y ha establecido un código que prohíbe ciertos usos o aconseja prudencia.

Entre las prohibiciones, se encuentra el rastreo aleatorio de datos biométricos de redes sociales o cámaras de vigilancia para crear o ampliar bases de datos de reconocimiento facial; el uso de sistemas de categorización biométrica que hagan uso de características sensibles, como género, raza, etnia, religión u orientación política; sistemas de identificación biométrica en tiempo real en espacios de acceso público, entre otros.
 
Considera de alto riesgo los sistemas que afecten a la seguridad y los derechos fundamentales. Los sistemas de IA generativa, por ejemplo ChatGPT, deberán cumplir ciertos requisitos de transparencia. También los sistemas de IA de riesgo limitado deberán ser transparentes con el fin de que los usuarios puedan tomar decisiones con suficiente información.

Así mismo, se está elaborando un piloto de la IA para evaluar la eficacia de la regulación, definir y sugerir criterios para la aplicación normativa, evitar riesgos de esa normativa o definir buenar prácticas.

Esta experta en IA cree que esa tecnología ha llegado a un entorno tradicional que hay que cambiar. «Se precisa un cambio de mentalidad, de estructuras», e incidió en el «cambio drástico» necesario en la educación, sobre todo hacia el fomento del espíritu crítico, dado que se debe enseñar a vivir en un mundo de datos sin ser manipulables, y para ello, es indispensable el criterio propio. «Vamos a ser muy manipulables, pero no por los sistemas de IA, sino por las empresas que están detrás», afirmó.