Iñaki  Soto
GARAko Zuzendaria / Director de GARA

Inteligencia artificial: aprender a hacer buenas preguntas

La expansión de la IA provoca preguntas que se añaden a una lista de retos inabarcable. En el caso de la sociedad vasca, si no se quiere caer en modas y derrochar energías que no sobran, hay que tener conciencia de nuestra escala, establecer prioridades y acertar en esas preguntas.

La vigilancia masiva es central en el modelo actual de IA.
La vigilancia masiva es central en el modelo actual de IA. (Victor De SCHWANBERG | SCIENCE PHOTO LIBRARY | AFP)

Uno de los nuevos trabajos que han surgido a raíz de la explosión de la inteligencia artificial (IA) es el prompt engineering (ingeniería de instrucciones). Según responde el propio ChatGPT, estos profesionales se especializan en «diseñar, refinar y optimizar las entradas o prompts que se utilizan para interactuar con modelos de lenguaje o sistemas de inteligencia artificial generativa», algo fundamental para exprimir las capacidades de la IA.

Precisamente, una de las cosas más importantes en este momento es hacer las preguntas adecuadas. Y no es fácil, porque resulta inabarcable. Cada artículo que se lee abre la puerta a un universo de nuevas preguntas y las certezas se tambalean con facilidad.

Las preguntas, no obstante, parten de unos intereses que conviene definir. Intentemos, de alguna forma, imaginar que deberíamos preguntar si fuésemos ingenieros de prompts: «En este momento del desarrollo de la inteligencia artificial, ¿sobre qué debería preguntar la ciudadanía vasca, siendo una pequeña nación europea (3 millones de habitantes en total), subordinada institucionalmente a dos grandes Estados, dividida en tres administraciones, con un sistema sociopolítico con rasgos de decadencia, responsable de una lengua minorizada y un sistema cultural rico pero debilitado, con una sociedad envejecida y tendente a la autosuficiencia, pero lejos de ser soberana no solo políticamente sino en los indicadores más importantes (alimentación, energía, finanzas, tecnología) y ralentizada a la hora de tomar decisiones estratégicas?».

Ámbitos prioritarios

No hay que ser ni inteligencia ni artificial para afirmar que hay que definir prioridades. Por un lado, están las áreas que son vitales para la supervivencia de nuestra cultura y el desarrollo de la sociedad. Por otro, hay que priorizar atendiendo a razones de escala y recursos: somos diminutos.

Parece evidente que educación y cultura encabezarán la lista. Por nuestra responsabilidad colectiva respecto al euskara, pero también porque solo un nivel educativo y cultural alto puede solventar el resto de debilidades estructurales y geopolíticas que sufrimos.

Atendiendo a las prioridades sociales, despunta la sanidad. Sin embargo, corremos el peligro de alimentar proyectos que en vez de reducir amplíen las brechas sociales. Quizás, el enfoque de los cuidados y su relación con lo sociosanitario sea más viable y eficiente.

La industria tiene un reto inmenso. Es el sector donde puede haber una mayor conciencia y a la vez una mayor impotencia. Por dimensiones, las empresas vascas están casi obligadas a acertar a la primera –o a la segunda–, pero hay demasiadas incertidumbres para apostar all in por algo sin hacer actos de fe o parecer iluminados. Y las resistencias burocráticas son inmensas.

Habría que avanzar una visión sociolaboral, porque está claro que ahí la IA va a tener un impacto fuerte en las empresas y en el empleo.

No se sabe qué conoce de nuestra historia política contemporánea un robot de estos, pero habría que avisarle de que en todos los últimos ejercicios para establecer prioridades la lista se ha ido alargando por la presión de grupos de interés y por una incapacidad para asumir nuestros límites.

Utilizan IA para elegir objetivos y les llaman «robots militares que salvan vidas», una perversión total del lenguaje. (Win MCNAMEE | AFP)

La lista de prioridades podría ir acompañada de una agenda práctica de cambios pequeños con un impacto medio.

Modelo y monopolio

Muchos de los problemas que detectamos tienen su origen en el modelo de vigilancia masiva que han desarrollado las grandes empresas tecnológicas con la colusión de los gobiernos.

La propiedad es otro problema clave. La concentración de poder por parte de esas empresas ha alcanzado cuotas inasumibles para cualquier sistema económico y político. Son monopolios. Es cierto que esto excede de largo a nuestros poderes, pero también es cierto que alimentamos a esas empresas parasitariamente.

Las inversiones que demanda este sistema de IA son desorbitadas. Como desorbitada es la demanda de energía que tienen. Medioambientalmente son insostenibles. Todo ello parece estar ralentizando su expansión. Nada tiene que ver, en todo caso, con la moratoria que pedían expertos en una carta publicada en marzo del año pasado y que suma ya más de 33.000 apoyos.

En general, hay una peligrosa falta de transparencia que afecta a la responsabilidad. Los permisos para reunir información personal por defecto de algunas plataformas deberían ser perseguidos y castigados.

La IA de código abierto se postula como una alternativa, pero tiene que ser capaz de competir. En ese sentido, tiene su propia lista de prioridades y preguntas.

En guerra

Se prioriza la cantidad sobre la calidad de los datos, lo que dificulta que esta tecnología funcione. En terrenos críticos como el armamento, esta perspectiva es muy peligrosa. Por ejemplo, en su reciente informe ‘El derecho internacional humanitario y los desafíos de los conflictos armados contemporáneos’, Cruz Roja alertaba sobre la digitalización de la guerra, y en concreto sobre el uso de IA alimentada con datos malos y sin supervisión.

En esta línea, Zach Campbell, investigador de vigilancia de Human Rights Watch, ha denunciado que «el Ejército israelí está utilizando en Gaza datos incompletos, cálculos erróneos y herramientas que no son adecuadas para ayudar a tomar decisiones de vida o muerte, lo que podría estar aumentando el daño civil».

Sin pasarnos de solemnes ni caer en demagogias, quizás deberíamos poner más el foco en estos temas y menos en memes y otras sandeces.

Problemas teóricos

La IA conlleva problemas teóricos profundos que no se deben perder de vista. Cuestiones que se suelen formular como temas tecnológicos, pero que tiene implicaciones epistemológicas y antropológicas. La opción de una inteligencia artificial general es el máximo exponente de esos debates.

No es fácil navegar entre utopías tecnófilas y distopías tecnófobas. Empezando por ahí, es importante discernir qué problemas son tecnológicos y cuáles políticos, es decir, relacionado con el poder.

Contaminar el sistema de conocimiento compartido con datos de mala calidad que inducen a errores que pueden acabar estableciéndose como ideas prevalentes gracias a una difusión masiva vía algoritmos es un problema civilizatorio.

Todas las áreas en las que se aplica la IA reproducen sesgos que tienen que ver con los prejuicios ‘naturales’, los que se dan en el mundo físico: racismo, machismo, clasismo…

La velocidad es un tema recurrente. Volviendo a las prioridades, algunos de nuestros problemas históricos pueden quedar superados porque nadie va a esperar a que los respondamos. Hay que avanzar escenarios para poder adaptarse a tiempo.

La escala es otro tema interesante. Bigger is better es un dogma general que se debe poner en duda. Meredith Whittaker, CEO de Signal y una de las voces más interesantes sobre la relación entre tecnología, política y desarrollo social, ha publicado un artículo que analiza los problemas teóricos y prácticos que genera el dogma de la escala.

Referencias

Hay expertas y expertos vascos que están intentando investigar, divulgar e incidir en nuestra relación colectiva con la IA. Quiero destacar a Beñat Erezuma por su activismo, su experimentalismo y su voluntad cooperativa. Lorena Fernández y Pablo Garaizar acaban de publicar ‘La inteligencia artificial explicada a todos los públicos’, un magnífico punto de partida. Junto con NAIZ Irratia, hemos realizado un pódcast con la ayuda de Terese Mendiguren, Miren Berasategi y Simón Peña.

El interés crece, pero las estructuras del país no tienen aún responsables de IA. En general, ni las administraciones ni los partidos ni los sindicatos ni otras entidades tienen referentes claros. Me dirán que tenemos un Basque Artificial Intelligence Centre, pero ¿de qué no tenemos un Basque Centre? Vista la lista, eso no indica una prioridad clara.

Lo admito, por ahora tampoco nuestros medios tienen un cargo así. En 2025 deberemos preguntarnos también a este respecto.

Desde la perspectiva del periodismo, Pablo Mancini recuerda que la inteligencia artificial «es cálculo y cómputo basado en promedios tomados de archivos». Por eso sus resultados son «aparentemente ‘correctos’ pero nunca sorprendentes». Por eso mismo, no nos sirven las preguntas que nos proponga la IA y su ingeniería de prompts, ni las respuestas que den otros países y culturas.

Porque siendo un país tan pequeño, privilegiado y al mismo tiempo débil, necesitamos algo más que preguntas «correctas».

Necesitamos que sean pertinentes, acertadas y, a poder ser, buenas.