ChatGPT es el chatbot inteligente de la empresa notreamericana OpenAI que está entrenado para mantener conversaciones con cualquier persona o realizar otras tareas relacionadas con el lenguaje, como traducir e incluso generar textos. Funciona de manera gratuita y está a disposición de todo aquel que se registre en el sistema. Ese ‘aquel’, por ejemplo, podría ser un alumno de secundaria que pida a esta Inteligencia Artificial (IA) que realice la redacción que su profesor le ha encomendado para mañana. Este alumno podrá ver sus deberes hechos en pocos minutos y es posible que el profesor le ponga buena nota, si no se percata de la trampa.
Mientras tanto, ChatGPT se ha alimentado de la interacción del alumno, ‘aprende’ de cada pregunta, comentario o petición que recibe de los usuarios. Parece un quid pro quo: la máquina engorda y la persona usuaria recibe un servicio. ¿Pero saben los usuarios que los desarrolladores del sistema utilizan sus interacciones para entrenar a la máquina? ¿Podrían acabar los datos de los internautas en manos de terceros?
El problema es que no hay garantías de que los datos de los usuarios de ChatGPT estén protegidos. Si esta máquina engordada por millones de usuarios explotara...
Italia toma medidas
La Inteligencia Artificial (IA) avanza a ritmo desbocado y algunos países están tomando medidas para que la carrera con anteojeras por la evolución de estas tecnologías deje datos privados al descubierto a su paso.
Italia lo ha hecho ya: el pasado 31 de marzo anunció el bloqueo del uso de la herramienta ChatGPT, acusándola de no respetar la ley de protección de datos de los consumidores. El garante italiano para la Protección de Datos Personales aseguró que había abierto una investigación y que, entretanto, el bloqueo se mantendrá hasta que ChatGPT «no respete la disciplina de la privacidad».
Italia dio de plazo hasta el 30 de abril a OpenAI para que adapte la gestión de datos de ChatGPT a la normativa italiana, porque la IA ya explotó el pasado 20 de marzo y salpicó datos sobre sus usuarios y los datos de pago de sus abonados.
Otros optan por investigar
El debate escaló también a la Organización Europea de Consumidores (BEUC), que instó el mes pasado a las autoridades de la Unión Europea y de los Veintisiete que abrieran una investigación sobre ChatGPT y chatbots similares, ante el «riesgo» que corren los usuarios de «sufrir daños» por una tecnología sin regular.
Algunos estados ya están en ello, como el español. Los estados alemán y francés ya habían abierto estudios al respecto tras la decisión de las autoridades italianas, y la Agencia Española de Protección de Datos (AEPD) ha iniciado de oficio actuaciones previas de investigación a OpenAI, por un posible incumplimiento de normativa española y europea.
Por su parte, Estados Unidos ha abierto un periodo de dos meses para recoger ideas y propuestas normativas para estas nuevas plataformas. Y China ha presentado una batería de medidas, que incluyen que los sistemas de inteligencia artificial generativa pasen regularmente controles de seguridad, incluso antes de ser puestos en circulación.
Expertos por parar sistemas de IA
Una de las acciones que más eco han tenido es una carta abierta hecha pública el pasado 22 de marzo y firmada a día de hoy por más de 24.700 expertas de distintos campos. Encabezada por Yoshua Bengio, premio Turing y profesor de la Universidad de Montreal, en Canadá, y Stuart Russell, de la Universidad de California en Berkeley, EEUU, los firmantes solicitan a los laboratorios que suspendan al menos seis meses el entrenamiento de sistemas de IA más potentes que GPT-4.
El documento, firmado entre otros por el cofundador de Apple Steve Wozniak, propone que durante esta pausa s«e desarrollen e implementen un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes».
Piden que la investigación y el desarrollo de esta tecnología se reenfoque en hacer que «los sistemas potentes y de última generación sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales».
En este mismo sentido, en la revista ‘Science’, un grupo internacional de expertos también mostró en un artículo su preocupación por los elevados riesgos de la IA y de las consecuencias catastróficas que los fallos de esta tecnología pueden causar.
Incidieron en la necesidad de que todas las publicaciones sobre esta materia incluyan de forma pormenorizada todos los datos que son vitales para comprender y abordar los errores intermedios que pueden conducir a posibles fallos, y que estén a disposición de la comunidad científica que evitar que se reproduzcan los mismos errores.
Al otro lado de la balanza
Al otro lado de la balanza, la compañía china de publicidad y relaciones públicas BlueFocus –valorada en 2.700 millones de euros– da rienda suelta a la IA pues ha decidido contratar los servicios de creativos externos, a los que sustituirá por generadoras de contenido inteligentes al estilo de ChatGPT.
En las últimas semanas, este tipo de chatbots han suscitado gran interés en el país asiático, hasta el punto de que la prensa oficial ya ha advertido de una posible «burbuja» en el mercado debido a un «entusiasmo excesivo» sobre esta tecnología.