Las reglas de la inteligencia artificial

Es cuestión de tiempo para que la inteligencia artificial generativa (IA) se integre a nuestros espacios de información y sea usada para generar los contenidos habituales que nos describen el mundo.

El pasado 9 de junio, a través de un tweet el director digital de la radio BioBio, Christian Leal, anunció: “comenzamos a producir de forma diaria nuestra primera serie de notas generada a través de Inteligencia Artificial (IA), sin que un humano intervenga en absoluto en su publicación”​​.

El resultado era un informe del tiempo que, al menos ayer, comenzaba diciendo: “Según el reporte entregado por www.meteored.cl, el día de hoy martes 20 de junio de 2023, las condiciones climáticas para distintas comunas del país son…”; luego enumeraba, región por región, lo que se esperaba para el tiempo. Muy predecible, muy aburrido, muy maquinal. En su presentación no hay evidencia específica acerca de cómo fue generada.

De verdad, se agradece que la tarea de escribir algo tan rutinario no la tenga que hacer una persona. Aunque en realidad, la pregunta es si una persona se merece leer eso.

La mirada de The Guardian

Pero, sigamos. Una semana después de esa publicación y también en un tweet, Chris Moran, director de innovación del diario inglés The Guardian, dio a conocer que la publicación comenzaría a usar herramientas de este tipo para su trabajo. Sin embargo, para hacerlo se definieron tres principios: que sea en beneficio de los lectores, que sea para el beneficio de la misión del medio, de sus empleados o de la propia organización y, por último, que tenga respeto hacia quienes crean y son propietarios de contenidos.

Un elemento interesante de su propuesta es que indican “si deseamos incluir elementos significativos generados por IA en una pieza de trabajo, sólo lo haremos con una clara evidencia de un beneficio específico, con supervisión humana y el permiso explícito de una editor experimentado. Seremos transparentes con nuestros lectores cuando lo hagamos”. Además, dan algunos ejemplos de cuándo podrían usarlo: ayudar a los periodistas a trabajar con bases de datos grandes, apoyarlos a través de correcciones o sugerencias, en la creación de ideas para campañas de marketing o para reducir la actividad manual en procesos de negocios que sean muy demorosos.

La visión de Baeza-Yates

Finalmente, también en un tweet, el departamento de Ciencias de la Computaciòn de la U. de Chile nos acercó a un artículo del profesor Ricardo Baeza-Yates referido a la creación de contenidos con IA y que se acompaña con esta imagen:

Imagen del artículo del profesor Baeza-Yates que muestra fotos falsas creadas con inteligencia artificial

Entre varios elementos, el profesor indica que la creación de imágenes y videos falsos mediante esta tecnología “cambia drásticamente como interactuamos con información multimedial y en poco tiempo no sabremos qué es verdad y qué es mentira. Será el fin de la verdad digital como la conocemos hoy y potencialmente puede ser un golpe muy duro a la convivencia política y por ende la democracia”.

Pese a los riesgos, Baeza-Yates se muestra contrario a normar el uso de la tecnología y por eso indica que “tenemos que regular los problemas independientemente de la tecnología que se use para resolverlos”. Además, entrega 10 puntos sobre qué revisar al respecto, que podemos sintetizar en: más transparencia, más respeto a los autores y más pruebas antes de comenzar su uso.

Como dije antes, es cuestión de tiempo para que la IA sea nuestra redactora principal; hay que tomar las precauciones necesarias para que no sea la causa de más problemas que los que intenta remediar.