En mis clases sobre desarrollo de contenidos digitales fomento el uso de herramientas de inteligencia artificial (IA) generativa como parte del flujo de trabajo. Lo agiliza, permite el acceso a nuevas miradas y ayuda a resolver ciertos temas que requieren de fuerza bruta, lo que en tecnología se entiende como la capacidad de probar todas las posibilidades hasta encontrar la correcta.
Lo que pido evitar es utilizarla como herramienta inicial, ya que su capacidad de equivocarse es tan alta que se usa más tiempo corrigiendo los errores, saliendo de los lugares comunes y editando palabras (los gerundios y verbos compuestos son su debilidad) que lo que se gana mediante su velocidad de escritura.
Mi punto de vista es que no se trata de que la IA se equivoca, sino que quien la usa comete el error. Porque no logra ver la equivocación o porque la velocidad de respuesta que entrega se confunde con exactitud.
Dos casos
Esta semana se conocieron dos casos en esa línea. Una fue de un diario en Chicago, EE.UU., que publicó una lista de libros recomendados para el verano boreal. Se notó que fue creada con IA porque dos tercios de los títulos eran inexistentes, es decir, estaban inventados. Comenzando por nuestra Isabel Allende a quien atribuyó el título Tidewater Dreams, aunque el título que la tiene en gira de promoción por estos días es Mi nombre es Emilia del Valle.

Otro caso por el estilo ocurrió en el diario La Nación de Argentina, debido a que el periodista que usó IA para escribir, no se dio cuenta que al final de su texto estaba la oferta habitual del software, sobre otros formatos de información disponibles.

Eso llevó a que el usuario de una red social lo descubriera e hiciera público, con una mezcla entre asombro y sorna.
Me quedó con la reflexión que hizo un analista de medios sobre el mismo tema:
En definitiva, el problema no es que un periodista use ChatGPT, porque es casi inevitable que la máquina mejore el texto de un periodista medio pelo (y no tan medio pelo). El problema es hacer copy-paste a ciegas, sin siquiera leer el resultado.
Porque el error no lo comete la máquina, sino que quien presiona <enter> para llegar al resultado.
Cero error
En este sentido, hay que anotar que el periodismo es una disciplina en la que se busca evitar los errores no forzados. Porque de los otros puede haber muchos. Es decir, puedo equivocarme por no tener toda la información, por no tener acceso a todos los datos, o porque la hora de cierre obliga a tomar decisiones apuradas.
Pero que el error ocurra por no hacer todo el trabajo que demanda publicar de manera frecuente, es muy evitable.
En ese sentido, parece adecuado invitarles a leer el documento Journalism Zero: How Platforms and Publishers are Navigating AI que se presentó durante este mes de mayo por parte del Tow Center for Digital Journalism de la Escuela de Periodismo de la U. de Columbia. Allí se explica de qué manera quienes dirigen importantes medios en Estados Unidos enfrentan el uso de la IA.
De lo mucho que plantea, esta frase se puede usar para lo que comento en esta columna:
«El problema», señaló un ejecutivo de una gran organización internacional de noticias de servicio público, es que el resultado de la IA «tiene que ser perfecto». Su medio, añadió, no puede, por ejemplo, «tener una historia sobre [nuestro] chatbot dando consejos incorrectos o maliciosos o dañinos a un niño. Otras empresas podrían hacerlo, pero nosotros no».
El periodismo tiene que ser perfecto. Por extensión, quienes lo ejercen, tienen esa presión.