Archivo de la etiqueta: IA

Temas relacionados con Inteligencia Artificial y Periodismo.

¿Qué puede hacer la IA con las noticias?

Google IA Overview es una respuesta —quizás no la última— de cómo consumiremos información a futuro. Su partida es cualquier cosa menos auspiciosa. En búsquedas muy particulares (cómo fijar el queso a la pizza y cuántas rocas comer al día) sus resultados fueron preocupantes (ver la imagen).

La imagen muestra una propuesta de respuesta de Google IA Overviw con un gran error: no hay que comer rocas.

Lo interesante que podemos extraer de estos primeros experimentos es que tal como ha ocurrido con otras tecnologías que hemos visto en el pasado, funciona mal ahora, pero sabemos que va a mejorar y que, poco a poco, entregará resultados que van a superar las expectativas. Pasó con los robots y con los vehículos autónomos. Hay que darle tiempo.

¿Por qué nos interesa?

Creo que en algún tiempo en el futuro dependeremos de este tipo de tecnología para llegar de manera acelerada a resultados de búsqueda de nuevos datos. Lo que queremos es contar con estos atajos a la información de calidad y, me parece que será muy natural que una máquina nos ayude en eso.

Por ejemplo, tengo una pregunta y la respuesta está al interior de un video: qué dijo fulano de este tema… quiero que la respuesta sea un minuto con equis segundos para saltar directo a ella y pueda obtenerla de la mejor fuente posible. O bien, quiero un dato y que la respuesta sea: está en la página x de este paper, pero además la entrega la persona que, según todos, es quien más sabe. A eso me refiero con atajos de información.

Me parece que esa capacidad de curatoría de contenidos es la relevante y por supuesto que queremos software que haga eso de manera legítima, más que con trucos de SEO para que cualquiera que se conozca las reglas y administre el algoritmo, me haga pasar por válido algo que no tiene tanta importancia.

Me siento con suerte

Marie Haynes, una conocida especialista en SEO, contaba esta semana que vio un video antiguo en el que Larry Page (fundador de Google) comentaba que el botón Feel lucky del buscador era para ofrecer una respuesta directa. Esa era la idea original, pero no había tecnología para cumplir con esa tarea.

Pues, eso que siempre fue así, ahora se va a cumplir

¿Qué efecto tendrá eso en el consumo de noticias? Mi idea es que a futuro lo que habrá será dos tipos de consumo: el que lleva a una persona al medio para que le cuenten lo que sea que haya ocurrido y otro, en el que la persona hace una pregunta y pide una salida en específico. 

Por ejemplo: ¿Me puedes resumir el caso audios en 30 segundos? ¿Me puedes mostrar las últimas dos semanas de Nicolás Jarry?  Y que la respuesta fuera un resumen de audio o video. Específico, directo y concreto.

Eso es lo que espero. No más, no menos. Resúmenes, es decir, lo que ahora es la especialidad de los modelos de lenguajes, porque los hacen rápido y bien, tal como el caso de Clarín y BioBío que relatamos la semana pasada.

Tarea para los medios

La tarea que deben llevar a cabo en este tiempo es trabajar sobre sus contenidos para ponerlos en valor. Eso significa volver sobre las antiguas bases de datos, agregarles metadatos específicos mediante IA para construir conjuntos de información significativa.

La idea es repasar esos vastos conjuntos de datos de noticias para poner marcas adecuadas, elegir lo relevante, marcar las personas mencionadas, detallar los hechos y de esa manera tener algo con qué alimentar y entrenar a un modelo de lenguaje propio, que responda las preguntas actuales y futuras de las audiencias que verán en los medios el espacio para conseguir respuestas.

De hecho, un reporte que presentó ayer el Reuters Institute destacó que las personas —especialmente las más jóvenes— ya ven como algo normal que los periodistas generen productos noticiosos con el apoyo de IA. No es una novedad, sino que una característica del medio hacer ese tipo de trabajos.

Creo que ese es el desafío que viene y hay que tomarlo.

¿Cómo serán los nuevos medios de noticias con IA?

Las últimas semanas han sido interesantes para quienes trabajamos en la creación de contenidos digitales debido a la gran cantidad de novedades que han aparecido en relación con la inteligencia artificial (IA).

Por un lado OpenAI presentó GPT4o (la o es por omni) que permite conversar con un modelo de inteligencia artificial que entiende instrucciones de voz, imagen y video y es capaz de responder de manera compleja a los intercambios con quienes le conversan. La voz que se usó recordó mucho la película Her, lo que incluso llevó a la actriz respectiva a reclamar por medio de sus abogados por esta “coincidencia”.

Por otro, Google anunció las novedades de Gemini, con la aparición de Astra, que es un método de información basado en realidad aumentada. También anunció las IA Overviews, que son resúmenes de textos que serán presentados en pantalla (ver la imagen), para facilitar el acceso a temas complejos. Si necesitas saber más, junto a lo anterior estará el enlace a la fuente de la cual se extrajo la información.

Wireframe con la experiencia que representa el resumen generado por AI en Google

Por último, Microsoft presentó sus avances con Copilot en el PC. En una presentación realizada el lunes 20, aprovecharon de contar de qué manera la IA estará presente en tu computador cada día. Ya no es sólo una aplicación, es el PC el que la incluye.

Voces de alarma

Nadie quedó indiferente a los anuncios. En especial por el lado del efecto que tendrá en los medios, como entre quienes reciben la mayor cantidad de tráfico desde las referencias que ofrece el buscador de Google. Hay mucho temor, en particular por el hecho de que cada vez más se tenderá a que las personas se queden con una sola versión de lo que necesiten saber: la que le ofrezca la IA que consulten. No pasará mucho tiempo antes que sea una fuente que se dará por confiable, sin que haya dudas de su validez. Eso será un problema, sin lugar a dudas. 

Incluso hay autores que están planteando que el futuro de las búsquedas será el uso de prompts, es decir, instrucciones a una IA. Mientras mejor sea la capacidad de preguntar, más completa será la respuesta que recibamos.

Los de esta semana que pasó, son los cambios más radicales que ha habido en el tema tras la aparición de la IA en noviembre del 2022; los nuevos productos que se están entregando cambian muchas cosas de manera muy abrupta. Modifican la forma en que se ha estado trabajando por años y por lo mismo, lleva a muchas preguntas y despierta todos los antiguos temores acerca del verdadero rol que están asumiendo las pocas mega empresas de tecnología que tienen la capacidad de hacer estos cambios.

La IA que esperamos

Creo que con lo que hemos visto no queda duda que el uso de la IA es muy aplicable en el ámbito de la generación de contenidos. 

Se puede contar con buenos ejemplos de su uso, como es el caso de UAlter en Clarín y más recientemente, en el de BioBio en Chile, que está usando la tecnología para ofrecer un resumen al inicio de cada noticia que publica. Pero ha sido complicado su empleo en la generación de imágenes de apoyo, en especial cuando lo hacen ciertos medios con el fin de evitar el pago por el trabajo de artistas y diseñadores, como también cuando sólo se emplea para reescribir notas con el único objetivo de aparecer en los resultados del buscador.

Estamos en ese momento interesante en el que se puede hacer algo antes de que se produzca un problema mayor. Las tres empresas que están ofreciendo estas novedades tienen la palabra.

Notas de cuidado

Dicho todo lo anterior, no queda más que cerrar con malas noticias. OpenAI anunció hace menos de un año el concepto de superalignement. Lo definieron como la manera en que la empresa iba a dedicar el 20% de sus recursos computacionales a trabajar en que la inteligencia artificial que desarrollaban estuviera alineada con la necesidad de hacerla adecuada para el uso humano.

A cargo de la tarea dejaron a dos personas, que representaban el más alto nivel técnico: Ilya Sutskever (cofundador de la empresa y su principal científico) y Jan Leike (jefe del área de Alignment). Pues bien, en cuestión de días durante la semana pasada, ambos renunciaron y se fueron de la empresa. Esa área de trabajo ya no existe más. Pese a ello, las máximas autoridades de OpenAI intentan mantener la calma, asegurando que todo va por un buen camino, aunque no se sabe muy bien cómo será. 

Afirman: “Creemos que hay que aprovechar las enormes ventajas como en que hay que trabajar para mitigar los graves riesgos; nos tomamos muy en serio nuestro papel y sopesamos cuidadosamente las reacciones a nuestras acciones”.

Qué más podemos decir. Esto no se ve muy bien.

¿Cómo acomodarse a la inteligencia artificial?

Gracias a que el verano nos regala la idea de que hay más tiempo libre, me propuse ver cosas que había guardado. Es lo que hice con la charla sobre inteligencia artificial “¿ChatGPT nos robará la magia de la programación?” dictada por el profesor José Miguel Piquer, en el evento “Nerdearla” en noviembre pasado (en la imagen). 

“Jo” Piquer es uno de los fundadores de la Internet en Chile, gracias a su visión y a su trabajo como profesor del Departamento de Computación de la Universidad de Chile. Desde el DCC envió el primer mail en el país y, gracias a su gestión, logró que la administración de los dominios “punto CL” quedara en esa universidad. 

El profesor José Miguel Piquer en el escenario del evento Nerdearla, realizado en noviembre 2023 en Valdivia, Chile.

En su conferencia explicó cómo usó ChatGPT para programar un juego del gato (ese nombre se usa en Chile, Costa Rica y México). Detalló paso a paso su trabajo y llegó a algunas conclusiones que me interesa anotar, acerca de lo que aprendió de la aplicación. Entre paréntesis, el minuto en que lo dice:

  • Es impresionante lo bien que programa (21:08)
  • Es super flojo y además, es mentiroso (29:51)
  • ChatGPT no entiende lo que hace (38:10)
  • Es como tener un aprendiz trabajando con uno, úsalo con cuidado (39:55)
  • Las IA generativa no van a entender nunca lo que están haciendo, no fueron hechas para eso (42:01)

Lo interesante de todo lo que cuenta, es que el profesor da por hecho que este tipo de aplicaciones serán un estándar para trabajar en temas como la programación (y yo agrego creación de contenidos). Él cuenta que ayudará a hacer lo tedioso y liberará al programador para cumplir con la parte creativa, que es lo que se espera de su aporte.

Siguiendo con el paralelo a la creación de contenidos, yo puedo contar que he usado inteligencia artificial para traspasar audio a texto, para generar resúmenes de textos largos, para transformar información que aparece en párrafos para presentarla en tablas, para descubrir repeticiones de palabras. Es decir, lo tedioso. Y lo hace muy bien.

¿Qué más puede hacer?

Se ha visto que los modelos de lenguajes pueden trabajar con textos de manera muy eficiente, lo que hasta ahora ha generado situaciones problemáticas.

Por ejemplo, es capaz de reescribir contenidos con otras palabras (ayuda a copiar sin repetir), lo que ha sido muy usado en las tareas de SEO. De hecho en esa industria hay una gran queja de que Google no está a la altura del desafío de descubrir lo que se genera con IA respecto de lo que escribe una persona. Pese a que, durante años, ha puesto como norma para la indexación de los contenidos, que sean de calidad y escritos para (y se supone que por) humanos. 

También puede generar textos completos para ser presentados con otra cara, de manera de presentar un conjunto de ideas que no representa plagio pero que está basado en un trabajo existente. De hecho, la queja contra Amazon recién está partiendo. Lo mismo están experimentando las revistas científicas.

Por lo tanto y siguiendo lo que plantea el profesor Piquer, hay que aprender y entender lo que se puede hacer con este tipo de tecnologías. Es nuestro trabajo sacarle el provecho que se merecen.

Avísame que eres un robot

No es algo que esté pasando todos los días y de manera habitual, pero sí hay señales que llevan a pensar que llegaremos a un momento en que se logre distinguir lo que está hecho por humanos respecto de aquello que es producto de un software. 

Pero esto no va a ocurrir gracias a nuestras habilidades, sino que porque creo que avanzamos a un espacio en que el contenido sintético tendrá marcas distintivas.

Hay que reconocer que pasamos hace mucho rato la barrera de pensar en que podemos distinguir lo artificial con solo verlo.

De hecho, en el NYT hay una prueba para distinguir rostros de personas (ver imagen siguiente). Te muestran 10 imágenes y debes adivinar si estás frente a una foto hecha por una persona o por un software. No acerté en 7 casos. Y eso que traté de agudizar todos los sentidos posibles.

La imagen muestra el test de The New York Times para decidir si la imagen fue creada por un humano o una máquina.

Por ese motivo están comenzado este tipo de acciones que buscan un cambio. Por ejemplo, a comienzos de mes se anunció en Japón que Nikon, Sony Group y Canon (90% del mercado) están desarrollando una tecnología para cámaras fotográficas que incrusta una firma digital en las imágenes, con el objetivo de que puedan ser distinguidas de otras creadas sólo por software, sin intervención humana. En la misma noticia se indicaba que Google comenzó a hacer algo parecido con las imágenes que genera su inteligencia artificial.

Soy humano y lo muestro

En este mismo camino se puede leer lo que presentó ayer el diario The New York Times, que se suma a lo que han hecho otros en el pasado. Destacar que las personas que escriben sus noticias son humanos, con historias y experiencias propias, que han recorrido el mundo y que llegan a contarlo.

Para eso desarrollaron un sistema que permite mostrar el curriculum de quien escribe. Eso se destaca de manera amplia junto a las noticias y se apoya con una página para cada autor, con detalles interesantes, la forma de tomar contacto, sus redes sociales y el listado de noticias previas que haya publicado. Por ejemplo, Motoko Rich, la jefa de la oficina en Japón (varias de sus notas están en español).

Hay quienes comentan que esta nueva característica busca estar en línea con las nuevas directrices de SEO de Google (llamadas EEAT), que premia el contenido original y a los creadores especializados. Puede ser, pero también quiero creer que este gesto de relevar lo humano es importante.

Sigo en esto con la idea de que es mejor destacar el trabajo de las personas y que los medios, especialistas en adaptarse a las circunstancias de un mercado que le es adverso, van a surgir si logran contar historias que las personas de la audiencia quieran seguir. 

Creo que allí está el desafío. Todo lo demás que se genere por medios automáticos será producción amplia y vacía, como ese scroll infinito que vas a ver hoy en tu red social favorita y que luego de mantenerte muchos minutos muy ocupado, no te dejará más que la sensación de perder el tiempo. Allí es donde hay que trabajar. Hay tiempo disponible en las audiencias; sólo hay que provocar el interés para ofrecerles algo que valga la pena mirar e interactuar.

Para cerrar, espero que a futuro las notas que veamos tengan marcas claras. Esto fue hecho por fulano o mengana, humanos. Esto por la máquina “aquella”. A cada uno su mérito, su atención y el tiempo que merece.

Mi primera clase con IA

Varias veces he mencionado que hago clases y por eso aprovecho este espacio para contar que ya tuve la oportunidad de hacer la primera usando las herramientas de conversación que ofrecen los modelos grandes de lenguaje (en inglés LLM) cuyas versiones hemos conocido extensamente en el último año.

De hecho, con la aparición de Chat GPT hace un año, este tipo de aplicaciones se hicieron muy conocidas y fueron integradas muy rápido en los procesos productivos de quienes trabajan en el desarrollo de contenidos. 

Los casos más habituales que he visto, se producen en equipos que crean elementos para redes sociales (aunque decir “equipos” es aventurado, ya que habitualmente es una persona trabajando con varias cuentas). Pero bueno, lo interesante para ellos es que la capacidad que se ofrece a través de estas aplicaciones para resumir textos, detectar frases clave para optimización de buscadores y producir ideas a partir del material existente, se integra muy bien con la rapidez que se necesita para ese nivel de producción acelerada y permanente.

Mi clase abordó estos temas y se basó en una prevención: no usarlo para crear redacciones nuevas. ¿La razón? Se gasta más tiempo verificando que lo que se produce es real y efectivo, que la eficiencia que se consigue.

Como dijo un ingeniero de software, tener a tu disposición un modelo de lenguaje en la actualidad es similar a tener un alumno en práctica que sabe mucho, es muy rápido y activo, pero no tiene idea qué está haciendo. En sus palabras:

Uno de mis vecinos, ingeniero de software, admitió que la IA es mejor y más rápida programando que él. Sin embargo, describió el uso de la tecnología como «tener un becario educado en Harvard que es muy, muy malo en lo que hace». Aunque la IA es muy capaz de hacer el trabajo de mi vecino, su defecto es no saber lo que hace, por qué lo hace o si lo hace bien.

El marco de trabajo

Para efectos de la clase que comentaba, utilicé y comparé los servicios gratuitos de tres sistemas. ChatGPT versión 3.5 de OpenAI, Bard de Google y Claude versión 2 de Anthropic. 

Mi primera consulta fue si entendían español; sólo Claude admitió que “mi conocimiento del idioma español tiene limitaciones en comparación con el inglés”. A mi segunda pregunta, los tres respondieron que eran capaces de revisar lo escrito, identificar palabras repetidas y generar resúmenes e ideas a partir de la información que yo les entregara.

Lo relevante es que les puse dos condiciones: yo les entregaba el texto y sólo podían hacer las tres cosas que les pedí. En ese sentido, Bard y Claude son capaces de leer lo que le indiques desde Internet (la versión que usé de Chat GPT requiere que le copies lo que vaya a revisar).

Por último, para hacer las pruebas les di un marco de actividad que funcionó muy bien. Este consistió en hacer un prompt (petición) muy concreto, explicar qué necesitaba como respuesta de manera detallada, darles el contexto de lo que necesitaba revisar y pedirles no salirse de ese marco y finalmente, indicarles qué rol deberían asumir al responder. Vale decir, los traté tal como se trabaja con un estudiante en práctica. Casi funcionó.

¿Cuál lo hizo mejor? Para efectos de lo que pedí, Bard es muy seco (es decir, poco lírico), responde justo lo que se necesita, sin adornos. Chat GPT me pareció que se iba por las ramas y aunque hacía la tarea pedida, agregaba adjetivos para darle color al resultado. Claude fue el más simple y, para efectos de lo que estaba buscando, el que hizo mejor la tarea.

Sin embargo, eso no indica nada. En otras preguntas y con otros prompts, tuve comportamientos diferentes. Así que podemos decir que todo depende. Primero, de cómo consultes. Segundo, de la información que le entregues. Tercero, de lo que busques como formato de salida. Mientras más cerrada sea la formulación de la interrogante y el tipo de producto que busques, más seguro será lo que obtienes.

Si haces contenidos digitales, mi consejo es probar estas plataformas. Hay que incorporarlas al flujo de trabajo, tal como lo hemos hecho con otras tecnologías previas. A un año de su presentación, podemos afirmar que ya es tiempo de dar ese paso.

PD: una nota la final. Dije “casi funcionó” porque este mismo texto lo hice de la manera que relaté para mi clase. La IA le encontró fallas, claro. Pero mi editora humana fue mucho más certera. Por supuesto que la prefiero.

Agentes, microagentes y otros creadores de contenidos

Sam Altman, CEO de OpenAI, tiene tanto carisma como Mark Zuckerberg, de Meta. Ambos dirigen dos de las compañías más relevantes en el desarrollo de inteligencia artificial en el mundo y a través de sus productos están cambiando la cara de lo que se puede (o no) hacer en cuanto a contenidos digitales.

Desde ambos espacios cada cierto tiempo llegan cambios y mejoras que reorientan el trabajo de muchas personas dedicadas a los contenidos, levantando o dejando caer áreas de trabajo a través de sus desarrollos.

En esta ocasión ha sido el turno de Altman.

A través de una presentación muy completa y concurrida realizada este lunes (ver imagen), ha mostrado lo que viene con ChatGPT, entre varias otras cosas, a casi un año de la introducción de la tecnología. Para efectos de los contenidos, lo relevante es la introducción de los llamados GPTs, a los que se les dio el título de agentes inteligentes que se especializan en un tema para generar contenidos más específicos. Lo más interesante es que con ellos se abrirá un mercado para programarlos y luego venderlos a través de esa plataforma.

Naturalmente, después de un día, hay muchos detalles que no se conocen como para entender de qué manera va a funcionar. Pero la comunidad que está mirando y absorbiendo estos nuevos anuncios quedó extasiada. Un buen ejemplo de esto es el grupo que sigue a un divulgador de IA conocido como DotCSV (Carlos Santana), quien este lunes hizo su propio “en vivo” por YouTube para ir comentando lo que Altman estaba presentando.

Sam Altman, CEO de OpenAI, presentando los GPTs este lunes.
Múltiples GPTs

Lo de los GPTs es lo que más ha impresionado a todos. En este caso, Carlos destacó la idea del mercado que se abre, porque genera múltiples posibilidades para que creadores de contenido desarrollen áreas específicas de información y ayuden a las personas a consumir contenido de maneras no usadas aún.

Otro referente de la producción de contenidos como Scott Belsky, quedó impactado e incluso fue más allá, con la idea de la creación de “microagentes” para ser instalados en cualquier dispositivo:

Habrá muchos microagentes, muchos. Los microagentes son expertos interactivos en lenguaje natural muy especializados y con un enfoque muy especializado. Sospecho que cada libro, aparato de cocina, menú y documento podría tener un microagente con el que conversar.

Scott Belsky

Sin embargo, detengámonos un poco antes de lanzar todo el entusiasmo hacia afuera.

Hablemos por un minuto de la experiencia de uso y de la experiencia histórica con artefactos que hablan. ¿Te imaginas conversando sobre café con una cafetera que sabe mucho del tema? Yo tampoco.

Si analizamos cómo ha sido la experiencia con las máquinas que comenzaron a tener elementos de IA para responder preguntas (es decir, Siri, Alexa, Google Assistant) podemos decir que ya han acumulado historia suficiente desde su lanzamiento en 2011 como para entender de qué manera se comportan las personas frente a ellos. 

Los usos más frecuentes de Alexa son para poner música, asignar recordatorios de tiempo, preguntar por el clima y prender y apagar luces. Para todos los asistentes mencionados, los datos de uso demuestran baja confianza y caídas en los accesos habituales. Incluso un alto ejecutivo los calificó como “tontos como una roca”.

Gente que habla, cosas que conversan

Sin embargo, tiendo a crearme expectativas con las nuevas tecnologías. Por eso puedo decir que lo que me pasó al ver el anuncio de OpenAI, fue que hice el nexo rápido con lo que son y hacen los comunicadores hoy. 

Las personas dedicadas al oficio de comunicar en la actualidad son agentes, en el sentido de que tienen acción propia, están especializados en un tema y tienen la capacidad de comunicación interactiva. 

Si eso lo llevamos a un software que puede ir aprendiendo, como los GPTS recién anunciados, vemos que existe la posibilidad de que un artefacto vaya incorporando lo nuevo, manteniendo una memoria amplia del pasado y, por lo mismo, sea imbatible para responder cualquier duda sobre lo que vaya ocurriendo. No habrá quién les compita, pero ¿será una razón para que reemplacen a personas? 

Creo, más bien, que en breve los veremos activos y actuando en conjunto y como apoyo de los comunicadores actuales.

Todo lo dicho aún es muy nuevo, así que dejemos pasar un tiempo para evaluarlo. Pero lo que ocurrió este lunes con OpenAI es para anotarlo y recordarlo. Muchas cosas surgirán a partir de allí.

IA para periodistas: límites y tareas

Si algo ha cambiado en el último año ha sido el panorama de lo que ofrece la inteligencia artificial (IA) para la generación de contenidos digitales. Desde la aparición de ChatGPT en noviembre pasado, ha habido una sucesión de anuncios, cambios y tomas de posición respecto de la tecnología que ha sido tan rápido, que vale la pena parar un poquito para entender dónde y cómo estamos.

Así que aquí vamos con ese intento.

Lo primero: estamos en la mitad de un proceso que comenzó hace muchos años. La IA no apareció este año sino que es una tecnología con historia, que ha evolucionado y que continuará haciéndolo. Marta Peirano ofrece un artículo en que narra este proceso de manera muy completa, por lo que aconsejo leerla para ver cómo avanza y lo que se espera hacia adelante.

Impacta lo que ella avizora:

Para liberar al mundo del trabajo pesado, la muerte prematura, las enfermedades autoinmunes y la crisis climática, la industria requiere sacrificios que no son compatibles con la sostenibilidad del planeta ni con el mantenimiento de los derechos fundamentales que caracterizan una democracia. Ese es el peligro existencial de la inteligencia artificial.

Marta Peirano.

Respecto de qué es la IA en este momento y la manera en que puede utilizarse, creo que lo mejor que ha salido es la guía de Prodigioso Volcán (PDF), una empresa de comunicaciones española, que logró entender qué hacer y cómo subirse a este tema. En “IA para Periodistas, una herramienta por explotar” (2020) ofrece explicaciones simples y directas.

Por ejemplo, su definición de la tecnología: «Inteligencia artificial” (IA) implica enseñar a las máquinas a desempeñar labores complejas que hasta ahora sólo podían hacer humanos.

En este video, el recientemente fallecido Mario Tascón explica la guía, durante una charla que dio para la Fundación Gabo en octubre de 2020.

Desafíos no faltan

Como todo se está desenvolviendo y expandiendo casi en simultáneo con la aparición de la tecnología, no queda mucho tiempo para entender qué es y, además, usarla y debatir sobre qué puede hacerse sobre ella.

Por ejemplo, desde septiembre pasado hay un curso en proceso para periodistas por parte de la Fundación Knight Ridder titulado “Cómo usar ChatGPT y otras herramientas de IA generativa en tu redacción”. Más de 3 mil personas están en clases (conmigo incluido) tratando de entender qué hacer y cómo sacarle provecho a las nuevas herramientas.

Mientras eso pasa, medios como The New York Times decidieron bloquear el acceso a los sistemas que recuperan información de manera automática, también conocido como scrapping, para evitar que su información se pueda usar para entrenar los modelos de lenguajes (ChatGPT, entre ellos). La idea es que si quieres usar ese tipo de datos, tienes que pagar, parece ser el mensaje. 

Quien consiguió un acuerdo con OpenAI fue la agencia AP, que en agosto pasado informó que permitirá que ChatGPT use sus contenidos. Previo a eso, en abril pasado la agencia de contenidos financieros Bloomberg anunció que también había llegado a un acuerdo para crear su propio modelo, al que llamó BloombergGPT. Ambas empresas han sostenido que seguirán trabajando con periodistas humanos.

También hay que decir que las mismas son las que más han automatizado la creación de contenidos, incluso antes de la aparición de la AI del último tiempo. Eso porque los contenidos ligados a las finanzas, fueron los primeros candidatos a ese proceso. Ejemplos en ese camino son los que venía entregando la empresa española Narrativa desde hace años.

Por lo tanto, tenemos que hacernos cargo de que habrá impacto; no se puede desconocer.

La publicación Gizmodo en Español, dedicada a diversos temas incluyendo tecnología, anunció a comienzos de septiembre pasado que estaba comenzando a usar IA para traducir, al incluir un aviso al final de los textos que indica: «este contenido ha sido traducido automáticamente del material original».

Quienes se dedicaban a esas tareas fueron despedidos (por ejemplo, así lo explicó Matías, un ex-redactor: una IA me quitó el trabajo, literalmente).

Va a seguir ocurriendo. Por eso hay que prepararse. En un buen artículo sobre el rol de los periodistas ante la IA, Jordi Pérez de El País, lo explica de la forma más clara que he leído hasta ahora:

Sería conveniente que cada periodista piense en cuál es el grueso de su trabajo y valore cuánto de ese contenido puede empezar a automatizarse. Cada periodista y cada redacción deberá decidir sus límites. Los ajustes serán inevitables.

Jordi Pérez.

Estamos avisados.

Arréglame ese título y otras capacidades

Entre las cosas que hago habitualmente se encuentra la búsqueda de nueva información y la revisión de las capacidades de diferentes tipos de productos y aplicaciones para estar al día y tener mejor acceso a los temas de los que me interesa saber más. Incluyendo, por cierto, aquellos de los ni imaginaba que quería conocer.

En ese sentido, sigo echando de menos Google Reader que cumplía con ambas características de manera simple y precisa. Pero, lo cerraron. Veo que han pasado 10 años y no he logrado encontrarle una alternativa.

Desde esta semana estoy mirando Artifact. Ofrece tres capacidades: encontrar las noticias gratuitas más informativas, remover los títulos engañosos (conocido como clickbait) y usar inteligencia artificial para hacer resúmenes instantáneos.

Pantallas de Artifact: a la derecha el título original y la izquierda el título “arreglado” por la IA.

En la imagen de este ejemplo, se puede ver parte de lo que hace la aplicación. Toma un texto, le crea un nuevo título gracias a que extrae la parte que se esconde en el texto y la muestra como elemento destacado. Es decir, titula como se debería haber hecho desde el principio. Debo decir que si voy a leer ese texto es porque me interesa el acontecimiento, no porque la curiosidad me lleve a dar un click para saber más.

¿Cuál debería ser la forma seguir? Aunque mi formación me lleva a decir que lo que importa es la experiencia y por eso pido que no me escondan la información, sé que hay mecanismos para determinar qué título rinde más. Por ejemplo, un test A/B ayudaría a zanjar lo del rendimiento, si lo que se busca es tratar de obtener más visitas. Pero si es por contenido y compromiso con el usuario, me quedo con el título informativo, aunque lo haya puesto la IA.

Capacidades esperadas

Todo lo anterior, me lleva a seguir en la tarea de entender cómo deberían ser los medios y qué deberían ofrecer para generar una mejor experiencia en torno a la necesidad de estar informado.

Lo primero es a nivel general: entender qué necesitas. Esto implica que deben buscar la forma de aprender de la audiencia, a nivel personal, para capturar necesidades y ofrecer el conjunto de información que sea el más adecuado. Uno no siempre busca lo último, muchas veces necesita entender el mundo o tiene necesidades más amplias que no se resuelven con saber lo último que ha pasado.

Lo segundo es el contexto. Llego a gran parte de las cosas que me interesan conocer a través de una nota que explica lo último que ha ocurrido o que entrega un dato adicional a lo medular del hecho que estoy leyendo. Por lo mismo, me encantaría que se ofreciera siempre un resumen de lo que haya ocurrido. De más está decir que eso es una tarea que se puede automatizar con IA.

Lo tercero, es que me deben ayudar a separar lo real de lo falso. Los nuevos medios deberían ejercer el fact-check de manera nativa. No sólo contar lo nuevo que haya ocurrido, sino ayudar a divulgar lo que se ha demostrado que es falso.

Lo último, es la interacción a nivel individual. A partir de la nota actual, me gustaría que hubiera herramientas de apoyo: líneas de tiempo, listado de los protagonistas y mini biografías e, incluso, mapas conceptuales en video, para entender mejor lo que me intentan contar. Todo eso actualizado al momento en que lo estoy viendo, es decir, más tarea para la IA.

¿Qué harían los periodistas en este mundo? Pues, lo mejor que saben hacer: buscar historias y contarlas. En eso ningún computador les va a ganar. Finalmente, un medio que cumpla con todo esto va a encontrar a su audiencia y, a través de ella, los negocios que lo sustenten.

Las reglas de la inteligencia artificial

Es cuestión de tiempo para que la inteligencia artificial generativa (IA) se integre a nuestros espacios de información y sea usada para generar los contenidos habituales que nos describen el mundo.

El pasado 9 de junio, a través de un tweet el director digital de la radio BioBio, Christian Leal, anunció: “comenzamos a producir de forma diaria nuestra primera serie de notas generada a través de Inteligencia Artificial (IA), sin que un humano intervenga en absoluto en su publicación”​​.

El resultado era un informe del tiempo que, al menos ayer, comenzaba diciendo: “Según el reporte entregado por www.meteored.cl, el día de hoy martes 20 de junio de 2023, las condiciones climáticas para distintas comunas del país son…”; luego enumeraba, región por región, lo que se esperaba para el tiempo. Muy predecible, muy aburrido, muy maquinal. En su presentación no hay evidencia específica acerca de cómo fue generada.

De verdad, se agradece que la tarea de escribir algo tan rutinario no la tenga que hacer una persona. Aunque en realidad, la pregunta es si una persona se merece leer eso.

La mirada de The Guardian

Pero, sigamos. Una semana después de esa publicación y también en un tweet, Chris Moran, director de innovación del diario inglés The Guardian, dio a conocer que la publicación comenzaría a usar herramientas de este tipo para su trabajo. Sin embargo, para hacerlo se definieron tres principios: que sea en beneficio de los lectores, que sea para el beneficio de la misión del medio, de sus empleados o de la propia organización y, por último, que tenga respeto hacia quienes crean y son propietarios de contenidos.

Un elemento interesante de su propuesta es que indican “si deseamos incluir elementos significativos generados por IA en una pieza de trabajo, sólo lo haremos con una clara evidencia de un beneficio específico, con supervisión humana y el permiso explícito de una editor experimentado. Seremos transparentes con nuestros lectores cuando lo hagamos”. Además, dan algunos ejemplos de cuándo podrían usarlo: ayudar a los periodistas a trabajar con bases de datos grandes, apoyarlos a través de correcciones o sugerencias, en la creación de ideas para campañas de marketing o para reducir la actividad manual en procesos de negocios que sean muy demorosos.

La visión de Baeza-Yates

Finalmente, también en un tweet, el departamento de Ciencias de la Computaciòn de la U. de Chile nos acercó a un artículo del profesor Ricardo Baeza-Yates referido a la creación de contenidos con IA y que se acompaña con esta imagen:

Imagen del artículo del profesor Baeza-Yates que muestra fotos falsas creadas con inteligencia artificial

Entre varios elementos, el profesor indica que la creación de imágenes y videos falsos mediante esta tecnología “cambia drásticamente como interactuamos con información multimedial y en poco tiempo no sabremos qué es verdad y qué es mentira. Será el fin de la verdad digital como la conocemos hoy y potencialmente puede ser un golpe muy duro a la convivencia política y por ende la democracia”.

Pese a los riesgos, Baeza-Yates se muestra contrario a normar el uso de la tecnología y por eso indica que “tenemos que regular los problemas independientemente de la tecnología que se use para resolverlos”. Además, entrega 10 puntos sobre qué revisar al respecto, que podemos sintetizar en: más transparencia, más respeto a los autores y más pruebas antes de comenzar su uso.

Como dije antes, es cuestión de tiempo para que la IA sea nuestra redactora principal; hay que tomar las precauciones necesarias para que no sea la causa de más problemas que los que intenta remediar.

Aprender a hablar con un robot

La semana pasada dicté una clase sobre habilidades digitales para un grupo de alumnos de primer año de Periodismo. A partir de lo que preparé, más las preguntas y reflexiones que emergieron, podría decir que llegué a una conclusión en relación con las habilidades que habrá que desarrollar para sacarle provecho a las herramientas de inteligencia artificial (IA) que han surgido y que lo seguirán haciendo.

El tema va por aquí: hasta ahora los robots con los que estamos interactuando dependen del lenguaje para recibir las instrucciones de lo que queremos que hagan. Por lo tanto, existe una directa relación entre la calidad de lo que planteamos a través de nuestras palabras y los resultados que se obtienen.

En las nuevas versiones de ChatGPT, Dalle-E 2 y Midjourney (que he probado), como en las de Bing (que estoy probando) y Stable Difussion, mientras más detallada sea la solicitud, más certera será la respuesta que se entregue. Como las peticiones se llaman «prompt» en inglés -que podríamos traducir como instrucciones- ha surgido una verdadera área de especialización llamada prompt engeenering que se refiere a la capacidad de hacer peticiones a un software de este tipo, para que complete una tarea. De hecho, ya hay incluso «torpedos» (busca el nombre adecuado según tu país) para preguntarle mejor a ChatGPT.

Google también lo hace

Si bien Google echó a andar sólo ayer su participación en los chat con IA en Estados Unidos y Reino Unido, la empresa no es nueva en el uso de sistemas automatizados que aprenden. De hecho, desde el 2015 hay registro de que la está usando para apoyar la búsqueda y los resultados.

Esto me llevó a recordar que el uso de las palabras (es decir, saber preguntar) es una habilidad requerida para lograr que Google llegue a donde uno lo necesita. De hecho su modo de búsqueda avanzada consiste en un formulario en el que se pueden incluir o excluir palabras, además de usar filtros para hacer la búsqueda dentro de un mismo dominio, región geográfica, idioma o tipo de documento, por dar un par de ejemplos. Es decir, el propio buscador ofrece las herramientas para ayudar a preguntar mejor.

Incluso, uno de los consejos habituales es buscar la respuesta en lugar de escribir una pregunta. Así se conseguirá que Google ofrezca entre sus hallazgos, aquellos documentos que tengan escrita la frase a la que se necesita llegar (lo que se conoce), con la esperanza de que irá acompañada por el resto que se quiere obtener (lo que se desconoce). A eso el buscador, gracias a la IA, sumó capacidades como el apoyo contextual, las repuestas directas sin visitar el sitio que tiene la información y la revisión de lo que busca la comunidad que se interesa en el mismo tipo de consultas.

Palabras que dibujan

De acuerdo a lo que he visto, la mayor parte de los prompts se está aplicando en el caso de los modelos que generan imágenes a partir de instrucciones escritas. De allí que haya libros que recogen los mejores textos y las mejores formas para mejorar la interacción con Midjourney v5, Dalle-E 2 y Stable Diffusion.

Siguiendo esta misma línea de pensamiento, ¿se podría usar algo parecido para definir, por ejemplo, los mejores colores en torno a una emoción o una sensación, que de esa manera se conectara mejor con una audiencia? ¿Pedirle apoyo para elegir las palabras correctas para motivar a una audiencia específica y aumentar la conversión? ¿Sería una buena estrategia para producir una experiencia de usuario que ayudara a que las personas usuarias tuvieran mayor confianza en lo que se le muestra en un espacio digital?

Y dado que ya se hizo el experimento de pasar desde un wireframe a que ChatGPT-4 genere un sitio web, ¿será otra cosa que dejaremos de hacer a la antigua? ¿Estamos cerca de pasar de un concepto emocional a un producto funcional a través de la IA y que nuestro papel sólo sea hacer retoques y enmendar los errores visibles?

Para terminar, debo decir que las respuestas a estas preguntas llegarán a su debido tiempo. Estamos recién comenzando este camino y hay que darle tiempo para ver cuál es el mejor uso de estas herramientas. Pero que prometen, prometen.