Archivo de la etiqueta: IA

Temas relacionados con Inteligencia Artificial y Periodismo.

¿Cómo acomodarse a la inteligencia artificial?

Gracias a que el verano nos regala la idea de que hay más tiempo libre, me propuse ver cosas que había guardado. Es lo que hice con la charla sobre inteligencia artificial “¿ChatGPT nos robará la magia de la programación?” dictada por el profesor José Miguel Piquer, en el evento “Nerdearla” en noviembre pasado (en la imagen). 

“Jo” Piquer es uno de los fundadores de la Internet en Chile, gracias a su visión y a su trabajo como profesor del Departamento de Computación de la Universidad de Chile. Desde el DCC envió el primer mail en el país y, gracias a su gestión, logró que la administración de los dominios “punto CL” quedara en esa universidad. 

El profesor José Miguel Piquer en el escenario del evento Nerdearla, realizado en noviembre 2023 en Valdivia, Chile.

En su conferencia explicó cómo usó ChatGPT para programar un juego del gato (ese nombre se usa en Chile, Costa Rica y México). Detalló paso a paso su trabajo y llegó a algunas conclusiones que me interesa anotar, acerca de lo que aprendió de la aplicación. Entre paréntesis, el minuto en que lo dice:

  • Es impresionante lo bien que programa (21:08)
  • Es super flojo y además, es mentiroso (29:51)
  • ChatGPT no entiende lo que hace (38:10)
  • Es como tener un aprendiz trabajando con uno, úsalo con cuidado (39:55)
  • Las IA generativa no van a entender nunca lo que están haciendo, no fueron hechas para eso (42:01)

Lo interesante de todo lo que cuenta, es que el profesor da por hecho que este tipo de aplicaciones serán un estándar para trabajar en temas como la programación (y yo agrego creación de contenidos). Él cuenta que ayudará a hacer lo tedioso y liberará al programador para cumplir con la parte creativa, que es lo que se espera de su aporte.

Siguiendo con el paralelo a la creación de contenidos, yo puedo contar que he usado inteligencia artificial para traspasar audio a texto, para generar resúmenes de textos largos, para transformar información que aparece en párrafos para presentarla en tablas, para descubrir repeticiones de palabras. Es decir, lo tedioso. Y lo hace muy bien.

¿Qué más puede hacer?

Se ha visto que los modelos de lenguajes pueden trabajar con textos de manera muy eficiente, lo que hasta ahora ha generado situaciones problemáticas.

Por ejemplo, es capaz de reescribir contenidos con otras palabras (ayuda a copiar sin repetir), lo que ha sido muy usado en las tareas de SEO. De hecho en esa industria hay una gran queja de que Google no está a la altura del desafío de descubrir lo que se genera con IA respecto de lo que escribe una persona. Pese a que, durante años, ha puesto como norma para la indexación de los contenidos, que sean de calidad y escritos para (y se supone que por) humanos. 

También puede generar textos completos para ser presentados con otra cara, de manera de presentar un conjunto de ideas que no representa plagio pero que está basado en un trabajo existente. De hecho, la queja contra Amazon recién está partiendo. Lo mismo están experimentando las revistas científicas.

Por lo tanto y siguiendo lo que plantea el profesor Piquer, hay que aprender y entender lo que se puede hacer con este tipo de tecnologías. Es nuestro trabajo sacarle el provecho que se merecen.

Avísame que eres un robot

No es algo que esté pasando todos los días y de manera habitual, pero sí hay señales que llevan a pensar que llegaremos a un momento en que se logre distinguir lo que está hecho por humanos respecto de aquello que es producto de un software. 

Pero esto no va a ocurrir gracias a nuestras habilidades, sino que porque creo que avanzamos a un espacio en que el contenido sintético tendrá marcas distintivas.

Hay que reconocer que pasamos hace mucho rato la barrera de pensar en que podemos distinguir lo artificial con solo verlo.

De hecho, en el NYT hay una prueba para distinguir rostros de personas (ver imagen siguiente). Te muestran 10 imágenes y debes adivinar si estás frente a una foto hecha por una persona o por un software. No acerté en 7 casos. Y eso que traté de agudizar todos los sentidos posibles.

La imagen muestra el test de The New York Times para decidir si la imagen fue creada por un humano o una máquina.

Por ese motivo están comenzado este tipo de acciones que buscan un cambio. Por ejemplo, a comienzos de mes se anunció en Japón que Nikon, Sony Group y Canon (90% del mercado) están desarrollando una tecnología para cámaras fotográficas que incrusta una firma digital en las imágenes, con el objetivo de que puedan ser distinguidas de otras creadas sólo por software, sin intervención humana. En la misma noticia se indicaba que Google comenzó a hacer algo parecido con las imágenes que genera su inteligencia artificial.

Soy humano y lo muestro

En este mismo camino se puede leer lo que presentó ayer el diario The New York Times, que se suma a lo que han hecho otros en el pasado. Destacar que las personas que escriben sus noticias son humanos, con historias y experiencias propias, que han recorrido el mundo y que llegan a contarlo.

Para eso desarrollaron un sistema que permite mostrar el curriculum de quien escribe. Eso se destaca de manera amplia junto a las noticias y se apoya con una página para cada autor, con detalles interesantes, la forma de tomar contacto, sus redes sociales y el listado de noticias previas que haya publicado. Por ejemplo, Motoko Rich, la jefa de la oficina en Japón (varias de sus notas están en español).

Hay quienes comentan que esta nueva característica busca estar en línea con las nuevas directrices de SEO de Google (llamadas EEAT), que premia el contenido original y a los creadores especializados. Puede ser, pero también quiero creer que este gesto de relevar lo humano es importante.

Sigo en esto con la idea de que es mejor destacar el trabajo de las personas y que los medios, especialistas en adaptarse a las circunstancias de un mercado que le es adverso, van a surgir si logran contar historias que las personas de la audiencia quieran seguir. 

Creo que allí está el desafío. Todo lo demás que se genere por medios automáticos será producción amplia y vacía, como ese scroll infinito que vas a ver hoy en tu red social favorita y que luego de mantenerte muchos minutos muy ocupado, no te dejará más que la sensación de perder el tiempo. Allí es donde hay que trabajar. Hay tiempo disponible en las audiencias; sólo hay que provocar el interés para ofrecerles algo que valga la pena mirar e interactuar.

Para cerrar, espero que a futuro las notas que veamos tengan marcas claras. Esto fue hecho por fulano o mengana, humanos. Esto por la máquina “aquella”. A cada uno su mérito, su atención y el tiempo que merece.

Mi primera clase con IA

Varias veces he mencionado que hago clases y por eso aprovecho este espacio para contar que ya tuve la oportunidad de hacer la primera usando las herramientas de conversación que ofrecen los modelos grandes de lenguaje (en inglés LLM) cuyas versiones hemos conocido extensamente en el último año.

De hecho, con la aparición de Chat GPT hace un año, este tipo de aplicaciones se hicieron muy conocidas y fueron integradas muy rápido en los procesos productivos de quienes trabajan en el desarrollo de contenidos. 

Los casos más habituales que he visto, se producen en equipos que crean elementos para redes sociales (aunque decir “equipos” es aventurado, ya que habitualmente es una persona trabajando con varias cuentas). Pero bueno, lo interesante para ellos es que la capacidad que se ofrece a través de estas aplicaciones para resumir textos, detectar frases clave para optimización de buscadores y producir ideas a partir del material existente, se integra muy bien con la rapidez que se necesita para ese nivel de producción acelerada y permanente.

Mi clase abordó estos temas y se basó en una prevención: no usarlo para crear redacciones nuevas. ¿La razón? Se gasta más tiempo verificando que lo que se produce es real y efectivo, que la eficiencia que se consigue.

Como dijo un ingeniero de software, tener a tu disposición un modelo de lenguaje en la actualidad es similar a tener un alumno en práctica que sabe mucho, es muy rápido y activo, pero no tiene idea qué está haciendo. En sus palabras:

Uno de mis vecinos, ingeniero de software, admitió que la IA es mejor y más rápida programando que él. Sin embargo, describió el uso de la tecnología como «tener un becario educado en Harvard que es muy, muy malo en lo que hace». Aunque la IA es muy capaz de hacer el trabajo de mi vecino, su defecto es no saber lo que hace, por qué lo hace o si lo hace bien.

El marco de trabajo

Para efectos de la clase que comentaba, utilicé y comparé los servicios gratuitos de tres sistemas. ChatGPT versión 3.5 de OpenAI, Bard de Google y Claude versión 2 de Anthropic. 

Mi primera consulta fue si entendían español; sólo Claude admitió que “mi conocimiento del idioma español tiene limitaciones en comparación con el inglés”. A mi segunda pregunta, los tres respondieron que eran capaces de revisar lo escrito, identificar palabras repetidas y generar resúmenes e ideas a partir de la información que yo les entregara.

Lo relevante es que les puse dos condiciones: yo les entregaba el texto y sólo podían hacer las tres cosas que les pedí. En ese sentido, Bard y Claude son capaces de leer lo que le indiques desde Internet (la versión que usé de Chat GPT requiere que le copies lo que vaya a revisar).

Por último, para hacer las pruebas les di un marco de actividad que funcionó muy bien. Este consistió en hacer un prompt (petición) muy concreto, explicar qué necesitaba como respuesta de manera detallada, darles el contexto de lo que necesitaba revisar y pedirles no salirse de ese marco y finalmente, indicarles qué rol deberían asumir al responder. Vale decir, los traté tal como se trabaja con un estudiante en práctica. Casi funcionó.

¿Cuál lo hizo mejor? Para efectos de lo que pedí, Bard es muy seco (es decir, poco lírico), responde justo lo que se necesita, sin adornos. Chat GPT me pareció que se iba por las ramas y aunque hacía la tarea pedida, agregaba adjetivos para darle color al resultado. Claude fue el más simple y, para efectos de lo que estaba buscando, el que hizo mejor la tarea.

Sin embargo, eso no indica nada. En otras preguntas y con otros prompts, tuve comportamientos diferentes. Así que podemos decir que todo depende. Primero, de cómo consultes. Segundo, de la información que le entregues. Tercero, de lo que busques como formato de salida. Mientras más cerrada sea la formulación de la interrogante y el tipo de producto que busques, más seguro será lo que obtienes.

Si haces contenidos digitales, mi consejo es probar estas plataformas. Hay que incorporarlas al flujo de trabajo, tal como lo hemos hecho con otras tecnologías previas. A un año de su presentación, podemos afirmar que ya es tiempo de dar ese paso.

PD: una nota la final. Dije “casi funcionó” porque este mismo texto lo hice de la manera que relaté para mi clase. La IA le encontró fallas, claro. Pero mi editora humana fue mucho más certera. Por supuesto que la prefiero.

Agentes, microagentes y otros creadores de contenidos

Sam Altman, CEO de OpenAI, tiene tanto carisma como Mark Zuckerberg, de Meta. Ambos dirigen dos de las compañías más relevantes en el desarrollo de inteligencia artificial en el mundo y a través de sus productos están cambiando la cara de lo que se puede (o no) hacer en cuanto a contenidos digitales.

Desde ambos espacios cada cierto tiempo llegan cambios y mejoras que reorientan el trabajo de muchas personas dedicadas a los contenidos, levantando o dejando caer áreas de trabajo a través de sus desarrollos.

En esta ocasión ha sido el turno de Altman.

A través de una presentación muy completa y concurrida realizada este lunes (ver imagen), ha mostrado lo que viene con ChatGPT, entre varias otras cosas, a casi un año de la introducción de la tecnología. Para efectos de los contenidos, lo relevante es la introducción de los llamados GPTs, a los que se les dio el título de agentes inteligentes que se especializan en un tema para generar contenidos más específicos. Lo más interesante es que con ellos se abrirá un mercado para programarlos y luego venderlos a través de esa plataforma.

Naturalmente, después de un día, hay muchos detalles que no se conocen como para entender de qué manera va a funcionar. Pero la comunidad que está mirando y absorbiendo estos nuevos anuncios quedó extasiada. Un buen ejemplo de esto es el grupo que sigue a un divulgador de IA conocido como DotCSV (Carlos Santana), quien este lunes hizo su propio “en vivo” por YouTube para ir comentando lo que Altman estaba presentando.

Sam Altman, CEO de OpenAI, presentando los GPTs este lunes.
Múltiples GPTs

Lo de los GPTs es lo que más ha impresionado a todos. En este caso, Carlos destacó la idea del mercado que se abre, porque genera múltiples posibilidades para que creadores de contenido desarrollen áreas específicas de información y ayuden a las personas a consumir contenido de maneras no usadas aún.

Otro referente de la producción de contenidos como Scott Belsky, quedó impactado e incluso fue más allá, con la idea de la creación de “microagentes” para ser instalados en cualquier dispositivo:

Habrá muchos microagentes, muchos. Los microagentes son expertos interactivos en lenguaje natural muy especializados y con un enfoque muy especializado. Sospecho que cada libro, aparato de cocina, menú y documento podría tener un microagente con el que conversar.

Scott Belsky

Sin embargo, detengámonos un poco antes de lanzar todo el entusiasmo hacia afuera.

Hablemos por un minuto de la experiencia de uso y de la experiencia histórica con artefactos que hablan. ¿Te imaginas conversando sobre café con una cafetera que sabe mucho del tema? Yo tampoco.

Si analizamos cómo ha sido la experiencia con las máquinas que comenzaron a tener elementos de IA para responder preguntas (es decir, Siri, Alexa, Google Assistant) podemos decir que ya han acumulado historia suficiente desde su lanzamiento en 2011 como para entender de qué manera se comportan las personas frente a ellos. 

Los usos más frecuentes de Alexa son para poner música, asignar recordatorios de tiempo, preguntar por el clima y prender y apagar luces. Para todos los asistentes mencionados, los datos de uso demuestran baja confianza y caídas en los accesos habituales. Incluso un alto ejecutivo los calificó como “tontos como una roca”.

Gente que habla, cosas que conversan

Sin embargo, tiendo a crearme expectativas con las nuevas tecnologías. Por eso puedo decir que lo que me pasó al ver el anuncio de OpenAI, fue que hice el nexo rápido con lo que son y hacen los comunicadores hoy. 

Las personas dedicadas al oficio de comunicar en la actualidad son agentes, en el sentido de que tienen acción propia, están especializados en un tema y tienen la capacidad de comunicación interactiva. 

Si eso lo llevamos a un software que puede ir aprendiendo, como los GPTS recién anunciados, vemos que existe la posibilidad de que un artefacto vaya incorporando lo nuevo, manteniendo una memoria amplia del pasado y, por lo mismo, sea imbatible para responder cualquier duda sobre lo que vaya ocurriendo. No habrá quién les compita, pero ¿será una razón para que reemplacen a personas? 

Creo, más bien, que en breve los veremos activos y actuando en conjunto y como apoyo de los comunicadores actuales.

Todo lo dicho aún es muy nuevo, así que dejemos pasar un tiempo para evaluarlo. Pero lo que ocurrió este lunes con OpenAI es para anotarlo y recordarlo. Muchas cosas surgirán a partir de allí.

IA para periodistas: límites y tareas

Si algo ha cambiado en el último año ha sido el panorama de lo que ofrece la inteligencia artificial (IA) para la generación de contenidos digitales. Desde la aparición de ChatGPT en noviembre pasado, ha habido una sucesión de anuncios, cambios y tomas de posición respecto de la tecnología que ha sido tan rápido, que vale la pena parar un poquito para entender dónde y cómo estamos.

Así que aquí vamos con ese intento.

Lo primero: estamos en la mitad de un proceso que comenzó hace muchos años. La IA no apareció este año sino que es una tecnología con historia, que ha evolucionado y que continuará haciéndolo. Marta Peirano ofrece un artículo en que narra este proceso de manera muy completa, por lo que aconsejo leerla para ver cómo avanza y lo que se espera hacia adelante.

Impacta lo que ella avizora:

Para liberar al mundo del trabajo pesado, la muerte prematura, las enfermedades autoinmunes y la crisis climática, la industria requiere sacrificios que no son compatibles con la sostenibilidad del planeta ni con el mantenimiento de los derechos fundamentales que caracterizan una democracia. Ese es el peligro existencial de la inteligencia artificial.

Marta Peirano.

Respecto de qué es la IA en este momento y la manera en que puede utilizarse, creo que lo mejor que ha salido es la guía de Prodigioso Volcán (PDF), una empresa de comunicaciones española, que logró entender qué hacer y cómo subirse a este tema. En “IA para Periodistas, una herramienta por explotar” (2020) ofrece explicaciones simples y directas.

Por ejemplo, su definición de la tecnología: «Inteligencia artificial” (IA) implica enseñar a las máquinas a desempeñar labores complejas que hasta ahora sólo podían hacer humanos.

En este video, el recientemente fallecido Mario Tascón explica la guía, durante una charla que dio para la Fundación Gabo en octubre de 2020.

Desafíos no faltan

Como todo se está desenvolviendo y expandiendo casi en simultáneo con la aparición de la tecnología, no queda mucho tiempo para entender qué es y, además, usarla y debatir sobre qué puede hacerse sobre ella.

Por ejemplo, desde septiembre pasado hay un curso en proceso para periodistas por parte de la Fundación Knight Ridder titulado “Cómo usar ChatGPT y otras herramientas de IA generativa en tu redacción”. Más de 3 mil personas están en clases (conmigo incluido) tratando de entender qué hacer y cómo sacarle provecho a las nuevas herramientas.

Mientras eso pasa, medios como The New York Times decidieron bloquear el acceso a los sistemas que recuperan información de manera automática, también conocido como scrapping, para evitar que su información se pueda usar para entrenar los modelos de lenguajes (ChatGPT, entre ellos). La idea es que si quieres usar ese tipo de datos, tienes que pagar, parece ser el mensaje. 

Quien consiguió un acuerdo con OpenAI fue la agencia AP, que en agosto pasado informó que permitirá que ChatGPT use sus contenidos. Previo a eso, en abril pasado la agencia de contenidos financieros Bloomberg anunció que también había llegado a un acuerdo para crear su propio modelo, al que llamó BloombergGPT. Ambas empresas han sostenido que seguirán trabajando con periodistas humanos.

También hay que decir que las mismas son las que más han automatizado la creación de contenidos, incluso antes de la aparición de la AI del último tiempo. Eso porque los contenidos ligados a las finanzas, fueron los primeros candidatos a ese proceso. Ejemplos en ese camino son los que venía entregando la empresa española Narrativa desde hace años.

Por lo tanto, tenemos que hacernos cargo de que habrá impacto; no se puede desconocer.

La publicación Gizmodo en Español, dedicada a diversos temas incluyendo tecnología, anunció a comienzos de septiembre pasado que estaba comenzando a usar IA para traducir, al incluir un aviso al final de los textos que indica: «este contenido ha sido traducido automáticamente del material original».

Quienes se dedicaban a esas tareas fueron despedidos (por ejemplo, así lo explicó Matías, un ex-redactor: una IA me quitó el trabajo, literalmente).

Va a seguir ocurriendo. Por eso hay que prepararse. En un buen artículo sobre el rol de los periodistas ante la IA, Jordi Pérez de El País, lo explica de la forma más clara que he leído hasta ahora:

Sería conveniente que cada periodista piense en cuál es el grueso de su trabajo y valore cuánto de ese contenido puede empezar a automatizarse. Cada periodista y cada redacción deberá decidir sus límites. Los ajustes serán inevitables.

Jordi Pérez.

Estamos avisados.

Arréglame ese título y otras capacidades

Entre las cosas que hago habitualmente se encuentra la búsqueda de nueva información y la revisión de las capacidades de diferentes tipos de productos y aplicaciones para estar al día y tener mejor acceso a los temas de los que me interesa saber más. Incluyendo, por cierto, aquellos de los ni imaginaba que quería conocer.

En ese sentido, sigo echando de menos Google Reader que cumplía con ambas características de manera simple y precisa. Pero, lo cerraron. Veo que han pasado 10 años y no he logrado encontrarle una alternativa.

Desde esta semana estoy mirando Artifact. Ofrece tres capacidades: encontrar las noticias gratuitas más informativas, remover los títulos engañosos (conocido como clickbait) y usar inteligencia artificial para hacer resúmenes instantáneos.

Pantallas de Artifact: a la derecha el título original y la izquierda el título “arreglado” por la IA.

En la imagen de este ejemplo, se puede ver parte de lo que hace la aplicación. Toma un texto, le crea un nuevo título gracias a que extrae la parte que se esconde en el texto y la muestra como elemento destacado. Es decir, titula como se debería haber hecho desde el principio. Debo decir que si voy a leer ese texto es porque me interesa el acontecimiento, no porque la curiosidad me lleve a dar un click para saber más.

¿Cuál debería ser la forma seguir? Aunque mi formación me lleva a decir que lo que importa es la experiencia y por eso pido que no me escondan la información, sé que hay mecanismos para determinar qué título rinde más. Por ejemplo, un test A/B ayudaría a zanjar lo del rendimiento, si lo que se busca es tratar de obtener más visitas. Pero si es por contenido y compromiso con el usuario, me quedo con el título informativo, aunque lo haya puesto la IA.

Capacidades esperadas

Todo lo anterior, me lleva a seguir en la tarea de entender cómo deberían ser los medios y qué deberían ofrecer para generar una mejor experiencia en torno a la necesidad de estar informado.

Lo primero es a nivel general: entender qué necesitas. Esto implica que deben buscar la forma de aprender de la audiencia, a nivel personal, para capturar necesidades y ofrecer el conjunto de información que sea el más adecuado. Uno no siempre busca lo último, muchas veces necesita entender el mundo o tiene necesidades más amplias que no se resuelven con saber lo último que ha pasado.

Lo segundo es el contexto. Llego a gran parte de las cosas que me interesan conocer a través de una nota que explica lo último que ha ocurrido o que entrega un dato adicional a lo medular del hecho que estoy leyendo. Por lo mismo, me encantaría que se ofreciera siempre un resumen de lo que haya ocurrido. De más está decir que eso es una tarea que se puede automatizar con IA.

Lo tercero, es que me deben ayudar a separar lo real de lo falso. Los nuevos medios deberían ejercer el fact-check de manera nativa. No sólo contar lo nuevo que haya ocurrido, sino ayudar a divulgar lo que se ha demostrado que es falso.

Lo último, es la interacción a nivel individual. A partir de la nota actual, me gustaría que hubiera herramientas de apoyo: líneas de tiempo, listado de los protagonistas y mini biografías e, incluso, mapas conceptuales en video, para entender mejor lo que me intentan contar. Todo eso actualizado al momento en que lo estoy viendo, es decir, más tarea para la IA.

¿Qué harían los periodistas en este mundo? Pues, lo mejor que saben hacer: buscar historias y contarlas. En eso ningún computador les va a ganar. Finalmente, un medio que cumpla con todo esto va a encontrar a su audiencia y, a través de ella, los negocios que lo sustenten.

Las reglas de la inteligencia artificial

Es cuestión de tiempo para que la inteligencia artificial generativa (IA) se integre a nuestros espacios de información y sea usada para generar los contenidos habituales que nos describen el mundo.

El pasado 9 de junio, a través de un tweet el director digital de la radio BioBio, Christian Leal, anunció: “comenzamos a producir de forma diaria nuestra primera serie de notas generada a través de Inteligencia Artificial (IA), sin que un humano intervenga en absoluto en su publicación”​​.

El resultado era un informe del tiempo que, al menos ayer, comenzaba diciendo: “Según el reporte entregado por www.meteored.cl, el día de hoy martes 20 de junio de 2023, las condiciones climáticas para distintas comunas del país son…”; luego enumeraba, región por región, lo que se esperaba para el tiempo. Muy predecible, muy aburrido, muy maquinal. En su presentación no hay evidencia específica acerca de cómo fue generada.

De verdad, se agradece que la tarea de escribir algo tan rutinario no la tenga que hacer una persona. Aunque en realidad, la pregunta es si una persona se merece leer eso.

La mirada de The Guardian

Pero, sigamos. Una semana después de esa publicación y también en un tweet, Chris Moran, director de innovación del diario inglés The Guardian, dio a conocer que la publicación comenzaría a usar herramientas de este tipo para su trabajo. Sin embargo, para hacerlo se definieron tres principios: que sea en beneficio de los lectores, que sea para el beneficio de la misión del medio, de sus empleados o de la propia organización y, por último, que tenga respeto hacia quienes crean y son propietarios de contenidos.

Un elemento interesante de su propuesta es que indican “si deseamos incluir elementos significativos generados por IA en una pieza de trabajo, sólo lo haremos con una clara evidencia de un beneficio específico, con supervisión humana y el permiso explícito de una editor experimentado. Seremos transparentes con nuestros lectores cuando lo hagamos”. Además, dan algunos ejemplos de cuándo podrían usarlo: ayudar a los periodistas a trabajar con bases de datos grandes, apoyarlos a través de correcciones o sugerencias, en la creación de ideas para campañas de marketing o para reducir la actividad manual en procesos de negocios que sean muy demorosos.

La visión de Baeza-Yates

Finalmente, también en un tweet, el departamento de Ciencias de la Computaciòn de la U. de Chile nos acercó a un artículo del profesor Ricardo Baeza-Yates referido a la creación de contenidos con IA y que se acompaña con esta imagen:

Imagen del artículo del profesor Baeza-Yates que muestra fotos falsas creadas con inteligencia artificial

Entre varios elementos, el profesor indica que la creación de imágenes y videos falsos mediante esta tecnología “cambia drásticamente como interactuamos con información multimedial y en poco tiempo no sabremos qué es verdad y qué es mentira. Será el fin de la verdad digital como la conocemos hoy y potencialmente puede ser un golpe muy duro a la convivencia política y por ende la democracia”.

Pese a los riesgos, Baeza-Yates se muestra contrario a normar el uso de la tecnología y por eso indica que “tenemos que regular los problemas independientemente de la tecnología que se use para resolverlos”. Además, entrega 10 puntos sobre qué revisar al respecto, que podemos sintetizar en: más transparencia, más respeto a los autores y más pruebas antes de comenzar su uso.

Como dije antes, es cuestión de tiempo para que la IA sea nuestra redactora principal; hay que tomar las precauciones necesarias para que no sea la causa de más problemas que los que intenta remediar.

Aprender a hablar con un robot

La semana pasada dicté una clase sobre habilidades digitales para un grupo de alumnos de primer año de Periodismo. A partir de lo que preparé, más las preguntas y reflexiones que emergieron, podría decir que llegué a una conclusión en relación con las habilidades que habrá que desarrollar para sacarle provecho a las herramientas de inteligencia artificial (IA) que han surgido y que lo seguirán haciendo.

El tema va por aquí: hasta ahora los robots con los que estamos interactuando dependen del lenguaje para recibir las instrucciones de lo que queremos que hagan. Por lo tanto, existe una directa relación entre la calidad de lo que planteamos a través de nuestras palabras y los resultados que se obtienen.

En las nuevas versiones de ChatGPT, Dalle-E 2 y Midjourney (que he probado), como en las de Bing (que estoy probando) y Stable Difussion, mientras más detallada sea la solicitud, más certera será la respuesta que se entregue. Como las peticiones se llaman «prompt» en inglés -que podríamos traducir como instrucciones- ha surgido una verdadera área de especialización llamada prompt engeenering que se refiere a la capacidad de hacer peticiones a un software de este tipo, para que complete una tarea. De hecho, ya hay incluso «torpedos» (busca el nombre adecuado según tu país) para preguntarle mejor a ChatGPT.

Google también lo hace

Si bien Google echó a andar sólo ayer su participación en los chat con IA en Estados Unidos y Reino Unido, la empresa no es nueva en el uso de sistemas automatizados que aprenden. De hecho, desde el 2015 hay registro de que la está usando para apoyar la búsqueda y los resultados.

Esto me llevó a recordar que el uso de las palabras (es decir, saber preguntar) es una habilidad requerida para lograr que Google llegue a donde uno lo necesita. De hecho su modo de búsqueda avanzada consiste en un formulario en el que se pueden incluir o excluir palabras, además de usar filtros para hacer la búsqueda dentro de un mismo dominio, región geográfica, idioma o tipo de documento, por dar un par de ejemplos. Es decir, el propio buscador ofrece las herramientas para ayudar a preguntar mejor.

Incluso, uno de los consejos habituales es buscar la respuesta en lugar de escribir una pregunta. Así se conseguirá que Google ofrezca entre sus hallazgos, aquellos documentos que tengan escrita la frase a la que se necesita llegar (lo que se conoce), con la esperanza de que irá acompañada por el resto que se quiere obtener (lo que se desconoce). A eso el buscador, gracias a la IA, sumó capacidades como el apoyo contextual, las repuestas directas sin visitar el sitio que tiene la información y la revisión de lo que busca la comunidad que se interesa en el mismo tipo de consultas.

Palabras que dibujan

De acuerdo a lo que he visto, la mayor parte de los prompts se está aplicando en el caso de los modelos que generan imágenes a partir de instrucciones escritas. De allí que haya libros que recogen los mejores textos y las mejores formas para mejorar la interacción con Midjourney v5, Dalle-E 2 y Stable Diffusion.

Siguiendo esta misma línea de pensamiento, ¿se podría usar algo parecido para definir, por ejemplo, los mejores colores en torno a una emoción o una sensación, que de esa manera se conectara mejor con una audiencia? ¿Pedirle apoyo para elegir las palabras correctas para motivar a una audiencia específica y aumentar la conversión? ¿Sería una buena estrategia para producir una experiencia de usuario que ayudara a que las personas usuarias tuvieran mayor confianza en lo que se le muestra en un espacio digital?

Y dado que ya se hizo el experimento de pasar desde un wireframe a que ChatGPT-4 genere un sitio web, ¿será otra cosa que dejaremos de hacer a la antigua? ¿Estamos cerca de pasar de un concepto emocional a un producto funcional a través de la IA y que nuestro papel sólo sea hacer retoques y enmendar los errores visibles?

Para terminar, debo decir que las respuestas a estas preguntas llegarán a su debido tiempo. Estamos recién comenzando este camino y hay que darle tiempo para ver cuál es el mejor uso de estas herramientas. Pero que prometen, prometen.

Junten miedo, llegaron los robots

Llega marzo, empieza con toda seriedad el año en Chile. Así que vamos con un tema al que hay que ponerle atención porque tiene efectos que están dejando huellas. Se trata de la automatización de los trabajos, es decir, el reemplazo de las personas por tecnologías.

No hay que pensarlo exclusivamente como que hay robots en los puestos de trabajo, sino que el uso de diferentes tipos de mecanismos automáticos, permite que ciertas tareas sean realizadas mediante software y, gracias a eso, se gane en eficiencia. Esto ya ha pasado a lo largo de la historia, como el ejemplo que dimos hace unos boletines atrás: el uso de los semáforos en las intersecciones de las calles, en lugar de personas dirigiendo el tránsito.

El tema es que este cambio es tan silencioso, que casi no se nota. Un ejemplo que está escondido a plena vista es el de los bancos. ¿Hace cuánto que no vas al banco? En mi caso, desde antes de la pandemia, al menos. De hecho, cada vez hay menos personal y oficinas aunque el tamaño del negocio financiero se duplicó y un de las actividades típicas de una sucursal, como la petición de saldos y cartolas, se multiplicó por tres en ese período. Las cifras muestran que en diciembre de 2022 había 1.481 sucursales y en ellas trabajaban 55.467 personas, en 17 bancos. Para el mismo mes del año 2012 había 2.344 sucursales y 58.181 personas trabajando, para 24 bancos.

El estudio de la UDP

Hace unas semanas, en febrero, los investigadores José Acuña y Juan Bravo, del Observatorio del Contexto Económico de la Universidad Diego Portales, desarrollaron un estudio titulado “Automatización: nuevas estimaciones para Chile” (PDF), donde calculan el riesgo de automatización para los ocupados de la economía chilena. Lo interesante es que analizan la evolución del empleo según riesgo de automatización en los años 2015, 2017 y 2020 (ver nota del DF).

Gráfico de DF.cl con los datos del estudio del Observatorio del Contexto Económico de la Universidad Diego Portales.

Las malas noticias primero: “en los años 2015, 2017 y 2020 se repiten como relevantes dentro de los ocupados en alto riesgo de automatización ocupaciones como conductores de vehículos motorizados; vendedores de tiendas, almacenes y puestos; encargados del registro de materiales y transportes; operadores de instalaciones fijas y máquinas; y, vendedores de entradas y cajeros”.

¿Qué más encuentran?

Hay nuevos empleos: “se corroboran los patrones esperados asociados al proceso de avance tecnológico que sustituye tareas humanas, pues se destruye empleo en alto riesgo de automatización y se crea empleo en bajo riesgo de automatización”.

La rutina es un problema: mientras más rutinario es un trabajo, más alto es el riesgo de que sea automatizado.

Hay que seguir estudiando: “un funcionamiento eficiente del sistema de capacitación, formación continua y reconversión laboral es indispensable para evitar que los trabajadores se queden anclados en ocupaciones altamente reemplazables y sin las capacidades necesarias para poder adaptarse y seguir trabajando.”

Para cerrar, los números: es estudio indica que en 2020 el 25,6% de los ocupados estaba en alto riesgo de automatización, cifra ligeramente mayor al 24,8% observado en 2017, aunque menor al 29,7% exhibido en 2015.

No le creas

Imagen creada por inteligencia artificial: se nota en la mano del policía que aparece con seis dedos.

La imagen inicial luce real, pero es falsa. Ni siquiera porque sean actores tratando de entregar algún mensaje ideológico. Si miras la mano enguantada del policía, a la izquierda de la imagen, verás que tiene seis dedos. Fue creada con inteligencia artificial (AI).

Al momento actual la AI aún tiene problemas para producir imágenes en que aparezcan manos (suele poner más dedos o posiciones no humanas) y por eso es posible detectarlo. Este hecho fue destacado en una publicación por Nina Lamparski, jefa de AFP Factual, un servicio de verificación desarrollado por la agencia de noticias France Press. Aunque quien publicó la foto dio por hecho que se trataba de fotos reales, la periodista capturó el detalle y dio la alerta.

El uso de una nueva tecnología trae ventajas y problemas. El pasado 14 de febrero, en el diario El Mercurio venía un recuerdo de hace 100 años: en Punta Arenas le comunicaron a una mujer que su esposo había muerto en Santiago y que debía enviar dinero para el funeral. La estafa se hacía usando el telégrafo.

Ese recuerdo me lleva a uno personal: a fines de los 60 instalaron un teléfono en la casa de mi familia en Rancagua. Mi mamá nos reunió en torno al aparato para instruirnos sobre cómo contestar: qué responder y qué no decir nunca (por ejemplo, que los adultos no estaban en la casa). La razón era clara: alguien allá afuera nos quería hacer daño y con la información que entregábamos se hacía posible. 

Nuevas conversaciones

Pienso ahora en cuántos adultos tuvieron esa conversación respecto del computador y luego del celular.

Es complejo, porque la diversidad de actividades que se puede hacer con ambos, la cantidad de usos posibles y el volumen de información que se administra, representan un desafío mayor para la confianza y credibilidad respecto de quienes nos rodean.

Hay un rol personal a jugar aquí. Por un lado hay que tomar precauciones; lo básico es no compartir claves y cambiarlas con una frecuencia razonable; no entregar datos sensibles por redes sociales o en persona (por ejemplo, no dar el RUT); respaldar la información para enfrentar la pérdida, entre otras. 

Además hay que sospechar de cualquier información sin fuente de origen (por ejemplo, la foto del inicio de este boletín) ya que existe la posibilidad de que sea falsa. No importa si es demasiado buena o demasiado mala como para creerla; los algoritmos están diseñados para conseguir reacciones, por lo que siempre buscarán ofrecer aquello que te gusta o te molesta: si respondes, se cumplió el objetivo de la red social. En este mundo no hay casualidades, todo está programado. Por lo mismo, se hace necesario estar al día acerca de cómo funciona, para tratar de “educar al algoritmo” para que sea lo que uno quiere.

Una tarea a aprender en estos días es cómo verificar lo que vemos. Gracias a la iniciativa de diversos interesados, cada vez hay más espacios. Ya nombramos el de AFP, que incluso recibe peticiones para verificar noticias; en Chile sigo lo que hace Mala Espina y, en Argentina, miro habitualmente lo de Chequeado.

Todo lo anterior, cobra mayor importancia en esos días, cuando las empresas están anunciando que a partir de un futuro muy cercano sólo si pagas podrás acceder a la seguridad más completa de las aplicaciones, como anunciaron en la última semana Twitter y Meta.

Por lo anterior, es evidente que hay que educar(se) en tecnologías y mantener un sano escepticismo: no creer lo que sale en pantalla si no hay una fuente que lo verifique. Este es un llamado a sospechar de cada propuesta, como si fuera el telégrafo de hace un siglo o el teléfono de hace 50 años.