Mi primera clase con IA

Varias veces he mencionado que hago clases y por eso aprovecho este espacio para contar que ya tuve la oportunidad de hacer la primera usando las herramientas de conversación que ofrecen los modelos grandes de lenguaje (en inglés LLM) cuyas versiones hemos conocido extensamente en el último año.

De hecho, con la aparición de Chat GPT hace un año, este tipo de aplicaciones se hicieron muy conocidas y fueron integradas muy rápido en los procesos productivos de quienes trabajan en el desarrollo de contenidos. 

Los casos más habituales que he visto, se producen en equipos que crean elementos para redes sociales (aunque decir “equipos” es aventurado, ya que habitualmente es una persona trabajando con varias cuentas). Pero bueno, lo interesante para ellos es que la capacidad que se ofrece a través de estas aplicaciones para resumir textos, detectar frases clave para optimización de buscadores y producir ideas a partir del material existente, se integra muy bien con la rapidez que se necesita para ese nivel de producción acelerada y permanente.

Mi clase abordó estos temas y se basó en una prevención: no usarlo para crear redacciones nuevas. ¿La razón? Se gasta más tiempo verificando que lo que se produce es real y efectivo, que la eficiencia que se consigue.

Como dijo un ingeniero de software, tener a tu disposición un modelo de lenguaje en la actualidad es similar a tener un alumno en práctica que sabe mucho, es muy rápido y activo, pero no tiene idea qué está haciendo. En sus palabras:

Uno de mis vecinos, ingeniero de software, admitió que la IA es mejor y más rápida programando que él. Sin embargo, describió el uso de la tecnología como «tener un becario educado en Harvard que es muy, muy malo en lo que hace». Aunque la IA es muy capaz de hacer el trabajo de mi vecino, su defecto es no saber lo que hace, por qué lo hace o si lo hace bien.

El marco de trabajo

Para efectos de la clase que comentaba, utilicé y comparé los servicios gratuitos de tres sistemas. ChatGPT versión 3.5 de OpenAI, Bard de Google y Claude versión 2 de Anthropic. 

Mi primera consulta fue si entendían español; sólo Claude admitió que “mi conocimiento del idioma español tiene limitaciones en comparación con el inglés”. A mi segunda pregunta, los tres respondieron que eran capaces de revisar lo escrito, identificar palabras repetidas y generar resúmenes e ideas a partir de la información que yo les entregara.

Lo relevante es que les puse dos condiciones: yo les entregaba el texto y sólo podían hacer las tres cosas que les pedí. En ese sentido, Bard y Claude son capaces de leer lo que le indiques desde Internet (la versión que usé de Chat GPT requiere que le copies lo que vaya a revisar).

Por último, para hacer las pruebas les di un marco de actividad que funcionó muy bien. Este consistió en hacer un prompt (petición) muy concreto, explicar qué necesitaba como respuesta de manera detallada, darles el contexto de lo que necesitaba revisar y pedirles no salirse de ese marco y finalmente, indicarles qué rol deberían asumir al responder. Vale decir, los traté tal como se trabaja con un estudiante en práctica. Casi funcionó.

¿Cuál lo hizo mejor? Para efectos de lo que pedí, Bard es muy seco (es decir, poco lírico), responde justo lo que se necesita, sin adornos. Chat GPT me pareció que se iba por las ramas y aunque hacía la tarea pedida, agregaba adjetivos para darle color al resultado. Claude fue el más simple y, para efectos de lo que estaba buscando, el que hizo mejor la tarea.

Sin embargo, eso no indica nada. En otras preguntas y con otros prompts, tuve comportamientos diferentes. Así que podemos decir que todo depende. Primero, de cómo consultes. Segundo, de la información que le entregues. Tercero, de lo que busques como formato de salida. Mientras más cerrada sea la formulación de la interrogante y el tipo de producto que busques, más seguro será lo que obtienes.

Si haces contenidos digitales, mi consejo es probar estas plataformas. Hay que incorporarlas al flujo de trabajo, tal como lo hemos hecho con otras tecnologías previas. A un año de su presentación, podemos afirmar que ya es tiempo de dar ese paso.

PD: una nota la final. Dije “casi funcionó” porque este mismo texto lo hice de la manera que relaté para mi clase. La IA le encontró fallas, claro. Pero mi editora humana fue mucho más certera. Por supuesto que la prefiero.