El concepto de deuda cognitiva lo he escuchado más que nunca en las últimas semanas en relación con el uso de la inteligencia artificial. Se refiere a la idea de que mientras menos uso haces de tu cabeza gracias al empleo de herramientas tecnológicas, más te va a costar hacerlo a futuro. Quedas en deuda con tus capacidades, que se van recortando en el tiempo.
Aunque el tema no es nuevo, ya que surgió con un artículo de Nicholas Carr en 2008 (Is Google Making Us Stupid?) ahora está siendo empujado por nueva evidencia.

En particular, un estudio en progreso realizado en el MIT Media Lab que mide el uso de ChatGPT entre las personas para la realización de actividades creativas.
En simple se traduce en lo siguiente, como lo explica Infobae:
Un innovador estudio del MIT Media Lab ha documentado cambios medibles en la actividad cerebral cuando las personas utilizan ChatGPT para tareas de escritura, con el 83 % de los usuarios de IA incapaces de recordar el contenido de ensayos que acababan de escribir.
Desde la perspectiva de los investigadores la deuda cognitiva evita el esfuerzo mental de las personas y facilita su trabajo. Sin embargo, en el largo plazo tiene efectos tales como “disminución de la capacidad de análisis crítico, una mayor vulnerabilidad a la manipulación y una reducción de la creatividad”.
De hecho, en el paper hacen varios experimentos comparativos entre tres grupos que realizan tareas concretas (con AI, con el buscador y a pura memoria) y logran medir estas reducciones de modo palpable.
10% del mundo lo usa
Otro documento de investigación, esta vez realizado por investigadores de OpenAI y Harvard y presentado hace unos días, establece que ya el 10% de los adultos del mundo están usando esta herramienta. Con acceso a información que hasta ahora no se había revelado, se indica que el 80% de los usos de ChatGPT se refieren a tres tipos de tareas:
- conseguir guías prácticas,
- obtener información y
- redactar textos.
A diferencia del anterior, en esta investigación no hay una mirada acerca de los efectos que puede tener esta práctica, aunque no parece una mala idea mirar ambos en conjunto.
Una estrategia factible
Por todo lo dicho, no parece muy aventurado establecer una estrategia personal acerca del uso de la inteligencia artificial.
Revisando lo que yo he dicho en estos dos años desde que partió la inteligencia artificial generativa, siento que es relevante plantear algunas tareas personales cuando haya que usar estas máquinas:
- Hay que seguir siendo humanos y dudar. No quedarnos con la primera respuesta que una pantalla nos entregue (ver más).
- Que el software no tome decisiones por ti: cada vez que lo haces, estás cediendo terreno en una área que debería seguir siendo siempre humana (ver más).
- Si hay que usar contenido sintético que sea para lo más repetitivo, dejando lo creativo en manos humanas (ver más).
- La IA generativa no crea sino que genera secuelas a partir de lo que existe, por lo tanto si hay que desarrollar algo, que lo haga una persona (ver más).
Para cerrar hay que tener en cuenta que la última información disponible muestra que las “alucinaciones”, es decir esas invenciones que hacen los modelos de lenguaje cuando entregan respuestas no van a desaparecer cuando avance la tecnología. Este problema hay que verlo como parte de sus características, según un reporte conocido esta semana.
Cuando no está seguro, no recurre a investigaciones más profundas ni a la supervisión humana; en cambio, a menudo presenta estimaciones como hechos.
La información reportada por Computerworld viene de OpenAI, creador de ChatGPT. Y, como explica un investigador, la IA a diferencia de la inteligencia humana, no tiene la humildad necesaria para decir que no sabe algo.
En eso ganamos, desde la forma en que lo planteó Sócrates en adelante. Así que la petición es ser humanos y poner límites a lo que evite que lo seamos.