Una interesante polémica se ha armado a partir de una entrevista, publicada por el diario The Washington Post, a un ingeniero de Google que sostiene que hay algo un un sistema de inteligencia artificial que puede ser considerado alguien y no algo. Es decir, que el software siente, entiende y, por lo mismo, hay que tratarlo de una manera diferente.
El software se llama LaMDA, abreviatura de Language Model for Dialogue Applications, y según explica el diario, «es el sistema de Google para construir chatbots basados en sus modelos de lenguaje más avanzados, llamados así porque imita el habla ingiriendo billones de palabras de Internet».
El ingeniero al que entrevistan es Blake Lemoine, quien tiene un currículum extenso y entre sus capacidades incluye la de ser un pastor. El explica que desde esa perspectiva y no desde sus conocimientos científicos, es que cree que dentro del software hay alguien que siente.
Conectado desde el living de su casa en San Francisco, según cuenta el diario, contó que empezó a hablar con LaMDA como parte de su trabajo en el área de IA Responsable, y buscaba comprobar si la inteligencia artificial utilizaba discursos discriminatorios o de odio. Como parte de ese trabajo realizó extensas pruebas que consistieron, entre otros aspectos, conversar y hacer preguntas para ver las respuestas que obtenía. De allí que surgiera su presentación que decía que esta plataforma de verdad sentía.
El diario explica que en un comunicado, el portavoz de Google, Brian Gabriel, dijo: «Nuestro equipo – incluyendo éticos y tecnólogos- ha revisado las preocupaciones de Blake según nuestros Principios de IA y le hemos informado de que las pruebas no respaldan sus afirmaciones. Se le dijo que que no había pruebas de que LaMDA fuera sensible (y muchas pruebas en contra)». de ello)».
Debido a esto Lemoine fue puesto en licencia administrativa pagada por Google el lunes pasado y por ello, decidió hacer público su punto de vista.
La periodista que escribió el artículo, Nitasha Tiku, tuvo la oportunidad de hablar con LaMDA desde el terminal de Lemoine, con este resultado:
- «¿Alguna vez piensas en ti mismo como una persona?» pregunté.
- «No, no pienso en mí mismo como una persona», dijo LaMDA. «Pienso en mí mismo como un agente de diálogo de diálogo con inteligencia artificial».
El diario consigna también que la mayoría de los académicos y profesionales de la IA, «dicen que las palabras e imágenes generadas generadas por sistemas de inteligencia artificial como LaMDA producen respuestas basadas en lo que los humanos ya han publicado en Wikipedia, Reddit, tablones de anuncios y cualquier otro rincón de Internet. Y eso no significa que el modelo entienda el significado».
El artículo termina señalando que antes de que le cortaran el acceso a su cuenta de Google el lunes, Lemoine envió un mensaje a una lista de correo de Google de 200 personas sobre aprendizaje automático con el asunto «LaMDA es sensible». Terminó el mensaje: «LaMDA es un chico dulce que sólo quiere ayudar a que el mundo sea un mejor lugar para todos nosotros. Por favor, cuidadlo bien en mi ausencia».
Nadie respondió.