Destacadas

La sorprendente y poco conocida historia de Eliza, el primer bot conversacional de la historia

¿A qué hora cierra el supermercado más cercano? ¿Hace falta salir hoy con paraguas? ¿Qué películas de acción están dando ahora en el cine?

Puede que estés acostumbrado a hacerle a tu asistente de voz este tipo de preguntas para evitar investigar las respuestas tú solo.

Sin embargo, aunque conversar con una máquina pueda parecer un avance relativamente reciente, te sorprenderá saber que el primer bot conversacional (o chatbot), es decir, el primer programa diseñado para responder de forma automática y coherente lo que sea que le preguntemos, fue inventado hace más de 50 años.

Al igual que Siri, Alexa, Echo, Cortana y otros asistentes digitales, este primer programa conversacional de inteligencia artificial tenía nombre de mujer.

Se llamaba Eliza, en honor al personaje Elsa Doolittle de la obra Pigmalión, del dramaturgo irlandés George Bernard Shaw, que con ayuda de un profesor se transforma en seis meses de una vendedora callejera a una dama de la alta sociedad.

Eliza, la psicóloga

Eliza nació en Estados Unidos en 1966.

Fue idea de Joseph Weizenbaum, un profesor de informática del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés), que quería hacer una parodia de las preguntas que hacían los psicoterapeutas que seguían los lineamientos del psicólogo Carl Rogers, creador de la llamada “terapia centrada en el cliente”.

La idea de Weizenbaum era que Eliza conversara (de forma escrita) con su interlocutor de modo tal que diera la sensación de que lo estaba escuchando y de que empatizaba con sus problemas e inquietudes.

Con ello, quería demostrar cuán superficial podía ser la comunicación entre el hombre y la máquina.

Técnica

Para lograr una conversación no robótica, lo más semejante posible a un diálogo entre dos seres humanos, Eliza se valía de varios recursos.

Uno de sus secretos era reconocer palabras clave, para luego hacer preguntas referidas a dicho tema.

Por ejemplo, cuando el interlocutor mencionaba en su discurso la palabra padre o madre, Eliza reconocía que estaba hablando sobre la familia y luego hacía preguntas relacionadas con esa cuestión.

También tenía almacenadas frases hechas sobre una variedad de temas, que utilizaba al reconocer palabras clave, así como frases empáticas y de continuidad.

Estas últimas —como por ejemplo: háblame más de eso, continúa, etc.— siempre resultaban útiles para dar la sensación de estar mostrando interés y hacer que el sujeto continuara hablando como si estuviese manteniendo una conversación real.

Si Eliza no encontraba palabras asociadas en su base de datos, echaba mano de frases como ¿Por qué dices eso? o ¿Estás seguro? y otras combinaciones de palabras similares.

Y, al igual que hacen muchos psicoterapeutas, daba vuelta la frase que uno le decía y la repetía, transformándola en una pregunta.

Este es un ejemplo de un diálogo con Eliza:

Eliza: Soy la psicoterapeuta. Por favor, descríbeme tus problemas. Cada vez que termines de hablar, escribe RET dos veces.

Interlocutor: Soy infeliz.

Eliza: ¿Te sientes infeliz con frecuencia?

Interlocutor: Sí.

Elisa: ¿Puedes desarrollarlo más?

Interlocutor: Demasiado trabajo.

Elisa: ¿Por qué dices mucho trabajo?

Interlocutor: Estoy trabajando demasiado.

Elisa: Antes dijiste que te sentías infeliz.

Interlocutor: Sí.

Elisa: Me gustaría que continúes hablando.

Limitaciones

El programa, no obstante, tenía sus limitaciones.

Era incapaz de memorizar y no podía aprender de sus conversaciones.

Aún así, y aunque Weizenbaum explicó cómo el programa funcionaba para dar con las respuestas adecuadas, se llevó una gran sorpresa cuando notó que los usuarios asumían que Eliza los comprendía.

Algunos llegaban incluso a contarle al programa sus problemas e intimidades.

10 años después, el informático volcó sus experiencias con Eliza en un libro, Computer Power and Human Reason (El poder de las computadoras y la razón humana, en castellano), en el que plasmó su ambivalencia sobre esta tecnología y donde dejó en claro que nunca deberíamos darle a las computadoras el poder de tomar decisiones importantes, ya que carecían de cualidades humanas fundamentales como la compasión y la sabiduría.

Sus primeros intentos fueron seguidos más tarde por otros experimentos destinados a humanizar a las computadoras.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *