Efecto ELIZA

Ajustar Compartir Imprimir Citar
Sesgo cognitivo

El efecto ELIZA, en informática, es la tendencia a asumir inconscientemente que los comportamientos informáticos son análogos a los comportamientos humanos; es decir, la antropomorfización.

Resumen

En su forma específica, el efecto ELIZA se refiere únicamente a "la susceptibilidad de las personas a leer mucho más comprensivamente de lo que se justifica en cadenas de símbolos, especialmente palabras, unidas por computadoras". Un ejemplo trivial de la forma específica del efecto Eliza, dado por Douglas Hofstadter, implica un cajero automático que muestra las palabras "GRACIAS" al final de una transacción. Un observador ingenuo podría pensar que la máquina en realidad está expresando gratitud; sin embargo, la máquina solo está imprimiendo una cadena de símbolos preprogramados.

De manera más general, el efecto ELIZA describe cualquier situación en la que, basándose únicamente en la salida de un sistema, los usuarios perciben que los sistemas informáticos tienen "cualidades y capacidades intrínsecas que el software que controla la (salida) no puede lograr& #34; o "asumir que [los resultados] reflejan una mayor causalidad de lo que realmente hacen". Tanto en su forma específica como general, el efecto ELIZA se destaca por ocurrir incluso cuando los usuarios del sistema son conscientes de la naturaleza determinada de la salida producida por el sistema. Desde un punto de vista psicológico, el efecto ELIZA es el resultado de una sutil disonancia cognitiva entre la conciencia del usuario de las limitaciones de la programación y su comportamiento hacia el resultado del programa. El descubrimiento del efecto ELIZA fue un avance importante en la inteligencia artificial, demostrando el principio de utilizar la ingeniería social en lugar de la programación explícita para pasar una prueba de Turing.

Origen

El efecto lleva el nombre del chatbot ELIZA de 1966, desarrollado por el científico informático del MIT Joseph Weizenbaum. Al ejecutar el guión DOCTOR de Weizenbaum, ELIZA parodiaba a un psicoterapeuta rogeriano, en gran medida reformulando el "paciente" Las respuestas de como preguntas:

Humano: Bueno, mi novio me hizo venir aquí.
¿Tu novio te hizo venir aquí?
Humano: Dice que estoy deprimido mucho del tiempo.
Siento oír que estás deprimido.
Es verdad. Soy infeliz.
ELIZA: ¿Crees que venir aquí te ayudará a no ser infeliz?

Aunque se diseñó estrictamente como un mecanismo para admitir "conversaciones en lenguaje natural" con una computadora, se encontró que el guión de DOCTOR de ELIZA fue sorprendentemente exitoso en provocar respuestas emocionales de los usuarios quienes, en el curso de la interacción con el programa, comenzaron a atribuir comprensión y motivación al programa& #39;salida de s. Como Weizenbaum escribió más tarde: "No me había dado cuenta... de que exposiciones extremadamente breves a un programa informático relativamente simple podían inducir pensamientos delirantes poderosos en personas bastante normales". De hecho, el código de ELIZA no había sido diseñado para provocar esta reacción en primer lugar. Tras la observación, los investigadores descubrieron que los usuarios asumían inconscientemente que las preguntas de ELIZA implicaban interés y participación emocional en los temas discutidos, incluso cuando sabían conscientemente que ELIZA no simulaba emociones.

Importancia para el trabajo automatizado

ELIZA convenció a algunos usuarios para que pensaran que una máquina era humana. Este cambio en la interacción hombre-máquina marcó un progreso en las tecnologías que emulan el comportamiento humano. William Meisel distingue dos grupos de chatbots como "asistentes personales generales" y "asistentes digitales especializados". Los asistentes digitales generales se han integrado en dispositivos personales, con habilidades como enviar mensajes, tomar notas, consultar calendarios y programar citas. Los asistentes digitales especializados “operan en dominios muy específicos o ayudan con tareas muy específicas”. Asistentes digitales que están programados para ayudar a la productividad asumiendo comportamientos análogos a los humanos.

Joseph Weizenbaum consideró que no todas las partes del pensamiento humano pueden reducirse a formalismos lógicos y que “hay algunos actos de pensamiento que deben ser realizados solo por humanos”. También observó que desarrollamos un compromiso emocional con las máquinas si interactuamos con ellas como humanos. Cuando los chatbots están antropomorfizados, tienden a representar características de género como una forma de establecer relaciones con la tecnología. "Los estereotipos de género se instrumentalizan para gestionar nuestra relación con los chatbots" cuando el comportamiento humano se programa en máquinas.

El trabajo feminizado, o el trabajo de las mujeres, automatizado por asistentes digitales antropomórficos refuerza la 'suposición de que las mujeres poseen una afinidad natural por el trabajo de servicios y el trabajo emocional'. Al definir nuestra proximidad con los asistentes digitales a través de sus atributos humanos, los chatbots se convierten en entidades de género.