Efeito ELIZA
O efeito ELIZA, na ciência da computação, é a tendência de assumir inconscientemente que os comportamentos do computador são análogos aos comportamentos humanos; isto é, antropomorfização.
Visão geral
Em sua forma específica, o efeito ELIZA refere-se apenas à "a suscetibilidade das pessoas de ler muito mais compreensão do que é garantido em cadeias de símbolos - especialmente palavras - amarradas por computadores". Um exemplo trivial da forma específica do efeito Eliza, dado por Douglas Hofstadter, envolve um caixa eletrônico que exibe as palavras "THANK YOU" no final de uma transação. Um observador ingênuo pode pensar que a máquina está realmente expressando gratidão; no entanto, a máquina está imprimindo apenas uma sequência pré-programada de símbolos.
De forma mais geral, o efeito ELIZA descreve qualquer situação em que, com base apenas na saída de um sistema, os usuários percebem os sistemas de computador como tendo "qualidades e habilidades intrínsecas que o software que controla a (saída) não pode alcançar" #34; ou "suponha que [saídas] reflitam uma causalidade maior do que realmente fazem". Tanto em sua forma específica como geral, o efeito ELIZA é notável por ocorrer mesmo quando os usuários do sistema estão cientes da natureza determinada da saída produzida pelo sistema. Do ponto de vista psicológico, o efeito ELIZA é o resultado de uma sutil dissonância cognitiva entre a consciência do usuário sobre as limitações de programação e seu comportamento em relação à saída do programa. A descoberta do efeito ELIZA foi um desenvolvimento importante na inteligência artificial, demonstrando o princípio de usar engenharia social em vez de programação explícita para passar no teste de Turing.
Origem
O efeito recebeu o nome do chatbot ELIZA de 1966, desenvolvido pelo cientista da computação do MIT, Joseph Weizenbaum. Ao executar o roteiro DOCTOR de Weizenbaum, ELIZA parodiou um psicoterapeuta rogeriano, principalmente reformulando a frase "paciente" 's respostas como perguntas:
- Humano: O meu namorado fez-me vir aqui.
- O teu namorado fez-te vir aqui?
- Ele diz que estou deprimido.
- ELIZA: Lamento ouvir que estejas deprimido.
- É verdade. Estou infeliz.
- ELIZA: Você acha que vir aqui irá ajudá-lo a não ser infeliz?
Embora projetado estritamente como um mecanismo para suportar "conversa em linguagem natural" com um computador, o script DOCTOR de ELIZA foi surpreendentemente bem-sucedido em provocar respostas emocionais de usuários que, durante a interação com o programa, começaram a atribuir compreensão e motivação ao programa& #39;saída. Como Weizenbaum escreveu mais tarde, "eu não tinha percebido... que exposições extremamente curtas a um programa de computador relativamente simples poderiam induzir pensamentos delirantes poderosos em pessoas bastante normais". De fato, o código de ELIZA não foi projetado para evocar essa reação em primeiro lugar. Após observação, os pesquisadores descobriram que os usuários presumiam inconscientemente que as perguntas de ELIZA implicavam interesse e envolvimento emocional nos tópicos discutidos, mesmo quando sabiam conscientemente que ELIZA não simulava emoção.
Significado para mão de obra automatizada
ELIZA convenceu alguns usuários a pensar que uma máquina era humana. Essa mudança na interação homem-máquina marcou o progresso nas tecnologias que emulam o comportamento humano. Dois grupos de chatbots são distinguidos por William Meisel como "assistentes pessoais gerais" e "assistentes digitais especializados". Assistentes digitais gerais foram integrados a dispositivos pessoais, com habilidades como enviar mensagens, fazer anotações, verificar calendários e marcar compromissos. Os assistentes digitais especializados “operam em domínios muito específicos ou ajudam em tarefas muito específicas”. Assistentes digitais programados para auxiliar na produtividade assumindo comportamentos análogos aos humanos.
Joseph Weizenbaum considerou que nem todas as partes do pensamento humano podem ser reduzidas a formalismos lógicos e que “existem alguns atos de pensamento que devem ser tentados apenas por humanos”. Ele também observou que desenvolvemos envolvimento emocional com máquinas se interagirmos com elas como humanos. Quando os chatbots são antropomorfizados, eles tendem a retratar características de gênero como uma forma de estabelecer relações com a tecnologia. "Estereótipos de gênero são instrumentalizados para gerenciar nosso relacionamento com chatbots" quando o comportamento humano é programado em máquinas.
Na década de 1990, Clifford Nass e Byron Reeves conduziram uma série de experimentos estabelecendo a Equação da Mídia, demonstrando que as pessoas tendem a responder à mídia como responderiam a outra pessoa (sendo educadas, cooperativas, atribuindo características de personalidade como agressividade, humor, perícia e gênero) – ou a lugares e fenômenos no físico mundo. Numerosos estudos subsequentes que evoluíram a partir da pesquisa em psicologia, ciências sociais e outros campos indicam que esse tipo de reação é automática, inevitável e acontece com mais frequência do que as pessoas imaginam. Reeves e Nass (1996) argumentam que “as interações dos indivíduos com computadores, televisão e novas mídias são fundamentalmente sociais e naturais, assim como as interações na vida real” (p. 5).
O trabalho feminizado, ou trabalho feminino, automatizado por assistentes digitais antropomórficos reforça uma "suposição de que as mulheres possuem uma afinidade natural para o trabalho de serviço e trabalho emocional". Ao definir nossa proximidade com os assistentes digitais por meio de seus atributos humanos, os chatbots se tornam entidades de gênero.
Contenido relacionado
Computador Atanasoff-Berry
Sistema de nomes de domínio
B (linguagem de programação)