Efeito ELIZA - ELIZA effect

O efeito ELIZA , na ciência da computação , é a tendência de assumir inconscientemente que os comportamentos do computador são análogos aos humanos; ou seja, antropomorfização .

Visão geral

Em sua forma específica, o efeito ELIZA se refere apenas à "suscetibilidade das pessoas de ler muito mais compreensão do que é garantido em cadeias de símbolos - especialmente palavras - amarradas por computadores". Um exemplo trivial da forma específica do efeito Eliza, fornecido por Douglas Hofstadter , envolve um caixa eletrônico que exibe as palavras "OBRIGADO" no final de uma transação. Um observador (muito) casual pode pensar que a máquina está realmente expressando gratidão; entretanto, a máquina está imprimindo apenas uma sequência de símbolos pré-programada.

Mais geralmente, o efeito ELIZA descreve qualquer situação em que, com base apenas na saída de um sistema, os usuários percebem os sistemas de computador como tendo "qualidades e habilidades intrínsecas que o software que controla a (saída) não pode atingir" ou "assume que [saídas] refletem um causalidade maior do que eles realmente fazem ". Em suas formas específicas e gerais, o efeito ELIZA é notável por ocorrer mesmo quando os usuários do sistema estão cientes da natureza determinada da saída produzida pelo sistema. Do ponto de vista psicológico, o efeito ELIZA é o resultado de uma dissonância cognitiva sutil entre a consciência do usuário das limitações de programação e seu comportamento em relação à saída do programa . A descoberta do efeito ELIZA foi um importante desenvolvimento em inteligência artificial , demonstrando o princípio de usar engenharia social em vez de programação explícita para passar no teste de Turing .

Origem

O efeito é nomeado para o chatbot ELIZA 1966 , desenvolvido pelo cientista da computação Joseph Weizenbaum do MIT . Ao executar de Weizenbaum DOCTOR roteiro , ELIZA parodiou um Rogerian psicoterapeuta , em grande parte por reformular o "paciente " 's respostas como perguntas:

Humano: Bem, meu namorado me fez vir aqui.
ELIZA: Seu namorado fez você vir aqui?
Humano: Ele diz que estou deprimido na maior parte do tempo.
ELIZA: Lamento saber que você está deprimido.
Humano: é verdade. Eu estou infeliz.
ELIZA: Você acha que vir aqui vai te ajudar a não ser infeliz?

Embora projetado estritamente como um mecanismo para apoiar a "conversa em linguagem natural" com um computador, o script DOCTOR de ELIZA foi surpreendentemente bem-sucedido em obter respostas emocionais de usuários que, no decorrer da interação com o programa, começaram a atribuir compreensão e motivação a a saída do programa. Como Weizenbaum escreveu mais tarde: "Eu não havia percebido ... que exposições extremamente curtas a um programa de computador relativamente simples poderiam induzir um poderoso pensamento delirante em pessoas bastante normais." Na verdade, o código de ELIZA não foi projetado para evocar essa reação em primeiro lugar. Após a observação, os pesquisadores descobriram usuários inconscientemente assumindo que as perguntas de ELIZA implicavam interesse e envolvimento emocional nos tópicos discutidos, mesmo sabendo conscientemente que ELIZA não simulava emoção .

Significado para mão de obra automatizada

ELIZA convenceu alguns usuários a pensar que uma máquina era humana. Essa mudança na interação homem-máquina marcou o progresso nas tecnologias que emulam o comportamento humano. Dois grupos de chatbots são distinguidos por William Meisel como " assistentes pessoais gerais " e "assistentes digitais especializados". Assistentes digitais gerais foram integrados em dispositivos pessoais, com habilidades como enviar mensagens, fazer anotações, verificar calendários e marcar compromissos. Assistentes digitais especializados “operam em domínios muito específicos ou ajudam em tarefas muito específicas.” Assistentes digitais que são programados para auxiliar a produtividade assumindo comportamentos análogos aos humanos.

Joseph Weizenbaum considerou que nem todas as partes do pensamento humano podem ser reduzidas a formalismos lógicos e que “existem alguns atos de pensamento que devem ser tentados apenas por humanos”. Ele também observou que desenvolvemos envolvimento emocional com máquinas se interagirmos com elas como humanos. Quando os chatbots são antropomorfizados, eles tendem a retratar características de gênero como uma forma pela qual estabelecemos relações com a tecnologia. "os estereótipos de gênero são instrumentalizados para gerenciar nosso relacionamento com os chatbots" quando o comportamento humano é programado em máquinas.

O trabalho feminizado, ou trabalho feminino , automatizado por assistentes digitais antropomórficos reforça uma "suposição de que as mulheres possuem uma afinidade natural para o trabalho de serviço e trabalho emocional". Ao definir nossa proximidade com os assistentes digitais por meio de seus atributos humanos, os chatbots se tornam entidades de gênero.

Veja também

Notas

  1. ^ a b Hofstadter, Douglas R. (1996). "Prefácio 4 O Ineradicável Efeito Eliza e seus Perigos, Epílogo" . Conceitos fluidos e analogias criativas: modelos computacionais dos mecanismos fundamentais do pensamento . Livros básicos. p. 157. ISBN 978-0-465-02475-9.
  2. ^ Fenton-Kerr, Tom (1999). "GAIA: um agente pedagógico experimental para explorar a interação multimodal". Computação para metáforas, analogia e agentes . Notas de aula em Ciência da Computação. 1562 . Springer. p. 156. doi : 10.1007 / 3-540-48834-0_9 . ISBN 978-3-540-65959-4. Embora Hofstadter esteja enfatizando o modo de texto aqui, o "efeito Eliza" pode ser visto em quase todos os modos de interação humano / computador.
  3. ^ Ekbia, Hamid R. (2008). Sonhos artificiais: The Quest for Non-Biological Intelligence . Cambridge University Press. p. 8 . ISBN 978-0-521-87867-8.
  4. ^ King, W. (1995). Agentes Antropomórficos: Amigo, Inimigo ou Loucura (Relatório técnico). Universidade de Washington. M-95-1.
  5. ^ Rouse, William B .; Boff, Kenneth R. (2005). Simulação organizacional . Wiley-IEEE. pp. 308–309. ISBN 978-0-471-73943-2. Esse é um problema particular em ambientes digitais onde o "efeito Eliza", como às vezes é chamado, faz com que os interatores presumam que o sistema é mais inteligente do que é, que os eventos refletem uma causalidade maior do que realmente fazem.
  6. ^ Ekbia, Hamid R. (2008). Sonhos artificiais: The Quest for Non-Biological Intelligence . Cambridge University Press. p. 156 . ISBN 978-0-521-87867-8. Mas as pessoas querem acreditar que o programa está "vendo" um jogo de futebol em algum nível plausível de abstração. As palavras que (o programa) manipula estão tão cheias de associações para os leitores que NÃO PODEM ser despojadas de todas as suas imagens. Collins, é claro, sabia que seu programa não lidava com nada que se parecesse com um mundo bidimensional de pontos em movimento suave (muito menos corpos humanos simplificados), e provavelmente ele pensava que seus leitores também perceberiam isso. Ele não poderia ter suspeitado, no entanto, o quão poderoso é o efeito Eliza.
  7. ^ Trappl, Robert; Petta, Paolo; Payr, Sabine (2002). Emoções em humanos e artefatos . Cambridge, Mass .: MIT Press. p. 353. ISBN 978-0-262-20142-1. O "efeito Eliza" - a tendência das pessoas de tratar os programas que lhes respondem como se tivessem mais inteligência do que realmente têm (Weizenbaum 1966) é uma das ferramentas mais poderosas disponíveis para os criadores de personagens virtuais.
  8. ^ Güzeldere, Güven; Franchi, Stefano. "diálogos com personalidades coloridas do início da IA" . Arquivado do original em 25/04/2011 . Página visitada em 2007-07-30 .
  9. ^ Weizenbaum, Joseph (janeiro de 1966). "ELIZA - Um Programa de Computador para o Estudo da Comunicação em Linguagem Natural entre Homem e Máquina" . Comunicações da ACM . Instituto de Tecnologia de Massachusetts . 9 : 36. doi : 10.1145 / 365153.365168 . Página visitada em 2008-06-17 .
  10. ^ Suchman, Lucy A. (1987). Planos e ações situadas: O problema da comunicação homem-máquina . Cambridge University Press. p. 24. ISBN 978-0-521-33739-7. Página visitada em 2008-06-17 .
  11. ^ Weizenbaum, Joseph (1976). Poder do computador e razão humana: do julgamento ao cálculo . WH Freeman. p. 7 .
  12. ^ Billings, Lee (2007-07-16). “Ascensão da Roboética” . Semente . Arquivado do original em 28/02/2009. (Joseph) Weizenbaum havia descoberto inesperadamente que, mesmo se totalmente cientes de que estão falando com um simples programa de computador, as pessoas irão tratá-lo como se fosse real, pensando que se preocupam com seus problemas - um fenômeno agora conhecido como ' Efeito Eliza '.CS1 maint: URL impróprio ( link )
  13. ^ a b Dale, Robert (setembro de 2016). “O retorno dos chatbots” . Engenharia de Linguagem Natural . 22 (5): 811–817. doi : 10.1017 / S1351324916000243 . ISSN  1351-3249 .
  14. ^ Weizenbaum, Joseph (1976). Poder do computador e razão humana: do julgamento ao cálculo . São Francisco, Cal. ISBN 0-7167-0464-1. OCLC  1527521 .
  15. ^ Costa, Pedro. Ribas, Luisa. Conversas com ELIZA: sobre Gênero e Inteligência Artificial. De (6ª Conferência sobre Computação, Comunicação, Estética e X 2018) Acessado em fevereiro de 2021
  16. ^ Hester, Helen. 2016. “Technology Becomes Her.” New Vistas 3 (1): 46-50.

Referências

  • Hofstadter, Douglas. Prefácio 4: O Ineradicável Efeito Eliza e seus Perigos. (de Fluid Concepts and Creative Analogies : Computer Models of the Fundamental Mechanisms of Thought , Basic Books: New York, 1995)
  • Turkle, S., Eliza Effect: tendência a aceitar as respostas do computador como mais inteligentes do que realmente são (de Life on the screen- Identity in the Age of the Internet , Phoenix Paperback: London, 1997)
  • Efeito ELIZA , do Jargon File , versão 4.4.7. Acessado em 8 de outubro de 2006.