Sala chinesa

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Experiência de pensamento em inteligência artificial por John Searle

O Argumento da Sala Chinesa sustenta que um computador digital executando um programa não pode ter uma "mente", "entendimento" ou "consciência" 34;, independentemente de quão inteligente ou humano o programa possa fazer o computador se comportar. O argumento foi apresentado pelo filósofo John Searle em seu artigo, "Minds, Brains, and Programs", publicado em Behavioral and Brain Sciences em 1980. Argumentos semelhantes foram apresentados por Gottfried Leibniz (1714), Anatoly Dneprov (1961), Lawrence Davis (1974) e Ned Block (1978). A versão de Searle tem sido amplamente discutida nos anos seguintes. A peça central do argumento de Searle é um experimento mental conhecido como Sala Chinesa.

O argumento é dirigido contra as posições filosóficas do funcionalismo e do computacionalismo que sustentam que a mente pode ser vista como um sistema de processamento de informações operando em símbolos formais e que a simulação de um determinado estado mental é suficiente para sua presença. Especificamente, o argumento pretende refutar uma posição que Searle chama de IA forte: “O computador adequadamente programado com as entradas e saídas corretas teria uma mente exatamente no mesmo sentido que os seres humanos têm”.

Embora tenha sido originalmente apresentado em reação às declarações de pesquisadores de inteligência artificial (IA), não é um argumento contra os objetivos da pesquisa convencional de IA porque não mostra um limite na quantidade de "inteligência' 34; comportamento que uma máquina pode exibir. O argumento se aplica apenas a computadores digitais executando programas e não se aplica a máquinas em geral.

Experiência mental da sala chinesa

O experimento mental de Searle começa com esta premissa hipotética: suponha que a pesquisa em inteligência artificial tenha conseguido construir um computador que se comporte como se entendesse chinês. Ele recebe caracteres chineses como entrada e, seguindo as instruções de um programa de computador, produz outros caracteres chineses, que apresenta como saída. Suponha, diz Searle, que esse computador execute sua tarefa de forma tão convincente que passe confortavelmente no teste de Turing: ele convence um falante humano de chinês de que o próprio programa é um falante chinês vivo. A todas as perguntas que a pessoa faz, ela dá respostas apropriadas, de forma que qualquer falante de chinês ficaria convencido de que está falando com outro ser humano falante de chinês.

A pergunta que Searle quer responder é esta: a máquina literalmente "entende" Chinês? Ou apenas simula a capacidade de entender chinês? Searle chama a primeira posição de "IA forte" e o último "IA fraca".

Searle então supõe que ele está em uma sala fechada e tem um livro com uma versão em inglês do programa de computador, juntamente com papéis, lápis, borrachas e arquivos suficientes. A Searle podia receber caracteres chineses por meio de uma abertura na porta, processá-los de acordo com as instruções do programa e produzir caracteres chineses como saída, sem entender nada do conteúdo da escrita chinesa. Se o computador tivesse passado no teste de Turing dessa maneira, segue-se, diz Searle, que ele também passaria, simplesmente executando o programa manualmente.

Searle afirma que não há diferença essencial entre os papéis do computador e dele próprio no experimento. Cada um simplesmente segue um programa, passo a passo, produzindo um comportamento que é então interpretado pelo usuário como demonstrando uma conversa inteligente. No entanto, o próprio Searle não seria capaz de entender a conversa. ("Não falo uma palavra de chinês", ressalta.) Portanto, argumenta ele, segue-se que o computador também não seria capaz de entender a conversa.

Searle argumenta que, sem "entender" (ou "intencionalidade"), não podemos descrever o que a máquina está fazendo como "pensar" e, como não pensa, não tem "mente" em qualquer coisa como o sentido normal da palavra. Portanto, ele conclui que a "IA forte" hipótese é falsa.

História

Gottfried Leibniz fez um argumento semelhante em 1714 contra o mecanismo (a ideia de que tudo o que compõe um ser humano poderia, em princípio, ser explicado em termos mecânicos. Em outras palavras, que uma pessoa, incluindo sua mente, é apenas um máquina complexa). Leibniz usou o experimento mental de expandir o cérebro até que ele tivesse o tamanho de um moinho. Leibniz achou difícil imaginar que uma "mente" capaz de "percepção" poderia ser construído usando apenas processos mecânicos.

O ciberneticista soviético Anatoly Dneprov fez um argumento essencialmente idêntico em 1961, na forma do conto "The Game". Nele, um estádio de pessoas atua como interruptores e células de memória implementando um programa para traduzir uma frase do português, idioma que nenhum deles conhece. O jogo foi organizado por um "Professor Zarubin" para responder à pergunta "As máquinas matemáticas podem pensar?" Falando através de Zarubin, Dneprov escreve "a única maneira de provar que as máquinas podem pensar é se transformar em uma máquina e examinar seu processo de pensamento" e ele conclui, como Searle, "Nós provamos que mesmo a simulação mais perfeita do pensamento da máquina não é o próprio processo de pensamento."

Em 1974, Lawrence Davis imaginou a duplicação do cérebro usando linhas telefônicas e escritórios com funcionários, e em 1978 Ned Block imaginou toda a população da China envolvida em tal simulação cerebral. Este experimento de pensamento é chamado de cérebro da China, também a "nação chinesa" ou o "ginásio chinês".

John Searle em dezembro de 2005

A versão de Searle apareceu em seu artigo de 1980 "Minds, Brains, and Programs", publicado em Behavioral and Brain Sciences. Eventualmente, tornou-se o "artigo alvo mais influente" da revista, gerando um enorme número de comentários e respostas nas décadas seguintes, e Searle continuou a defender e refinar o argumento em muitos artigos, artigos populares e livros. David Cole escreve que "o argumento da Sala Chinesa foi provavelmente o argumento filosófico mais amplamente discutido na ciência cognitiva nos últimos 25 anos".

A maior parte da discussão consiste em tentativas de refutá-la. "A esmagadora maioria", observa o editor do BBS Stevan Harnad, "ainda pensa que o argumento da sala chinesa está completamente errado". O grande volume da literatura que cresceu em torno dele inspirou Pat Hayes a comentar que o campo da ciência cognitiva deveria ser redefinido como "o programa de pesquisa em andamento para mostrar que o argumento da sala chinesa de Searle é falso' 34;.

O argumento de Searle tornou-se "uma espécie de clássico na ciência cognitiva", de acordo com Harnad. Varol Akman concorda e descreveu o artigo original como "um exemplo de clareza e pureza filosófica".

Filosofia

Embora o argumento da Sala Chinesa tenha sido originalmente apresentado em reação às declarações de pesquisadores de inteligência artificial, os filósofos passaram a considerá-lo como uma parte importante da filosofia da mente. É um desafio ao funcionalismo e à teoria computacional da mente, e está relacionado a questões como o problema mente-corpo, o problema de outras mentes, o problema da fundamentação simbólica e o difícil problema da consciência.

IA forte

Searle identificou uma posição filosófica que ele chama de "IA forte":

O computador adequadamente programado com as entradas e saídas certas teria assim uma mente exatamente no mesmo sentido que os seres humanos têm mentes.

A definição depende da distinção entre simular uma mente e realmente ter uma mente. Searle escreve que “de acordo com o Strong AI, a simulação correta é realmente uma mente”. De acordo com Weak AI, a simulação correta é um modelo da mente."

A afirmação está implícita em algumas das declarações dos primeiros pesquisadores e analistas de IA. Por exemplo, em 1955, o fundador da IA, Herbert A. Simon, declarou que "existem agora no mundo máquinas que pensam, que aprendem e criam". Simon, junto com Allen Newell e Cliff Shaw, depois de ter completado o primeiro "AI" programa, o Logic Theorist, afirmou que eles tinham "resolvido o venerável problema mente-corpo, explicando como um sistema composto de matéria pode ter as propriedades da mente". John Haugeland escreveu que "AI quer apenas o artigo genuíno: máquinas com mentes, no sentido pleno e literal. Isso não é ficção científica, mas ciência real, baseada em uma concepção teórica tão profunda quanto ousada: ou seja, nós somos, no fundo, nós mesmos computadores."

Searle também atribui as seguintes afirmações aos defensores de uma IA forte:

  • Os sistemas de IA podem ser usados para explicar a mente;
  • O estudo do cérebro é irrelevante para o estudo da mente; e
  • O teste de Turing é adequado para estabelecer a existência de estados mentais.

IA forte como computacionalismo ou funcionalismo

Em apresentações mais recentes do argumento do quarto chinês, Searle identificou a "IA forte" como "funcionalismo do computador" (um termo que ele atribui a Daniel Dennett). Funcionalismo é uma posição na moderna filosofia da mente que sustenta que podemos definir fenômenos mentais (como crenças, desejos e percepções) descrevendo suas funções em relação uns aos outros e ao mundo exterior. Como um programa de computador pode representar com precisão relações funcionais como relações entre símbolos, um computador pode ter fenômenos mentais se executar o programa certo, de acordo com o funcionalismo.

Stevan Harnad argumenta que as representações de IA forte de Searle podem ser reformuladas como "princípios reconhecíveis do computacionalismo, uma posição (ao contrário de "IA forte") isso é realmente sustentado por muitos pensadores e, portanto, vale a pena refutar." O computacionalismo é a posição na filosofia da mente que argumenta que a mente pode ser descrita com precisão como um sistema de processamento de informações.

Cada um dos seguintes, de acordo com Harnad, é um "tenet" do computacionalismo:

  • Os estados mentais são estados computacionais (por isso os computadores podem ter estados mentais e ajudar a explicar a mente);
  • Os estados computacionais são independentes da implementação — em outras palavras, é o software que determina o estado computacional, não o hardware (por isso o cérebro, ser hardware, é irrelevante); e que
  • Uma vez que a implementação é sem importância, os únicos dados empíricos que importa é como o sistema funciona; daí o teste de Turing é definitivo.

IA forte vs. naturalismo biológico

Searle defende uma posição filosófica que ele chama de "naturalismo biológico": que a consciência e a compreensão requerem mecanismos biológicos específicos encontrados no cérebro. Ele escreve "cérebros causam mentes" e que "fenômenos mentais humanos reais [são] dependentes de propriedades físico-químicas reais de cérebros humanos reais". Searle argumenta que esse maquinário (conhecido pela neurociência como os "correlatos neurais da consciência") deve ter alguns poderes causais que permitem a experiência humana da consciência. A crença de Searle na existência desses poderes foi criticada.

Searle não discorda da noção de que as máquinas podem ter consciência e compreensão, porque, como ele escreve, "nós somos precisamente essas máquinas". Searle sustenta que o cérebro é, de fato, uma máquina, mas que o cérebro dá origem à consciência e à compreensão usando uma maquinaria que não é computacional. Se a neurociência é capaz de isolar o processo mecânico que dá origem à consciência, então Searle admite que pode ser possível criar máquinas que tenham consciência e compreensão. No entanto, sem o maquinário específico necessário, Searle não acredita que a consciência possa ocorrer.

O naturalismo biológico implica que não se pode determinar se a experiência da consciência está ocorrendo apenas examinando como um sistema funciona, porque a maquinaria específica do cérebro é essencial. Assim, o naturalismo biológico se opõe diretamente ao behaviorismo e ao funcionalismo (incluindo o "funcionalismo do computador" ou "IA forte"). O naturalismo biológico é semelhante à teoria da identidade (a posição de que os estados mentais são "idênticos" ou "compostos de" eventos neurológicos); no entanto, Searle tem objeções técnicas específicas à teoria da identidade. O naturalismo biológico de Searle e a IA forte se opõem ao dualismo cartesiano, a ideia clássica de que o cérebro e a mente são feitos de "substâncias" diferentes. De fato, Searle acusa a IA forte de dualismo, escrevendo que "a IA forte só faz sentido dada a suposição dualística de que, no que diz respeito à mente, o cérebro não importa".

Consciência

A apresentação original de Searle enfatizou a "compreensão" - isto é, estados mentais com o que os filósofos chamam de "intencionalidade" - e não abordou diretamente outras ideias intimamente relacionadas, como & #34;consciência". No entanto, em apresentações mais recentes, Searle incluiu a consciência como o verdadeiro alvo do argumento.

Modelos computacionais de consciência não são suficientes por si mesmos para a consciência. O modelo computacional para a consciência representa a consciência da mesma forma que o modelo computacional de qualquer coisa representa o domínio sendo modelado. Ninguém supõe que o modelo computacional de tempestades de chuva em Londres nos deixe todo molhado. Mas eles cometem o erro de supor que o modelo computacional da consciência é de alguma forma consciente. É o mesmo erro em ambos os casos.

John R. Searle, Consciência e Linguagem, p. 16

David Chalmers escreve, "está bastante claro que a consciência está na raiz da questão" da sala chinesa.

Colin McGinn argumenta que a sala chinesa fornece fortes evidências de que o difícil problema da consciência é fundamentalmente insolúvel. O argumento, para ser claro, não é sobre se uma máquina pode ser consciente, mas sobre se ela (ou qualquer outra coisa) pode ser mostrada como consciente. É claro que qualquer outro método de sondar o ocupante de um quarto chinês apresenta, em princípio, as mesmas dificuldades que a troca de perguntas e respostas em chinês. Simplesmente não é possível adivinhar se uma agência consciente ou alguma simulação inteligente habita a sala.

Searle argumenta que isso só é verdade para um observador fora da sala. O objetivo do experimento mental é colocar alguém dentro da sala, onde ela possa observar diretamente as operações da consciência. Searle afirma que, de seu ponto de vista dentro da sala, não há nada que ele possa ver que possa dar origem à consciência, além dele mesmo, e claramente ele não tem uma mente que fale chinês.

Ética aplicada

Sentado no centro de informações de combate a bordo de um navio de guerra – proposto como um analógico da vida real para o quarto chinês

Patrick Hew usou o argumento da Sala Chinesa para deduzir os requisitos dos sistemas militares de comando e controle para preservar a agência moral de um comandante. Ele traçou uma analogia entre um comandante em seu centro de comando e a pessoa na Sala Chinesa, e a analisou sob uma leitura das noções de Aristóteles de "compulsório" e "ignorância". As informações podem ser "convertidas" do significado aos símbolos, e manipulados simbolicamente, mas a agência moral pode ser prejudicada se houver uma "conversão ascendente" inadequada; em significado. Hew citou exemplos do incidente do USS Vincennes.

Ciência da computação

O argumento da sala chinesa é principalmente um argumento na filosofia da mente, e tanto os principais cientistas da computação quanto os pesquisadores de inteligência artificial o consideram irrelevante para seus campos. No entanto, vários conceitos desenvolvidos por cientistas da computação são essenciais para a compreensão do argumento, incluindo processamento de símbolos, máquinas de Turing, completude de Turing e o teste de Turing.

Intensa pesquisa de IA x IA

Os argumentos de Searle geralmente não são considerados um problema para a pesquisa de IA. Stuart Russell e Peter Norvig observam que a maioria dos pesquisadores de IA "não se importa com a hipótese de IA forte - contanto que o programa funcione, eles não se importam se você o chama de simulação de inteligência ou real". inteligência." A principal missão da pesquisa em inteligência artificial é apenas criar sistemas úteis que ajam de forma inteligente, e não importa se a inteligência é "meramente" uma simulação.

Searle não discorda que a pesquisa de IA pode criar máquinas capazes de um comportamento altamente inteligente. O argumento da sala chinesa deixa em aberto a possibilidade de que uma máquina digital poderia ser construída para agir de forma mais inteligente do que uma pessoa, mas não ter uma mente ou intencionalidade da mesma forma que os cérebros.

Searle's "forte AI" não deve ser confundido com "IA forte" conforme definido por Ray Kurzweil e outros futuristas, que usam o termo para descrever a inteligência da máquina que rivaliza ou excede a inteligência humana. Kurzweil está preocupado principalmente com a quantidade de inteligência exibida pela máquina, enquanto o argumento de Searle não estabelece limites para isso. Searle argumenta que mesmo uma máquina superinteligente não teria necessariamente mente e consciência.

Teste de Turing

A "interpretação padrão" do Teste de Turing, em que o jogador C, o interrogador, é dada a tarefa de tentar determinar qual jogador – A ou B – é um computador e que é um humano. O interrogador está limitado a usar as respostas a perguntas escritas para fazer a determinação. Imagem adaptada de Saygin, et al. 2000.

A sala chinesa implementa uma versão do teste de Turing. Alan Turing introduziu o teste em 1950 para ajudar a responder à pergunta "máquinas podem pensar?" Na versão padrão, um juiz humano se envolve em uma conversa em linguagem natural com um humano e uma máquina projetada para gerar um desempenho indistinguível daquele de um ser humano. Todos os participantes são separados uns dos outros. Se o juiz não puder distinguir com segurança a máquina do humano, diz-se que a máquina passou no teste.

Turing então considerou cada objeção possível à proposta "máquinas podem pensar" e descobriu que há respostas simples e óbvias se a questão for desmistificada dessa maneira. Ele não pretendia, no entanto, que o teste medisse a presença de "consciência" ou "compreensão". Ele não acreditava que isso fosse relevante para as questões que estava abordando. Ele escreveu:

Eu não quero dar a impressão de que eu acho que não há mistério sobre a consciência. Há, por exemplo, algo de paradoxo ligado a qualquer tentativa de localizá-lo. Mas eu não acho que esses mistérios precisam necessariamente ser resolvidos antes que possamos responder à pergunta com que estamos preocupados neste artigo.

Para Searle, como um filósofo que investiga a natureza da mente e da consciência, esses são os mistérios relevantes. A sala chinesa foi projetada para mostrar que o teste de Turing é insuficiente para detectar a presença da consciência, mesmo que a sala possa se comportar ou funcionar como uma mente consciente faria.

Processamento de símbolos

A sala chinesa (e todos os computadores modernos) manipulam objetos físicos para realizar cálculos e simulações. Os pesquisadores de IA Allen Newell e Herbert A. Simon chamaram esse tipo de máquina de sistema de símbolos físicos. Também é equivalente aos sistemas formais usados no campo da lógica matemática.

Searle enfatiza o fato de que esse tipo de manipulação de símbolos é sintática (tomando emprestado um termo do estudo da gramática). O computador manipula os símbolos usando uma forma de regras de sintaxe, sem qualquer conhecimento da semântica do símbolo (ou seja, seu significado).

Newell e Simon conjecturaram que um sistema de símbolos físicos (como um computador digital) tinha todo o maquinário necessário para a "ação inteligente geral", ou, como é conhecido hoje, inteligência geral artificial. Eles enquadraram isso como uma posição filosófica, a hipótese do sistema de símbolos físicos: "Um sistema de símbolos físicos tem os meios necessários e suficientes para uma ação inteligente geral." O argumento da sala chinesa não refuta isso, porque é enquadrado em termos de "ação inteligente", ou seja, o comportamento externo da máquina, em vez da presença ou ausência de compreensão, consciência e mente.

Quarto chinês e completude de Turing

A sala chinesa tem um design análogo ao de um computador moderno. Possui uma arquitetura de Von Neumann, que consiste em um programa (o livro de instruções), alguma memória (os papéis e arquivos), uma CPU que segue as instruções (o homem) e um meio de escrever símbolos na memória (o lápis e borracha). Uma máquina com esse design é conhecida na ciência da computação teórica como "Turing completa", porque possui o maquinário necessário para realizar qualquer computação que uma máquina de Turing pode fazer e, portanto, é capaz de fazer um passo-a-passo. simulação passo a passo de qualquer outra máquina digital, com memória e tempo suficientes. Alan Turing escreve, "todos os computadores digitais são equivalentes em certo sentido." A amplamente aceita tese de Church-Turing sustenta que qualquer função computável por um procedimento efetivo é computável por uma máquina de Turing.

A completude Turing da sala chinesa implica que ela pode fazer tudo o que qualquer outro computador digital pode fazer (embora muito, muito mais lentamente). Assim, se a sala chinesa não contém ou não pode conter uma mente que fala chinês, nenhum outro computador digital pode conter uma mente. Algumas respostas a Searle começam argumentando que a sala, conforme descrita, não pode ter uma mente que fala chinês. Argumentos desta forma, de acordo com Stevan Harnad, não são "nenhuma refutação (mas sim uma afirmação)" do argumento da sala chinesa, porque esses argumentos realmente implicam que nenhum computador digital pode ter uma mente.

Há alguns críticos, como Hanoch Ben-Yami, que argumentam que a sala chinesa não pode simular todas as habilidades de um computador digital, como ser capaz de determinar a hora atual.

Argumento completo

Searle produziu uma versão mais formal do argumento do qual a Sala Chinesa faz parte. Ele apresentou a primeira versão em 1984. A versão abaixo é de 1990. O experimento mental da sala chinesa tem como objetivo provar o ponto A3.

Ele começa com três axiomas:

(A1) "Os programas são formais (sintéticos)."
Um programa usa sintaxe para manipular símbolos e não presta atenção à semântica dos símbolos. Ele sabe onde colocar os símbolos e como movê-los ao redor, mas não sabe o que eles representam ou o que eles querem dizer. Para o programa, os símbolos são apenas objetos físicos como qualquer outro.
(A2) "As pessoas têm conteúdo mental (semântica)."
Ao contrário dos símbolos usados por um programa, nossos pensamentos têm significado: eles representam coisas e sabemos o que eles representam.
(A3) "Sinntax por si só não é nem constitutivo nem suficiente para semântica".
Isto é o que a experiência de pensamento do quarto chinês pretende provar: o quarto chinês tem sintaxe (porque há um homem lá dentro movendo símbolos ao redor). A sala chinesa não tem semântica (porque, de acordo com Searle, não há ninguém ou nada na sala que entenda o que os símbolos significam). Portanto, ter sintaxe não é suficiente para gerar semântica.

Searle postula que isso leva diretamente a esta conclusão:

(C1) Os programas não são constitutivos nem suficientes para mentes.
Isso deve seguir sem controvérsia dos três primeiros: Os programas não têm semântica. Os programas têm apenas sintaxe, e a sintaxe é insuficiente para semântica. Cada mente tem semântica. Portanto, não há programas são mentes.

Essa parte do argumento tem como objetivo mostrar que a inteligência artificial nunca pode produzir uma máquina com uma mente escrevendo programas que manipulam símbolos. O restante do argumento aborda uma questão diferente. O cérebro humano está executando um programa? Em outras palavras, a teoria computacional da mente está correta? Ele começa com um axioma que pretende expressar o consenso científico moderno básico sobre cérebros e mentes:

(A4) Os cérebros causam mentes.

Searle afirma que podemos derivar "imediatamente" e "trivialmente" que:

(C2) Qualquer outro sistema capaz de causar mentes teria que ter poderes causais (pelo menos) equivalentes aos do cérebro.
Os cérebros devem ter algo que faz com que uma mente exista. A ciência ainda tem de determinar exatamente o que é, mas deve existir, porque as mentes existem. Searle chama-lhe "poderes catastróficos". "Poderes casuais" é o que o cérebro usa para criar uma mente. Se algo mais pode causar uma mente existir, deve ter "poderes causais equivalentes". "Poderes causais equivalentes" é qualquer coisa mais Isso pode ser usado para fazer uma mente.

E daí ele tira as seguintes conclusões:

(C3) Qualquer artefato que produzia fenômenos mentais, qualquer cérebro artificial, teria que ser capaz de duplicar os poderes causais específicos dos cérebros, e não poderia fazer isso apenas executando um programa formal.
Isto segue de C1 e C2: Como nenhum programa pode produzir uma mente, e "poderes causais equivalentes" produzir mentes, segue-se que os programas não têm "poderes causais equivalentes".
(C4) A maneira como os cérebros humanos realmente produzem fenômenos mentais não pode ser apenas em virtude de executar um programa de computador.
Como os programas não têm "poderes causais equivalentes", "poderes causais equivalentes" produzem mentes, e cérebros produzem mentes, segue-se que os cérebros não usam programas para produzir mentes.

As refutações do argumento de Searle assumem muitas formas diferentes (veja abaixo). Computacionalistas e funcionalistas rejeitam A3, argumentando que a "sintaxe" (como Searle descreve) pode ter "semântica" se a sintaxe tiver a estrutura funcional correta. Os materialistas eliminativos rejeitam A2, argumentando que as mentes na verdade não têm “semântica”; -- que os pensamentos e outros fenômenos mentais são inerentemente sem sentido, mas, no entanto, funcionam como se tivessem significado.

Respostas

As respostas ao argumento de Searle podem ser classificadas de acordo com o que afirmam mostrar:

  • Os que identificam quem fala chinês
  • Aqueles que demonstram como símbolos sem sentido podem se tornar significativos
  • Aqueles que sugerem que o quarto chinês deve ser redesenhado de alguma forma
  • Aqueles que afirmam que o argumento de Searle é enganoso
  • Aqueles que argumentam que o argumento faz falsas suposições sobre a experiência consciente subjetiva e, portanto, nada prova

Alguns dos argumentos (simulação de robô e cérebro, por exemplo) se enquadram em várias categorias.

Sistemas e respostas da mente virtual: encontrando a mente

Essas respostas tentam responder à pergunta: já que o homem na sala não fala chinês, onde está a "mente" isso faz? Essas respostas abordam as principais questões ontológicas de mente versus corpo e simulação versus realidade. Todas as respostas que identificam a mente na sala são versões da "resposta do sistema".

A versão básica da resposta do sistema argumenta que é o "todo o sistema" que entende chinês. Enquanto o homem entende apenas inglês, quando ele é combinado com o programa, papel de rascunho, lápis e arquivos, eles formam um sistema que pode entender chinês. “Aqui, a compreensão não está sendo atribuída ao mero indivíduo; ao contrário, está sendo atribuído a todo esse sistema do qual ele faz parte. Searle explica. O fato de um certo homem não entender chinês é irrelevante, porque é apenas o sistema como um todo que importa.

Searle observa que (nesta versão simples da resposta) o "sistema" nada mais é do que uma coleção de objetos físicos comuns; concede o poder de compreensão e consciência à "a conjunção dessa pessoa e pedaços de papel" sem fazer nenhum esforço para explicar como essa pilha de objetos se tornou um ser consciente e pensante. Searle argumenta que nenhuma pessoa razoável deve ficar satisfeita com a resposta, a menos que esteja "sob o domínio de uma ideologia;" Para que esta resposta seja remotamente plausível, deve-se tomar como certo que a consciência pode ser o produto de um "sistema" de processamento de informações e não requer nada que se assemelhe à biologia real do cérebro.

Searle então responde simplificando essa lista de objetos físicos: ele pergunta o que acontece se o homem memorizar as regras e acompanhar tudo em sua cabeça? Então todo o sistema consiste em apenas um objeto: o próprio homem. Searle argumenta que se o homem não entende chinês, então o sistema também não entende chinês, porque agora "o sistema" e "o homem" ambos descrevem exatamente o mesmo objeto.

Os críticos da resposta de Searle argumentam que o programa permitiu que o homem tivesse duas mentes em uma cabeça. Se assumirmos uma "mente" é uma forma de processamento de informações, então a teoria da computação pode explicar duas computações ocorrendo ao mesmo tempo, a saber (1) a computação para programabilidade universal (que é a função instanciada pela pessoa e pelos materiais de anotações independentemente de qualquer conteúdo particular do programa) e (2) a computação da máquina de Turing que é descrita pelo programa (que é instanciada por tudo incluindo o programa específico). A teoria da computação, portanto, explica formalmente a possibilidade aberta de que a segunda computação na Sala Chinesa poderia acarretar uma compreensão semântica equivalente à humana das entradas chinesas. O foco pertence à máquina de Turing do programa e não à da pessoa. No entanto, da perspectiva de Searle, esse argumento é circular. A questão em questão é se a consciência é uma forma de processamento de informações, e essa resposta exige que façamos essa suposição.

Versões mais sofisticadas da resposta do sistema tentam identificar com mais precisão o que "o sistema" é e eles diferem exatamente em como o descrevem. De acordo com essas respostas, a "mente que fala chinês" podem ser coisas como: o "software", um "programa", um "programa em execução", uma simulação dos "correlatos neurais da consciência" 34;, o "sistema funcional", uma "mente simulada", uma "propriedade emergente", ou "uma mente virtual" (Descrito abaixo).

Marvin Minsky sugeriu uma versão da resposta do sistema conhecida como "resposta da mente virtual". O termo "virtual" é usado em ciência da computação para descrever um objeto que parece existir "dentro" um computador (ou rede de computadores) apenas porque o software faz com que pareça existir. Os objetos "dentro" os computadores (incluindo arquivos, pastas e assim por diante) são todos "virtuais", exceto os componentes eletrônicos do computador. Da mesma forma, argumenta Minsky, um computador pode conter uma "mente" que é virtual no mesmo sentido que máquinas virtuais, comunidades virtuais e realidade virtual.

Para esclarecer a distinção entre a resposta de sistemas simples fornecida acima e a resposta de mente virtual, David Cole observa que duas simulações podem ser executadas em um sistema ao mesmo tempo: uma falando chinês e outra falando coreano. Embora haja apenas um sistema, pode haver várias "mentes virtuais" assim, o "sistema" não pode ser a "mente".

Searle responde que tal mente é, na melhor das hipóteses, uma simulação, e escreve: "Ninguém supõe que simulações de computador de um incêndio com cinco alarmes incendiarão a vizinhança ou que uma simulação de computador de uma tempestade irá deixe-nos todos encharcados." Nicholas Fearn responde que, para algumas coisas, a simulação é tão boa quanto a realidade. "Quando chamamos a função de calculadora de bolso em um computador de mesa, a imagem de uma calculadora de bolso aparece na tela. Não reclamamos que 'não é realmente uma calculadora', porque os atributos físicos do dispositivo não importam." A questão é: a mente humana é como uma calculadora de bolso, essencialmente composta de informações? Ou a mente é como a tempestade, algo diferente de um computador, e não totalmente realizável por uma simulação de computador? Durante décadas, esta questão da simulação levou os pesquisadores e filósofos da IA a considerar se o termo "inteligência sintética" poderia ser usado. é mais apropriado do que a descrição comum de tais inteligências como "artificial."

Essas respostas fornecem uma explicação de exatamente quem é que entende chinês. Se há algo além do homem na sala que pode entender chinês, Searle não pode argumentar que (1) o homem não entende chinês, portanto (2) nada na sala entende chinês. Isso, de acordo com os que respondem, mostra que o argumento de Searle falha em provar que a "IA forte" é falso.

No entanto, essas respostas, por si só, não fornecem nenhuma evidência de que a IA forte seja verdadeira. Eles não mostram que o sistema (ou a mente virtual) entende chinês, além da premissa hipotética de que ele passa no Teste de Turing. Searle argumenta que, se considerarmos a IA Forte remotamente plausível, a Sala Chinesa é um exemplo que requer explicação, e é difícil ou impossível explicar como a consciência pode “emergir”; da sala ou como o sistema teria consciência. Como Searle escreve "a resposta do sistema simplesmente levanta a questão, insistindo que o sistema deve entender chinês" e assim está se esquivando da pergunta ou irremediavelmente circular.

Respostas de robôs e semântica: encontrando o significado

No que diz respeito à pessoa na sala, os símbolos são apenas "rabiscos" Mas se a sala chinesa realmente "entende" o que está dizendo, então os símbolos devem obter seu significado de algum lugar. Esses argumentos tentam conectar os símbolos às coisas que eles simbolizam. Essas respostas abordam as preocupações de Searle sobre intencionalidade, fundamentação de símbolos e sintaxe versus semântica.

Resposta do robô

Suponha que em vez de uma sala, o programa foi colocado em um robô que poderia andar por aí e interagir com seu ambiente. Isso permitiria uma "conexão calorial" entre os símbolos e as coisas que representam. Hans Moravec comentários: "Se pudéssemos enxergar um robô para um programa de raciocínio, não precisaríamos mais de uma pessoa para fornecer o significado: viria do mundo físico."
A resposta de Searle é supor que, sem o conhecimento do indivíduo na sala chinesa, algumas das entradas vieram diretamente de uma câmera montada em um robô, e algumas das saídas foram usadas para manipular os braços e as pernas do robô. No entanto, a pessoa no quarto ainda está apenas seguindo as regras, e não sabe o que os símbolos significam. Searle escreve "ele não ver o que entra nos olhos do robô." (Veja o quarto de Mary para uma experiência de pensamento semelhante.)

Significado derivado

Alguns respondem que o quarto, como Searle o descreve, o conectado ao mundo: através dos falantes chineses que está "falando" para e através dos programadores que projetaram a base de conhecimento em seu gabinete de arquivos. Os símbolos Searle manipula já são significativos, eles simplesmente não são significativos para ele..
Searle diz que os símbolos só têm um significado "derivado", como o significado das palavras em livros. O significado dos símbolos depende da compreensão consciente dos falantes chineses e dos programadores fora da sala. A sala, como um livro, não tem compreensão própria.

Conhecimento de senso comum / resposta contextualista

Alguns argumentaram que os significados dos símbolos viriam de um vasto "fundo" de conhecimento de senso comum codificado no programa e nos gabinetes de arquivamento. Isso forneceria um "contexto" que daria aos símbolos seu significado.
Searle concorda que esse fundo existe, mas ele não concorda que pode ser construído em programas. Hubert Dreyfus também criticou a ideia de que o "fundo" pode ser representado simbolicamente.

Para cada uma dessas sugestões, a resposta de Searle é a mesma: não importa quanto conhecimento esteja escrito no programa e não importa como o programa esteja conectado ao mundo, ele ainda está na sala manipulando símbolos de acordo às regras. Suas ações são sintáticas e isso nunca pode explicar a ele o que os símbolos representam. Searle escreve "sintaxe é insuficiente para semântica."

No entanto, para aqueles que aceitam que as ações de Searle simulam uma mente separada da sua, a questão importante não é o que os símbolos significam para Searle, o que importa é o que eles significa para a mente virtual. Enquanto Searle está preso na sala, a mente virtual não está: ela está conectada ao mundo exterior através dos falantes de chinês com quem fala, através dos programadores que lhe deram conhecimento mundial, e através das câmeras e outros sensores que os roboticistas podem fornecer.

Simulação cerebral e respostas conexionistas: redesenhando a sala

Estes argumentos são todas as versões da resposta do sistema que identificam um tipo particular de sistema como sendo importante; eles identificam alguma tecnologia especial que criaria compreensão consciente em uma máquina. (As respostas acima também especificam um certo tipo de sistema como sendo importante.)

Resposta do simulador cerebral

Suponha que o programa simulado em detalhes finos a ação de cada neurônio no cérebro de um falante chinês. Isso fortalece a intuição de que não haveria diferença significativa entre a operação do programa e a operação de um cérebro humano vivo.
Searle responde que tal simulação não reproduz as características importantes do cérebro - seus estados causais e intencionais. Searle é inflexível que "os fenômenos mentais humanos [são] dependentes das propriedades física-químicas reais dos cérebros humanos reais". Além disso, ele argumenta:

[I]magine que em vez de um homem monolíngüe em uma sala de símbolos shuffling temos o homem operar um conjunto elaborado de tubos de água com válvulas conectando-os. Quando o homem recebe os símbolos chineses, ele olha para cima no programa, escrito em inglês, que válvulas ele tem que ligar e desligar. Cada conexão de água corresponde a uma sinapse no cérebro chinês, e todo o sistema é manipulado para que depois de fazer todos os disparos certos, que é depois de ligar todas as torneiras certas, as respostas chinesas aparecem na extremidade de saída da série de tubos. Onde está o entendimento neste sistema? Leva chinês como entrada, simula a estrutura formal das sinapses do cérebro chinês, e dá chinês como saída. Mas o homem certamente não entende chinês, e nem os tubos de água, e se somos tentados a adotar o que eu acho que é a visão absurda que de alguma forma a conjunção do homem e dos tubos de água entende, lembre-se que, em princípio, o homem pode internalizar a estrutura formal dos tubos de água e fazer todos os "demissões de neurônio" em sua imaginação.

Duas variações na resposta do simulador de cérebro são o cérebro da China e o cenário de substituição do cérebro.

Cérebro chinês
E se pedirmos a cada cidadão da China para simular um neurônio, usando o sistema telefônico para simular as conexões entre axônios e dendritos? Nesta versão, parece óbvio que nenhum indivíduo teria qualquer compreensão do que o cérebro poderia estar dizendo. Também é óbvio que este sistema seria funcionalmente equivalente a um cérebro, então se a consciência é uma função, este sistema estaria consciente.
Cenário de substituição cerebral
Neste, somos convidados a imaginar que os engenheiros inventaram um pequeno computador que simula a ação de um neurônio individual. O que aconteceria se substituíssemos um neurônio de cada vez? Substituir um não faria claramente nada para mudar a consciência consciente. Substituir todos eles criaria um computador digital que simulasse um cérebro. Se o Searle está certo, então a consciência consciente deve desaparecer durante o procedimento (de forma gradual ou de uma só vez). Os críticos da Searle argumentam que não haveria nenhum ponto durante o procedimento quando ele pode reivindicar que a consciência termina e a simulação sem mente começa. (Veja Ship of Theseus para uma experiência de pensamento semelhante.)

Respostas do conexionista

Muito relacionado com a resposta do simulador do cérebro, isso afirma que uma arquitetura coneccionista massamente paralela seria capaz de entender.

Resposta combinada

Esta resposta combina a resposta do robô com a resposta da simulação do cérebro, argumentando que uma simulação cerebral conectada ao mundo através de um corpo de robô poderia ter uma mente.

Muitas mansões / espere até a resposta do próximo ano

Melhor tecnologia no futuro permitirá que os computadores entendam. Searle concorda que isso é possível, mas considera este ponto irrelevante. Searle concorda que pode haver projetos que fariam uma máquina ter compreensão consciente.

Esses argumentos (e as respostas do robô ou do conhecimento de senso comum) identificam alguma tecnologia especial que ajudaria a criar compreensão consciente em uma máquina. Eles podem ser interpretados de duas maneiras: ou afirmam (1) esta tecnologia é necessária para a consciência, a sala chinesa não implementa ou não pode implementar esta tecnologia e, portanto, a sala chinesa não pode passar no teste de Turing ou (mesmo que tenha passado) não teria compreensão consciente. Ou podem estar afirmando que (2) é mais fácil ver que a sala chinesa tem uma mente se visualizarmos essa tecnologia sendo usada para criá-la.

No primeiro caso, onde recursos como um corpo de robô ou uma arquitetura conexionista são necessários, Searle afirma que a IA forte (como ele a entende) foi abandonada. A sala chinesa tem todos os elementos de uma máquina completa de Turing e, portanto, é capaz de simular qualquer tipo de computação digital. Se a sala de Searle não passar no teste de Turing, então não há outra tecnologia digital que possa passar no teste de Turing. Se o quarto de Searle podia passar no teste de Turing, mas ainda não tem uma mente, então o teste de Turing não é suficiente para determinar se o quarto tem uma "mente". De qualquer forma, nega uma ou outra das posições que Searle pensa como "IA forte", provando seu argumento.

Os argumentos do cérebro, em particular, negam a IA forte se assumirem que não há maneira mais simples de descrever a mente do que criar um programa que seja tão misterioso quanto o cérebro. Ele escreve: "Achei que toda a ideia de IA forte era que não precisamos saber como o cérebro funciona para saber como a mente funciona". Se a computação não fornecer uma explicação da mente humana, então a IA forte falhou, de acordo com Searle.

Outros críticos sustentam que a sala como Searle a descreveu tem, de fato, uma mente, no entanto, eles argumentam que é difícil de ver - a descrição de Searle está correta, mas enganosa. Ao redesenhar a sala de forma mais realista, eles esperam tornar isso mais óbvio. Nesse caso, esses argumentos estão sendo usados como apelos à intuição (ver a próxima seção).

Na verdade, a sala pode facilmente ser redesenhada para enfraquecer nossas intuições. O argumento Blockhead de Ned Block sugere que o programa poderia, em teoria, ser reescrito em uma tabela simples de regras no formato "se o usuário escrever S, responda com P e vá para X". Pelo menos em princípio, qualquer programa pode ser reescrito (ou "refatorado") nesta forma, até mesmo uma simulação cerebral. No cenário do cabeça-dura, todo o estado mental está oculto na letra X, que representa um endereço de memória — um número associado à próxima regra. É difícil visualizar que um instante da experiência consciente de alguém pode ser capturado em um único grande número, mas é exatamente isso que a "IA forte" reivindicações. Por outro lado, tal tabela de consulta seria ridiculamente grande (a ponto de ser fisicamente impossível), e os estados poderiam, portanto, ser extremamente específicos.

Searle argumenta que, não importa como o programa seja escrito ou como a máquina esteja conectada ao mundo, a mente está sendo simulada por uma simples máquina digital passo a passo (ou máquinas). Essas máquinas são sempre como o homem na sala: não entendem nada e não falam chinês. Eles estão apenas manipulando símbolos sem saber o que eles significam. Searle escreve: "Posso ter qualquer programa formal que você goste, mas ainda não entendo nada."

Velocidade e complexidade: apela à intuição

Os seguintes argumentos (e as interpretações intuitivas dos argumentos acima) não explicam diretamente como uma mente que fala chinês poderia existir na sala de Searle, ou como os símbolos que ele manipula poderiam se tornar significativos. No entanto, ao levantar dúvidas sobre as intuições de Searle, eles sustentam outras posições, como as respostas do sistema e do robô. Esses argumentos, se aceitos, impedem Searle de afirmar que sua conclusão é óbvia ao minar as intuições que sua certeza exige.

Vários críticos acreditam que o argumento de Searle se baseia inteiramente em intuições. Ned Block escreve "O argumento de Searle depende de sua força de intuições que certas entidades não pensam." Daniel Dennett descreve o argumento da sala chinesa como uma "bomba de intuição" e escreve "o experimento mental de Searle depende, ilicitamente, de sua imaginação de um caso muito simples, um caso irrelevante, e de desenhar o 'óbvio' conclusão disso."

Alguns dos argumentos acima também funcionam como apelos à intuição, especialmente aqueles que pretendem tornar mais plausível que a sala chinesa contenha uma mente, que pode incluir o robô, o conhecimento do senso comum, a simulação cerebral e as respostas conexionistas. Várias das respostas acima também abordam a questão específica da complexidade. A resposta conexionista enfatiza que um sistema de inteligência artificial funcional teria que ser tão complexo e interconectado quanto o cérebro humano. A resposta do conhecimento de senso comum enfatiza que qualquer programa que passasse no teste de Turing teria de ser "um sistema extraordinariamente flexível, sofisticado e multicamadas, repleto de 'conhecimento do mundo"; e meta-conhecimento e meta-meta-conhecimento', como explica Daniel Dennett.

Muitas dessas críticas enfatizam a velocidade e a complexidade do cérebro humano, que processa informações em 100 bilhões de operações por segundo (segundo algumas estimativas). Vários críticos apontam que o homem na sala provavelmente levaria milhões de anos para responder a uma pergunta simples e exigiria "armários de arquivo" de proporções astronômicas. Isso põe em dúvida a clareza da intuição de Searle.

Uma versão especialmente vívida da resposta de velocidade e complexidade é de Paul e Patricia Churchland. Eles propõem este experimento de pensamento análogo: “Considere uma sala escura contendo um homem segurando uma barra magnética ou objeto carregado. Se o homem bombear o ímã para cima e para baixo, então, de acordo com a teoria da luminância artificial de Maxwell (AL), ele iniciará um círculo de propagação de ondas eletromagnéticas e, portanto, será luminoso. Mas, como todos nós que já brincamos com ímãs ou bolas carregadas bem sabemos, suas forças (ou quaisquer outras forças), mesmo quando colocadas em movimento, não produzem nenhuma luminância. É inconcebível que você possa constituir luminância real apenas movendo forças ao redor!" O ponto de Churchland é que o problema é que ele teria que balançar o ímã para cima e para baixo algo como 450 trilhões de vezes por segundo para ver qualquer coisa.

Stevan Harnad critica as respostas rápidas e complexas quando elas vão além de abordar nossas intuições. Ele escreve: “Alguns cultuaram a velocidade e o tempo, sustentando que, quando acelerado na velocidade certa, o computacional pode fazer uma transição de fase para o mental”. Deve ficar claro que não é um contra-argumento, mas meramente uma especulação ad hoc (assim como a visão de que tudo é apenas uma questão de alcançar o grau certo de 'complexidade' 39;)"

Searle argumenta que seus críticos também estão confiando em intuições, no entanto, a opinião de seus oponentes as intuições não têm base empírica. Ele escreve que, para considerar a "resposta do sistema" como remotamente plausível, uma pessoa deve estar "sob o domínio de uma ideologia". A resposta do sistema só faz sentido (para Searle) se assumirmos que qualquer "sistema" pode ter consciência, apenas pelo fato de ser um sistema com o comportamento correto e partes funcionais. Essa suposição, ele argumenta, não é sustentável, dada a nossa experiência de consciência.

Outras mentes e zumbis: falta de sentido

Várias respostas argumentam que o argumento de Searle é irrelevante porque suas suposições sobre a mente e a consciência são falhas. Searle acredita que os seres humanos experimentam diretamente sua consciência, intencionalidade e a natureza da mente todos os dias, e que essa experiência da consciência não é questionável. Ele escreve que devemos "pressupor a realidade e cognoscibilidade do mental." As respostas abaixo questionam se Searle está justificado em usar sua própria experiência de consciência para determinar que é mais do que um processamento mecânico de símbolos. Em particular, a resposta de outras mentes argumenta que não podemos usar nossa experiência de consciência para responder a perguntas sobre outras mentes (mesmo a mente de um computador), a resposta materialista eliminativa argumenta que a própria consciência pessoal de Searle não;existir" no sentido que Searle pensa que sim, e o epifenoma responde questionando se podemos fazer algum argumento sobre algo como a consciência que não pode, por definição, ser detectada por nenhum experimento.

A "Resposta de outras mentes" aponta que o argumento de Searle é uma versão do problema das outras mentes, aplicado às máquinas. Não há como determinar se a experiência subjetiva de outras pessoas é igual à nossa. Só podemos estudar seu comportamento (ou seja, aplicando-lhes nosso próprio teste de Turing). Os críticos de Searle argumentam que ele está mantendo o quarto chinês em um padrão mais alto do que o de uma pessoa comum.

Nils Nilsson escreve "Se um programa se comporta como se estivesse se multiplicando, a maioria de nós diria que ele está, de fato, se multiplicando. Pelo que sei, Searle pode estar apenas se comportando como se estivesse pensando profundamente sobre esses assuntos. Mas, embora eu discorde dele, sua simulação é muito boa, então estou disposto a creditá-lo com pensamento real."

Alan Turing antecipou a linha de argumentação de Searle (que ele chamou de "O argumento da consciência") em 1950 e faz as outras mentes responderem. Ele observou que as pessoas nunca consideram o problema de outras mentes quando lidam umas com as outras. Ele escreve que "em vez de discutir continuamente sobre esse ponto, é comum ter a convenção educada que todo mundo pensa." O teste de Turing simplesmente estende essa "convenção educada" às máquinas. Ele não pretende resolver o problema de outras mentes (para máquinas ou pessoas) e não acha que precisamos.

Vários filósofos argumentam que a consciência, como Searle a descreve, não existe. Essa posição às vezes é chamada de materialismo eliminativo: a visão de que a consciência não é um conceito que pode "desfrutar de redução" a uma descrição estritamente mecânica (ou seja, material), mas sim um conceito que será simplesmente eliminado uma vez que a maneira como o cérebro material funciona é totalmente compreendida, exatamente da mesma maneira como o conceito de um demônio já foi eliminado da ciência, em vez de desfrutar da redução a uma descrição estritamente mecânica, e que nossa experiência de consciência é, como Daniel Dennett a descreve, uma "ilusão do usuário". Outras propriedades mentais, como a intencionalidade original (também chamada de “significado”, “conteúdo” e “caráter semântico”), também são comumente consideradas como propriedades especiais relacionadas a crenças e outras atitudes proposicionais. O materialismo eliminativo sustenta que atitudes proposicionais como crenças e desejos, entre outros estados mentais intencionais que possuem conteúdo, não existem. Se o materialismo eliminativo é a explicação científica correta da cognição humana, então a suposição do argumento da sala chinesa de que "as mentes têm conteúdos mentais (semântica)" não é suficiente. deve ser rejeitado.

Stuart Russell e Peter Norvig argumentam que, se aceitarmos a descrição de Searle sobre intencionalidade, consciência e mente, somos forçados a aceitar que a consciência é epifenomenal: que ela "não lança sombra" ou seja, é indetectável no mundo exterior. Eles argumentam que Searle deve estar enganado sobre a "cognoscibilidade do mental", e em sua crença de que existem "propriedades causais" em nossos neurônios que dão origem à mente. Eles apontam que, pela própria descrição de Searle, essas propriedades causais não podem ser detectadas por ninguém fora da mente, caso contrário, a Sala Chinesa não passaria no teste de Turing - as pessoas de fora seriam capazes de dizer que não havia um chinês. alto-falante na sala, detectando suas propriedades causais. Uma vez que eles não podem detectar propriedades causais, eles não podem detectar a existência do mental. Em suma, as "propriedades causais" e a própria consciência é indetectável, e tudo o que não pode ser detectado não existe ou não importa.

Mike Alder defende o mesmo ponto, que ele chama de "Resposta da Espada Laser Flamejante de Newton". Ele argumenta que todo o argumento é frívolo, porque não é verificacionista: não apenas a distinção entre simular uma mente e ter uma mente mal definida, mas é também irrelevante porque nenhum experimento foi, ou mesmo pode ser, proposto para distinguir entre os dois.

Daniel Dennett fornece esta extensão para o "epifenômeno" argumento. Suponha que, por alguma mutação, nasça um ser humano que não possua as "propriedades causais" de Searle; mas, no entanto, age exatamente como um ser humano. (Esse tipo de animal é chamado de "zumbi" em experimentos mentais na filosofia da mente). Esse novo animal se reproduziria como qualquer outro humano e, eventualmente, haveria mais desses zumbis. A seleção natural favoreceria os zumbis, já que seu design é (poderíamos supor) um pouco mais simples. Eventualmente, os humanos morreriam. Portanto, se Searle estiver certo, é mais provável que os seres humanos (como os vemos hoje) sejam realmente "zumbis", que, no entanto, insistem que são conscientes. É impossível saber se somos todos zumbis ou não. Mesmo se fôssemos todos zumbis, ainda acreditaríamos que não somos.

Searle discorda dessa análise e argumenta que "o estudo da mente começa com fatos como os de que os humanos têm crenças, enquanto termostatos, telefones e máquinas de somar não... o que queríamos saber é o que distingue a mente de termostatos e fígados." Ele considera óbvio que podemos detectar a presença de consciência e descarta essas respostas como sendo fora do ponto.

Outras respostas

Margaret Boden argumentou em seu artigo "Escape from the Chinese Room" que mesmo que a pessoa na sala não entenda chinês, isso não significa que não haja compreensão na sala. A pessoa na sala pelo menos entende o livro de regras usado para fornecer respostas de saída.

Na cultura popular

O argumento da sala chinesa é um conceito central nos romances de Peter Watts Blindsight e (em menor grau) Echopraxia. Greg Egan ilustra o conceito sucintamente (e um tanto horrivelmente) em seu conto de 1990 Learning to Be Me, em sua coleção Axiomatic.

É um tema central no videogame Zero Escape: Virtue 's Last Reward e está relacionado à narrativa do jogo.

Um computador humano semelhante é imaginado no romance de Liu Cixin O Problema dos Três Corpos, assim descrito por Philip Steiner: "um enorme computador humano instrumentalizando milhões de soldados [que] assumem o papel de entrada de sinal e saída de sinal e são instruídos a executar diferentes circuitos lógicos, como uma porta AND e uma porta OR".

Na 4ª temporada do drama policial americano Numb3rs há uma breve referência ao quarto chinês.

The Chinese Room também é o nome de um estúdio britânico independente de desenvolvimento de videogames, mais conhecido por trabalhar em jogos experimentais em primeira pessoa, como Everybody's Gone to the Rapture ou Querida Ester.

No videogame de 2016 O Teste de Turing, o experimento mental da Sala Chinesa é explicado ao jogador por uma IA.

Contenido relacionado

Compressão com perda

Na tecnologia da informação, compressão com perdas ou compressão irreversível é a classe de métodos de compressão de dados que usa aproximações...

Diatics

Dianética é um conjunto de ideias e práticas pseudocientíficas sobre a relação metafísica entre a mente e o corpo criado pelo escritor de ficção...

Active Directory

Active Directory é um serviço de diretório desenvolvido pela Microsoft para redes de domínio do Windows. Ele está incluído na maioria dos sistemas...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save