Cuarto chino
El argumento de la habitación china sostiene que una computadora digital que ejecuta un programa no puede tener una "mente," "comprensión" o "conciencia," independientemente de cuán inteligente o humanamente el programa pueda hacer que la computadora se comporte. El argumento fue presentado por el filósofo John Searle en su artículo, "Minds, Brains, and Programs", publicado en Behavioral and Brain Sciences en 1980. Gottfried Leibniz presentó argumentos similares (1714), Anatoly Dneprov (1961), Lawrence Davis (1974) y Ned Block (1978). La versión de Searle ha sido ampliamente discutida en los años posteriores. La pieza central del argumento de Searle es un experimento mental conocido como la habitación china.
El argumento se dirige contra las posiciones filosóficas del funcionalismo y el computacionalismo, que sostienen que la mente puede verse como un sistema de procesamiento de información que opera con símbolos formales, y que la simulación de un estado mental dado es suficiente para su presencia. Específicamente, el argumento pretende refutar una posición que Searle llama IA fuerte: "La computadora programada apropiadamente con las entradas y salidas correctas tendría una mente exactamente en el mismo sentido que los seres humanos tienen mentes.."
Aunque originalmente se presentó como reacción a las declaraciones de los investigadores de inteligencia artificial (IA), no es un argumento en contra de los objetivos de la investigación convencional de IA porque no muestra un límite en la cantidad de "inteligente" 34; comportamiento que una máquina puede mostrar. El argumento se aplica solo a las computadoras digitales que ejecutan programas y no se aplica a las máquinas en general.
Experimento mental de la habitación china
El experimento mental de Searle comienza con esta premisa hipotética: suponga que la investigación de inteligencia artificial ha logrado construir una computadora que se comporta como si entendiera chino. Toma caracteres chinos como entrada y, siguiendo las instrucciones de un programa de computadora, produce otros caracteres chinos, que presenta como salida. Supongamos, dice Searle, que esta computadora realiza su tarea de manera tan convincente que pasa cómodamente la prueba de Turing: convence a un hablante chino humano de que el programa en sí mismo es un hablante chino en vivo. A todas las preguntas que hace la persona, da respuestas apropiadas, de modo que cualquier hablante de chino estaría convencido de que está hablando con otro ser humano de habla china.
La pregunta que Searle quiere responder es la siguiente: ¿la máquina literalmente "entiende" ¿Chino? ¿O se trata simplemente de simular la capacidad de comprender el chino? Searle llama a la primera posición "IA fuerte" y el último "IA débil".
Searle entonces supone que está en una habitación cerrada y tiene un libro con una versión en inglés del programa de computadora, junto con suficientes papeles, lápices, borradores y archivadores. Searle podía recibir caracteres chinos a través de una ranura en la puerta, procesarlos de acuerdo con las instrucciones del programa y producir caracteres chinos como salida, sin entender nada del contenido de la escritura china. Si la computadora hubiera pasado la prueba de Turing de esta manera, se deduce, dice Searle, que él también lo haría, simplemente ejecutando el programa manualmente.
Searle afirma que no existe una diferencia esencial entre los roles de la computadora y él mismo en el experimento. Cada uno simplemente sigue un programa, paso a paso, produciendo un comportamiento que luego el usuario interpreta como una demostración de conversación inteligente. Sin embargo, el propio Searle no podría entender la conversación. ("No hablo ni una palabra de chino", señala.) Por lo tanto, argumenta, se deduce que la computadora tampoco sería capaz de entender la conversación.
Searle argumenta que, sin "comprender" (o "intencionalidad"), no podemos describir lo que la máquina está haciendo como "pensar" y, como no piensa, no tiene "mente" en algo parecido al sentido normal de la palabra. Por lo tanto, concluye que la "IA fuerte" hipótesis es falsa.
Historia
Gottfried Leibniz presentó un argumento similar en 1714 contra el mecanismo (la posición de que la mente es una máquina y nada más). Leibniz utilizó el experimento mental de expandir el cerebro hasta que fuera del tamaño de un molino. A Leibniz le resultó difícil imaginar que una "mente" capaz de "percepción" podría construirse utilizando únicamente procesos mecánicos.
El cibernético soviético Anatoly Dneprov planteó un argumento esencialmente idéntico en 1961, en la forma del cuento 'El juego'. En él, un estadio de personas actúan como interruptores y células de memoria implementando un programa para traducir una frase del portugués, idioma que ninguno de ellos conoce. El juego fue organizado por un "Profesor Zarubin" para responder a la pregunta "¿Pueden pensar las máquinas matemáticas?" Hablando a través de Zarubin, Dneprov escribe "la única forma de demostrar que las máquinas pueden pensar es convertirte en una máquina y examinar tu proceso de pensamiento". y concluye, al igual que Searle: "Hemos demostrado que incluso la simulación más perfecta del pensamiento de una máquina no es el proceso de pensamiento en sí mismo".
En 1974, Lawrence Davis imaginó duplicar el cerebro usando líneas telefónicas y oficinas atendidas por personas, y en 1978 Ned Block imaginó a toda la población de China involucrada en tal simulación cerebral. Este experimento mental se llama el cerebro de China, también la "nación china" o el "Chinese Gym".
La versión de Searle apareció en su artículo de 1980 "Minds, Brains, and Programs", publicado en Behavioral and Brain Sciences. Eventualmente se convirtió en el 'artículo objetivo más influyente' de la revista, generando una enorme cantidad de comentarios y respuestas en las décadas siguientes, y Searle ha seguido defendiendo y refinando el argumento en muchos artículos, artículos populares y libros David Cole escribe que "el argumento de la habitación china ha sido probablemente el argumento filosófico más discutido en la ciencia cognitiva que ha aparecido en los últimos 25 años".
La mayor parte de la discusión consiste en intentos de refutarla. "La abrumadora mayoría", señala Stevan Harnad, editor de BBS, "todavía piensa que el argumento de la habitación china está completamente equivocado". El gran volumen de la literatura que ha crecido a su alrededor inspiró a Pat Hayes a comentar que el campo de la ciencia cognitiva debería redefinirse como "el programa de investigación en curso para demostrar que el argumento de la habitación china de Searle es falso". 34;.
El argumento de Searle se ha convertido en "una especie de clásico en la ciencia cognitiva", según Harnad. Varol Akman está de acuerdo y ha descrito el artículo original como "un ejemplo de claridad y pureza filosófica".
Filosofía
Aunque el argumento de la habitación china se presentó originalmente como reacción a las declaraciones de los investigadores de inteligencia artificial, los filósofos han llegado a considerarlo como una parte importante de la filosofía de la mente. Es un desafío para el funcionalismo y la teoría computacional de la mente, y está relacionado con cuestiones como el problema mente-cuerpo, el problema de otras mentes, el problema de la fundamentación del símbolo y el difícil problema de la conciencia.
IA fuerte
Searle identificó una posición filosófica que él llama "IA fuerte":
La computadora programada apropiadamente con las entradas y salidas adecuadas tendría una mente en exactamente el mismo sentido que los seres humanos tienen mente.
La definición depende de la distinción entre simular una mente y tener realmente una mente. Searle escribe que "según Strong AI, la simulación correcta es realmente una mente". Según Weak AI, la simulación correcta es un modelo de la mente."
La afirmación está implícita en algunas de las declaraciones de los primeros investigadores y analistas de IA. Por ejemplo, en 1955, el fundador de AI, Herbert A. Simon, declaró que "ahora hay en el mundo máquinas que piensan, aprenden y crean". Simon, junto con Allen Newell y Cliff Shaw, después de haber completado el primer "AI" programa, The Logic Theorist, afirmó que habían "resuelto el venerable problema mente-cuerpo, explicando cómo un sistema compuesto de materia puede tener las propiedades de la mente". John Haugeland escribió que "IA solo quiere el artículo genuino: máquinas con mente, en el sentido completo y literal. Esto no es ciencia ficción, sino ciencia real, basada en una concepción teórica tan profunda como audaz: a saber, somos, en el fondo, ordenadores nosotros mismos."
Searle también atribuye las siguientes afirmaciones a los defensores de una IA sólida:
- Los sistemas de inteligencia artificial se pueden utilizar para explicar la mente;
- El estudio del cerebro es irrelevante para el estudio de la mente; y
- La prueba Turing es adecuada para establecer la existencia de estados mentales.
IA fuerte como computacionalismo o funcionalismo
En presentaciones más recientes del argumento de la habitación china, Searle ha identificado "IA fuerte" como "funcionalismo informático" (un término que atribuye a Daniel Dennett). El funcionalismo es una posición en la filosofía moderna de la mente que sostiene que podemos definir los fenómenos mentales (como creencias, deseos y percepciones) describiendo sus funciones en relación entre sí y con el mundo exterior. Debido a que un programa de computadora puede representar con precisión relaciones funcionales como relaciones entre símbolos, una computadora puede tener fenómenos mentales si ejecuta el programa correcto, de acuerdo con el funcionalismo.
Stevan Harnad argumenta que las representaciones de Searle de una IA fuerte pueden reformularse como "principios reconocibles del computacionalismo, una posición (a diferencia de la "IA fuerte") eso lo sostienen muchos pensadores y, por lo tanto, vale la pena refutarlo." El computacionalismo es la posición en la filosofía de la mente que argumenta que la mente puede describirse con precisión como un sistema de procesamiento de información.
Cada uno de los siguientes, según Harnad, es un "principio" del computacionalismo:
- Los estados mentales son estados computacionales (por lo que las computadoras pueden tener estados mentales y ayudar a explicar la mente);
- Los estados computacionales son dependientes de la implementación, es decir, el software que determina el estado computacional, no el hardware (por eso el cerebro, siendo hardware, es irrelevante); y eso
- Puesto que la implementación no es importante, los únicos datos empíricos que importan es cómo funciona el sistema; por lo tanto la prueba de Turing es definitiva.
IA fuerte frente a naturalismo biológico
Searle sostiene una posición filosófica que él llama "naturalismo biológico": que la conciencia y la comprensión requieren una maquinaria biológica específica que se encuentra en el cerebro. Él escribe "los cerebros causan mentes" y que "los fenómenos mentales humanos reales [son] dependientes de las propiedades físico-químicas reales de los cerebros humanos reales". Searle argumenta que esta maquinaria (conocida por la neurociencia como los 'correlatos neuronales de la conciencia') debe tener algunos poderes causales que permitan la experiencia humana de la conciencia. Se ha criticado la creencia de Searle en la existencia de estos poderes.
Searle no está en desacuerdo con la noción de que las máquinas pueden tener conciencia y comprensión porque, como él escribe, "somos precisamente esas máquinas". Searle sostiene que el cerebro es, de hecho, una máquina, pero que el cerebro genera conciencia y comprensión utilizando maquinaria que no es computacional. Si la neurociencia es capaz de aislar el proceso mecánico que da lugar a la conciencia, entonces Searle concede que es posible crear máquinas que tengan conciencia y comprensión. Sin embargo, sin la maquinaria específica requerida, Searle no cree que la conciencia pueda ocurrir.
El naturalismo biológico implica que uno no puede determinar si la experiencia de la conciencia está ocurriendo simplemente examinando cómo funciona un sistema, porque la maquinaria específica del cerebro es esencial. Por lo tanto, el naturalismo biológico se opone directamente tanto al conductismo como al funcionalismo (incluido el 'funcionalismo informático' o la 'IA fuerte'). El naturalismo biológico es similar a la teoría de la identidad (la posición de que los estados mentales son "idénticos a" o "compuestos de" eventos neurológicos); sin embargo, Searle tiene objeciones técnicas específicas a la teoría de la identidad. El naturalismo biológico de Searle y la fuerte IA se oponen al dualismo cartesiano, la idea clásica de que el cerebro y la mente están hechos de diferentes "sustancias". De hecho, Searle acusa a la IA fuerte de dualismo y escribe que "la IA fuerte solo tiene sentido dada la suposición dualista de que, en lo que respecta a la mente, el cerebro no importa".
Conciencia
La presentación original de Searle enfatizaba la "comprensión", es decir, los estados mentales con lo que los filósofos llaman "intencionalidad", y no abordaba directamente otras ideas estrechamente relacionadas como & #34;conciencia". Sin embargo, en presentaciones más recientes, Searle ha incluido la conciencia como el objetivo real del argumento.
Los modelos computacionales de conciencia no son suficientes por sí mismos para la conciencia. El modelo computacional para la conciencia representa la conciencia de la misma manera que el modelo computacional de cualquier cosa representa al dominio siendo modelado. Nadie supone que el modelo computacional de tormentas de lluvia en Londres nos deje mojados. Pero cometen el error de suponer que el modelo computacional de conciencia es de alguna manera consciente. Es el mismo error en ambos casos.
—John R. Searle, Conciencia y lenguaje, pág. 16
David Chalmers escribe "está bastante claro que la conciencia está en la raíz del asunto" del cuarto chino.
Colin McGinn argumenta que la habitación china proporciona una fuerte evidencia de que el difícil problema de la conciencia es fundamentalmente insoluble. El argumento, para ser claros, no se trata de si una máquina puede ser consciente, sino de si se puede demostrar que es consciente (o cualquier otra cosa). Es evidente que cualquier otro método de sondear al ocupante de una habitación china tiene, en principio, las mismas dificultades que intercambiar preguntas y respuestas en chino. Simplemente no es posible adivinar si una agencia consciente o alguna simulación inteligente habita en la habitación.
Searle argumenta que esto solo es cierto para un observador fuera de la habitación. El objetivo del experimento mental es poner a alguien dentro de la habitación, donde pueda observar directamente las operaciones de la conciencia. Searle afirma que desde su punto de vista dentro de la habitación no hay nada que pueda ver que pueda generar conciencia, aparte de él mismo, y claramente no tiene una mente que pueda hablar chino.
Ética aplicada
Patrick Hew usó el argumento de la habitación china para deducir los requisitos de los sistemas de mando y control militar si se pretende preservar la voluntad moral de un comandante. Dibujó una analogía entre un comandante en su centro de comando y la persona en la Sala China, y la analizó bajo una lectura de las nociones de Aristóteles de 'obligatorio'. y "ignorancia". La información podría ser "convertida hacia abajo" del significado a los símbolos, y manipulados simbólicamente, pero la agencia moral podría verse socavada si no hubiera una 'conversión ascendente' inadecuada; en significado. Hew citó ejemplos del incidente del USS Vincennes.
Ciencias de la computación
El argumento de la habitación china es principalmente un argumento en la filosofía de la mente, y tanto los principales científicos informáticos como los investigadores de inteligencia artificial lo consideran irrelevante para sus campos. Sin embargo, varios conceptos desarrollados por informáticos son esenciales para comprender el argumento, incluido el procesamiento de símbolos, las máquinas de Turing, la integridad de Turing y la prueba de Turing.
Fuerte investigación de IA versus IA
Los argumentos de Searle generalmente no se consideran un problema para la investigación de IA. Stuart Russell y Peter Norvig observan que a la mayoría de los investigadores de IA no les importa la hipótesis de IA fuerte: mientras el programa funcione, no les importa si lo llama simulación de inteligencia o real. inteligencia." La misión principal de la investigación en inteligencia artificial es solo crear sistemas útiles que actúen de manera inteligente, y no importa si la inteligencia es "simplemente" una simulación
Searle no está en desacuerdo con que la investigación de IA pueda crear máquinas que sean capaces de tener un comportamiento altamente inteligente. El argumento de la habitación china deja abierta la posibilidad de que se pueda construir una máquina digital que actúe de manera más inteligente que una persona, pero que no tenga una mente o intencionalidad de la misma manera que los cerebros.
La "fuerte IA" de Searle no debe confundirse con "IA fuerte" según lo definido por Ray Kurzweil y otros futuristas, quienes usan el término para describir la inteligencia artificial que rivaliza o supera la inteligencia humana. Kurzweil se preocupa principalmente por la cantidad de inteligencia que muestra la máquina, mientras que el argumento de Searle no pone límites a esto. Searle argumenta que incluso una máquina superinteligente no necesariamente tendría mente y conciencia.
Prueba de Turing
La sala china implementa una versión del test de Turing. Alan Turing introdujo la prueba en 1950 para ayudar a responder la pregunta "¿pueden pensar las máquinas?" En la versión estándar, un juez humano entabla una conversación en lenguaje natural con un humano y una máquina diseñada para generar un rendimiento indistinguible del de un ser humano. Todos los participantes están separados unos de otros. Si el juez no puede distinguir de manera confiable a la máquina del ser humano, se dice que la máquina ha pasado la prueba.
Luego, Turing consideró cada posible objeción a la propuesta "las máquinas pueden pensar" y descubrió que hay respuestas simples y obvias si la pregunta se desmitifica de esta manera. Sin embargo, no tenía la intención de que la prueba midiera la presencia de "conciencia" o "comprensión". No creía que esto fuera relevante para los temas que estaba abordando. El escribio:
No deseo dar la impresión de que creo que no hay ningún misterio sobre la conciencia. Hay, por ejemplo, algo de una paradoja relacionada con cualquier intento de localizarla. Pero no creo que estos misterios necesariamente necesiten ser resueltos antes de poder responder a la pregunta con la que nos preocupa este artículo.
Para Searle, como filósofo que investiga la naturaleza de la mente y la conciencia, estos son los misterios relevantes. La habitación china está diseñada para mostrar que la prueba de Turing es insuficiente para detectar la presencia de la conciencia, incluso si la habitación puede comportarse o funcionar como lo haría una mente consciente.
Procesamiento de símbolos
La sala china (y todas las computadoras modernas) manipulan objetos físicos para realizar cálculos y hacer simulaciones. Los investigadores de inteligencia artificial Allen Newell y Herbert A. Simon llamaron a este tipo de máquina un sistema de símbolos físicos. También es equivalente a los sistemas formales utilizados en el campo de la lógica matemática.
Searle enfatiza el hecho de que este tipo de manipulación de símbolos es sintáctico (tomando prestado un término del estudio de la gramática). La computadora manipula los símbolos utilizando una forma de reglas de sintaxis, sin ningún conocimiento de la semántica del símbolo (es decir, su significado).
Newell y Simon habían conjeturado que un sistema de símbolos físicos (como una computadora digital) tenía toda la maquinaria necesaria para la 'acción inteligente general' o, como se la conoce hoy, inteligencia general artificial. Enmarcaron esto como una posición filosófica, la hipótesis del sistema de símbolos físicos: "Un sistema de símbolos físicos tiene los medios necesarios y suficientes para la acción inteligente general". El argumento de la habitación china no refuta esto, porque se enmarca en términos de "acción inteligente", es decir, el comportamiento externo de la máquina, en lugar de la presencia o ausencia de comprensión, conciencia y mente.
Sala china y completitud de Turing
La sala china tiene un diseño análogo al de una computadora moderna. Tiene una arquitectura de Von Neumann, que consta de un programa (el libro de instrucciones), algo de memoria (los papeles y archivadores), una CPU que sigue las instrucciones (el hombre) y un medio para escribir símbolos en la memoria (el lápiz y borrador). Una máquina con este diseño se conoce en informática teórica como "Turing completa", porque tiene la maquinaria necesaria para realizar cualquier cómputo que puede hacer una máquina de Turing, y por lo tanto es capaz de hacer un paso a paso. simulación paso a paso de cualquier otra máquina digital, con suficiente memoria y tiempo. Alan Turing escribe: "Todas las computadoras digitales son, en cierto sentido, equivalentes". La tesis de Church-Turing ampliamente aceptada sostiene que cualquier función computable por un procedimiento efectivo es computable por una máquina de Turing.
La integridad de Turing de la sala china implica que puede hacer lo que cualquier otra computadora digital puede hacer (aunque mucho, mucho más lentamente). Por lo tanto, si la sala china no contiene o no puede contener una mente que hable chino, entonces ninguna otra computadora digital puede contener una mente. Algunas respuestas a Searle comienzan argumentando que la habitación, tal como se describe, no puede tener una mente que hable chino. Los argumentos de esta forma, según Stevan Harnad, son "no una refutación (sino más bien una afirmación)" del argumento de la habitación china, porque estos argumentos en realidad implican que ninguna computadora digital puede tener una mente.
Hay algunos críticos, como Hanoch Ben-Yami, que argumentan que la sala china no puede simular todas las capacidades de una computadora digital, como poder determinar la hora actual.
Argumento completo
Searle ha producido una versión más formal del argumento del que forma parte la Sala China. Presentó la primera versión en 1984. La versión que se da a continuación es de 1990. El experimento mental de la habitación china pretende probar el punto A3.
Comienza con tres axiomas:
- (A1) "Los programas son formales (sintácticos)".
- Un programa utiliza sintaxis para manipular símbolos y no presta atención a la semántica de los símbolos. Sabe dónde poner los símbolos y cómo moverlos alrededor, pero no sabe lo que representan o lo que quieren decir. Para el programa, los símbolos son sólo objetos físicos como cualquier otro.
- (A2) "Los hombres tienen contenidos mentales (semánticos)".
- A diferencia de los símbolos utilizados por un programa, nuestros pensamientos tienen significado: representan cosas y sabemos lo que representan.
- (A3) "Sintaxis por sí misma no es constitutiva ni suficiente para la semántica".
- Esto es lo que el experimento de pensamiento de la habitación china pretende probar: la habitación china tiene sintaxis (porque hay un hombre allí moviendo símbolos alrededor). La habitación china no tiene semántica (porque, según Searle, no hay nadie o nada en la habitación que entienda lo que significan los símbolos). Por lo tanto, tener sintaxis no es suficiente para generar semántica.
Searle postula que esto lleva directamente a esta conclusión:
- (C1) Los programas no son constitutivos ni suficientes para las mentes.
- Esto debe seguir sin controversia de los tres primeros: Los programas no tienen semántica. Los programas sólo tienen sintaxis, y la sintaxis es insuficiente para la semántica. Cada mente tiene semántica. Por lo tanto, ningún programa es mente.
Esta gran parte del argumento pretende mostrar que la inteligencia artificial nunca puede producir una máquina con una mente escribiendo programas que manipulen símbolos. El resto del argumento aborda un tema diferente. ¿El cerebro humano está ejecutando un programa? En otras palabras, ¿es correcta la teoría computacional de la mente? Comienza con un axioma que pretende expresar el consenso científico moderno básico sobre el cerebro y la mente:
- (A4) Los cerebros causan mentes.
Searle afirma que podemos derivar "inmediatamente" y "trivialmente" ese:
- (C2) Cualquier otro sistema capaz de causar mentes tendría que tener poderes causales (al menos) equivalentes a los de cerebros.
- Los cerebros deben tener algo que causa que una mente exista. La ciencia todavía tiene que determinar exactamente lo que es, pero debe existir, porque las mentes existen. Searle lo llama "poderes de precaución". "poderes catastróficos" es lo que el cerebro usa para crear una mente. Si algo más puede causar que exista una mente, debe tener "poderes causales equivalentes". "Poderes causales equivalentes" es lo que sea más que podría ser usado para pensar.
Y de esto deriva las conclusiones adicionales:
- (C3) Cualquier artefacto que produjera fenómenos mentales, cualquier cerebro artificial, tendría que ser capaz de duplicar los poderes causales específicos de los cerebros, y no podía hacerlo solo ejecutando un programa formal.
- Esto sigue de C1 y C2: Puesto que ningún programa puede producir una mente, y "poderes causales equivalentes" producen mentes, sigue que los programas no tienen "poderes causales equivalentes".
- (C4) La forma en que los cerebros humanos producen fenómenos mentales no puede ser solamente en virtud de ejecutar un programa informático.
- Puesto que los programas no tienen "poderes causales equivalentes", "poderes causales equivalentes" producen mentes, y cerebros producen mentes, sigue que los cerebros no utilizan programas para producir mentes.
Las refutaciones del argumento de Searle toman muchas formas diferentes (ver más abajo). Los computacionalistas y funcionalistas rechazan A3, argumentando que la "sintaxis" (como lo describe Searle) puede tener "semántica" si la sintaxis tiene la estructura funcional correcta. Los materialistas eliminativos rechazan A2, argumentando que las mentes en realidad no tienen "semántica" -- que los pensamientos y otros fenómenos mentales son inherentemente sin sentido pero sin embargo funcionan como si tuvieran significado.
Respuestas
Las respuestas al argumento de Searle pueden clasificarse según lo que afirman mostrar:
- Aquellos que identifican que habla chino
- Aquellos que demuestran cómo símbolos sin sentido pueden llegar a ser significativos
- Aquellos que sugieren que la habitación china debe ser rediseñado de alguna manera
- Los que sostienen que el argumento de Searle es engañoso
- Aquellos que argumentan que el argumento hace falsas suposiciones sobre la experiencia subjetiva consciente y por lo tanto no prueba nada
Algunos de los argumentos (simulación de robot y cerebro, por ejemplo) se dividen en varias categorías.
Sistemas y respuestas de la mente virtual: encontrando la mente
Estas respuestas intentan responder a la pregunta: dado que el hombre en la habitación no habla chino, dónde está la "mente" ¿Eso hace? Estas respuestas abordan las cuestiones ontológicas clave de la mente frente al cuerpo y la simulación frente a la realidad. Todas las respuestas que identifican la mente en la sala son versiones de "la respuesta del sistema".
La versión básica de la respuesta del sistema argumenta que es el "sistema completo" que entiende chino. Si bien el hombre solo entiende inglés, cuando se combina con el programa, papel borrador, lápices y archivadores, forman un sistema que puede entender chino. "Aquí, la comprensión no se atribuye al mero individuo; más bien se le atribuye a todo este sistema del cual él es parte" Searle explica. El hecho de que cierto hombre no entienda chino es irrelevante, porque lo único que importa es el sistema en su conjunto.
Searle señala que (en esta versión simple de la respuesta) el "sistema" no es más que una colección de objetos físicos ordinarios; otorga el poder de comprensión y conciencia a "la conjunción de esa persona y pedazos de papel" sin hacer ningún esfuerzo por explicar cómo este montón de objetos se ha convertido en un ser consciente y pensante. Searle argumenta que ninguna persona razonable debería estar satisfecha con la respuesta, a menos que esté 'bajo el dominio de una ideología'; Para que esta respuesta sea remotamente plausible, se debe dar por sentado que la conciencia puede ser el producto de un "sistema" de procesamiento de información, y no requiere nada parecido a la biología real del cerebro.
Searle luego responde simplificando esta lista de objetos físicos: pregunta qué sucede si el hombre memoriza las reglas y realiza un seguimiento de todo en su cabeza. Entonces todo el sistema consta de un solo objeto: el hombre mismo. Searle argumenta que si el hombre no entiende chino entonces el sistema tampoco entiende chino porque ahora "el sistema" y "el hombre" ambos describen exactamente el mismo objeto.
Los críticos de la respuesta de Searle argumentan que el programa ha permitido que el hombre tenga dos mentes en una cabeza. Si asumimos una "mente" es una forma de procesamiento de información, entonces la teoría de la computación puede dar cuenta de dos cálculos que ocurren a la vez, a saber (1) el cálculo para la programabilidad universal (que es la función instanciada por la persona y los materiales de toma de notas independientemente de cualquier contenido de programa en particular) y (2) el cálculo de la máquina de Turing que describe el programa (que es instanciado por todo incluido el programa específico). La teoría de la computación explica así formalmente la posibilidad abierta de que la segunda computación en la Sala China pueda implicar una comprensión semántica equivalente a la humana de las entradas chinas. El enfoque pertenece a la máquina de Turing del programa y no a la persona. Sin embargo, desde la perspectiva de Searle, este argumento es circular. La pregunta en cuestión es si la conciencia es una forma de procesamiento de información, y esta respuesta requiere que hagamos esa suposición.
Las versiones más sofisticadas de la respuesta del sistema intentan identificar con mayor precisión qué es "el sistema" es y difieren exactamente en cómo lo describen. Según estas respuestas, la "mente que habla chino" podrían ser cosas tales como: el 'software', un 'programa', un 'programa en ejecución', una simulación de los 'correlatos neuronales de la conciencia' 34;, el "sistema funcional", una "mente simulada", una "propiedad emergente", o "una mente virtual" (descrito abajo).
Marvin Minsky sugirió una versión de la respuesta del sistema conocida como "respuesta mental virtual". El término "virtual" se utiliza en informática para describir un objeto que parece existir "en" una computadora (o red de computadoras) solo porque el software hace que parezca que existe. Los objetos "dentro" las computadoras (incluidos archivos, carpetas, etc.) son todas "virtuales", excepto los componentes electrónicos de la computadora. De manera similar, argumenta Minsky, una computadora puede contener una "mente" que es virtual en el mismo sentido que las máquinas virtuales, las comunidades virtuales y la realidad virtual.
Para aclarar la distinción entre la respuesta de sistemas simples dada anteriormente y la respuesta mental virtual, David Cole señala que se pueden ejecutar dos simulaciones en un sistema al mismo tiempo: una que habla chino y otra que habla coreano. Si bien solo hay un sistema, puede haber múltiples "mentes virtuales" así el "sistema" no puede ser la "mente".
Searle responde que tal mente es, en el mejor de los casos, una simulación, y escribe: "Nadie supone que las simulaciones por computadora de un incendio de cinco alarmas incendiarán el vecindario o que una simulación por computadora de una tormenta de lluvia dejarnos a todos empapados." Nicholas Fearn responde que, para algunas cosas, la simulación es tan buena como la realidad. "Cuando activamos la función de calculadora de bolsillo en una computadora de escritorio, la imagen de una calculadora de bolsillo aparece en la pantalla. No nos quejamos de que 'no es realmente una calculadora', porque los atributos físicos del dispositivo no importan." La pregunta es, ¿es la mente humana como una calculadora de bolsillo, esencialmente compuesta de información? ¿O es la mente como la tormenta, algo más que una computadora y no realizable por completo mediante una simulación por computadora? Durante décadas, esta cuestión de la simulación ha llevado a los investigadores y filósofos de la IA a plantearse si el término "inteligencia sintética" es más apropiado que la descripción común de tales inteligencias como "artificial".
Estas respuestas proporcionan una explicación de quién es exactamente el que entiende chino. Si hay algo además del hombre en la habitación que puede entender chino, Searle no puede argumentar que (1) el hombre no entiende chino, por lo tanto (2) nadie en la habitación entiende chino. Esto, según quienes dan esta respuesta, muestra que el argumento de Searle no prueba que la 'IA fuerte' Es falso.
Sin embargo, estas respuestas, por sí solas, no proporcionan ninguna evidencia de que la IA fuerte sea verdadera. No muestran que el sistema (o la mente virtual) entienda chino, aparte de la premisa hipotética de que pasa la prueba de Turing. Searle argumenta que, si vamos a considerar que la IA fuerte es remotamente plausible, la Sala China es un ejemplo que requiere explicación, y es difícil o imposible explicar cómo podría 'emerger' la conciencia. de la habitación o cómo el sistema tendría conciencia. Como Searle escribe "la respuesta del sistema simplemente plantea la pregunta al insistir en que el sistema debe entender chino" y así se esquiva la pregunta o irremediablemente circular.
Robot y respuestas semánticas: encontrar el significado
En lo que respecta a la persona en la habitación, los símbolos son simplemente "garabatos sin sentido." Pero si la sala china realmente "entiende" lo que está diciendo, entonces los símbolos deben obtener su significado de alguna parte. Estos argumentos intentan conectar los símbolos con las cosas que simbolizan. Estas respuestas abordan las preocupaciones de Searle sobre la intencionalidad, la conexión a tierra de los símbolos y la sintaxis frente a la semántica.
Respuesta del robot
- Supongamos que en lugar de una habitación, el programa fue colocado en un robot que podría vagar alrededor e interactuar con su entorno. Esto permitiría una "conexión precaución" entre los símbolos y las cosas que representan. Hans Moravec comenta: "Si pudiéramos injertar un robot a un programa de razonamiento, no necesitaríamos que una persona proporcionara el significado más: vendría del mundo físico."
- La respuesta de Searle es suponer que, poco conocida por el individuo en la habitación china, algunas de las entradas provenían directamente de una cámara montada en un robot, y algunas de las salidas se utilizaron para manipular los brazos y las piernas del robot. Sin embargo, la persona en la habitación sigue las reglas, y no sabe lo que significan los símbolos. Searle escribe: ver lo que entra en los ojos del robot." (Vea la habitación de Mary para un experimento de pensamiento similar.)
Significado derivado
- Algunos responden que la habitación, como Searle lo describe, es conectado al mundo: a través de los altavoces chinos se "habla" a y a través de los programadores que diseñaron la base de conocimiento en su gabinete de archivos. Los símbolos Searle manipula ya son significativosNo tienen sentido él.
- Searle dice que los símbolos sólo tienen un significado "derived", como el significado de las palabras en los libros. El significado de los símbolos depende de la comprensión consciente de los altavoces chinos y los programadores fuera de la sala. La habitación, como un libro, no tiene comprensión propia.
Conocimiento de sentido común/respuesta contextualista
- Algunos han argumentado que los significados de los símbolos provendrían de un vasto "background" de conocimientos comunes codificados en el programa y los gabinetes de presentación. Esto proporcionaría un "contexto" que daría a los símbolos su significado.
- Searle está de acuerdo en que este fondo existe, pero no está de acuerdo en que puede ser construido en programas. Hubert Dreyfus también ha criticado la idea de que el "background" puede ser representado simbólicamente.
A cada una de estas sugerencias, la respuesta de Searle es la misma: no importa cuánto conocimiento se escriba en el programa y no importa cómo esté conectado el programa con el mundo, él todavía está en la sala manipulando símbolos de acuerdo con a las reglas Sus acciones son sintácticas y esto nunca puede explicarle qué significan los símbolos. Searle escribe "la sintaxis es insuficiente para la semántica".
Sin embargo, para aquellos que aceptan que las acciones de Searle simulan una mente, separada de la suya, la pregunta importante no es qué significan los símbolos para Searle, lo importante es lo que ellos significa a la mente virtual. Mientras Searle está atrapada en la habitación, la mente virtual no lo está: está conectada con el mundo exterior a través de los hablantes de chino con los que habla, a través de los programadores que le dieron conocimiento del mundo., y a través de las cámaras y otros sensores que pueden suministrar los especialistas en robótica.
Simulación cerebral y respuestas conexionistas: rediseñando la habitación
Estos argumentos son todas versiones de la respuesta de los sistemas que identifican un tipo particular de sistema como importante; identifican alguna tecnología especial que crearía una comprensión consciente en una máquina. (Las respuestas de "robot" y "conocimiento de sentido común" anteriores también especifican cierto tipo de sistema como importante).
Respuesta del simulador cerebral
- Supongamos que el programa simula en detalle la acción de cada neurona en el cerebro de un altavoz chino. Esto fortalece la intuición de que no habría diferencia significativa entre el funcionamiento del programa y el funcionamiento de un cerebro humano vivo.
- Searle responde que tal simulación no reproduce las características importantes del cerebro — sus estados causales e intencionales. Searle es firme que "los fenómenos mentales humanos dependen de las propiedades físico-químicas reales de los cerebros humanos". Además, argumenta:
[I]magínese que en lugar de un hombre monolingüe en una habitación de símbolos de brillo tenemos al hombre operar un conjunto elaborado de tuberías de agua con válvulas que los conectan. Cuando el hombre recibe los símbolos chinos, él mira hacia arriba en el programa, escrito en inglés, que válvulas tiene que encender y apagar. Cada conexión de agua corresponde a una sinapsis en el cerebro chino, y todo el sistema está afilado para que después de hacer todos los disparos correctos, es decir, después de encender todos los grifos adecuados, las respuestas chinas aparecen en el extremo de salida de la serie de tuberías. ¿Dónde está el entendimiento en este sistema? Toma el chino como entrada, simula la estructura formal de las sinapsis del cerebro chino, y da el chino como salida. Pero el hombre ciertamente no entiende chino, y tampoco las tuberías de agua, y si estamos tentados a adoptar lo que creo que es la absurda visión de que de alguna manera la conjunción de los tubos de agua y el hombre entiende, recuerde que en principio el hombre puede internalizar la estructura formal de las tuberías de agua y hacer todos los "disparos de neuroón" en su imaginación.
Dos variaciones en la respuesta del simulador de cerebro son el cerebro de China y el escenario de reemplazo de cerebro.
Cerebro chino
- ¿Y si pedimos a cada ciudadano de China que simulara una neurona, usando el sistema telefónico para simular las conexiones entre axones y dendritos? En esta versión, parece obvio que ningún individuo tendría conocimiento de lo que el cerebro podría estar diciendo. También es obvio que este sistema sería funcionalmente equivalente a un cerebro, por lo que si la conciencia es una función, este sistema sería consciente.
Escenario de reemplazo de cerebro
- En esto, se nos pide imaginar que los ingenieros han inventado un pequeño ordenador que simula la acción de una neurona individual. ¿Qué pasaría si sustituimos una neurona a la vez? Replacing uno claramente no haría nada para cambiar la conciencia consciente. Reemplazar a todos ellos crearía un ordenador digital que simula un cerebro. Si Searle tiene razón, entonces la conciencia consciente debe desaparecer durante el procedimiento (ya sea gradualmente o todo a la vez). Los críticos de Searle argumentan que no habría sentido durante el procedimiento cuando pueda afirmar que la conciencia termina y comienza la simulación sin sentido. (Véase Nave de Teseo para un experimento de pensamiento similar.)
Respuestas del conexionista
- Casi relacionado con la respuesta del simulador del cerebro, esto afirma que una arquitectura de conexión masivamente paralela sería capaz de entender.
Respuesta combinada
- Esta respuesta combina la respuesta robot con la respuesta de simulación cerebral, argumentando que una simulación cerebral conectada al mundo a través de un cuerpo robot podría tener una mente.
Muchas mansiones / esperar hasta la respuesta del próximo año
- Una mejor tecnología en el futuro permitirá que las computadoras entiendan. Searle acepta que esto es posible, pero considera que este punto es irrelevante. Searle acepta que puede haber diseños que harían que una máquina tenga comprensión consciente.
Estos argumentos (y las respuestas del robot o del conocimiento del sentido común) identifican alguna tecnología especial que ayudaría a crear una comprensión consciente en una máquina. Pueden interpretarse de dos maneras: o afirman (1) que esta tecnología es necesaria para la conciencia, la sala china no implementa o no puede implementar esta tecnología y, por lo tanto, la sala china no puede pasar la prueba de Turing o (incluso si lo hizo) no tendría comprensión consciente. O pueden estar afirmando que (2) es más fácil ver que la habitación china tiene una mente si visualizamos esta tecnología como si se usara para crearla.
En el primer caso, donde se requieren funciones como el cuerpo de un robot o una arquitectura conexionista, Searle afirma que se ha abandonado la IA fuerte (como él la entiende). La sala china tiene todos los elementos de una máquina completa de Turing y, por lo tanto, es capaz de simular cualquier cálculo digital. Si la sala de Searle no puede pasar la prueba de Turing, entonces no hay otra tecnología digital que pueda pasar la prueba de Turing. Si la habitación de Searle podría pasar la prueba de Turing, pero aún no tiene una mente, entonces la prueba de Turing no es suficiente para determinar si la habitación tiene una 'mente'.. De cualquier manera, niega una u otra de las posiciones que Searle considera como una 'IA fuerte', lo que demuestra su argumento.
Los argumentos del cerebro en particular niegan una IA fuerte si asumen que no hay una forma más sencilla de describir la mente que crear un programa que sea tan misterioso como lo fue el cerebro. Él escribe: "Pensé que la idea de una IA fuerte era que no necesitamos saber cómo funciona el cerebro para saber cómo funciona la mente". Si la computación no proporciona una explicación de la mente humana, entonces la IA fuerte ha fallado, según Searle.
Otros críticos sostienen que la habitación, tal como la describió Searle, de hecho tiene una mente, sin embargo, argumentan que es difícil de ver: la descripción de Searle es correcta, pero engañosa. Al rediseñar la habitación de manera más realista, esperan que esto sea más obvio. En este caso, estos argumentos se utilizan como apelaciones a la intuición (ver la siguiente sección).
De hecho, la sala se puede rediseñar fácilmente para debilitar nuestras intuiciones. El argumento Blockhead de Ned Block sugiere que el programa podría, en teoría, reescribirse en una simple tabla de búsqueda de reglas de la forma "si el usuario escribe S, responda con P e ir a X". Al menos en principio, cualquier programa se puede reescribir (o "refactorizar") en esta forma, incluso una simulación cerebral. En el escenario del tonto, todo el estado mental está oculto en la letra X, que representa una dirección de memoria, un número asociado con la siguiente regla. Es difícil visualizar que un instante de la experiencia consciente de uno se pueda capturar en un solo número grande, pero esto es exactamente lo que 'IA fuerte' reclamación (es. Por otro lado, una tabla de búsqueda de este tipo sería ridículamente grande (hasta el punto de ser físicamente imposible) y, por lo tanto, los estados podrían ser extremadamente específicos.
Searle argumenta que, independientemente de cómo se escriba el programa o cómo se conecte la máquina al mundo, la mente está siendo simulada por una simple máquina (o máquinas) digital paso a paso. Estas máquinas son siempre como el hombre de la habitación: no entienden nada y no hablan chino. Simplemente están manipulando símbolos sin saber lo que significan. Searle escribe: "Puedo tener cualquier programa formal que desee, pero sigo sin entender nada".
Velocidad y complejidad: apela a la intuición
Los siguientes argumentos (y las interpretaciones intuitivas de los argumentos anteriores) no explican directamente cómo podría existir una mente de habla china en la habitación de Searle, o cómo los símbolos que manipula podrían volverse significativos. Sin embargo, al plantear dudas sobre las intuiciones de Searle, apoyan otras posiciones, como las respuestas del sistema y del robot. Estos argumentos, si se aceptan, impiden que Searle afirme que su conclusión es obvia al socavar las intuiciones que requiere su certeza.
Varios críticos creen que el argumento de Searle se basa completamente en intuiciones. Ned Block escribe que "la fuerza del argumento de Searle depende de las intuiciones de que ciertas entidades no piensan". Daniel Dennett describe el argumento de la habitación china como una 'bomba de intuición' engañosa. y escribe: 'El experimento mental de Searle depende, ilícitamente, de que imagines un caso demasiado simple, un caso irrelevante, y extraigas lo 'obvio'. conclusión de ello."
Algunos de los argumentos anteriores también funcionan como apelaciones a la intuición, especialmente aquellos que pretenden hacer que parezca más plausible que la habitación china contiene una mente, que puede incluir el robot, el conocimiento del sentido común, la simulación del cerebro y las respuestas conexionistas. Varias de las respuestas anteriores también abordan la cuestión específica de la complejidad. La respuesta conexionista enfatiza que un sistema de inteligencia artificial en funcionamiento tendría que ser tan complejo e interconectado como el cerebro humano. La respuesta del conocimiento de sentido común enfatiza que cualquier programa que pasara una prueba de Turing tendría que ser 'un sistema extraordinariamente flexible, sofisticado y de múltiples capas, rebosante de 'conocimiento mundial'. y meta-conocimiento y meta-meta-conocimiento", como explica Daniel Dennett.
Muchas de estas críticas enfatizan la velocidad y la complejidad del cerebro humano, que procesa información a 100 000 millones de operaciones por segundo (según algunas estimaciones). Varios críticos señalan que el hombre en la habitación probablemente tardaría millones de años en responder a una simple pregunta y requeriría "archivadores" de proporciones astronómicas. Esto pone en duda la claridad de la intuición de Searle.
Una versión especialmente vívida de la respuesta de velocidad y complejidad es de Paul y Patricia Churchland. Proponen este experimento mental análogo: "Considere una habitación oscura que contiene a un hombre que sostiene una barra magnética o un objeto cargado". Si el hombre bombea el imán hacia arriba y hacia abajo, entonces, de acuerdo con la teoría de la luminancia artificial (AL) de Maxwell, iniciará un círculo de propagación de ondas electromagnéticas y, por lo tanto, será luminoso. Pero como bien sabemos todos los que hemos jugado con imanes o bolas cargadas, sus fuerzas (o cualquier otra fuerza), incluso cuando se ponen en movimiento, no producen ninguna luminosidad. ¡Es inconcebible que pueda constituir una luminancia real simplemente moviendo fuerzas!" El punto de Churchland es que el problema es que tendría que agitar el imán hacia arriba y hacia abajo unas 450 billones de veces por segundo para poder ver algo.
Stevan Harnad es crítico con las respuestas rápidas y complejas cuando se desvían más allá de abordar nuestras intuiciones. Él escribe: 'Algunos han hecho un culto a la velocidad y el tiempo, sosteniendo que, cuando se acelera a la velocidad correcta, lo computacional puede hacer una transición de fase a lo mental. Debe quedar claro que no se trata de un contraargumento, sino simplemente de una especulación ad hoc (al igual que la opinión de que todo es cuestión de aumentar hasta el grado adecuado de "complejidad". 39;)"
Searle argumenta que sus críticos también se basan en intuiciones, sin embargo, sus oponentes' Las intuiciones no tienen base empírica. Escribe que, para considerar la "respuesta del sistema" como remotamente plausible, una persona debe estar "bajo las garras de una ideología". La respuesta del sistema solo tiene sentido (para Searle) si se asume que cualquier "sistema" puede tener conciencia, simplemente en virtud de ser un sistema con el comportamiento correcto y las partes funcionales. Esta suposición, argumenta, no es sostenible dada nuestra experiencia de la conciencia.
Otras mentes y zombis: sinsentido
Varias respuestas argumentan que el argumento de Searle es irrelevante porque sus suposiciones sobre la mente y la conciencia son erróneas. Searle cree que los seres humanos experimentan directamente su conciencia, intencionalidad y la naturaleza de la mente todos los días, y que esta experiencia de la conciencia no está abierta a cuestionamiento. Él escribe que debemos "presuponer la realidad y la cognoscibilidad de lo mental". Las respuestas a continuación cuestionan si Searle está justificado al usar su propia experiencia de la conciencia para determinar que es más que un procesamiento mecánico de símbolos. En particular, la respuesta de otras mentes argumenta que no podemos usar nuestra experiencia de la conciencia para responder preguntas sobre otras mentes (incluso la mente de una computadora), la respuesta materialista eliminativa argumenta que la propia conciencia personal de Searle no "existe" en el sentido en que Searle piensa que lo hace, y el epifenoma responde a la pregunta de si podemos hacer algún argumento sobre algo como la conciencia que, por definición, no puede ser detectado por ningún experimento.
La "Respuesta de otras mentes" señala que el argumento de Searle es una versión del problema de otras mentes, aplicado a las máquinas. No hay forma de que podamos determinar si la experiencia subjetiva de otras personas es la misma que la nuestra. Solo podemos estudiar su comportamiento (es decir, dándoles nuestra propia prueba de Turing). Los críticos de Searle argumentan que está llevando la sala china a un nivel más alto que el que tendría una persona común.
Nils Nilsson escribe "Si un programa se comporta como si estuviera multiplicando, la mayoría de nosotros diríamos que, de hecho, está multiplicando. Por lo que sé, es posible que Searle solo se esté comportando como si estuviera pensando profundamente en estos asuntos. Pero, aunque no estoy de acuerdo con él, su simulación es bastante buena, así que estoy dispuesto a reconocerle el pensamiento real."
Alan Turing anticipó la línea de argumentación de Searle (a la que llamó 'El argumento de la conciencia') en 1950 y hace que las otras mentes respondan. Señaló que la gente nunca considera el problema de otras mentes cuando se trata entre sí. Escribe que "en lugar de discutir continuamente sobre este punto, lo habitual es tener la convención cortés de que todo el mundo piensa". La prueba de Turing simplemente extiende esta "convención educada" a las máquinas. No tiene la intención de resolver el problema de otras mentes (para máquinas o personas) y no cree que tengamos que hacerlo.
Varios filósofos argumentan que la conciencia, como la describe Searle, no existe. Esta posición a veces se denomina materialismo eliminativo: la opinión de que la conciencia no es un concepto que pueda "disfrutar de la reducción" a una descripción estrictamente mecánica (es decir, material), sino que es un concepto que simplemente será eliminado una vez que se comprenda completamente la forma en que funciona el cerebro material, de la misma manera ya que el concepto de demonio ya ha sido eliminado de la ciencia en lugar de disfrutar de la reducción a una descripción estrictamente mecánica, y que nuestra experiencia de la conciencia es, como la describe Daniel Dennett, una 'ilusión del usuario'. Otras propiedades mentales, como la intencionalidad original (también denominada "significado", "contenido" y "carácter semántico"), también se consideran comúnmente como propiedades especiales relacionadas con las creencias y otras actitudes proposicionales. El materialismo eliminativo sostiene que no existen actitudes proposicionales como creencias y deseos, entre otros estados mentales intencionales que tienen contenido. Si el materialismo eliminativo es la explicación científica correcta de la cognición humana, entonces la suposición del argumento de la habitación china de que "las mentes tienen contenidos mentales (semántica)" debe ser rechazado.
Stuart Russell y Peter Norvig argumentan que si aceptamos la descripción de Searle de la intencionalidad, la conciencia y la mente, nos vemos obligados a aceptar que la conciencia es un epifenómeno: que 'no arroja sombra'; es decir, es indetectable en el mundo exterior. Argumentan que Searle debe estar equivocado acerca de la 'cognoscibilidad de lo mental', y en su creencia de que hay 'propiedades causales' en nuestras neuronas que dan origen a la mente. Señalan que, según la propia descripción de Searle, estas propiedades causales no pueden ser detectadas por nadie fuera de la mente, de lo contrario, la habitación china no podría pasar la prueba de Turing: las personas de afuera podrían decir que no hubo un chino. altavoz en la sala mediante la detección de sus propiedades causales. Como no pueden detectar propiedades causales, no pueden detectar la existencia de lo mental. En resumen, las 'propiedades causales' de Searle y la conciencia misma es indetectable, y cualquier cosa que no pueda ser detectada no existe o no importa.
Mike Alder hace el mismo comentario, al que llama la 'Respuesta de la espada láser llameante de Newton'. Argumenta que todo el argumento es frívolo, porque no es verificacionista: no solo está mal definida la distinción entre simular una mente y tener una mente, sino que es también irrelevante porque no se propusieron, ni se pueden proponer, experimentos para distinguir entre los dos.
Daniel Dennett proporciona esta extensión a los "epifenómenos" argumento. Supongamos que, por alguna mutación, nace un ser humano que no tiene las 'propiedades causales' de Searle. pero sin embargo actúa exactamente como un ser humano. (Este tipo de animal se llama 'zombie' en los experimentos mentales de la filosofía de la mente). Este nuevo animal se reproduciría como cualquier otro ser humano y eventualmente habría más de estos zombis. La selección natural favorecería a los zombis, ya que su diseño es (podríamos suponer) un poco más simple. Eventualmente, los humanos se extinguirían. Entonces, si Searle tiene razón, lo más probable es que los seres humanos (como los vemos hoy) sean en realidad 'zombis', que sin embargo insisten en que son conscientes. Es imposible saber si todos somos zombis o no. Aunque todos fuéramos zombis, seguiríamos creyendo que no lo somos.
Searle no está de acuerdo con este análisis y argumenta que "el estudio de la mente comienza con hechos tales como que los humanos tienen creencias, mientras que los termostatos, los teléfonos y las máquinas de sumar no... lo que queríamos saber es lo que distingue a la mente de los termostatos y los hígados." Él toma como obvio que podemos detectar la presencia de la conciencia y descarta estas respuestas por estar fuera de lugar.
Otras respuestas
Margaret Boden argumentó en su artículo "Escaping from the Chinese Room" que incluso si la persona en la sala no entiende el chino, no significa que no haya comprensión en la sala. La persona en la sala al menos comprende el libro de reglas utilizado para proporcionar respuestas de salida.
En la cultura popular
El argumento de la habitación china es un concepto central en las novelas de Peter Watts Blindsight y (en menor medida) Echopraxia. Greg Egan ilustra el concepto de manera sucinta (y algo horrible) en su cuento de 1990 Learning to Be Me, en su colección Axiomatic.
Es un tema central en el videojuego Zero Escape: Virtue 's Last Reward, y se relaciona con la narrativa del juego.
En la temporada 4 del drama criminal estadounidense Numb3rs hay una breve referencia a la habitación china.
The Chinese Room es también el nombre de un estudio de desarrollo de videojuegos independiente británico más conocido por trabajar en juegos experimentales en primera persona, como Everybody's Gone to the Rapture, o Querida Esther.
En el videojuego de 2016 La prueba de Turing, una IA explica al jugador el experimento mental de la habitación china.
Contenido relacionado
Meta-ética
Jean Piaget
Consecuencialismo