Neurofilosofía

ImprimirCitar

La neurofilosofía o filosofía de la neurociencia es el estudio interdisciplinario de la neurociencia y la filosofía que explora la relevancia de los estudios neurocientíficos para los argumentos tradicionalmente categorizados como filosofía de la mente. La filosofía de la neurociencia intenta clarificar los métodos y resultados neurocientíficos utilizando el rigor conceptual y los métodos de la filosofía de la ciencia.

Problemas específicos

A continuación se muestra una lista de temas específicos importantes para la filosofía de la neurociencia:

  • "La indirecta de los estudios de la mente y el cerebro"
  • "Análisis computacional o representacional del procesamiento cerebral"
  • "Relaciones entre investigaciones psicológicas y neurocientíficas"
  • Modularidad de la mente
  • ¿Qué constituye una explicación adecuada en neurociencia?
  • "Localización de la función cognitiva"

La falta de direccionalidad de los estudios de la mente y el cerebro

Muchos de los métodos y técnicas fundamentales para el descubrimiento neurocientífico se basan en suposiciones que pueden limitar la interpretación de los datos. Los filósofos de la neurociencia han discutido tales suposiciones en el uso de imágenes de resonancia magnética funcional, disociación en neuropsicología cognitiva, registro de una sola unidad y neurociencia computacional. A continuación se presentan descripciones de muchas de las controversias y debates actuales sobre los métodos empleados en neurociencia.

IRMf

Muchos estudios de resonancia magnética funcional se basan en gran medida en la suposición de " localización de la función " (igual que la especialización funcional).

La localización de la función significa que muchas funciones cognitivas pueden localizarse en regiones específicas del cerebro. Un buen ejemplo de localización funcional proviene de los estudios de la corteza motora. Parece que hay diferentes grupos de células en la corteza motora responsables de controlar diferentes grupos de músculos.

Muchos filósofos de la neurociencia critican la resonancia magnética funcional por confiar demasiado en esta suposición. Michael Anderson señala que la IRMf con el método de sustracción pierde mucha información cerebral que es importante para los procesos cognitivos. La resonancia magnética funcional de resta solo muestra las diferencias entre la activación de la tarea y la activación del control, pero muchas de las áreas del cerebro activadas en el control también son obviamente importantes para la tarea.

Rechazos de fMRI

Algunos filósofos rechazan por completo cualquier noción de localización de la función y, por lo tanto, creen que los estudios de fMRI están profundamente equivocados. Estos filósofos sostienen que el procesamiento cerebral actúa de manera holística, que grandes secciones del cerebro están involucradas en el procesamiento de la mayoría de las tareas cognitivas (consulte el holismo en neurología y la sección de modularidad a continuación).Una forma de entender su objeción a la idea de la localización de funciones es el experimento mental del reparador de radios. En este experimento mental, un reparador de radios abre una radio y arranca un tubo. La radio comienza a silbar con fuerza y ​​el reparador de la radio declara que debe haber arrancado el tubo antisilbidos. No hay un tubo antisilbidos en la radio y el reparador de la radio ha confundido la función con el efecto. Esta crítica se dirigió originalmente a la lógica utilizada por los experimentos de lesiones cerebrales neuropsicológicas, pero la crítica sigue siendo aplicable a la neuroimagen. Estas consideraciones son similares a las críticas de Van Orden y Paap a la circularidad en la lógica de neuroimagen.Según ellos, los neuroimágenes asumen que su teoría de parcelación de componentes cognitivos es correcta y que estos componentes se dividen limpiamente en módulos de alimentación hacia adelante. Estas suposiciones son necesarias para justificar su inferencia de localización cerebral. La lógica es circular si el investigador luego usa la aparición de la activación de la región cerebral como prueba de la corrección de sus teorías cognitivas.

Inferencia inversa

Una suposición metodológica problemática diferente dentro de la investigación de fMRI es el uso de la inferencia inversa. Una inferencia inversa es cuando se usa la activación de una región del cerebro para inferir la presencia de un proceso cognitivo dado. Poldrack señala que la fuerza de esta inferencia depende en gran medida de la probabilidad de que una tarea determinada emplee un proceso cognitivo determinado y de la probabilidad de que se produzca ese patrón de activación cerebral dado ese proceso cognitivo. En otras palabras, la fuerza de la inferencia inversa se basa en la selectividad de la tarea utilizada, así como en la selectividad de la activación de la región del cerebro.

Un artículo de 2011 publicado en el New York Times ha sido muy criticado por hacer un mal uso de la inferencia inversa. En el estudio, a los participantes se les mostraron imágenes de sus iPhones y los investigadores midieron la activación de la ínsula. Los investigadores tomaron la activación de la ínsula como evidencia de sentimientos de amor y concluyeron que a las personas les encantaban sus iPhones. Los críticos se apresuraron a señalar que la ínsula no es una parte muy selectiva de la corteza y, por lo tanto, no es susceptible de revertir la inferencia.

El neuropsicólogo Max Coltheart llevó los problemas de la inferencia inversa un paso más allá y desafió a los neuroimágenes a dar un ejemplo en el que las neuroimágenes habían informado la teoría psicológica. otra teoría

Roskies sostiene que la posición ultracognitiva de Coltheart hace que su desafío sea imposible de ganar. Dado que Coltheart sostiene que la implementación de un estado cognitivo no tiene relación con la función de ese estado cognitivo, entonces es imposible encontrar datos de neuroimagen que puedan comentar las teorías psicológicas en la forma en que exige Coltheart. Los datos de neuroimagen siempre quedarán relegados al nivel inferior de implementación y no podrán determinar selectivamente una u otra teoría cognitiva.

En un artículo de 2006, Richard Henson sugiere que la inferencia directa se puede utilizar para inferir la disociación de la función a nivel psicológico. Sugiere que este tipo de inferencias se pueden hacer cuando hay activaciones cruzadas entre dos tipos de tareas en dos regiones del cerebro y no hay cambios en la activación en una región de control mutuo.

Inserción Pura

Una suposición final que vale la pena mencionar es la suposición de inserción pura en fMRI. El supuesto de inserción pura es el supuesto de que un solo proceso cognitivo puede insertarse en otro conjunto de procesos cognitivos sin afectar el funcionamiento del resto. Por ejemplo, si quisiera encontrar el área de comprensión de lectura del cerebro, podría escanear a los participantes mientras se les presentaba una palabra y mientras se les presentaba una no-palabra (p. ej., "Floob"). Si infiere que la diferencia resultante en el patrón cerebral representa las regiones del cerebro involucradas en la comprensión de lectura, ha asumido que estos cambios no reflejan cambios en la dificultad de la tarea o reclutamiento diferencial entre tareas. El término inserción pura fue acuñado por Donders como una crítica a los métodos de tiempo de reacción.

RM de conectividad funcional en estado de reposo

Recientemente, los investigadores han comenzado a utilizar una nueva técnica de imagen funcional llamada IRM de conectividad funcional en estado de reposo. Los cerebros de los sujetos se escanean mientras el sujeto se sienta sin hacer nada en el escáner. Al observar las fluctuaciones naturales en el patrón en negrita mientras el sujeto está en reposo, los investigadores pueden ver qué regiones del cerebro covarían en la activación juntas. Posteriormente, pueden usar los patrones de covarianza para construir mapas de áreas cerebrales funcionalmente vinculadas.

El nombre "conectividad funcional" es algo engañoso ya que los datos solo indican covariación. Aún así, este es un método poderoso para estudiar grandes redes en todo el cerebro.

Cuestiones metodológicas con la conectividad funcional

Hay un par de cuestiones metodológicas importantes que deben abordarse. En primer lugar, hay muchos mapeos cerebrales diferentes posibles que podrían usarse para definir las regiones del cerebro para la red. Los resultados podrían variar significativamente dependiendo de la región del cerebro elegida.

En segundo lugar, ¿qué técnicas matemáticas son las mejores para caracterizar estas regiones cerebrales?

Las regiones del cerebro de interés están algo limitadas por el tamaño de los vóxeles. Rs-fcMRI utiliza vóxeles que tienen solo unos pocos milímetros cúbicos, por lo que las regiones del cerebro deberán definirse a mayor escala. Dos de los métodos estadísticos que se aplican comúnmente al análisis de redes pueden funcionar en la escala espacial de un solo vóxel, pero los métodos de teoría de grafos son extremadamente sensibles a la forma en que se definen los nodos.

Las regiones del cerebro se pueden dividir según su arquitectura celular, según su conectividad o según medidas fisiológicas. Alternativamente, podría adoptar un enfoque "teóricamente neutral" y dividir aleatoriamente la corteza en particiones con un tamaño arbitrario de su elección.

Como se mencionó anteriormente, existen varios enfoques para el análisis de redes una vez que se han definido las regiones de su cerebro. El análisis basado en semillas comienza con una región semilla definida a priori y encuentra todas las regiones que están funcionalmente conectadas a esa región. Wig et al. advierten que la estructura de la red resultante no brindará ninguna información sobre la interconectividad de las regiones identificadas o las relaciones de esas regiones con regiones que no sean la región semilla.

Otro enfoque es utilizar el análisis de componentes independientes (ICA) para crear mapas de componentes espaciotemporales, y los componentes se clasifican en aquellos que contienen información de interés y aquellos que son causados ​​por el ruido. Pelucas et al. una vez más nos advierte que la inferencia de comunidades de regiones cerebrales funcionales es difícil bajo ICA. ICA también tiene el problema de imponer ortogonalidad a los datos.

La teoría de grafos utiliza una matriz para caracterizar la covarianza entre regiones, que luego se transforma en un mapa de red. El problema con el análisis de la teoría de grafos es que el mapeo de redes está fuertemente influenciado por la región del cerebro y la conectividad a priori (nodos y bordes). Esto coloca al investigador en riesgo de seleccionar regiones y conexiones de acuerdo con sus propias teorías preconcebidas. Sin embargo, el análisis de la teoría de grafos todavía se considera extremadamente valioso, ya que es el único método que brinda relaciones de pares entre nodos.

Si bien ICA puede tener la ventaja de ser un método bastante basado en principios, parece que el uso de ambos métodos será importante para comprender mejor la conectividad de la red del cerebro. Mumford et al. esperaba evitar estos problemas y utilizar un enfoque de principios que pudiera determinar las relaciones por pares utilizando una técnica estadística adoptada del análisis de las redes de coexpresión de genes.

Disociación en neuropsicología cognitiva

La Neuropsicología Cognitiva estudia a los pacientes con daño cerebral y utiliza los patrones de deterioro selectivo para hacer inferencias sobre la estructura cognitiva subyacente. La disociación entre funciones cognitivas se toma como evidencia de que estas funciones son independientes. Los teóricos han identificado varios supuestos clave que se necesitan para justificar estas inferencias: 1) Modularidad funcional: la mente está organizada en módulos cognitivos funcionalmente separados. 2). Modularidad anatómica- el cerebro está organizado en módulos funcionalmente separados. Esta suposición es muy similar a la suposición de localización funcional. Estos supuestos difieren del supuesto de la modularidad funcional, porque es posible tener módulos cognitivos separables que se implementen mediante patrones difusos de activación cerebral. 3) Universalidad: la organización básica de la modularidad funcional y anatómica es la misma para todos los humanos normales. Esta suposición es necesaria si vamos a hacer alguna afirmación sobre la organización funcional basada en la disociación que se extrapola de la instancia de un estudio de caso a la población. 4) Transparencia / Sustractividad- la mente no sufre una reorganización sustancial después de un daño cerebral. Es posible eliminar un módulo funcional sin alterar significativamente la estructura general del sistema. Esta suposición es necesaria para justificar el uso de pacientes con daño cerebral para hacer inferencias sobre la arquitectura cognitiva de personas sanas.

Hay tres tipos principales de evidencia en neuropsicología cognitiva: asociación, disociación simple y disociación doble. Las inferencias de asociación observan que es probable que ocurran ciertos déficits. Por ejemplo, hay muchos casos que tienen deficiencias en la comprensión de palabras tanto abstractas como concretas después de un daño cerebral. Los estudios de asociación se consideran la forma de evidencia más débil, porque los resultados podrían explicarse por el daño a las regiones cerebrales vecinas y no por el daño a un solo sistema cognitivo.Las inferencias de disociación única observan que una facultad cognitiva puede salvarse mientras que otra puede dañarse después de un daño cerebral. Este patrón indica que a) las dos tareas emplean diferentes sistemas cognitivos b) las dos tareas ocupan el mismo sistema y la tarea dañada está aguas abajo de la tarea ahorrada o c) que la tarea ahorrada requiere menos recursos cognitivos que la tarea dañada. El "estándar de oro" para la neuropsicología cognitiva es la doble disociación. La doble disociación ocurre cuando el daño cerebral afecta la tarea A en el Paciente 1 pero evita la tarea B y el daño cerebral evita la tarea A en el Paciente 2 pero daña la tarea B. Se supone que una instancia de doble disociación es prueba suficiente para inferir módulos cognitivos separados en el desempeño de las tareas.

Muchos teóricos critican la neuropsicología cognitiva por su dependencia de las dobles disociaciones. En un estudio ampliamente citado, Joula y Plunkett utilizaron un sistema conexionista modelo para demostrar que los patrones de comportamiento de doble disociación pueden ocurrir a través de lesiones aleatorias de un solo módulo. Crearon un sistema conexionista multicapa entrenado para pronunciar palabras. Simularon repetidamente la destrucción aleatoria de nodos y conexiones en el sistema y trazaron el rendimiento resultante en un diagrama de dispersión. Los resultados mostraron deficiencias en la pronunciación de sustantivos irregulares con pronunciación de verbos regulares respetada en algunos casos y deficiencias en la pronunciación de verbos regulares con pronunciación de sustantivos irregulares respetada. Estos resultados sugieren que una sola instancia de doble disociación es insuficiente para justificar la inferencia a múltiples sistemas.

Charter ofrece un caso teórico en el que la lógica de la doble disociación puede ser defectuosa. Si dos tareas, la tarea A y la tarea B, usan casi todos los mismos sistemas pero difieren en un módulo mutuamente excluyente, entonces la lesión selectiva de esos dos módulos parecería indicar que A y B usan sistemas diferentes. Charter usa el ejemplo de alguien que es alérgico a los cacahuates pero no a los camarones y alguien que es alérgico a los camarones y no a los cacahuates. Argumenta que la lógica de la doble disociación lleva a inferir que los cacahuates y los camarones son digeridos por diferentes sistemas. John Dunn ofrece otra objeción a la doble disociación.Afirma que es fácil demostrar la existencia de un verdadero déficit pero difícil demostrar que otra función está realmente a salvo. A medida que se acumulen más datos, el valor de sus resultados convergerá en un tamaño de efecto de cero, pero siempre habrá un valor positivo mayor que cero que tenga más poder estadístico que cero. Por lo tanto, es imposible estar completamente seguro de que realmente existe una doble disociación determinada.

En una nota diferente, Alphonso Caramazza ha dado una razón de principio para rechazar el uso de estudios grupales en neuropsicología cognitiva. Los estudios de pacientes con daño cerebral pueden tomar la forma de un estudio de caso único, en el que el comportamiento de un individuo se caracteriza y se usa como evidencia, o estudios grupales, en los que se caracteriza y promedia el comportamiento de un grupo de pacientes que muestran el mismo déficit. Para justificar la agrupación de un conjunto de datos de pacientes, el investigador debe saber que el grupo es homogéneo, que su comportamiento es equivalente en todas las formas teóricamente significativas. En pacientes con daño cerebral, esto solo se puede lograr a posteriori.analizando los patrones de comportamiento de todos los individuos del grupo. Así, según Caramazza, cualquier estudio de grupo es el equivalente de un conjunto de estudios de casos individuales o es teóricamente injustificado. Newcombe y Marshall señalaron que hay algunos casos (utilizan el síndrome de Geschwind como ejemplo) y que los estudios grupales aún podrían servir como una heurística útil en los estudios neuropsicológicos cognitivos.

Grabaciones de una sola unidad

Se entiende comúnmente en neurociencia que la información está codificada en el cerebro por los patrones de activación de las neuronas. Muchas de las cuestiones filosóficas que rodean al código neuronal están relacionadas con cuestiones sobre representación y computación que se analizan a continuación. Hay otras cuestiones metodológicas, como si las neuronas representan información a través de una tasa de disparo promedio o si hay información representada por la dinámica temporal. Hay preguntas similares sobre si las neuronas representan información individualmente o como una población.

Neurociencia Computacional

Muchas de las controversias filosóficas que rodean a la neurociencia computacional involucran el papel de la simulación y el modelado como explicación. Carl Craver ha sido especialmente elocuente sobre tales interpretaciones. Jones y Love escribieron un artículo especialmente crítico dirigido al modelado de comportamiento bayesiano que no restringía los parámetros de modelado por consideraciones psicológicas o neurológicas. Eric Winsberg ha escrito sobre el papel del modelado y la simulación por computadora en la ciencia en general, pero su caracterización es aplicable a la neurociencia computacional.

Computación y representación en el cerebro.

La teoría computacional de la mente se ha generalizado en la neurociencia desde la revolución cognitiva de la década de 1960. Esta sección comenzará con una descripción histórica de la neurociencia computacional y luego discutirá varias teorías y controversias en competencia dentro del campo.

Panorama historico

La neurociencia computacional comenzó en las décadas de 1930 y 1940 con dos grupos de investigadores. El primer grupo estaba formado por Alan Turing, Alonzo Church y John von Neumann, que trabajaban para desarrollar máquinas informáticas y los fundamentos matemáticos de la informática. Este trabajo culminó con el desarrollo teórico de las llamadas máquinas de Turing y la tesis de Church-Turing, que formalizaron las matemáticas que subyacen a la teoría de la computabilidad. El segundo grupo estaba formado por Warren McCulloch y Walter Pitts, que trabajaban para desarrollar las primeras redes neuronales artificiales. McCulloch y Pitts fueron los primeros en plantear la hipótesis de que las neuronas podrían usarse para implementar un cálculo lógico que podría explicar la cognición. Usaron sus neuronas de juguete para desarrollar puertas lógicas que pudieran hacer cálculos.Sin embargo, estos desarrollos no lograron afianzarse en las ciencias psicológicas y la neurociencia hasta mediados de los años cincuenta y sesenta. El conductismo había dominado la psicología hasta la década de 1950, cuando los nuevos desarrollos en una variedad de campos anularon la teoría conductista en favor de una teoría cognitiva. Desde el comienzo de la revolución cognitiva, la teoría computacional desempeñó un papel importante en los desarrollos teóricos. El trabajo de Minsky y McCarthy en inteligencia artificial, las simulaciones por computadora de Newell y Simon y la importación de la teoría de la información a la lingüística por parte de Noam Chomsky dependían en gran medida de suposiciones computacionales.A principios de la década de 1960, Hilary Putnam defendía el funcionalismo de las máquinas en el que el cerebro ejemplificaba las máquinas de Turing. En este punto, las teorías computacionales estaban firmemente arraigadas en la psicología y la neurociencia. A mediados de la década de 1980, un grupo de investigadores comenzó a utilizar redes neuronales analógicas de avance de múltiples capas que podían entrenarse para realizar una variedad de tareas. El trabajo de investigadores como Sejnowski, Rosenberg, Rumelhart y McClelland fue etiquetado como conexionismo, y la disciplina ha continuado desde entonces.La mentalidad conexionista fue adoptada por Paul y Patricia Churchland, quienes luego desarrollaron su "semántica del espacio de estado" utilizando conceptos de la teoría conexionista. El conexionismo también fue condenado por investigadores como Fodor, Pylyshyn y Pinker. La tensión entre los conexionistas y los clasicistas todavía se debate hoy.

Representación

Una de las razones por las que las teorías computacionales son atractivas es que las computadoras tienen la capacidad de manipular representaciones para generar resultados significativos. Las computadoras digitales usan cadenas de 1 y 0 para representar el contenido, como esta página de Wikipedia. La mayoría de los científicos cognitivos postulan que nuestros cerebros utilizan algún tipo de código de representación que se transmite en los patrones de activación de las neuronas. Las cuentas computacionales parecen ofrecer una manera fácil de explicar cómo nuestros cerebros manejan y manipulan las percepciones, pensamientos, sentimientos y acciones que conforman nuestra experiencia cotidiana.Si bien la mayoría de los teóricos sostienen que la representación es una parte importante de la cognición, la naturaleza exacta de esa representación es muy debatida. Los dos argumentos principales provienen de los defensores de las representaciones simbólicas y de los defensores de las representaciones asociacionistas.

Fodor y Pinker han defendido de manera célebre los relatos representativos simbólicos. Representación simbólica significa que los objetos están representados por símbolos y son procesados ​​a través de manipulaciones regidas por reglas que son sensación para la estructura constitutiva. El hecho de que la representación simbólica sea sensible a la estructura de las representaciones es una parte importante de su atractivo. Fodor propuso la hipótesis del lenguaje del pensamiento en la que las representaciones mentales se manipulan de la misma manera que el lenguaje se manipula sintácticamente para producir pensamiento. Según Fodor, la hipótesis del lenguaje del pensamiento explica la sistematicidad y la productividad que se observan tanto en el lenguaje como en el pensamiento.

Las representaciones asociativistas se describen con mayor frecuencia con sistemas conexionistas. En los sistemas conexionistas, las representaciones se distribuyen en todos los nodos y pesos de conexión del sistema y, por lo tanto, se dice que son subsimbólicas.Vale la pena señalar que un sistema conexionista es capaz de implementar un sistema simbólico. Hay varios aspectos importantes de las redes neuronales que sugieren que el procesamiento paralelo distribuido proporciona una mejor base para las funciones cognitivas que el procesamiento simbólico. En primer lugar, la inspiración para estos sistemas provino del propio cerebro, lo que indica una relevancia biológica. En segundo lugar, estos sistemas son capaces de almacenar contenido en memoria direccionable, lo que es mucho más eficiente que las búsquedas de memoria en sistemas simbólicos. En tercer lugar, las redes neuronales son resistentes al daño, mientras que incluso un daño menor puede desactivar un sistema simbólico. Por último, las restricciones suaves y la generalización al procesar nuevos estímulos permiten que las redes se comporten de manera más flexible que los sistemas simbólicos.

Los Churchlands describieron la representación en un sistema conexionista en términos de espacio estatal. El contenido del sistema está representado por un vector n-dimensional donde n= el número de nodos en el sistema y la dirección del vector está determinada por el patrón de activación de los nodos. Fodor rechazó este método de representación sobre la base de que dos sistemas conexionistas diferentes no podían tener el mismo contenido. Un análisis matemático adicional del sistema conexionista alivió que los sistemas conexionistas que podrían contener contenido similar podrían mapearse gráficamente para revelar grupos de nodos que eran importantes para representar el contenido.Desafortunadamente para Churchlands, la comparación de vectores de espacio de estado no era adecuada para este tipo de análisis. Recientemente, Nicholas Shea ha ofrecido su propia explicación del contenido dentro de los sistemas conexionistas que emplea los conceptos desarrollados a través del análisis de conglomerados.

Vistas sobre computación

El computacionalismo, una especie de filosofía funcionalista de la mente, está comprometido con la posición de que el cerebro es una especie de computadora, pero ¿qué significa ser una computadora? La definición de computación debe ser lo suficientemente estrecha como para limitar el número de objetos que pueden llamarse computadoras. Por ejemplo, puede parecer problemático tener una definición lo suficientemente amplia como para permitir que los estómagos y los sistemas meteorológicos participen en los cálculos. Sin embargo, también es necesario tener una definición lo suficientemente amplia como para permitir que se calculen todas las variedades de sistemas computacionales. Por ejemplo, si la definición de computación se limita a la manipulación sintáctica de representaciones simbólicas, entonces la mayoría de los sistemas conexionistas no podrían computar.Rick Grush distingue entre la computación como herramienta de simulación y la computación como postura teórica en la neurociencia cognitiva. Para el primero, cualquier cosa que pueda modelarse computacionalmente cuenta como computación. En este último caso, el cerebro es una función informática que es distinta de sistemas como los sistemas dinámicos de fluidos y las órbitas planetarias en este sentido. El desafío para cualquier definición computacional es mantener los dos sentidos distintos.

Alternativamente, algunos teóricos optan por aceptar una definición estrecha o amplia por razones teóricas. El pancomputacionalismo es la posición de que se puede decir que todo computa. Este punto de vista ha sido criticado por Piccinini sobre la base de que tal definición hace que el cálculo sea trivial hasta el punto en que se le roba su valor explicativo.

La definición más simple de computación es que se puede decir que un sistema está computando cuando una descripción computacional se puede mapear en la descripción física. Esta es una definición extremadamente amplia de computación y termina respaldando una forma de pancomputacionalismo. Putnam y Searle, a quienes a menudo se les atribuye este punto de vista, sostienen que el cálculo está relacionado con el observador. En otras palabras, si desea ver un sistema como computación, entonces puede decir que es computación. Piccinini señala que, desde esta perspectiva, no sólo todo es computación, sino que todo es computación en un número indefinido de formas. Dado que es posible aplicar un número indefinido de descripciones computacionales a un sistema dado, el sistema termina computando un número indefinido de tareas.

La visión más común de la computación es la cuenta semántica de la computación. Los enfoques semánticos utilizan una noción de computación similar a la de los enfoques de mapeo con la restricción adicional de que el sistema debe manipular representaciones con contenido semántico. Obsérvese de la discusión anterior sobre la representación que tanto los sistemas conexionistas de Churchlands como los sistemas simbólicos de Fodor utilizan esta noción de computación. De hecho, Fodor es famoso por decir "No hay computación sin representación". Los estados computacionales pueden ser individualizados por una apelación externalizada al contenido en un sentido amplio (es decir, el objeto en el mundo externo) o por una apelación internalista al contenido en sentido estricto (contenido definido por las propiedades del sistema).Para fijar el contenido de la representación, muchas veces es necesario apelar a la información contenida en el sistema. Grush ofrece una crítica de la cuenta semántica.Señala que apelan al contenido informacional de un sistema para demostrar la representación por parte del sistema. Utiliza su taza de café como ejemplo de un sistema que contiene información, como la conductancia térmica de la taza de café y el tiempo transcurrido desde que se sirvió el café, pero es demasiado mundano para calcularlo en un sentido sólido. Los computacionalistas semánticos intentan escapar de esta crítica apelando a la historia evolutiva del sistema. Esto se llama la cuenta biosemántica. Grush usa el ejemplo de sus pies, diciendo que según este relato, sus pies no estarían calculando la cantidad de comida que había comido porque su estructura no había sido seleccionada evolutivamente para ese propósito. Grush responde al llamado a la biosemántica con un experimento mental. Imagina que un rayo cae sobre un pantano en algún lugar y crea una copia exacta de ti. De acuerdo con la cuenta biosemántica, este pantano-tú sería incapaz de computación porque no hay una historia evolutiva con la que justificar la asignación de contenido representacional. La idea de que para dos estructuras físicamente idénticas se puede decir que una está computando mientras que la otra no debería ser perturbadora para cualquier fisicalista.

También hay explicaciones sintácticas o estructurales para la computación. Estas cuentas no necesitan depender de la representación. Sin embargo, es posible utilizar tanto la estructura como la representación como restricciones en el mapeo computacional. Shagrir identifica a varios filósofos de la neurociencia que defienden las explicaciones estructurales. Según él, Fodor y Pylyshyn requieren algún tipo de restricción sintáctica en su teoría de la computación. Esto es consistente con su rechazo de los sistemas conexionistas por motivos de sistematicidad. También identifica a Piccinini como un estructuralista citando su artículo de 2008: "la generación de cadenas de dígitos de salida a partir de cadenas de dígitos de entrada de acuerdo con una regla general que depende de las propiedades de las cadenas y (posiblemente) del estado interno del sistema ".Aunque Piccinini, sin duda, adopta puntos de vista estructuralistas en ese artículo, afirma que las explicaciones mecanicistas de la computación evitan la referencia a la sintaxis o la representación. Es posible que Piccinini piense que hay diferencias entre las explicaciones sintácticas y estructurales de la computación que Shagrir no respeta.

En su visión de la computación mecanicista, Piccinini afirma que los mecanismos funcionales procesan los vehículos de una manera sensible a las diferencias entre las diferentes partes del vehículo y, por lo tanto, se puede decir que computan genéricamente. Afirma que estos vehículos son independientes del medio, lo que significa que la función de mapeo será la misma independientemente de la implementación física. Los sistemas informáticos se pueden diferenciar en función de la estructura del vehículo y la perspectiva mecanicista puede dar cuenta de los errores de cálculo.

La teoría de los sistemas dinámicos se presenta como una alternativa a las explicaciones computacionales de la cognición. Estas teorías son incondicionalmente anti-computacionales y anti-representacionales. Los sistemas dinámicos se definen como sistemas que cambian con el tiempo de acuerdo con una ecuación matemática. La teoría de los sistemas dinámicos afirma que la cognición humana es un modelo dinámico en el mismo sentido que los computacionalistas afirman que la mente humana es una computadora. Una objeción común dirigida a la teoría de sistemas dinámicos es que los sistemas dinámicos son computables y, por lo tanto, un subconjunto del computacionalismo. Van Gelder se apresura a señalar que hay una gran diferencia entre ser una computadora y ser computable. Hacer que la definición de computación sea lo suficientemente amplia como para incorporar modelos dinámicos abarcaría efectivamente el pancomputacionalismo.

Lista de neurofilósofos

  • kathleen akins
  • Nayef Al Rodhan
  • Ann-Sophie Barwich
  • Guillermo Bechtel
  • patricia iglesia
  • Paul Churchlandia
  • andy clark
  • francisco crick
  • Torsten de Winkel
  • Daniel Dennett
  • sam harris
  • Guillermo Hirstein
  • Cristo de Koch
  • Humberto Maturana
  • Tomas Metzinger
  • Jesse Prinz
  • heidi ravven
  • Francisco Varela

Contenido relacionado

No sirviendo

Non serviam en latín significa "No serviré". La frase se atribuye tradicionalmente a Satanás, quien se cree que pronunció estas palabras como una...

Michael Behe

Michael Joseph Behe es un bioquímico estadounidense y defensor del principio pseudocientífico del diseño inteligente que afirma que algunas estructuras...

Barco de tontos

Más resultados...
Tamaño del texto:
Copiar