Arquitectura cognitiva
Una arquitectura cognitiva se refiere tanto a una teoría sobre la estructura de la mente humana como a una instancia computacional de dicha teoría utilizada en los campos de la inteligencia artificial (IA) y la ciencia cognitiva computacional. Los modelos formalizados se pueden utilizar para perfeccionar aún más una teoría integral de la cognición y como un programa útil de inteligencia artificial. Las arquitecturas cognitivas exitosas incluyen ACT-R (Control Adaptativo del Pensamiento – Racional) y SOAR. La investigación sobre arquitecturas cognitivas como instanciación de software de teorías cognitivas fue iniciada por Allen Newell en 1990.
El Instituto de Tecnologías Creativas define la arquitectura cognitiva como: "hipótesis sobre las estructuras fijas que proporcionan una mente, ya sea en sistemas naturales o artificiales, y cómo funcionan juntas, en conjunto con el conocimiento y las habilidades incorporadas. dentro de la arquitectura, para producir un comportamiento inteligente en una diversidad de entornos complejos."
Historia
Herbert A. Simon, uno de los fundadores del campo de la inteligencia artificial, afirmó que la tesis de 1960 de su alumno Ed Feigenbaum, EPAM, proporcionaba una posible "arquitectura para la cognición" porque incluía algunos compromisos sobre cómo funciona más de un aspecto fundamental de la mente humana (en el caso de EPAM, la memoria humana y el aprendizaje humano).
John R. Anderson inició la investigación sobre la memoria humana a principios de la década de 1970 y su tesis de 1973 con Gordon H. Bower proporcionó una teoría de la memoria asociativa humana. Incluyó más aspectos de su investigación sobre la memoria a largo plazo y los procesos de pensamiento en esta investigación y finalmente diseñó una arquitectura cognitiva que finalmente llamó ACT. Él y sus estudiantes fueron influenciados por el uso que Allen Newell hizo del término "arquitectura cognitiva". El laboratorio de Anderson utilizó el término para referirse a la teoría ACT plasmada en una colección de artículos y diseños (no había una implementación completa de ACT en ese momento).
En 1983, John R. Anderson publicó el trabajo fundamental en esta área, titulado La arquitectura de la cognición. Se puede distinguir entre la teoría de la cognición y la implementación de la teoría. La teoría de la cognición esbozó la estructura de las distintas partes de la mente y se comprometió con el uso de reglas, redes asociativas y otros aspectos. La arquitectura cognitiva implementa la teoría en las computadoras. El software utilizado para implementar las arquitecturas cognitivas también fueron "arquitecturas cognitivas". Por tanto, una arquitectura cognitiva también puede referirse a un modelo para agentes inteligentes. Propone procesos computacionales (artificiales) que actúan como ciertos sistemas cognitivos, la mayoría de las veces, como una persona, o actúan de manera inteligente bajo alguna definición. Las arquitecturas cognitivas forman un subconjunto de arquitecturas de agentes generales. El término 'arquitectura' Implica un enfoque que intenta modelar no sólo el comportamiento, sino también las propiedades estructurales del sistema modelado.
Distinciones
Las arquitecturas cognitivas pueden ser simbólicas, conexionistas o híbridas. Algunas arquitecturas o modelos cognitivos se basan en un conjunto de reglas genéricas, como, por ejemplo, el lenguaje de procesamiento de información (por ejemplo, Soar, basado en la teoría unificada de la cognición, o de manera similar, ACT-R). Muchas de estas arquitecturas se basan en la analogía de que la mente es como una computadora. Por el contrario, el procesamiento subsimbólico no especifica tales reglas a priori y se basa en propiedades emergentes de las unidades de procesamiento (por ejemplo, nodos). Las arquitecturas híbridas combinan ambos tipos de procesamiento (como CLARION). Una distinción adicional es si la arquitectura está centralizada con un correlato neuronal de un procesador en su núcleo o descentralizada (distribuida). El tipo descentralizado se ha vuelto popular bajo el nombre de procesamiento distribuido paralelo a mediados de la década de 1980 y conexionismo, siendo un excelente ejemplo las redes neuronales. Otra cuestión de diseño es, además, la elección entre una estructura holística y atomística o (más concreta) modular.
En la IA tradicional, la inteligencia a menudo se programa desde arriba: el programador es el creador, crea algo y lo impregna de su inteligencia, aunque muchos sistemas de IA tradicionales también fueron diseñados para aprender (por ejemplo, mejorar sus juegos o resolver problemas). competencia resolutiva). La informática de inspiración biológica, por otro lado, adopta a veces un enfoque más descentralizado y de abajo hacia arriba; Las técnicas bioinspiradas a menudo implican el método de especificar un conjunto de reglas genéricas simples o un conjunto de nodos simples, de cuya interacción surge el comportamiento general. Se espera ir acumulando complejidad hasta que el resultado final sea algo marcadamente complejo (ver sistemas complejos). Sin embargo, también se puede argumentar que los sistemas diseñados de arriba hacia abajo sobre la base de observaciones de lo que los humanos y otros animales pueden hacer, en lugar de observaciones de mecanismos cerebrales, también están inspirados biológicamente, aunque de manera diferente.
Ejemplos notables
Algunas arquitecturas cognitivas conocidas, en orden alfabético:
| Nombre | Descripción |
|---|---|
| 4CAPS | desarrollado en la Universidad Carnegie Mellon por Marcel A. Just y Sashank Varma. |
| 4D-RCS Referencia Modelo Arquitectura | desarrollado por James Albus en NIST es una arquitectura modelo de referencia que proporciona una base teórica para el diseño, la ingeniería, la integración de software de sistemas inteligentes para vehículos terrestres no tripulados. |
| ACT-R | desarrollado en la Universidad Carnegie Mellon bajo John R. Anderson. |
| ASMO | desarrollado por Rony Novianto, Mary-Anne Williams y Benjamin Johnston en la Universidad de Tecnología Sydney. Esta arquitectura cognitiva se basa en la idea de que las acciones / comportamientos compiten por los recursos de los agentes. |
| CHREST | desarrollado bajo Fernand Gobet en Brunel University y Peter C. Lane en la Universidad de Hertfordshire. |
| CLARION | la arquitectura cognitiva, desarrollada bajo Ron Sun en Rensselaer Polytechnic Institute y University of Missouri. |
| CMAC | El Controlador de Articulación Modelo Cerebellar (CMAC) es un tipo de red neuronal basada en un modelo del cerebelo mamífero. Es un tipo de memoria asociativa. El CMAC fue propuesto por primera vez como modelo de función para controladores robóticos por James Albus en 1975 y se ha utilizado ampliamente en el aprendizaje de refuerzo y también en la clasificación automatizada en la comunidad de aprendizaje automático. |
| Copiado | por Douglas Hofstadter y Melanie Mitchell en la Universidad de Indiana. |
| DAYDREAMER | desarrollado por Erik Mueller en la Universidad de California en Los Ángeles bajo Michael G. Dyer |
| DUAL | desarrollado en la Nueva Universidad de Bulgaria bajo Boicho Kokinov. |
| FORR | desarrollada por Susan L. Epstein en la Universidad Ciudad de Nueva York. |
| Framsticks | a connectionist distribuyó arquitectura neuronal para criaturas o robots simulados, donde se pueden diseñar y evolucionar módulos de redes neuronales compuestos de neuronas heterogéneas (incluyendo receptores y efectúres). |
| Google DeepMind | La compañía ha creado una red neuronal que aprende a jugar videojuegos de una manera similar a los humanos y una red neuronal que puede ser capaz de acceder a una memoria externa como una máquina convencional de Turing, resultando en una computadora que parece imitar posiblemente la memoria a corto plazo del cerebro humano. El algoritmo subyacente se basa en una combinación de Q-learning con multicapa red neuronural recurrente. (También vea una visión general de Jürgen Schmidhuber sobre el trabajo relacionado anteriormente en el aprendizaje profundo.) |
| Memoria holográfica asociativa | Esta arquitectura es parte de la familia de recuerdos asociativos basados en correlación, donde la información se mapea en la orientación de fase de números complejos en un plano Riemann. Fue inspirado por el modelo cerebral holonomico de Karl H. Pribram. Se ha demostrado que las Holografías son eficaces para tareas de memoria asociativas, generalización y reconocimiento de patrones con atención cambiante. |
| Memoria temporal jerárquica | Esta arquitectura es un modelo de aprendizaje automático en línea desarrollado por Jeff Hawkins y Dileep George de Numenta, Inc. que modela algunas de las propiedades estructurales y algorítmicas del neocortex. HTM es un modelo biomimético basado en la teoría de la predicción de memoria de la función cerebral descrita por Jeff Hawkins en su libro On Intelligence. HTM es un método para descubrir e inferir las causas de alto nivel de los patrones de entrada observados y las secuencias, construyendo así un modelo cada vez más complejo del mundo. |
| CoJACK | Una extensión de inspiración ACT-R al sistema multiagente JACK que añade una arquitectura cognitiva a los agentes para obtener comportamientos más realistas (como humanos) en entornos virtuales. |
| IDA y LIDA | Aplicación del espacio de trabajo mundial Teoría, desarrollada bajo Stan Franklin en la Universidad de Memphis. |
| MANIC (Arquitectura Cognitiva) | Michael S. Gashler, Universidad de Arkansas. |
| PRS | 'Procedural Reasoning System', desarrollado por Michael Georgeff y Amy Lansky en SRI International. |
| Psi-Teoría | desarrollado bajo Dietrich Dörner en la Universidad Otto-Friedrich en Bamberg, Alemania. |
| Spaun (Semántica Pointer Architecture Unified Network) | por Chris Eliasmith en el Centro de Neurociencia Teórica de la Universidad de Waterloo – Spaun es una red de 2,500,000 neuronas artificiales que utilizan grupos de estas neuronas para completar tareas cognitivas a través de la coordinación flexibile. Los componentes del modelo se comunican usando neuronas arañadoras que implementan representaciones neuronales llamadas "punteros semánticos" usando diversos patrones de disparo. Los punteros semánticos se pueden entender como elementos de un espacio de vectores neuronales comprimido. |
| Soar | desarrollado bajo Allen Newell y John Laird en la Universidad Carnegie Mellon y la Universidad de Michigan. |
| Society of Mind | propuesto por Marvin Minsky. |
| La máquina de emoción | propuesto por Marvin Minsky. |
| Memoria distribuida | fue propuesto por Pentti Kanerva en NASA Ames Research Center como una arquitectura realizable que podría almacenar grandes patrones y recuperarlos basado en partidos parciales con patrones que representan entradas sensoriales actuales. |
| Arquitecturas de subsumo | desarrollado por Rodney Brooks (aunque podría argumentarse si son cognitivo cognitivo cognitivo). |