Teoría hebbiana
teoría hebbiana es una teoría neuropsicológica que afirma que un aumento en la eficacia sináptica surge de la estimulación repetida y persistente de una célula postsináptica por parte de una célula presináptica. Es un intento de explicar la plasticidad sináptica, la adaptación de las neuronas cerebrales durante el proceso de aprendizaje. Fue introducido por Donald Hebb en su libro de 1949 La organización del comportamiento. La teoría también se llama regla de Hebb, postulado de Hebb y teoría del ensamblaje celular. Hebb lo expresa de la siguiente manera:
Supongamos que la persistencia o repetición de una actividad reverberadora (o "trace") tiende a inducir cambios celulares duraderos que añaden a su estabilidad.... Cuando un eje de celda A está lo suficientemente cerca para excitar una célula B y en repetidas o persistentemente participa en el fuego, algún proceso de crecimiento o cambio metabólico tiene lugar en una o ambas células tal que A’s eficiencia, como una de las células que disparan B, se aumenta.
La teoría a menudo se resume como "Las células que se activan juntas se conectan entre sí". Sin embargo, Hebb enfatizó que la célula A necesita "participar en el disparo" celda B, y dicha causalidad sólo puede ocurrir si la celda A se activa justo antes, no al mismo tiempo, que la celda B. Este aspecto de la causalidad en el trabajo de Hebb presagió lo que ahora se sabe sobre la plasticidad dependiente del tiempo de pico, que requiere precedencia temporal.
La teoría intenta explicar el aprendizaje hebbiano o asociativo, en el que la activación simultánea de células conduce a aumentos pronunciados en la fuerza sináptica entre esas células. También proporciona una base biológica para métodos de aprendizaje sin errores para la educación y la rehabilitación de la memoria. En el estudio de las redes neuronales en la función cognitiva, a menudo se las considera la base neuronal del aprendizaje no supervisado.
Engramas hebbianos y teoría del ensamblaje celular
Did you mean:Hebbian theory concerns how neurons might connect themselves to become engrams. Hebb 's theories on the form and function of cell assemblies can be understood from the following:
La idea general es antigua, que cualquier dos células o sistemas de células que estén activas repetidamente al mismo tiempo tendran a ser 'asociadas' para que la actividad en uno facilite la actividad en el otro.
Hebb también escribió:
Cuando una célula ayuda repetidamente a disparar a otro, el eje de la primera célula desarrolla pomos sinápticos (o los agranda si ya existen) en contacto con el soma de la segunda célula.
[D. Alan Allport] plantea ideas adicionales sobre la teoría del ensamblaje celular y su papel en la formación de engramas, en la línea del concepto de autoasociación, descrito a continuación:
Si las entradas a un sistema hacen que el mismo patrón de actividad ocurra repetidamente, el conjunto de elementos activos que constituyen ese patrón se interrelacionará cada vez más fuertemente. Es decir, cada elemento tenderá a encender cada otro elemento y (con pesos negativos) para apagar los elementos que no forman parte del patrón. Para decirlo de otra manera, el patrón como un todo se convertirá en 'auto-asociado'. Podemos llamar a un patrón aprendido (auto-asociado) un engrama.
El trabajo en el laboratorio de Eric Kandel ha proporcionado pruebas de la implicación de los mecanismos de aprendizaje de Hebb en las sinapsis del gasterópodo marino Aplysia californica. Los experimentos sobre los mecanismos de modificación de las sinapsis de Hebb en las sinapsis del sistema nervioso central de los vertebrados son mucho más difíciles de controlar que los experimentos con las sinapsis relativamente simples del sistema nervioso periférico estudiadas en los invertebrados marinos. Gran parte del trabajo sobre cambios sinápticos duraderos entre neuronas de vertebrados (como la potenciación a largo plazo) implica el uso de estimulación experimental no fisiológica de las células cerebrales. Sin embargo, algunos de los mecanismos de modificación de sinapsis fisiológicamente relevantes que se han estudiado en cerebros de vertebrados parecen ser ejemplos de procesos hebbianos. Uno de esos estudios revisa los resultados de experimentos que indican que se pueden inducir cambios duraderos en las fortalezas sinápticas mediante una actividad sináptica fisiológicamente relevante que actúa a través de mecanismos tanto hebbianos como no hebbianos.
Principios
Desde el punto de vista de las neuronas artificiales y las redes neuronales artificiales, el principio de Hebb puede describirse como un método para determinar cómo alterar los pesos entre las neuronas modelo. El peso entre dos neuronas aumenta si las dos neuronas se activan simultáneamente y se reduce si se activan por separado. Los nodos que tienden a ser positivos o negativos al mismo tiempo tienen pesos positivos fuertes, mientras que aquellos que tienden a ser opuestos tienen pesos negativos fuertes.
La siguiente es una descripción formulada del aprendizaje hebbiano: (son posibles muchas otras descripciones)
- wij=xixj{displaystyle ¿Qué?
Donde wij{displaystyle w_{ij} es el peso de la conexión de la neurona j{displaystyle j} a neurona i{displaystyle i} y xi{displaystyle x_{i}} la entrada para neurona i{displaystyle i}. Tenga en cuenta que esto es aprendizaje de patrón (pesos actualizados después de cada ejemplo de entrenamiento). En una red Hopfield, conexiones wij{displaystyle w_{ij} están fijados a cero si i=j{displaystyle i=j} (no se permiten conexiones reflexivas). Con neuronas binarias (activaciones ya sea 0 o 1), las conexiones se establecerían a 1 si las neuronas conectadas tienen la misma activación para un patrón.
Cuando se utilizan varios patrones de entrenamiento, la expresión se convierte en un promedio de los individuales:
- wij=1p.. k=1pxikxjk=.. xixj.. ,{displaystyle w_{ij}={frac {1}{p}sum} ¿Qué? x_{i}x_{j}rangle,}
Donde wij{displaystyle w_{ij} es el peso de la conexión de la neurona j{displaystyle j} a neurona i{displaystyle i}, p{displaystyle p} es el número de modalidades de capacitación, xik{displaystyle # el k{displaystyle k}th input for neuron i{displaystyle i} y es el promedio sobre todos los patrones de entrenamiento. Esto es aprender por epoca (los pesos actualizados después de todos los ejemplos de entrenamiento se presentan), siendo el último término aplicable tanto a los conjuntos de entrenamiento discretos como continuos. De nuevo, en una red Hopfield, conexiones wij{displaystyle w_{ij} están fijados a cero si i=j{displaystyle i=j} (sin conexiones reflexivas).
Una variación del aprendizaje hebbiano que tiene en cuenta fenómenos como el bloqueo y muchos otros fenómenos de aprendizaje neuronal es el modelo matemático de Harry Klopf. El modelo de Klopf reproduce muchos fenómenos biológicos y además es sencillo de implementar.
Relación con el aprendizaje no supervisado, estabilidad y generalización
Debido a la naturaleza simple del aprendizaje hebbiano, basado únicamente en la coincidencia de la actividad presináptica y postsináptica, puede no estar intuitivamente claro por qué esta forma de plasticidad conduce a un aprendizaje significativo. Sin embargo, se puede demostrar que la plasticidad hebbiana capta las propiedades estadísticas de la entrada de una manera que puede categorizarse como aprendizaje no supervisado.
Esto se puede mostrar matemáticamente en un ejemplo simplificado. Trabajemos bajo la suposición simplificadora de una neurona de tasa única Sí.()t){displaystyle y(t)}, cuyos insumos tienen tasas x1()t)...xN()t){displaystyle x_{1}(t)...x_{N}(t)}. La respuesta de la neurona Sí.()t){displaystyle y(t)} se describe generalmente como una combinación lineal de su entrada, .. iwixi{displaystyle sum ¿Qué?, seguido de una función de respuesta f{displaystyle f}:
- Sí.=f().. i=1Nwixi).{displaystyle y=fleft(sum) ¿Qué?
Como se define en las secciones anteriores, la plasticidad hebbiana describe la evolución en el tiempo del peso sináptico w{displaystyle w}:
- dwidt=.. xiSí..{displaystyle {frac {}{dt}=eta} Sí.
Suponiendo, para la simplicidad, una función de respuesta a la identidad f()a)=a{displaystyle f(a)=a}, podemos escribir
- dwidt=.. xi.. j=1Nwjxj{displaystyle {frac {}{dt}=eta} x_{i}sum ¿Qué?
o en forma matricial:
- dwdt=.. xxTw.{displaystyle {frac {dmathbf} } {dt}=eta mathbf {x} mathbf {x}Mathbf {w}.
Como en el capítulo anterior, si la formación por época se realiza un promedio .. ...... .. {displaystyle langle dots rangle } conjunto de formación discreta o continua (tiempo) x{displaystyle mathbf {x} se puede hacer:
- w()t)=k1e.. α α 1tc1+k2e.. α α 2tc2+...+kNe.. α α NtcN{displaystyle mathbf {w} (t)=k_{1}e^{eta alpha No lo sé. {c} ################################################################################################################################################################################################################################################################ No lo sé. ¿Qué? alpha No lo sé. ¿Qué?
Donde ki{displaystyle K_{i} son constantes arbitrarias, ci{displaystyle mathbf {c} ¿Qué? son los eigenvectores de C{displaystyle C} y α α i{displaystyle alpha _{i} sus eigenvalues correspondientes. Dado que una matriz de correlación es siempre una matriz positiva-definida, los eigenvalues son todos positivos, y se puede ver fácilmente cómo la solución anterior es siempre exponencialmente divergente en el tiempo. Este es un problema intrínseco debido a que esta versión de la regla de Hebb es inestable, ya que en cualquier red con una señal dominante los pesos sinápticos aumentarán o disminuirán exponencialmente. Intuitivamente, esto es porque cada vez que la neuronapsia presintáptica excita la neurona postináptica, el peso entre ellos se refuerza, causando una excitación aún más fuerte en el futuro, y así sucesivamente, de una manera auto-reforzada. Se puede pensar que una solución es limitar la tasa de disparo de la neurona postináptica añadiendo una función de respuesta no lineal y saturante f{displaystyle f}, pero de hecho, se puede demostrar que para cualquiera modelo de neurona, La regla de Hebb es inestable. Por lo tanto, los modelos de red de neuronas suelen emplear otras teorías de aprendizaje como la teoría BCM, la regla de Oja o el algoritmo generalizado de Hebbian.
Independientemente, incluso para la solución inestable anterior, se puede ver que, cuando ha pasado suficiente tiempo, uno de los términos domina sobre los demás, y
- w()t).. e.. α α Alternativa Alternativa tcAlternativa Alternativa {displaystyle mathbf {w} (t)approx e^{eta alpha ^{*}t}mathbf {c} }
Donde α α Alternativa Alternativa {displaystyle alpha ^{*} es más grande eigenvalue of C{displaystyle C}. En este momento, la neurona posináptica realiza la siguiente operación:
- Sí... e.. α α Alternativa Alternativa tcAlternativa Alternativa x{displaystyle yapprox e^{eta alpha }t}mathbf {c} }mathbf {x}
Porque, otra vez, cAlternativa Alternativa {displaystyle mathbf {c} es el eigenvector correspondiente al mayor eigenvalue de la matriz de correlación entre la xi{displaystyle x_{i}}s, esto corresponde exactamente a la computación del primer componente principal de la entrada.
Este mecanismo se puede extender para realizar un PCA (análisis de componentes principales) completo de la entrada agregando más neuronas postsinápticas, siempre que se impida que todas las neuronas postsinápticas capten el mismo componente principal, por ejemplo agregando inhibición lateral en el capa postsináptica. De este modo, hemos conectado el aprendizaje hebbiano con el PCA, que es una forma elemental de aprendizaje no supervisado, en el sentido de que la red puede captar aspectos estadísticos útiles de la entrada y "describir" el aprendizaje. ellos de forma destilada en su producción.
Limitaciones
A pesar del uso común de los modelos hebbianos para la potenciación a largo plazo, el principio de Hebb no cubre todas las formas de plasticidad sináptica a largo plazo. Hebb no postuló ninguna regla para las sinapsis inhibidoras, ni hizo predicciones para secuencias de picos anticausales (la neurona presináptica se activa después de la neurona postsináptica). La modificación sináptica puede no ocurrir simplemente sólo entre las neuronas A y B activadas, sino también en las sinapsis vecinas. Por tanto, todas las formas de plasticidad heterosináptica y homeostática se consideran no hebbianas. Un ejemplo es la señalización retrógrada a las terminales presinápticas. El compuesto más comúnmente identificado como que cumple esta función de transmisor retrógrado es el óxido nítrico, que, debido a su alta solubilidad y difusividad, a menudo ejerce efectos sobre las neuronas cercanas. Este tipo de modificación sináptica difusa, conocida como aprendizaje de volumen, no está incluida en el modelo hebbiano tradicional.
Relato hebbiano sobre el aprendizaje de las neuronas espejo
El aprendizaje hebbiano y la plasticidad dependiente del momento de los picos se han utilizado en una teoría influyente sobre cómo surgen las neuronas espejo. Las neuronas espejo son neuronas que se activan tanto cuando un individuo realiza una acción como cuando el individuo ve u oye a otro realizar una acción similar. El descubrimiento de estas neuronas ha sido muy influyente para explicar cómo los individuos dan sentido a las acciones de los demás, al mostrar que, cuando una persona percibe las acciones de los demás, activa los programas motores que usaría para realizar acciones similares. La activación de estos programas motores agrega información a la percepción y ayuda a predecir lo que la persona hará a continuación en función del propio programa motor del perceptor. Ha sido un desafío explicar cómo los individuos llegan a tener neuronas que responden tanto mientras realizan una acción como cuando escuchan o ven a otro realizar acciones similares.
Christian Keysers y David Perrett sugirieron que cuando un individuo realiza una acción particular, verá, oirá y sentirá la realización de la acción. Estas señales sensoriales reaferentes desencadenarán actividad en las neuronas que responden a la vista, el sonido y la sensación de la acción. Debido a que la actividad de estas neuronas sensoriales se superpondrá consistentemente en el tiempo con la de las neuronas motoras que causaron la acción, el aprendizaje hebbiano predice que las sinapsis que conectan las neuronas que responden a la vista, el sonido y la sensación de una acción y las de las neuronas que desencadenan la acción. Se debe potenciar la acción. Lo mismo ocurre cuando las personas se miran en el espejo, se escuchan balbucear o son imitadas por otros. Después de experimentar repetidamente esta re-aferencia, las sinapsis que conectan las representaciones sensoriales y motoras de una acción son tan fuertes que las neuronas motoras comienzan a dispararse al sonido o la visión de la acción, y se crea una neurona espejo.
La evidencia de esa perspectiva proviene de muchos experimentos que muestran que los programas motores pueden ser desencadenados por nuevos estímulos auditivos o visuales después de combinar repetidamente el estímulo con la ejecución del programa motor (para una revisión de la evidencia, ver Giudice et al.., 2009). Por ejemplo, las personas que nunca han tocado el piano no activan las regiones del cerebro involucradas en tocar el piano cuando escuchan música de piano. Cinco horas de lecciones de piano, en las que el participante está expuesto al sonido del piano cada vez que presiona una tecla, han demostrado ser suficientes para desencadenar actividad en las regiones motoras del cerebro al escuchar música de piano cuando se escucha más tarde. De acuerdo con el hecho de que la plasticidad dependiente del momento del pico ocurre sólo si la activación de la neurona presináptica predice la activación de la neurona postsináptica, el vínculo entre los estímulos sensoriales y los programas motores también parece potenciarse sólo si la El estímulo depende del programa motor.
Contenido relacionado
Anhedonia
Anfitrión (psicología)
Susana Blackmore