Neuroinformática

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Campo de investigación

Neuroinformática es el campo emergente que combina informática y neurociencia. La neuroinformática está relacionada con los datos de la neurociencia y el procesamiento de información mediante redes neuronales artificiales. Hay tres direcciones principales en las que se debe aplicar la neuroinformática:

  • el desarrollo de modelos computacionales del sistema nervioso y los procesos neuronales;
  • el desarrollo de herramientas para analizar y modelar datos de neurociencia; y
  • el desarrollo de herramientas y bases de datos para la gestión y el intercambio de datos de neurociencia en todos los niveles de análisis.

La neuroinformática abarca la filosofía (teoría computacional de la mente), la psicología (teoría del procesamiento de la información), la informática (computación natural, computación bioinspirada), entre otras disciplinas. La neuroinformática no se ocupa de la materia ni de la energía, por lo que puede verse como una rama de la neurobiología que estudia diversos aspectos del sistema nervioso. El término neuroinformática parece usarse como sinónimo de informática cognitiva, descrita por el Journal of Biomedical Informatics como un dominio interdisciplinario que se centra en el procesamiento, los mecanismos y los procesos de la información humana dentro del contexto de la informática. y aplicaciones informáticas. Según la Biblioteca Nacional Alemana, la neuroinformática es sinónimo de neurocomputación. En las Actas de la décima Conferencia Internacional IEEE sobre Informática Cognitiva y Computación Cognitiva se presentó la siguiente descripción: La Informática Cognitiva (CI) como una investigación transdisciplinaria de la informática, las ciencias de la información, la ciencia cognitiva y ciencia de la inteligencia. CI investiga los mecanismos y procesos internos de procesamiento de información del cerebro y la inteligencia natural, así como sus aplicaciones de ingeniería en la computación cognitiva. Según el INCF, la neuroinformática es un campo de investigación dedicado al desarrollo de bases de datos y conocimientos de neurociencia junto con modelos computacionales.

Neuroinformática en neuropsicología y neurobiología

Modelos de computación neuronal

Los modelos de computación neuronal son intentos de dilucidar, de forma abstracta y matemática, los principios básicos que subyacen al procesamiento de información en los sistemas nerviosos biológicos, o sus componentes funcionales. Debido a la complejidad del comportamiento del sistema nervioso, los límites de error experimentales asociados están mal definidos, pero el mérito relativo de los diferentes modelos de un subsistema particular se puede comparar según cuán fielmente reproducen comportamientos del mundo real o responden a señales de entrada específicas. . En el campo estrechamente relacionado de la neuroetología computacional, la práctica consiste en incluir el entorno en el modelo de tal manera que el circuito se cierre. En los casos en los que no se dispone de modelos competitivos, o en los que sólo se han medido o cuantificado respuestas generales, un modelo claramente formulado puede guiar al científico en el diseño de experimentos para investigar los mecanismos bioquímicos o la conectividad de la red.

Tecnologías de neurocomputación

Redes neuronales artificiales

Las redes neuronales artificiales (RNA), generalmente llamadas simplemente redes neuronales (NN), son sistemas informáticos vagamente inspirados en las redes neuronales biológicas que constituyen los cerebros de los animales. Una ANN se basa en una colección de unidades o nodos conectados llamados neuronas artificiales, que modelan vagamente las neuronas de un cerebro biológico. Cada conexión, como las sinapsis en un cerebro biológico, puede transmitir una señal a otras neuronas. Una neurona artificial que recibe una señal, luego la procesa y puede enviar señales a las neuronas conectadas a ella. La "señal" en una conexión es un número real y la salida de cada neurona se calcula mediante alguna función no lineal de la suma de sus entradas. Las conexiones se denominan bordes. Las neuronas y los bordes suelen tener un peso que se ajusta a medida que avanza el aprendizaje. El peso aumenta o disminuye la intensidad de la señal en una conexión. Las neuronas pueden tener un umbral tal que se envíe una señal sólo si la señal agregada cruza ese umbral. Normalmente, las neuronas se agregan en capas. Diferentes capas pueden realizar diferentes transformaciones en sus entradas. Las señales viajan desde la primera capa (la capa de entrada) hasta la última capa (la capa de salida), posiblemente después de atravesar las capas varias veces.

Emulación cerebral y carga mental

La emulación cerebral es el concepto de creación de un modelo computacional funcional y emulación de un cerebro o parte de un cerebro. En diciembre de 2006, el proyecto Blue Brain completó una simulación de la columna neocortical de una rata. La columna neocortical se considera la unidad funcional más pequeña del neocórtex. La neocorteza es la parte del cerebro que se cree que es responsable de funciones de orden superior, como el pensamiento consciente, y contiene 10.000 neuronas en el cerebro de la rata (y 108 sinapsis). En noviembre de 2007, el proyecto informó el final de su primera fase, entregando un proceso basado en datos para crear, validar e investigar la columna neocortical. Una red neuronal artificial descrita como "tan grande y compleja como la mitad del cerebro de un ratón" fue ejecutado en una supercomputadora IBM Blue Gene por el equipo de investigación de la Universidad de Nevada en 2007. Cada segundo de tiempo simulado tomó diez segundos de tiempo de computadora. Los investigadores afirmaron haber observado compuestos "biológicamente consistentes" impulsos nerviosos que fluían a través de la corteza virtual. Sin embargo, la simulación carecía de las estructuras observadas en cerebros de ratones reales y pretenden mejorar la precisión de los modelos de neuronas y sinapsis. La carga mental es el proceso de escanear una estructura física del cerebro con suficiente precisión para crear una emulación del estado mental (incluida la memoria a largo plazo y el "yo") y copiarlo a una computadora en formato digital. Luego, la computadora ejecutaría una simulación del procesamiento de información del cerebro, de modo que respondería esencialmente de la misma manera que el cerebro original y experimentaría tener una mente consciente y sensible. Se están llevando a cabo importantes investigaciones en áreas relacionadas con el mapeo y la simulación del cerebro animal, el desarrollo de supercomputadoras más rápidas, la realidad virtual, las interfaces cerebro-computadora, la conectómica y la extracción de información de cerebros que funcionan dinámicamente. Según sus partidarios, muchas de las herramientas e ideas necesarias para lograr la carga mental ya existen o están actualmente en desarrollo activo; sin embargo, admitirán que otros son, hasta el momento, muy especulativos, pero dicen que todavía están en el ámbito de las posibilidades de la ingeniería.

Diagrama de la BCI desarrollado por Miguel Nicolelis y colegas para su uso en monos de ensayo

Interfaz cerebro-computadora

La investigación sobre la interfaz cerebro-computadora comenzó en la década de 1970 en la Universidad de California, Los Ángeles, con una subvención de la Fundación Nacional de Ciencias, seguida de un contrato de DARPA. Los artículos publicados después de esta investigación también marcan la primera aparición de la expresión interfaz cerebro-computadora en la literatura científica. Recientemente, estudios sobre la interacción humano-computadora mediante la aplicación de aprendizaje automático con características temporales estadísticas extraídas del lóbulo frontal, los datos de ondas cerebrales EEG han mostrado altos niveles de éxito en la clasificación de estados mentales (Relajado, Neutral, Concentrado) y estados emocionales mentales (Negativo, Neutro, Positivo) y disritmia talamocortical.

Neuroingeniería y desarrollo Neuroinformática

Ilustración esquemática del rastreo digital de la morfología de una neurona

La neuroinformática es el estudio científico del flujo y procesamiento de la información en el sistema nervioso. Los científicos del instituto utilizan técnicas de imágenes cerebrales, como la resonancia magnética, para revelar la organización de las redes cerebrales involucradas en el pensamiento humano. La simulación cerebral es el concepto de crear un modelo informático funcional de un cerebro o parte de un cerebro. Hay tres direcciones principales en las que se debe aplicar la neuroinformática:

  • el desarrollo de modelos computacionales del sistema nervioso y los procesos neuronales,
  • el desarrollo de herramientas para analizar datos de dispositivos para dispositivos de diagnóstico neurológico,
  • el desarrollo de herramientas y bases de datos para la gestión y el intercambio de datos cerebrales de pacientes en instituciones sanitarias.

Mapeo y simulación cerebral

La simulación cerebral es el concepto de crear un modelo computacional funcional de un cerebro o parte de un cerebro. En diciembre de 2006, el proyecto Blue Brain completó una simulación de la columna neocortical de una rata. La columna neocortical se considera la unidad funcional más pequeña del neocórtex. La neocorteza es la parte del cerebro que se cree que es responsable de funciones de orden superior, como el pensamiento consciente, y contiene 10.000 neuronas en el cerebro de la rata (y 108 sinapsis). En noviembre de 2007, el proyecto informó el final de su primera fase, entregando un proceso basado en datos para crear, validar e investigar la columna neocortical. Una red neuronal artificial descrita como "tan grande y compleja como la mitad del cerebro de un ratón" fue ejecutado en una supercomputadora IBM Blue Gene por el equipo de investigación de la Universidad de Nevada en 2007. Cada segundo de tiempo simulado tomó diez segundos de tiempo de computadora. Los investigadores afirmaron haber observado compuestos "biológicamente consistentes" impulsos nerviosos que fluían a través de la corteza virtual. Sin embargo, la simulación carecía de las estructuras observadas en cerebros de ratones reales y pretenden mejorar la precisión de los modelos de neuronas y sinapsis.

Subir mente

La carga mental es el proceso de escanear una estructura física del cerebro con suficiente precisión para crear una emulación del estado mental (incluida la memoria a largo plazo y el "yo") y copiarlo a una computadora en un forma digital. Luego, la computadora ejecutaría una simulación del procesamiento de información del cerebro, de modo que respondería esencialmente de la misma manera que el cerebro original y experimentaría tener una mente consciente y sensible. Se están llevando a cabo importantes investigaciones en áreas relacionadas con el mapeo y la simulación del cerebro animal, el desarrollo de supercomputadoras más rápidas, la realidad virtual, las interfaces cerebro-computadora, la conectómica y la extracción de información de cerebros que funcionan dinámicamente. Según sus partidarios, muchas de las herramientas e ideas necesarias para lograr la carga mental ya existen o están actualmente en desarrollo activo; sin embargo, admitirán que otros son, hasta el momento, muy especulativos, pero dicen que todavía están en el ámbito de las posibilidades de la ingeniería.

Ciencias auxiliares de la neuroinformática

Análisis de datos y organización del conocimiento

La neuroinformática (en el contexto de la bibliotecología) también se dedica al desarrollo del conocimiento de la neurobiología con modelos computacionales y herramientas analíticas para compartir, integrar y analizar datos experimentales y el avance de teorías sobre la función del sistema nervioso. En el contexto del INCF, este campo se refiere a información científica sobre datos experimentales primarios, ontología, metadatos, herramientas analíticas y modelos computacionales del sistema nervioso. Los datos primarios incluyen experimentos y condiciones experimentales relativas al nivel genómico, molecular, estructural, celular, de redes, de sistemas y de comportamiento, en todas las especies y preparaciones tanto en estado normal como desordenado. En la última década, a medida que muchos grupos de investigación recopilaron grandes cantidades de datos diversos sobre el cerebro, surgió el problema de cómo integrar los datos de miles de publicaciones para habilitar herramientas eficientes para futuras investigaciones. Los datos biológicos y de neurociencia están altamente interconectados y son complejos, y por sí solo, la integración representa un gran desafío para los científicos.

Historia

El Instituto Nacional de Salud Mental de los Estados Unidos (NIMH), el Instituto Nacional de Abuso de Drogas (NIDA) y la Fundación Nacional de Ciencias (NSF) proporcionaron fondos al Instituto de Medicina de la Academia Nacional de Ciencias para llevar a cabo un análisis y estudio cuidadosos. de la necesidad de introducir técnicas computacionales en la investigación del cerebro. Las recomendaciones positivas se publicaron en 1991. Este informe positivo permitió al NIMH, ahora dirigido por Allan Leshner, crear el "Proyecto Cerebro Humano" (HBP), cuyas primeras subvenciones se concedieron en 1993. A continuación, Koslow persiguió la globalización de las HPG y la neuroinformática a través de la Unión Europea y la Oficina de Cooperación y Desarrollo Económicos (OCDE), París, Francia. En 1996 se produjeron dos oportunidades particulares.

  • La primera fue la existencia del equipo de tareas de biotecnología de la Comisión Europea y EE.UU. copresidido por Mary Clutter de NSF. Dentro del mandato de este comité, Koslow fue miembro del Comité Europeo de Neuroinformática de los Estados Unidos, establecido y copresidido por Koslow de los Estados Unidos. Este comité dio lugar a que la Comisión Europea iniciara el apoyo a la neuroinformática en el Marco 5 y ha seguido apoyando las actividades de investigación y formación neuroinformática.
  • Una segunda oportunidad para la globalización de la neuroinformática ocurrió cuando se preguntó a los gobiernos participantes del Foro Mega Science (MSF) de la OCDE si tenían nuevas iniciativas científicas para impulsar la cooperación científica en todo el mundo. The White House Office of Science and Technology Policy requested that agencies in the federal government meet at NIH to decide if cooperation were needed that would be of global benefit. The NIH held a series of meetings in which proposals from different agencies were discussed. La recomendación propuesta de Estados Unidos para el MSF fue una combinación de las propuestas NSF y NIH. Jim Edwards de NSF apoyó bases de datos e intercambio de datos en el área de la biodiversidad.

Las dos iniciativas relacionadas se combinaron para formar la propuesta de Estados Unidos sobre "Informática Biológica". Esta iniciativa fue apoyada por la Oficina de Política Científica y Tecnológica de la Casa Blanca y presentada en el MSF de la OCDE por Edwards y Koslow. Se estableció un comité de MSF sobre Informática Biológica con dos subcomités: 1. Biodiversidad (Presidente, James Edwards, NSF) y 2. Neuroinformática (Presidente, Stephen Koslow, NIH). Al final de dos años, el subcomité de Neuroinformática del Grupo de Trabajo Biológico emitió un informe que respalda un esfuerzo global de neuroinformática. Koslow, trabajando con los NIH y la Oficina de Política Científica y Tecnológica de la Casa Blanca para establecer un nuevo grupo de trabajo de Neuroinformática para desarrollar recomendaciones específicas que respalden las recomendaciones más generales del primer informe. El Foro Científico Global (GSF; rebautizado de MSF) de la OCDE apoyó esta recomendación.

Comunidad

Instituto de Neuroinformática, Universidad de Zurich
El Instituto de Neuroinformática se creó en la Universidad de Zurich y ETH Zurich a finales de 1995. La misión del Instituto es descubrir los principios fundamentales por los que trabajan los cerebros y aplicarlos en sistemas artificiales que interactúan inteligentemente con el mundo real.
Institute for Adaptive and Neural Computation, School of Informatics, University of Edinburgh
Grupo de Neurociencia y Neuroinformática Computacional in Institute for Adaptive and Neural Computation of University of Edinburgh's School of Informatics study how the brain processes information.
The International Neuroinformatics Coordinating Facility
Una organización internacional con la misión de desarrollar, evaluar y apoyar estándares y mejores prácticas que abarcan los principios de neurociencia abierta, justa y citable. En octubre de 2019, el INCF cuenta con nodos activos en 18 países. Este comité presentó 3 recomendaciones a los gobiernos miembros de GSF. Esas recomendaciones fueron las siguientes:
  1. Los programas nacionales de neuroinformática deben continuarse o iniciarse en cada país deben tener un nodo nacional para proporcionar recursos de investigación a nivel nacional y servir de contacto para la coordinación nacional e internacional.
  2. Debería establecerse un Servicio Internacional de Coordinación de Neuroinformática. El INCF coordinará la implementación de una red neuroinformática global mediante la integración de nodos neuroinformáticos nacionales.
  3. Debería establecerse un nuevo plan de financiación internacional.

Este esquema debería eliminar las barreras nacionales y disciplinarias y proporcionar un enfoque más eficiente para la investigación colaborativa global y el intercambio de datos. En este nuevo esquema, se espera que cada país financie a los investigadores participantes de su país. Luego, el comité de neuroinformática del GSF desarrolló un plan de negocios para la operación, apoyo y establecimiento del INCF que fue apoyado y aprobado por los Ministros de Ciencia del GSF en su reunión de 2004. En 2006 se creó el INCF y se estableció y puso en funcionamiento su oficina central en el Instituto Karolinska de Estocolmo, Suecia, bajo la dirección de Sten Grillner. Dieciséis países (Australia, Canadá, China, República Checa, Dinamarca, Finlandia, Francia, Alemania, India, Italia, Japón, Países Bajos, Noruega, Suecia, Suiza, Reino Unido y Estados Unidos) y la Comisión de la UE establecieron la base legal para el INCF y el Programa Internacional de Neuroinformática (PIN). Hasta la fecha, dieciocho países (Australia, Bélgica, República Checa, Finlandia, Francia, Alemania, India, Italia, Japón, Malasia, Países Bajos, Noruega, Polonia, República de Corea, Suecia, Suiza, Reino Unido y Estados Unidos) son miembros del INCF. La membresía está pendiente para varios otros países. El objetivo del INCF es coordinar y promover actividades internacionales en neuroinformática. El INCF contribuye al desarrollo y mantenimiento de bases de datos e infraestructura computacional y mecanismos de soporte para aplicaciones de neurociencia. Se espera que el sistema proporcione acceso a todos los datos y recursos del cerebro humano de libre acceso a la comunidad investigadora internacional. La tarea más general del INCF es proporcionar las condiciones para desarrollar aplicaciones convenientes y flexibles para los laboratorios de neurociencia con el fin de mejorar nuestro conocimiento sobre el cerebro humano y sus trastornos.

Laboratorio de Neuroinformática, Instituto Nencki de Biología Experimental
La actividad principal del grupo es el desarrollo de herramientas y modelos computacionales, y utilizarlos para comprender la estructura y función del cerebro.
Neuroimaging " Neuroinformática, Howard Florey Institute, University of Melbourne
Los científicos del Instituto utilizan técnicas de imagen cerebral, como la resonancia magnética, para revelar la organización de redes cerebrales involucradas en el pensamiento humano. Dirigido por Gary Egan.
Montreal Neurological Institute, McGill University
Dirigido por Alan Evans, MCIN lleva a cabo una investigación computacionalmente intensa del cerebro utilizando enfoques matemáticos y estadísticos innovadores para integrar datos clínicos, psicológicos y de imagen cerebral con genética. Los investigadores y el personal de MCIN también desarrollan herramientas de infraestructura y software en las áreas de procesamiento de imágenes, bases de datos y computación de alto rendimiento. La comunidad MCIN, junto con el Centro Ludmer de Neuroinformática y Salud Mental, colabora con una amplia gama de investigadores y se centra cada vez más en el intercambio abierto de datos y la ciencia abierta, incluido el Instituto Neurológico de Montreal.
The THOR Center for Neuroinformatics
Establecida en abril de 1998 en el Departamento de Modelización Matemática de la Universidad Técnica de Dinamarca. Además de alcanzar objetivos de investigación independientes, el Centro THOR acoge varios proyectos relacionados con redes neuronales, neuroimagen funcional, procesamiento de señales multimedia y procesamiento de señales biomédicas.
El Portal de Neuroinformática Pilot
El proyecto es parte de un mayor esfuerzo para mejorar el intercambio de datos neurociencia, herramientas de análisis de datos y software de modelado. El portal cuenta con el apoyo de muchos miembros del Grupo de Trabajo de la OCDE sobre Neuroinformática. El Portal Pilot es promovido por el Ministerio Alemán de Ciencia y Educación.
Neurociencia computacional, ITB, Humboldt-University Berlin
Este grupo se centra en la neurobiología computacional, en particular en las capacidades dinámicas y de procesamiento de señales de sistemas con neuronas arañadoras. Dirigida por Andreas VM Herz.
The Neuroinfortics Group in Bielefeld
Active en el campo de Redes Neurales Artificiales desde 1989. Los programas actuales de investigación dentro del grupo se centran en la mejora de las interfaces hombre-máquina, control robot, experimentos de seguimiento ocular, visión de la máquina, realidad virtual y sistemas distribuidos.
Laboratorio de Neurociencia Embodiada Computacional (LOCEN)
Este grupo, parte del Instituto de Ciencias y Tecnologías Cognitivas, Consejo Nacional de Investigación Italiano (ISTC-CNR) en Roma y fundado en 2006 está actualmente dirigido por Gianluca Baldassarre. Tiene dos objetivos: a) la comprensión de los mecanismos cerebrales que sustentan el aprendizaje y la expresión de comportamiento sensorimotor, y las motivaciones conexas y la cognición de alto nivel basadas en ella, sobre la base de modelos computacionales encarnados; b) la transferencia de los conocimientos adquiridos a la construcción de controladores innovadores para robots humanoides autónomos capaces de aprender de forma abierta sobre la base de motivaciones intrínsecas y extrínsecas.
Japan national neuroinformatics resource
La Plataforma Visiome es el Servicio de Búsqueda Neuroinformática que proporciona acceso a modelos matemáticos, datos experimentales, bibliotecas de análisis y recursos relacionados. También está disponible un portal en línea para compartir datos neurofisiológicos en BrainLiner. jp como parte del MEXT Strategic Research Program for Brain Sciences (SRPBS).
Laboratorio de Neurociencia Matemática, RIKEN Brain Science Institute (Wako, Saitama)
El objetivo del Laboratorio de Neurociencia Matemática es establecer bases matemáticas de computaciones de estilo cerebral hacia la construcción de un nuevo tipo de ciencia de la información. Dirigido por Shun-ichi Amari.
Programa estatal holandés en neuroinformática
Comenzó a la luz del Foro Internacional de Ciencias Globales de la OCDE, cuyo objetivo es crear un programa mundial en Neuroinformática.
NUST-SEECS Laboratorio de Investigación Neuroinformática
El establecimiento del laboratorio de Neuroinformática en SEECS-NUST ha permitido a investigadores paquistaníes y miembros de la facultad participar activamente en esos esfuerzos, convirtiéndose así en parte activa de los procesos de experimentación, simulación y visualización mencionados anteriormente. El laboratorio colabora con las principales instituciones internacionales para desarrollar recursos humanos altamente cualificados en la materia. Este laboratorio facilita a los neurocientíficos y científicos informáticos en Pakistán llevar a cabo sus experimentos y análisis sobre los datos recogidos utilizando metodologías de investigación de estado del arte sin invertir en establecer las instalaciones de neurociencia experimental. El objetivo fundamental de este laboratorio es proporcionar instalaciones experimentales y de simulación en estado de arte, a todos los beneficiarios, incluidos institutos de educación superior, investigadores médicos y profesionales, e industria tecnológica.
El Proyecto Cerebro Azul
El Proyecto Cerebro Azul se fundó en mayo de 2005, y utiliza una supercomputadora Blue Gene/L de 8000 procesadores desarrollada por IBM. En ese momento, era uno de los supercomputadores más rápidos del mundo.
El proyecto implica:
  • Bases de datos: neuronas modelo reconstruidas 3D, sinapsis, vías sinápticas, estadísticas de microcircuito, neuronas modelo de computadora, neuronas virtuales.
  • Visualización: microcircuit builder and simulation results visualizator, 2D, 3D and immersive visualization systems are being developed.
  • Simulación: un entorno de simulación para simulaciones a gran escala de neuronas morfológicamente complejas en 8000 procesadores de la supercomputadora Blue Gene de IBM.
  • Simulación y experimentos: iteraciones entre simulaciones a gran escala de microcircuits y experimentos neocorticales para verificar el modelo computacional y explorar predicciones.
La misión del Proyecto Cerebro Azul es comprender la función cerebral y la disfunción de los mamíferos mediante simulaciones detalladas. El Proyecto Cerebro Azul invitará a los investigadores a construir sus propios modelos de diferentes regiones del cerebro en diferentes especies y a diferentes niveles de detalle utilizando Blue Brain Software para simulación en Blue Gene. Estos modelos se depositarán en una base de datos de Internet de la que el software Blue Brain puede extraer y conectar modelos juntos para construir regiones del cerebro y comenzar las primeras simulaciones del cerebro.
Genes to Cognition Project
Genes to Cognition Project, un programa de investigación neurociencia que estudia genes, el cerebro y el comportamiento de manera integrada. Se dedica a una investigación a gran escala de la función de las moléculas encontradas en la sinapsis. Esto se centra principalmente en proteínas que interactúan con el receptor NMDA, un receptor para el neurotransmisor, glutamato, que se requiere para procesos de plasticidad sináptica como la potenciación a largo plazo (LTP). Muchas de las técnicas utilizadas son de alto rendimiento en la naturaleza, e integrar las diversas fuentes de datos, junto con la guía de los experimentos ha planteado numerosas preguntas de informática. El programa está dirigido principalmente por el profesor Seth Grant en el Wellcome Trust Sanger Institute, pero hay muchos otros equipos de colaboradores en todo el mundo.
El proyecto CARMEN
El proyecto CARMEN es un proyecto de investigación multisitio (11 universidades del Reino Unido) destinado a utilizar la computación GRID para permitir a los neurocientíficos experimentales archivar sus conjuntos de datos en una base de datos estructurada, haciéndolos ampliamente accesibles para nuevas investigaciones, y para los modeladores y desarrolladores de algoritmos para explotar.
Neurobiología computacional EBI, EMBL-EBI (Hinxton)
El objetivo principal del grupo es construir modelos realistas de función neuronal en varios niveles, desde la sinapsis hasta el microcircuito, basados en el conocimiento preciso de las funciones e interacciones de moléculas (Biología de Sistemas). Dirigido por Nicolas Le Novère.
Neurogenética GeneNetwork
La genética comenzó como componente del Proyecto de Cerebro Humano de NIH en 1999 con un enfoque en el análisis genético de la estructura y función cerebral. Este programa internacional consiste en conjuntos de datos de genoma y fenomé integrados para humanos, ratón y ratas diseñados específicamente para sistemas a gran escala y estudios de red relacionados con variantes de genes a diferencias en mRNA y expresión de proteínas y a diferencias en la estructura y el comportamiento de CNS. La gran mayoría de los datos son de acceso abierto. GeneNetwork tiene un sitio web de neuroimaging compañero, la Biblioteca del Cerebro Ratón, que contiene imágenes de alta resolución para miles de cepas genéticamente definidas de ratones.
The Neuronal Time Series Analysis (NTSA)
NTSA Workbench es un conjunto de herramientas, técnicas y estándares diseñados para satisfacer las necesidades de los neurocientíficos que trabajan con datos de series temporales neuronales. El objetivo de este proyecto es desarrollar un sistema de información que facilite el almacenamiento, organización, recuperación, análisis y intercambio de datos neuronales experimentales y simulados. El objetivo final es desarrollar un conjunto de herramientas, técnicas y estándares para satisfacer las necesidades de los neurocientíficos que trabajan con datos neuronales.
El Atlas Cognitivo
El Atlas Cognitivo es un proyecto que desarrolla una base de conocimiento compartida en ciencia cognitiva y neurociencia. Esto incluye dos tipos básicos de conocimiento: tareas y conceptos, proporcionando definiciones y propiedades de ellos, y también relaciones entre ellos. Una característica importante del sitio es la capacidad de citar literatura para afirmaciones (por ejemplo, "La tarea Stroop mide el control ejecutivo") y para discutir su validez. Contribuye a NeuroLex y al Marco de Información sobre Neurociencia, permite el acceso programático a la base de datos, y se construye alrededor de tecnologías web semánticas.
Grupo de investigación de Big Data en el Allen Institute for Brain Science (Seattle, WA)
Dirigido por Hanchuan Peng, este grupo se ha centrado en utilizar técnicas de computación de imágenes a gran escala y análisis de datos para reconstruir modelos de neuronas individuales y mapearlos en cerebros de diferentes animales.
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save