En un reciente estudio publicado en la revista Nature Neuroscience, investigadores de la Unidad de Dinámica de Redes Cerebrales del MRC y del Departamento de Informática de la Universidad de Oxford han arrojado nueva luz sobre cómo el cerebro ajusta las conexiones entre las neuronas durante el aprendizaje. Este descubrimiento no solo podría influir en la investigación sobre el aprendizaje en las redes cerebrales, sino también inspirar algoritmos de aprendizaje más rápidos y robustos para la inteligencia artificial.
Crédito: Pixabay
El aprendizaje consiste fundamentalmente en identificar los componentes responsables de un error en el procesamiento de información. En el campo de la inteligencia artificial, se realiza mediante retropropagación, donde se ajustan los parámetros de un modelo para reducir los errores de salida. Muchos investigadores consideran que el cerebro utiliza un principio similar.
Sin embargo, el cerebro biológico supera a los sistemas actuales de aprendizaje automático. Por ejemplo, podemos aprender nueva información con solo verla una vez, mientras que los sistemas artificiales necesitan cientos de repeticiones para integrar la misma información. Además, podemos asimilar nuevos datos a la vez que conservamos conocimientos ya adquiridos, mientras que en las redes neuronales artificiales, aprender nueva información a menudo interfiere con los conocimientos existentes y los degrada rápidamente.
Estas observaciones llevaron a los investigadores a identificar el principio fundamental utilizado por el cerebro durante el aprendizaje. Examinaron conjuntos de ecuaciones matemáticas que describen los cambios de comportamiento de las neuronas y las conexiones sinápticas. Su análisis y simulación de estos modelos de procesamiento de información revelaron que utilizan un principio de aprendizaje fundamentalmente diferente al de las redes neuronales artificiales.
En las redes neuronales artificiales, un algoritmo externo intenta modificar las conexiones sinápticas para reducir los errores. Por otro lado, los investigadores proponen que el cerebro humano estabiliza primero la actividad de las neuronas en una configuración equilibrada óptima antes de ajustar las conexiones sinápticas. Este método sería en realidad una característica eficaz de la manera en que los cerebros humanos aprenden, ya que reduce la interferencia preservando los conocimientos existentes, lo que acelera el aprendizaje.
En su estudio, los autores ponen el ejemplo de un oso pescando salmón. En un modelo de red neuronal artificial, la ausencia de un sentido (como la audición) resultaría también en la pérdida de otro (como el olfato), lo que no sucede en el cerebro animal. Su teoría matemática muestra que dejar que las neuronas se estabilicen en una configuración prospectiva reduce la interferencia entre las informaciones durante el aprendizaje.
El investigador principal, el profesor Rafal Bogacz, y el primer autor del estudio, el Dr. Yuhang Song, destacan la brecha actual entre los modelos abstractos y nuestro conocimiento detallado de la anatomía de las redes cerebrales. En futuras investigaciones, planean cerrar esta brecha y comprender cómo se implementa el algoritmo de configuración prospectiva en redes corticales anatómicamente identificadas.