🧠 IA: algunas arquitecturas resultan fundamentalmente similares al cerebro humano

Publicado por Adrien,
Fuente: Nature Machine Intelligence
Otros Idiomas: FR, EN, DE, PT
Algunos modelos de inteligencia artificial ya pueden parecerse al cerebro humano incluso antes de haber aprendido algo. Esta sorprendente observación proviene de un estudio que cuestiona los enfoques tradicionales del aprendizaje automático, a menudo basados en el análisis masivo de datos.

Esta investigación, realizada en la Universidad Johns Hopkins y publicada en Nature Machine Intelligence, indica que el diseño inicial de un sistema de IA podría tener más importancia que los largos procesos de entrenamiento. Estos últimos suelen consumir mucha energía y tiempo. El equipo comparó varios tipos de arquitecturas de redes neuronales para ver cuáles producían patrones de actividad similares a los observados en el cerebro.


Los investigadores examinaron tres grandes tipos de diseños: los transformadores, las redes completamente conectadas y las redes convolucionales. Crearon docenas de variantes de estos modelos y luego los expusieron a imágenes sin ningún entrenamiento. Las reacciones de estos sistemas se compararon posteriormente con la actividad cerebral registrada en humanos y primates ante los mismos estímulos visuales.

Entre todas las arquitecturas probadas, las redes convolucionales mostraron un comportamiento particular. Cuando se aumentaba el número de sus neuronas artificiales, su actividad interna se acercaba más a los patrones cerebrales humanos. Esta capacidad estaba presente desde el principio, sin que se hubieran utilizado datos para ajustar los parámetros del modelo.

Estas redes convolucionales no entrenadas resultaron comparables a sistemas de IA convencionales que, por lo general, necesitan millones de imágenes para aprender. El responsable del estudio explicó que si el entrenamiento con masas de datos fuera realmente determinante, tales resultados no habrían sido posibles solo con la modificación de la arquitectura.

Esta observación ofrece nuevas pistas para el desarrollo futuro de la inteligencia artificial. Partiendo de un diseño inicial mejor concebido, inspirado por la biología, podría ser posible reducir considerablemente los recursos necesarios para el aprendizaje. Los trabajos continúan ahora para integrar algoritmos simples, también inspirados en lo vivo, en nuevos marcos de desarrollo.

Así, el camino hacia sistemas de IA más eficaces podría pasar menos por la fuerza bruta de los datos que por un diseño ingenioso, inspirándose directamente en los principios probados por la evolución biológica.

Cómo una red convolucional estructura la información visual


Una red neuronal convolucional se organiza en capas sucesivas, un poco como la corteza visual en nuestro cerebro. Cada capa está especializada en la detección de características cada vez más complejas. La primera puede detectar contornos o cambios de color, mientras que las siguientes identifican formas o ensamblajes.

Esta estructura jerárquica permite un procesamiento muy eficiente de las imágenes. En lugar de analizar cada píxel de forma independiente, la red extrae progresivamente los elementos significativos. Es esta organización la que parece dar, de forma natural, una actividad interna próxima a la del cerebro, incluso sin aprendizaje previo.

El hecho de que estas redes no entrenadas muestren ya tal similitud con la actividad cerebral indica que su "plan de construcción" está fundamentalmente adaptado a la tarea visual. Esto muestra la importancia de elegir bien la arquitectura de partida, incluso antes de empezar a alimentar el sistema con datos para afinarlo.

Por qué el diseño inicial puede acelerar el aprendizaje


El aprendizaje en inteligencia artificial se basa a menudo en el ajuste de millones, e incluso miles de millones, de parámetros internos. Este proceso, llamado entrenamiento, suele requerir enormes cantidades de ejemplos y potencia de cálculo. Generalmente parte de un estado inicial aleatorio o muy simple.

Si el modelo parte ya de un estado cercano a la solución, como indica este estudio, el camino por recorrer para alcanzar un buen nivel de rendimiento es mucho más corto.

Esta es la ventaja potencial de una arquitectura "alineada con la corteza" desde el principio. Coloca al sistema en una configuración favorable, reduciendo la necesidad de datos e iteraciones. Esto podría conducir a modelos que aprendan más rápido, con menos energía, inspirándose en los principios de eficiencia descubiertos por la evolución biológica.
Página generada en 0.123 segundo(s) - alojado por Contabo
Acerca de - Aviso Legal - Contacto
Versión francesa | Versión inglesa | Versión alemana | Versión portuguesa