Certains modèles d'intelligence artificielle peuvent déjà ressembler au cerveau humain avant même d'avoir appris quoi que ce soit. Ce constat étonnant vient d'une étude qui remet en cause les approches traditionnelles de l'
apprentissage automatique, souvent basées sur l'analyse
massive de données.
Cette recherche, menée à l'Université Johns Hopkins et publiée dans
Nature Machine Intelligence, indique que la conception initiale d'un système d'IA pourrait avoir plus d'importance que les longs processus d'entraînement. Ces derniers consomment habituellement beaucoup d'
énergie et de temps. L'équipe a comparé plusieurs types d'architectures de réseaux neuronaux pour voir lesquelles produisaient des motifs d'
activité similaires à ceux observés dans le cerveau.
Les chercheurs ont examiné trois grands types de designs: les transformateurs, les réseaux entièrement connectés et les réseaux convolutifs. Ils ont créé des dizaines de variantes de ces modèles, puis les ont exposés à des images sans aucun entraînement. Les réactions de ces systèmes ont ensuite été comparées à l'activité cérébrale enregistrée chez des humains et des primates face aux mêmes stimuli visuels.
Parmi toutes les architectures testées, les réseaux convolutifs ont montré un comportement particulier. Lorsqu'on augmentait le nombre de leurs neurones artificiels, leur activité interne se rapprochait davantage des patterns cérébraux humains. Cette capacité était présente dès le départ, sans qu'aucune donnée n'ait été utilisée pour ajuster les paramètres du modèle.
Ces réseaux convolutifs non entraînés se montraient comparables à des systèmes d'IA conventionnels qui, eux, nécessitent habituellement des millions d'images pour apprendre. Le responsable de l'étude a expliqué que si l'entraînement sur des masses de données était vraiment déterminant, de tels résultats n'auraient pas été possibles par la seule modification de l'architecture.
Cette observation offre de nouvelles pistes pour le développement futur de l'intelligence artificielle. En partant d'un design initial mieux conçu, inspiré par la
biologie, il pourrait être possible de réduire considérablement les ressources nécessaires à l'
apprentissage. Les travaux se poursuivent maintenant pour intégrer des algorithmes simples, également inspirés du vivant, dans de nouveaux cadres de développement.
Ainsi, le chemin vers des systèmes d'IA plus efficaces pourrait passer moins par la force brute des données que par une conception astucieuse, s'inspirant directement des principes éprouvés par l'évolution biologique.
Comment un réseau convolutif structure l'information visuelle
Un réseau neuronal convolutif est organisé en couches successives, un peu comme le cortex visuel dans notre cerveau. Chaque couche est spécialisée dans la détection de caractéristiques de plus en plus complexes. La première peut repérer des contours ou des changements de couleur, tandis que les suivantes identifient des formes ou des assemblages.
Cette structure hiérarchique permet un traitement très efficace des images. Au lieu d'analyser chaque pixel indépendamment, le réseau extrait progressivement les éléments significatifs. C'est cette organisation qui semble donner, naturellement, une activité interne proche de celle du cerveau, même sans apprentissage préalable.
Le fait que ces réseaux non entraînés montrent déjà une telle similarité avec l'activité cérébrale indique que leur 'plan de construction' est fondamentalement adapté à la tâche visuelle. Cela montre l'importance de bien choisir l'architecture de départ, avant même de commencer à nourrir le système avec des données pour l'affiner.
Pourquoi la conception initiale peut accélérer l'apprentissage
L'apprentissage en intelligence artificielle repose souvent sur l'ajustement de millions, voire de milliards de paramètres internes. Ce processus, appelé entraînement, demande habituellement d'énormes quantités d'exemples et de puissance de calcul. Il part généralement d'un état initial aléatoire ou très simple.
Si le modèle part déjà d'un état proche de la solution, comme l'indique cette étude, le chemin à parcourir pour atteindre un bon niveau de performance est beaucoup plus court.
C'est l'avantage potentiel d'une architecture 'alignée sur le cortex' dès le départ. Elle place le système dans une configuration favorable, réduisant le besoin de données et d'itérations. Cela pourrait conduire à des modèles qui apprennent plus vite, avec moins d'énergie, en s'inspirant des principes d'efficacité découverts par l'évolution biologique.