Esta descoberta permitirá que as inteligências artificiais aprendam como o nosso cérebro

Publicado por Redbran,
Fonte: Nature Neuroscience
Outras Línguas: FR, EN, DE, ES
Em um estudo recente publicado na revista Nature Neuroscience, pesquisadores da Unidade de Dinâmica de Rede Cerebral MRC e do Departamento de Informática da Universidade de Oxford trouxeram novas perspectivas sobre como o cérebro ajusta as conexões entre os neurônios durante a aprendizagem. Essa descoberta poderia não apenas influenciar a pesquisa sobre aprendizado em redes cerebrais, mas também inspirar algoritmos de aprendizado mais rápidos e robustos para a inteligência artificial.


Crédito: Pixabay

O processo de aprendizagem consiste essencialmente em identificar os componentes responsáveis por um erro no processamento de informação. No campo da inteligência artificial, isso é feito por meio de retropropagação, onde os parâmetros de um modelo são ajustados para minimizar os erros de saída. Muitos pesquisadores acreditam que o cérebro utiliza um princípio semelhante.

No entanto, o cérebro biológico supera os sistemas atuais de aprendizado automático. Por exemplo, podemos aprender novas informações após vê-las uma única vez, enquanto os sistemas artificiais precisam de centenas de repetições para assimilar as mesmas informações. Além disso, somos capazes de assimilar novos dados enquanto mantemos o conhecimento já adquirido, ao passo que em redes de neurônios artificiais, o aprendizado de novas informações frequentemente interfere e degrada rapidamente o conhecimento existente.

Essas observações levaram os pesquisadores a identificar o princípio fundamental que o cérebro utiliza durante a aprendizagem. Eles analisaram conjuntos de equações matemáticas que descrevem as mudanças de comportamento dos neurônios e das conexões sinápticas. A análise e simulação destes modelos de processamento de informação revelaram que eles utilizam um princípio de aprendizagem fundamentalmente diferente daquele das redes de neurônios artificiais.

Em redes de neurônios artificiais, um algoritmo externo tenta modificar as conexões sinápticas para reduzir erros. Em contraste, os pesquisadores propõem que o cérebro humano primeiro estabiliza a atividade dos neurônios em uma configuração equilibrada ótima antes de ajustar as conexões sinápticas. Esse método seria na verdade uma característica eficaz de como os cérebros humanos aprendem, uma vez que reduz a interferência ao preservar o conhecimento existente, acelerando assim a aprendizagem.

No estudo, os autores usam o exemplo de um urso pescando salmão. Em um modelo de rede de neurônios artificiais, a ausência de um sentido (como a audição) resultaria também na perda de outro (como o olfato), o que não acontece no cérebro animal. A teoria matemática mostra que permitir que os neurônios se estabilizem em uma configuração prospectiva reduz a interferência entre as informações durante a aprendizagem.

O pesquisador principal, o professor Rafal Bogacz, e o primeiro autor do estudo, o Dr. Yuhang Song, destacam a lacuna atual entre os modelos abstratos e nosso conhecimento detalhado da anatomia das redes cerebrais. Eles preveem futuras pesquisas para preencher essa lacuna e compreender como o algoritmo de configuração prospectiva é implementado em redes corticais identificadas anatomicamente.
Página gerada em 0.099 segundo(s) - hospedado por Contabo
Sobre - Aviso Legal - Contato
Versão francesa | Versão inglesa | Versão alemã | Versão espanhola