Diese Entdeckung könnte künstlichen Intelligenzen ein lernendes Verhalten wie unser Gehirn ermöglichen

Veröffentlicht von Redbran,
Quelle: Nature Neuroscience
Andere Sprachen: FR, EN, ES, PT
In einer kürzlich in der Zeitschrift Nature Neuroscience veröffentlichten Studie haben Forscher der MRC-Einheit für Hirnnetzdynamik und der Informatikabteilung der Universität Oxford neues Licht auf die Art und Weise geworfen, wie das Gehirn die Verbindungen zwischen Neuronen während des Lernens anpasst. Diese Entdeckung könnte nicht nur die Forschung zum Lernen in Gehirnnetzen beeinflussen, sondern auch Algorithmen für ein schnelleres und robustes Lernen in der künstlichen Intelligenz inspirieren.


Bildnachweis: Pixabay

Lernen besteht im Wesentlichen darin, die für einen Fehler bei der Informationsverarbeitung verantwortlichen Komponenten zu identifizieren. Im Bereich der künstlichen Intelligenz geschieht dies durch Rückpropagierung, bei der die Parameter eines Modells angepasst werden, um die Ausgabefehler zu verringern. Viele Forscher glauben, dass das Gehirn ein ähnliches Prinzip verwendet.

Jedoch übertrifft das biologische Gehirn die heutigen Systeme des maschinellen Lernens. Zum Beispiel können wir neue Informationen durch einmaliges Sehen lernen, während künstliche Systeme Hunderte von Wiederholungen benötigen, um dieselben Informationen zu integrieren. Darüber hinaus können wir neue Daten aufnehmen und gleichzeitig das bereits erworbene Wissen behalten, während in künstlichen neuronalen Netzwerken das Erlernen neuer Informationen oft mit vorhandenem Wissen interferiert und dieses schnell degradiert.

Diese Beobachtungen veranlassten die Forscher dazu, das grundlegende Prinzip, das das Gehirn beim Lernen verwendet, zu identifizieren. Sie untersuchten mathematische Gleichungssätze, die die Verhaltensänderungen der Neuronen und synaptischen Verbindungen beschreiben. Ihre Analyse und Simulation dieser Informationsverarbeitungsmodelle enthüllte, dass sie ein grundsätzlich anderes Lernprinzip verwenden als künstliche neuronale Netzwerke.

In künstlichen neuronalen Netzwerken versucht ein externer Algorithmus, die synaptischen Verbindungen zu modifizieren, um Fehler zu reduzieren. Im Gegensatz dazu schlagen die Forscher vor, dass das menschliche Gehirn zuerst die Aktivität der Neuronen in einer ausgewogenen optimalen Konfiguration stabilisiert, bevor es die synaptischen Verbindungen anpasst. Diese Methode wäre tatsächlich ein effektives Merkmal der Art, wie menschliche Gehirne lernen, da sie durch die Bewahrung des vorhandenen Wissens die Interferenz verringert und das Lernen beschleunigt.

In ihrer Studie nehmen die Autoren das Beispiel eines Bären, der Lachse fischt. In einem Modell eines künstlichen neuronalen Netzwerks würde das Fehlen eines Sinnes (wie das Hören) auch den Verlust eines anderen (wie den Geruch) bedeuten, was im tierischen Gehirn nicht der Fall ist. Ihre mathematische Theorie zeigt, dass das Stabilisieren der Neuronen in einer zukunftsorientierten Konfiguration die Interferenz zwischen den Informationen während des Lernens verringert.

Der leitende Forscher, Professor Rafal Bogacz, und der Erstautor der Studie, Dr. Yuhang Song, betonen die aktuelle Kluft zwischen abstrakten Modellen und unserem detaillierten Wissen über die Anatomie von Gehirnnetzen. Sie planen zukünftige Forschungen, um diese Kluft zu schließen und zu verstehen, wie das Verfahren der zukunftsorientierten Konfiguration in anatomisch identifizierten kortikalen Netzwerken implementiert wird.