Zwei künstliche Intelligenzen beginnen zu kommunizieren

Veröffentlicht von Adrien,
Quelle: Universität Genf
Andere Sprachen: FR, EN, ES, PT
Eine bisher unbekannte Aufgabe ausschließlich auf der Grundlage mündlicher oder schriftlicher Anweisungen auszuführen und dann zu beschreiben, damit eine andere Person sie nachvollziehen kann. Diese doppelte Fähigkeit ist ein Eckpfeiler der menschlichen Kommunikation, der der künstlichen Intelligenz (KI) noch immer Schwierigkeiten bereitet.

Ein Team der Universität Genf (UNIGE) hat es geschafft, ein Netzwerk künstlicher Neuronen zu modellieren, das in der Lage ist, diese kognitive Leistung zu vollbringen. Nachdem diese KI eine Reihe grundlegender Aufgaben gelernt und ausgeführt hat, konnte sie eine sprachliche Beschreibung an eine "Schwester"-KI übermitteln, die diese Aufgaben daraufhin ebenfalls ausgeführt hat. Diese vielversprechenden Ergebnisse, insbesondere für den Bereich der Robotik, finden sich in Nature Neuroscience.


Eine bisher unbekannte Aufgabe ohne vorheriges Training allein auf der Basis mündlicher oder schriftlicher Anweisungen auszuführen, ist eine Fähigkeit, die dem Menschen eigen ist. Sobald die Aufgabe gelernt ist, sind wir auch in der Lage, sie so zu beschreiben, dass eine andere Person sie nachvollziehen kann. Diese doppelte Fähigkeit unterscheidet uns von anderen Arten, die für das Erlernen einer solchen Aufgabe viele Versuche mit positiven oder negativen Verstärkungssignalen benötigen, ohne in der Lage zu sein, sie ihren Artgenossen zu vermitteln.

Ein Teilgebiet der künstlichen Intelligenz (KI) - die Verarbeitung natürlicher Sprache - versucht, diese menschliche Fähigkeit nachzubilden, mit Maschinen, die Sprach- oder Textdaten verstehen und darauf reagieren können. Diese Technik basiert auf Netzwerken künstlicher Neuronen, inspiriert von unseren biologischen Neuronen und der Art und Weise, wie sie elektrische Signale in unserem Gehirn übertragen. Die neuronalen Berechnungen, die erforderlich wären, um die oben beschriebene kognitive Leistung zu vollbringen, sind jedoch noch immer schlecht verstanden.

"Derzeit sind Konversationsagenten, die KI verwenden, in der Lage, sprachliche Informationen zu integrieren, um Text oder ein Bild zu produzieren. Aber soweit wir wissen, sind sie noch nicht in der Lage, eine mündliche oder schriftliche Anweisung in eine sensomotorische Aktion zu übersetzen, und noch weniger, dies anschließend einer anderen künstlichen Intelligenz zu erklären, damit sie sie nachahmen kann", sagt Alexandre Pouget, ordentlicher Professor am Department für Grundlagen der Neurowissenschaften der Medizinischen Fakultät der UNIGE.

Ein Gehirnmodell im Miniaturformat


Der Forscher und sein Team haben ein künstliches neuronales Modell entwickelt, das über diese doppelte Fähigkeit verfügt, allerdings nach vorherigem Training. "Wir sind von einem bestehenden Modell künstlicher Neuronen ausgegangen, S-Bert, welches 300 Millionen Neuronen umfasst und bereits für das Verständnis von Sprache vortrainiert ist.

Wir haben es an ein anderes, einfacheres Netzwerk von einigen tausend Neuronen angeschlossen", erklärt Reidar Riveland, Doktorand am Department für Grundlagen der Neurowissenschaften der Medizinischen Fakultät der UNIGE und Erstautor der Studie.


Das Team der UNIGE arbeitete mit Netzwerken künstlicher Neuronen, inspiriert von unseren biologischen Neuronen und der Art und Weise, wie sie elektrische Signale im Gehirn übertragen. © AdobeStock

In der ersten Phase des Experiments trainierten die Neurowissenschaftler dieses Netzwerk darauf, die Wernicke-Region zu simulieren, den Teil des Gehirns, der es uns ermöglicht, Sprache wahrzunehmen und zu interpretieren. In der zweiten Phase wurde das Netzwerk darauf trainiert, die Broca-Region nachzubilden, die unter dem Einfluss der Wernicke-Region für die Produktion und Artikulation von Wörtern verantwortlich ist. Der gesamte Prozess wurde auf herkömmlichen Laptops durchgeführt. Schriftliche Anweisungen, in Englisch, wurden anschließend an die KI übermittelt.

Beispiele hierfür sind: den Ort - links oder rechts - anzuzeigen, an dem ein Stimulus wahrgenommen wird; in die entgegengesetzte Richtung eines Stimulus zu antworten; oder komplexer, zwischen zwei visuellen Stimuli mit einem leichten Kontrastunterschied das hellere zu zeigen. Die Wissenschaftler bewerteten die Ergebnisse ihres Modells, das die Absicht zu bewegen, oder hier zu zeigen, simuliert.

"Nachdem diese Aufgaben gelernt wurden, war das Netzwerk in der Lage, sie einem zweiten Netzwerk - einer Kopie des ersten - zu beschreiben, damit es sie nachahmen konnte. Soweit wir wissen, ist es das erste Mal, dass zwei KI rein sprachlich miteinander kommunizieren", freut sich Alexandre Pouget, der diese Arbeiten geleitet hat.

Für zukünftige humanoide Roboter


Diese Modellierung eröffnet neue Horizonte für das Verständnis der Interaktion zwischen Sprache und Verhalten. Sie ist insbesondere für den Bereich der Robotik vielversprechend, wo die Entwicklung von Technologien, die es Maschinen ermöglichen, miteinander zu kommunizieren, eine Schlüsselherausforderung darstellt.

"Das Netzwerk, das wir entwickelt haben, ist sehr klein. Nichts hindert uns nun daran, auf dieser Grundlage viel komplexere Netzwerke zu entwickeln, die in humanoide Roboter integriert werden könnten, die in der Lage sind, uns zu verstehen, aber auch untereinander zu kommunizieren", schließen die beiden Forscher ab.