Diese Chip verwendet Licht: eine Revolution für GPUs und KI?

Veröffentlicht von Redbran,
Quelle: Nature Photonics
Andere Sprachen: FR, EN, ES, PT
Ingenieure der Universität von Pennsylvania haben eine neue Art von Chip entwickelt, der im Gegensatz zu herkömmlichen, mit Elektrizität betriebenen Chips, Lichtwellen zur Durchführung komplexer mathematischer Berechnungen nutzt. Diese Innovation könnte nicht nur die Verarbeitungsgeschwindigkeit von Computern erheblich beschleunigen, sondern auch ihren Energieverbrauch reduzieren.


Dieser Chip basiert auf der Silizium-Photonik (SiPh) und ist das Ergebnis avantgardistischer Forschung von Nader Engheta, Träger der Benjamin Franklin-Medaille, und Professor H. Nedwill Ramsey im Bereich der Materialmanipulation auf nanometrischer Ebene zur Durchführung mathematischer Berechnungen mit Licht. Durch die Kombination dieser Expertise mit der SiPh-Plattform, die Silizium (ein reichlich vorhandenes und kostengünstiges Element) verwendet, ebnet diese Technologie den Weg für Computer, die die aktuellen Grenzen überschreiten.

Die Zusammenarbeit zwischen der Gruppe von Engheta und der von Firooz Aflatouni, Associate Professor für Elektrotechnik und Systemtechnik, führte zur Entwicklung dieses Chips. Ihre Forschung, veröffentlicht in Nature Photonics, zielt darauf ab, eine Plattform zu schaffen, die in der Lage ist, Matrix-Vektor-Multiplikationen durchzuführen, eine wesentliche mathematische Operation für die neuronalen Netzwerke, die die aktuellen KI-Tools antreiben.

Im Gegensatz zu einem herkömmlichen Ansatz, der eine Silizium-Wafer von gleichmäßiger Höhe verwenden würde, beinhaltet diese Technologie, das Silizium dünner zu machen, etwa 150 Nanometer, aber nur in bestimmten Bereichen. Diese Höhenvariationen ermöglichen die Steuerung der Lichtausbreitung durch den Chip, was die Durchführung mathematischer Berechnungen mit Lichtgeschwindigkeit ermöglicht.

Neben einer Geschwindigkeitssteigerung und Energieeinsparung bietet dieser Chip auch Vorteile in Bezug auf die Privatsphäre. Die Fähigkeit, viele Berechnungen gleichzeitig durchzuführen, eliminiert die Notwendigkeit, sensible Informationen im Arbeitsspeicher des Computers zu speichern, was theoretisch einen mit dieser Technologie ausgestatteten Computer unhackbar macht.

Die potenziellen Anwendungen dieser Technologie sind umfangreich, insbesondere in Grafikprozessoren (GPUs), deren Nachfrage mit dem wachsenden Interesse an der Entwicklung neuer KI-Systeme explodiert ist. Diese Innovation markiert einen großen Schritt hin zu schnelleren, effizienteren und sichereren Computern.