Wie neuromorphe Chips funktionieren – und warum sie wichtig sind
Neuromorphe Chips ahmen die Architektur des menschlichen Gehirns nach, um Informationen mit einem Bruchteil der Energie zu verarbeiten, die herkömmliche Prozessoren benötigen. Sie bieten eine potenzielle Lösung für die wachsende Energiekrise der KI.
Das Problem mit der Denkweise von Computern
Jeder herkömmliche Computer, der seit den 1940er Jahren gebaut wurde, folgt dem gleichen grundlegenden Bauplan: Ein Prozessor übernimmt das Denken, der Speicher speichert die Daten und ein Bus transportiert Informationen zwischen ihnen. Dies wird als Von-Neumann-Architektur bezeichnet und hat einen entscheidenden Nachteil. Da künstliche Intelligenz immer größere Datensätze und schnellere Berechnungen erfordert, wird dieser schmale Datenbus zu einem lähmenden Engpass. Der Prozessor verbringt mehr Zeit mit dem Warten auf Daten als mit dem eigentlichen Rechnen.
Das menschliche Gehirn hat diese Einschränkung nicht. Seine 86 Milliarden Neuronen speichern und verarbeiten Informationen am selben Ort, wobei sie winzige elektrochemische Impulse verwenden, die etwa 20 Watt verbrauchen – weniger als eine Glühbirne. Ein modernes KI-Trainingscluster kann dagegen zig Megawatt ziehen. Neuromorphes Computing zielt darauf ab, diese Lücke zu schließen, indem Chips gebaut werden, die wie Gehirne und nicht wie Taschenrechner funktionieren.
Was neuromorphe Chips anders macht
Neuromorphe Prozessoren ersetzen die traditionelle CPU-Speicher-Trennung durch Netzwerke künstlicher Neuronen und Synapsen, die direkt in Silizium geätzt sind. Diese Schaltkreise kommunizieren über spiking neural networks (SNNs) – ein grundlegend anderer Ansatz als die Deep Neural Networks, die die heutige KI antreiben.
In einem herkömmlichen neuronalen Netzwerk feuert jedes Neuron während jedes Berechnungszyklus und verbraucht Energie, unabhängig davon, ob die Daten sinnvoll sind oder nicht. In einem SNN sammeln künstliche Neuronen im Laufe der Zeit Ladung an und feuern erst, wenn sie einen Schwellenwert erreichen, genau wie biologische Neuronen. Das Ergebnis ist, dass der größte Teil des Chips zu jedem gegebenen Zeitpunkt stumm bleibt und nur die Signale verarbeitet, die wichtig sind.
Dieses ereignisgesteuerte Design führt zu dramatischen Effizienzsteigerungen. Laut IBM können neuromorphe Chips für Aufgaben wie Echtzeit-Sensorverarbeitung und Mustererkennung bis zu 1.000-mal energieeffizienter sein als GPUs.
Wichtige Akteure und Architekturen
Mehrere große Chip-Initiativen treiben neuromorphe Hardware in Richtung praktischer Anwendung:
- Intel Loihi 2 – Intels neuromorpher Forschungs-Chip der zweiten Generation bietet bis zu 10-mal die Verarbeitungsgeschwindigkeit seines Vorgängers. Im Jahr 2024 baute Intel Hala Point, das weltweit größte neuromorphe System, das 1.152 Loihi 2-Prozessoren enthält, um 1,15 Milliarden Neuronen zu simulieren.
- IBM NorthPole – NorthPole wurde für KI-Inferenz und nicht für das Training entwickelt und integriert den gesamten Speicher auf dem Chip, wodurch Datenübertragungsverzögerungen vermieden werden. IBM berichtet, dass er etwa 4.000-mal schneller ist als sein früherer TrueNorth-Chip und gleichzeitig hochenergieeffizient bleibt.
- BrainChip Akida – Ein kommerzieller neuromorpher Prozessor, der auf Edge-Geräte abzielt, von Überwachungskameras bis hin zu autonomen Drohnen, wo die Leistungsbudgets knapp sind und die Latenz minimal sein muss.
Memristoren: Das fehlende Puzzleteil
Ein wichtiger Wegbereiter für neuromorphe Hardware der nächsten Generation ist der Memristor – eine Komponente, die ihren elektrischen Widerstand basierend auf der Historie des Stroms ändert, der durch sie geflossen ist, ähnlich wie sich eine Synapse durch Gebrauch verstärkt oder abschwächt. Memristoren ermöglichen es Chips, Berechnungen und Speicherung gleichzeitig durchzuführen, wodurch der Von-Neumann-Engpass vollständig umgangen wird.
Forscher an der University of Cambridge haben kürzlich einen Memristor auf Basis von modifiziertem Hafniumoxid entwickelt, der mit Schaltströmen arbeitet, die etwa eine Million Mal niedriger sind als bei herkömmlichen Alternativen. Das Gerät erzeugte Hunderte von unterschiedlichen, stabilen Leitfähigkeitsstufen – eine kritische Voraussetzung für analoges In-Memory-Computing – und könnte den Energieverbrauch von KI-Hardware um bis zu 70 Prozent senken.
Wohin sich neuromorphe Chips entwickeln
Es ist unwahrscheinlich, dass neuromorphe Prozessoren GPUs für das Training großer Sprachmodelle in absehbarer Zeit ersetzen werden. Ihre Stärke liegt in der Inferenz am Edge: Roboter, die in Echtzeit reagieren, Wearables, die Gesundheitsdaten kontinuierlich überwachen, und autonome Fahrzeuge, die Sensorfeeds mit nahezu null Latenz verarbeiten. Da Spiking Neural Networks zeitliche Daten auf natürliche Weise verarbeiten, eignen sie sich hervorragend für Aufgaben, die mit Ton, Bewegung und Berührung zu tun haben.
Da KI-Workloads die globalen Stromnetze weiterhin belasten, sieht der Bauplan des Gehirns für effizientes Rechnen weniger wie eine Kuriosität und mehr wie eine Notwendigkeit aus. Die Chips, die in Spikes denken, könnten letztendlich darüber entscheiden, ob künstliche Intelligenz skaliert werden kann, ohne die Energieversorgung des Planeten zu überlasten.
Bleib auf dem Laufenden!
Folge uns auf Facebook für die neuesten Nachrichten und Artikel.
Folge uns auf Facebook