📋 Alle Artikel im Überblick → Zum Inhaltsverzeichnis

Was das Fliegengehirn der KI voraus hat



Mein 2. Interview im Freitagsclub
Gast: Prof. Dr. Alexander Borst
Institut: MPI für Biologische Intelligenz
Dauer: ca. 56 Minuten

Ein Salzkorn. So groß ist das Gehirn der Fruchtfliege Drosophila melanogaster. Und doch steckt in diesem winzigen Gebilde eine Rechenleistung, die moderne KI-Ingenieure noch immer nicht vollständig nachgebaut haben – trotz Milliarden Dollar Investition und ganzer Kraftwerke, die eigens für ihre Rechenzentren gebaut werden.

Im zweiten Interview des Freitagsclubs war Alexander Borst zu Gast – langjähriger Freund und einer der weltweit führenden Experten für Computationale Neurowissenschaften. Er war bis zu seiner Emeritierung Direktor am Max-Planck-Institut für Biologische Intelligenz in Martinsried bei München, Mitglied der Nationalakademie Leopoldina.

Warum ausgerechnet die Fliege?

Die Frage klingt provokant – aber sie hat eine präzise Antwort. Drosophila besitzt rund 100.000 Nervenzellen. Das klingt nach viel, ist aber gegenüber der Maus (rund 70 Millionen) und dem Menschen (rund 86 Milliarden) eine überschaubare Größe. Entscheidend ist: In einem einzigen Kubikmillimeter des menschlichen Gehirns – das ist die kleinste Einheit, die ein Kernspin-Tomograph noch auflösen kann – sitzen so viele Nervenzellen wie im gesamten Fliegengehirn. Am Fliegengehirn kann man deshalb einzelnen Nervenzellen beim Rechnen zuschauen. Am Menschengehirn ist das nicht möglich.

Nervenzellen im Vergleich
  • Fruchtfliege Drosophila ~100.000
  • Maus ~70 Millionen
  • Mensch ~86 Milliarden
  • In 1 mm³ Menschenhirn (MRT-Auflösung) ~100.000

Der zweite Vorteil der Fliege ist die Genetik. Thomas Morgan hat Drosophila vor über 100 Jahren als Modelltier der Genetikforschung eingeführt. Heute kann man gezielt jedes beliebige Gen in eine bestimmte Nervenzelle einschleusen – um sie leuchten zu lassen, wenn sie aktiv ist, um ihre Verbindungen zu blockieren, oder um sie per Licht zu aktivieren. Das erlaubt eine Art Schaltkreisanalyse, die in keinem anderen Lebewesen möglich ist.

Bewegung sehen – ein Rechenproblem

Das Herzstück von Axels Forschung: Wie errechnet ein Gehirn die Richtung einer Bewegung, wenn ein einzelner Lichtrezeptor dazu gar nicht in der Lage ist? Ein Photorezeptor meldet nur hell oder dunkel – mehr nicht. Bewegungsrichtung ist eine höhere Rechenleistung. Axels Labor hat gezeigt, wie die Fliege dieses Problem löst.

„Das Lichtsignal von der einen Kolumne wird mit dem Lichtsignal der anderen Kolumne zeitlich verzögert multipliziert – und dadurch wird diese Zelle für genau diese Bewegungsrichtung empfindlich.“

Alexander Borst über die T4/T5-Zellen im optischen Lobus der Fliege

Pro Facette des Fliegenauges gibt es im darunter liegenden Nervensystem genau acht spezialisierte Zellen: vier für helle Kanten, vier für dunkle. Jede Gruppe ist auf eine der vier Grundrichtungen spezialisiert – rechts, links, oben, unten. Der Mechanismus dahinter ist elegant: Durch Änderung der elektrischen Widerstände an der Synapse kann ein Signal das andere modulieren. Eine echte Multiplikation – eine Rechenoperation, die weit über ein simples Ein/Aus-Schaltelement hinausgeht.

Der von-Neumann-Engpass – warum Computer so viel Strom fressen

Der klassische Computer trennt Rechenwerk und Speicher. Diese Architektur – nach dem Mathematiker John von Neumann benannt – zwingt den Prozessor, ständig Daten zwischen diesen beiden Orten hin- und herzuschaufeln. Das kostet Energie. Im Gehirn ist das grundlegend anders: Der Speicher sitzt im Rechenelement selbst – nämlich in der Stärke der Verbindungen zwischen Nervenzellen. Rechnen und Erinnern passieren am selben Ort, ohne Datentransport.

Überraschend ist: Auch künstliche neuronale Netze – das Herzstück von ChatGPT & Co. – speichern ihr „Wissen“ in Gewichten zwischen den künstlichen Neuronen. Das klingt biologisch. Doch was man sieht, wenn man einen Computer aufmacht, ist kein Nervennetz. Es ist immer noch eine von-Neumann-Maschine, die ein neuronales Netz simuliert. Die biologische Effizienz entsteht dabei nicht.

Energievergleich: Gehirn vs. Rechenzentrum
  • Menschliches Gehirn ~20 Watt
  • Eine schwache Glühbirne (zum Vergleich) 25 Watt
  • KI-Training GPT-4-Klasse (geschätzt, gesamt) 50–100 GWh
  • Alle Rechenzentren weltweit (2024) ~460 TWh/Jahr
  • Energieverbrauch der Rechenzentren wächst weiter ↑

Axel machte eine wichtige Einschränkung, die in der öffentlichen Debatte fast immer fehlt: Die riesigen Energiezahlen, die man über ChatGPT liest, beziehen sich auf das Pretraining – den einmaligen, astronomisch teuren Lernprozess. Eine einzelne Anfrage danach ist vergleichsweise günstig.

Neuromorphe Chips – die unterschätzte Alternative

Der spannendste offene Faden im Gespräch: Neuromorphe Hardware – Chips, die nicht nur ein neuronales Netz auf altem Computer-Eisen simulieren, sondern dessen Architektur physisch nachbauen. Kein von-Neumann-Engpass, kein ständiger Datentransport, Energieverbrauch um Größenordnungen geringer.

Solche Systeme existieren bereits: Intels Loihi-Chip, IBMs TrueNorth, das BrainScaleS-Projekt in Heidelberg.

Der realistischste Pfad in die Praxis? Robotik und mobile Geräte. Drohnen, autonome Roboter, Handys: Überall dort ist der Selektionsdruck auf Energieeffizienz enorm. Chinesische Roboter laufen bereits Marathon – und ein neuromorphes Gehirn würde bedeuten: längere Laufzeit, leichterer Akku, mehr Leistung aus weniger Energie.

Konnektom und Simulation – Axels aktuelle Arbeit

Seit einigen Jahren kennt die Wissenschaft das vollständige Konnektom der Fruchtfliege – die vollständige Verbindungskarte aller 100.000 Nervenzellen mit sämtlichen Synapsen. Das ist ein wissenschaftshistorischer Meilenstein. Die Frage, die Axel jetzt antreibt: Reicht dieses Wissen, um das Verhalten der Nervenzellen im Computer zu simulieren?

Sein erstes Ergebnis ist aufschlussreich: Das Konnektom allein genügt nicht. Erst wenn man zusätzlich die zellspezifischen Ionenkanäle berücksichtigt – also die biophysikalischen Eigenschaften jeder einzelnen Zelle – stimmt die Simulation mit den experimentellen Daten überein. Struktur ist notwendig, aber nicht hinreichend.

„Nur die Verbindungsstärke zwischen den Neuronen zu kennen ist nicht hinreichend. Wenn ich die Ionenkanäle rausnehme, geht es nicht.“

Alexander Borst über die Grenzen des Konnektoms


AB
Prof. Dr. Alexander Borst
Emeritierter Direktor · MPI für Biologische Intelligenz, Martinsried

Borst studierte in Würzburg, wo ein Seminar über künstliche und biologische Intelligenz seine Richtung bestimmte. Er gilt als einer der führenden Experten für Computational Neurowissenschaften weltweit, entschlüsselte den biophysikalischen Mechanismus des Bewegungssehens in Drosophila und ist Mitglied der Nationalakademie Leopoldina.

Was bleibt

Am Ende unseres Gesprächs teilten Axel und ich eine Empfindung, die ich gut kenne: Faszination und Sorge zugleich. Faszination über das, was heute möglich ist – ich hätte es vor zwanzig Jahren nicht für möglich gehalten, mit einer KI ein sinnvolles Gespräch führen zu können. Und Sorge darüber, dass technologischer Fortschritt allein die alten Fragen nicht beantwortet: Was ist richtig? Was ist falsch? Wem nützt es?

Die Natur hat in 550 Millionen Jahren Lösungen erarbeitet, die wir gerade erst zu lesen beginnen. Das Salzkorn-Gehirn der Fruchtfliege ist dabei nicht bloß ein kurioses Forschungsobjekt – es ist ein Maßstab. Einer, der uns noch sehr lange beschäftigen wird.

Neue Gespräche erscheinen regelmäßig auf seniorentreff.tv – mit Persönlichkeiten aus Wissenschaft, Technik und Gesellschaft. Alle Videos, Hintergründe und Diskussionen auch in unserem Forum.

Zur Community

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert