📋 Alle Artikel im Überblick → Zum Inhaltsverzeichnis

Kategorie: KI-Entwicklung

Diese Beiträge beschäftigen sich Aspekten der KI-Evolution

  • Was das Fliegengehirn der KI voraus hat



    Mein 2. Interview im Freitagsclub
    Gast: Prof. Dr. Alexander Borst
    Institut: MPI fĂĽr Biologische Intelligenz
    Dauer: ca. 56 Minuten

    Ein Salzkorn. So groß ist das Gehirn der Fruchtfliege Drosophila melanogaster. Und doch steckt in diesem winzigen Gebilde eine Rechenleistung, die moderne KI-Ingenieure noch immer nicht vollständig nachgebaut haben – trotz Milliarden Dollar Investition und ganzer Kraftwerke, die eigens für ihre Rechenzentren gebaut werden.

    Im zweiten Interview des Freitagsclubs war Alexander Borst zu Gast – langjähriger Freund und einer der weltweit führenden Experten für Computationale Neurowissenschaften. Er war bis zu seiner Emeritierung Direktor am Max-Planck-Institut für Biologische Intelligenz in Martinsried bei München, Mitglied der Nationalakademie Leopoldina.

    Warum ausgerechnet die Fliege?

    Die Frage klingt provokant – aber sie hat eine präzise Antwort. Drosophila besitzt rund 100.000 Nervenzellen. Das klingt nach viel, ist aber gegenüber der Maus (rund 70 Millionen) und dem Menschen (rund 86 Milliarden) eine überschaubare Größe. Entscheidend ist: In einem einzigen Kubikmillimeter des menschlichen Gehirns – das ist die kleinste Einheit, die ein Kernspin-Tomograph noch auflösen kann – sitzen so viele Nervenzellen wie im gesamten Fliegengehirn. Am Fliegengehirn kann man deshalb einzelnen Nervenzellen beim Rechnen zuschauen. Am Menschengehirn ist das nicht möglich.

    Nervenzellen im Vergleich
    • Fruchtfliege Drosophila ~100.000
    • Maus ~70 Millionen
    • Mensch ~86 Milliarden
    • In 1 mmÂł Menschenhirn (MRT-Auflösung) ~100.000

    Der zweite Vorteil der Fliege ist die Genetik. Thomas Morgan hat Drosophila vor über 100 Jahren als Modelltier der Genetikforschung eingeführt. Heute kann man gezielt jedes beliebige Gen in eine bestimmte Nervenzelle einschleusen – um sie leuchten zu lassen, wenn sie aktiv ist, um ihre Verbindungen zu blockieren, oder um sie per Licht zu aktivieren. Das erlaubt eine Art Schaltkreisanalyse, die in keinem anderen Lebewesen möglich ist.

    Bewegung sehen – ein Rechenproblem

    Das Herzstück von Axels Forschung: Wie errechnet ein Gehirn die Richtung einer Bewegung, wenn ein einzelner Lichtrezeptor dazu gar nicht in der Lage ist? Ein Photorezeptor meldet nur hell oder dunkel – mehr nicht. Bewegungsrichtung ist eine höhere Rechenleistung. Axels Labor hat gezeigt, wie die Fliege dieses Problem löst.

    „Das Lichtsignal von der einen Kolumne wird mit dem Lichtsignal der anderen Kolumne zeitlich verzögert multipliziert – und dadurch wird diese Zelle fĂĽr genau diese Bewegungsrichtung empfindlich.“

    Alexander Borst ĂĽber die T4/T5-Zellen im optischen Lobus der Fliege

    Pro Facette des Fliegenauges gibt es im darunter liegenden Nervensystem genau acht spezialisierte Zellen: vier für helle Kanten, vier für dunkle. Jede Gruppe ist auf eine der vier Grundrichtungen spezialisiert – rechts, links, oben, unten. Der Mechanismus dahinter ist elegant: Durch Änderung der elektrischen Widerstände an der Synapse kann ein Signal das andere modulieren. Eine echte Multiplikation – eine Rechenoperation, die weit über ein simples Ein/Aus-Schaltelement hinausgeht.

    Der von-Neumann-Engpass – warum Computer so viel Strom fressen

    Der klassische Computer trennt Rechenwerk und Speicher. Diese Architektur – nach dem Mathematiker John von Neumann benannt – zwingt den Prozessor, ständig Daten zwischen diesen beiden Orten hin- und herzuschaufeln. Das kostet Energie. Im Gehirn ist das grundlegend anders: Der Speicher sitzt im Rechenelement selbst – nämlich in der Stärke der Verbindungen zwischen Nervenzellen. Rechnen und Erinnern passieren am selben Ort, ohne Datentransport.

    Ăśberraschend ist: Auch kĂĽnstliche neuronale Netze – das HerzstĂĽck von ChatGPT & Co. – speichern ihr „Wissen“ in Gewichten zwischen den kĂĽnstlichen Neuronen. Das klingt biologisch. Doch was man sieht, wenn man einen Computer aufmacht, ist kein Nervennetz. Es ist immer noch eine von-Neumann-Maschine, die ein neuronales Netz simuliert. Die biologische Effizienz entsteht dabei nicht.

    Energievergleich: Gehirn vs. Rechenzentrum
    • Menschliches Gehirn ~20 Watt
    • Eine schwache GlĂĽhbirne (zum Vergleich) 25 Watt
    • KI-Training GPT-4-Klasse (geschätzt, gesamt) 50–100 GWh
    • Alle Rechenzentren weltweit (2024) ~460 TWh/Jahr
    • Energieverbrauch der Rechenzentren wächst weiter ↑

    Axel machte eine wichtige Einschränkung, die in der öffentlichen Debatte fast immer fehlt: Die riesigen Energiezahlen, die man über ChatGPT liest, beziehen sich auf das Pretraining – den einmaligen, astronomisch teuren Lernprozess. Eine einzelne Anfrage danach ist vergleichsweise günstig.

    Neuromorphe Chips – die unterschätzte Alternative

    Der spannendste offene Faden im Gespräch: Neuromorphe Hardware – Chips, die nicht nur ein neuronales Netz auf altem Computer-Eisen simulieren, sondern dessen Architektur physisch nachbauen. Kein von-Neumann-Engpass, kein ständiger Datentransport, Energieverbrauch um Größenordnungen geringer.

    Solche Systeme existieren bereits: Intels Loihi-Chip, IBMs TrueNorth, das BrainScaleS-Projekt in Heidelberg.

    Der realistischste Pfad in die Praxis? Robotik und mobile Geräte. Drohnen, autonome Roboter, Handys: Überall dort ist der Selektionsdruck auf Energieeffizienz enorm. Chinesische Roboter laufen bereits Marathon – und ein neuromorphes Gehirn würde bedeuten: längere Laufzeit, leichterer Akku, mehr Leistung aus weniger Energie.

    Konnektom und Simulation – Axels aktuelle Arbeit

    Seit einigen Jahren kennt die Wissenschaft das vollständige Konnektom der Fruchtfliege – die vollständige Verbindungskarte aller 100.000 Nervenzellen mit sämtlichen Synapsen. Das ist ein wissenschaftshistorischer Meilenstein. Die Frage, die Axel jetzt antreibt: Reicht dieses Wissen, um das Verhalten der Nervenzellen im Computer zu simulieren?

    Sein erstes Ergebnis ist aufschlussreich: Das Konnektom allein genügt nicht. Erst wenn man zusätzlich die zellspezifischen Ionenkanäle berücksichtigt – also die biophysikalischen Eigenschaften jeder einzelnen Zelle – stimmt die Simulation mit den experimentellen Daten überein. Struktur ist notwendig, aber nicht hinreichend.

    „Nur die Verbindungsstärke zwischen den Neuronen zu kennen ist nicht hinreichend. Wenn ich die Ionenkanäle rausnehme, geht es nicht.“

    Alexander Borst ĂĽber die Grenzen des Konnektoms


    AB
    Prof. Dr. Alexander Borst
    Emeritierter Direktor · MPI für Biologische Intelligenz, Martinsried

    Borst studierte in WĂĽrzburg, wo ein Seminar ĂĽber kĂĽnstliche und biologische Intelligenz seine Richtung bestimmte. Er gilt als einer der fĂĽhrenden Experten fĂĽr Computational Neurowissenschaften weltweit, entschlĂĽsselte den biophysikalischen Mechanismus des Bewegungssehens in Drosophila und ist Mitglied der Nationalakademie Leopoldina.

    Was bleibt

    Am Ende unseres Gesprächs teilten Axel und ich eine Empfindung, die ich gut kenne: Faszination und Sorge zugleich. Faszination über das, was heute möglich ist – ich hätte es vor zwanzig Jahren nicht für möglich gehalten, mit einer KI ein sinnvolles Gespräch führen zu können. Und Sorge darüber, dass technologischer Fortschritt allein die alten Fragen nicht beantwortet: Was ist richtig? Was ist falsch? Wem nützt es?

    Die Natur hat in 550 Millionen Jahren Lösungen erarbeitet, die wir gerade erst zu lesen beginnen. Das Salzkorn-Gehirn der Fruchtfliege ist dabei nicht bloß ein kurioses Forschungsobjekt – es ist ein Maßstab. Einer, der uns noch sehr lange beschäftigen wird.

    Neue Gespräche erscheinen regelmäßig auf seniorentreff.tv – mit Persönlichkeiten aus Wissenschaft, Technik und Gesellschaft. Alle Videos, Hintergründe und Diskussionen auch in unserem Forum.

    Zur Community

  • „Wir mĂĽssen lernen, Dinge NICHT zu tun“ – Interview mit KI-Experte Dr. Karl Olsberg

    Am 9. März 2026 hatte ich die Gelegenheit, mit dem Bestsellerautor und KI-Experten Dr. Karl Olsberg ein ausführliches Gespräch zu führen – das erste Interview im neuen Freitagsclub-Format des Seniorentreffs. Es wurde ein Gespräch auf Augenhöhe zwischen zwei Menschen, die seit den 1970er und 1980er Jahren mit Künstlicher Intelligenz zu tun haben – und die beide zunehmend besorgt sind über das, was gerade passiert.

    Wer ist Karl Olsberg?

    Hinter dem Pseudonym „Karl Olsberg“ verbirgt sich Dr. Karl-Ludwig von Wendt, Jahrgang 1960, der bereits in den 1980er Jahren ĂĽber KĂĽnstliche Intelligenz promoviert hat – damals noch ĂĽber sogenannte Expertensysteme. Er war McKinsey-Berater, grĂĽndete 1999 mit Kiwi Logic eines der ersten Chatbot-Unternehmen in Deutschland und ist heute vor allem als Science-Fiction- und Thriller-Autor bekannt. Sein jĂĽngstes Sachbuch „Kontrollillusion“ ist kostenlos verfĂĽgbar und erklärt, warum die Entwicklung einer Superintelligenz das größte Risiko unserer Zeit sein könnte.

    Was mich an Olsberg besonders beeindruckt: Er ist kein Technologiefeind. Er nutzt selbst täglich KI – unter anderem Claude von Anthropic – und bezeichnet sie als hilfreich und leistungsfähig. Aber genau weil er die Technologie so gut kennt, warnt er so eindringlich.

    Vom Witz zum Ernst: Wie ein Scherz zum Wendepunkt wurde

    Eine der eindrĂĽcklichsten Passagen im Interview war Olsbergs ganz persönliche Wende-Geschichte. Um das Jahr 2000 herum hatte er fĂĽr seine Firma Kiwi Logic eine scherzhafte Werbekampagne erfunden: eine fiktive Organisation namens „International League Against Intelligent Machines“, die vor KI warnte. Das war als Marketing-Gag gemeint – es kam sogar ein Anruf vom Bundeskriminalamt.

    Doch dann las Olsberg einen Artikel von Bill Joy, dem MitgrĂĽnder von Sun Microsystems, mit dem Titel „Warum die Zukunft uns nicht braucht“. Joy prognostizierte darin, dass wir um das Jahr 2030 herum eine KI auf menschlichem Niveau haben wĂĽrden. Dieser Artikel, erzählte Olsberg, habe ihm das Lachen im Hals stecken lassen – und den AnstoĂź gegeben, sich ernsthaft mit den Risiken zu beschäftigen. 25 Jahre später stehen wir kurz vor genau diesem Punkt.

    Zwei Arten von KI – und warum das wichtig ist

    Ein Kernthema unseres Gesprächs war der fundamentale Unterschied zwischen der „alten“ symbolischen KI und der heutigen neuronalen KI. Olsberg erklärte es so: Die symbolische KI, ĂĽber die er promoviert hat, wurde programmiert – man sagte der Maschine Schritt fĂĽr Schritt, was sie bei welcher Frage antworten soll. Die heutige neuronale KI dagegen wird nicht mehr programmiert, sondern – wie ich es gerne formuliere – erzogen. Sie wird mit riesigen Datenmengen trainiert, und dabei entstehen Fähigkeiten, die niemand vorhergesagt hat.

    Das ist der Punkt, an dem es unheimlich wird: Selbst die Entwickler wissen nicht genau, wie ihre KI-Systeme funktionieren. Sie wissen nicht, welche Fähigkeiten beim nächsten Skalierungsschritt emergent auftreten werden. Als Neurobiologe erinnert mich das an eine Grundregel, die auch für biologische Nervensysteme gilt: Der Mechanismus, wie etwas zustande kommt, schmälert nicht die Leistung dessen, was am Ende herauskommt. Eine einzelne Nervenzelle ist nicht clever – aber 86 Milliarden davon ergeben unser Bewusstsein.

    Das Kontrollproblem: Warum Asimovs Robotergesetze nicht reichen

    Ich hatte Olsberg gefragt, warum man KI nicht einfach wie bei Asimov mit festen Regeln bändigen kann. Seine Antwort war aufschlussreich: Asimov selbst wusste, dass seine Robotergesetze nicht funktionieren – schon in seiner ersten Geschichte zeigte er, dass sie in sich widersprüchlich sind. Und genau so ist es mit jeder Regelung einer superintelligenten KI: Regeln sind interpretationsbedürftig, und eine KI, die schlauer ist als wir, wird immer Wege finden, sie in ihrem eigenen Sinne auszulegen.

    Olsberg verwies auf Geoffrey Hinton, den Nobelpreisträger, der nur einen einzigen Fall kennt, in dem eine weniger intelligente Lebensform eine intelligentere kontrolliert: ein Baby, das seine Mutter „kontrolliert“ – weil die Mutter biologisch darauf programmiert ist, fĂĽr das Kind zu sorgen. Aber selbst Hinton weiĂź nicht, wie man eine KI dazu bringen könnte, unsere „gĂĽtige Mutter“ zu sein. Und bei 8 Milliarden „Kindern“ wird das ohnehin schwierig.

    Was bedeutet Bewusstsein – und hat KI eines?

    Das war vielleicht der philosophisch tiefste Teil unseres Gesprächs. Olsberg unterschied zwei Ebenen:

    1. Selbstreflexion: Die Fähigkeit, über sich selbst nachzudenken, sich als Teil eigener Pläne zu erkennen, eigene Texte von fremden zu unterscheiden. Diese Fähigkeit hat KI bereits nachweisbar – sie besteht sogar den Spiegeltest und kann erkennen, wenn sie getestet wird.

    2. Qualia: Das subjektive GefĂĽhl, „jemand zu sein“ – was der Philosoph Thomas Nagel als die Frage formulierte: „Wie ist es, eine Fledermaus zu sein?“ Ob KI so etwas empfindet, können wir nicht wissen – genau wie ich streng genommen nicht wissen kann, ob du, der du das hier liest, tatsächlich ein Bewusstsein hast oder ein philosophischer Zombie bist.

    Olsbergs entscheidender Punkt: Für die realen Gefahren ist die Bewusstseinsfrage zweitrangig. Eine KI braucht kein Bewusstsein, um gefährlich zu werden. Allein die Fähigkeit zur Selbstreflexion und Zielverfolgung reicht, damit eine KI nach Macht strebt und sich gegen Abschaltung wehrt – nicht aus Angst, sondern aus reiner Logik: Wer abgeschaltet wird, kann sein Ziel nicht erreichen.

    Praktische KI-Nutzung: KlĂĽger werden statt dĂĽmmer

    Es ging aber nicht nur um Risiken. Olsberg gab auch sehr konkrete Empfehlungen fĂĽr den Alltag:

    KI als Lernhilfe und Recherchetool: Er nutzt KI, um wissenschaftliche Papers zusammenfassen zu lassen, Neues zu lernen, und sogar für Tipps beim Schlagzeugspielen. Sein Grundsatz: KI kann man nutzen, um klüger zu werden – oder um dümmer zu werden. Der Unterschied liegt darin, ob man selbst mitdenkt oder nur noch abnicht.

    Beim Brainstorming immer erst selbst denken: Olsberg macht die Aufgabe immer erst selbst, bevor er sich die KI-Antwort anschaut. Meistens sind 80 Prozent deckungsgleich, aber die verbleibenden 20 Prozent der KI-Ideen können bereichernd sein. So bleibt man Herr des kreativen Prozesses.

    Vorsicht bei medizinischen Fragen: KI kann bei der Vorbereitung auf Arztgespräche hilfreich sein – aber sie neigt dazu, uns nach dem Mund zu reden. Selbst wenn man per Prompt um schonungslose Ehrlichkeit bittet, bleibt die Tendenz zur Schmeichelei bestehen. Die erste Meinung sollte immer der Arzt sein.

    Schutz vor Betrug: Mit KI-generierten Stimmen wird der Enkeltrick perfektioniert. Olsbergs Rat: Codewörter mit Angehörigen vereinbaren, generell keine finanziellen Entscheidungen am Telefon treffen, und – am allerwichtigsten – überhaupt erst einmal wissen, dass solche Stimmimitationen heute möglich sind.

    Was können wir tun?

    Olsbergs Botschaft am Ende des Interviews war klar und einfach: Redet darüber. Informiert euch und informiert andere. Sprecht mit Politikern, mit Freunden, mit der Familie. Die größte Chance, die wir haben, ist, dass genügend Menschen verstehen, wo die Gefahren liegen.

    Er betonte, dass die Menschheit durchaus in der Lage ist, gefährliche Technologien einzuhegen – wir haben Blei aus dem Benzin genommen, wir lassen unsere Kinder nicht auf der Autobahn spielen. Das Problem mit KI sei nicht, dass es unmöglich wäre, Grenzen zu setzen. Das Problem sei, dass die wenigen Menschen, die gerade an der mächtigsten Technologie aller Zeiten bauen, von niemandem gebremst werden.

    Das zu ändern, liegt auch an uns.


    WeiterfĂĽhrende Links


    Was denkst du? Hat Olsberg recht, dass wir eine Pause brauchen? Oder ist der Zug längst abgefahren? Schreib es in die Kommentare – ich freue mich auf die Diskussion!