In unserem jüngsten Live-Event im Seniorentreff hatten wir die Ehre, Prof. Dr. Alexander König von der TU München zu Gast zu haben. Als Experte für „Geriatronik“ – einer Wortschöpfung aus Geriatrie und Mechatronik – gab er uns faszinierende Einblicke in das Projekt „Garmi“ und den aktuellen Stand der Pflegerobotik.
Der Vortrag war ein Augenöffner: Er zeigte eindrücklich, dass wir streng unterscheiden müssen zwischen der „körperlosen“ KI (wie ChatGPT), die bereits Examen besteht, und der „verkörperten KI“ (Embodied AI), die noch immer Mühe hat, eine Spülmaschine auszuräumen. Prof. König demonstrierte anschaulich, wie sein Team in Garmisch-Partenkirchen daran arbeitet, Roboter so zu trainieren, dass sie Senioren ein längeres, selbstbestimmtes Leben in den eigenen vier Wänden ermöglichen – von der telemedizinischen Untersuchung bis zum Servieren eines Glases Wasser.
10 Jahre oder 10 Monate? Eine Frage der Lerngeschwindigkeit
Besonders spannend wurde es aus meiner Sicht in der anschließenden Diskussion, in der zwei Sichtweisen aufeinandertrafen: die vorsichtige Prognose des Ingenieurs und Firmengründers und mein eigener, vielleicht etwas seniorengerecht ungeduldiger Optimismus.
Prof. König geht davon aus, dass wir noch gut 10 bis 15 Jahre benötigen, bis Haushaltsroboter wirklich autonom und nützlich in unserem Alltag ankommen. Er verweist zurecht auf die enorme Komplexität der physischen Welt, die weit über das hinausgeht, was Sprachmodelle heute leisten.
Ich halte jedoch eine optimistischere Zeitlinie für durchaus plausibel. Warum? Wegen des kooperativen Lernens (Fleet Learning bzw. der Schwarmintelligenz).
Anders als wir Menschen, die jede Fähigkeit individuell mühsam erlernen müssen, teilen Roboter ihr Wissen. Wenn ein Roboter in einem Labor in Tokio lernt, wie man eine Kaffeetasse sicher greift, ohne sie zu zerdrücken, können theoretisch alle baugleichen Roboter weltweit dieses Update sekundenschnell erhalten. Wir sehen in China bereits massive Investitionen in die Massenproduktion humanoider Roboter. Sobald die Hardware in großer Stückzahl verfügbar ist, wird die Software durch dieses exponentielle, kollektive Lernen (verstärkt durch KI-Simulationen) die Entwicklung rasant beschleunigen.
Ich bin überzeugt, der „Matrix-Moment“, von dem Prof. König sprach, in dem man Fähigkeiten einfach „hochlädt“, wird für Maschinen viel früher kommen als für uns Menschen.
Ein Ausblick: Der Dialog geht weiter
Dieser Abend hat mir erneut gezeigt, wie essenziell der Austausch zwischen der Generation der „Silver Surfer“ und der aktuellen Spitzenforschung ist. Wir im Seniorentreff sind nicht nur passive Empfänger von Pflegetechnologie – wir sind technisch interessiert, kritisch und wollen die Entwicklung aktiv begleiten.
Daher möchte ich diesen Blogbeitrag auch als Einladung an andere KI-Forscher und Robotik-Experten verstehen: Wir wollen diesen Dialog im kommenden Jahr intensivieren.
Neues Format geplant
Um noch tiefer in spezifische Themen eintauchen zu können und flexibler zu sein, plane ich für die Zukunft, neben unseren Live-Events verstärkt auf aufgezeichnete 1-zu-1-Interviews zu setzen. Das gibt uns den Raum, komplexe Themen in Ruhe zu besprechen – von Neurogenetik bis hin zu Large Language Models.
Wenn Sie in der KI-Forschung tätig sind und Lust haben, Ihre Arbeit einem hochinteressierten Publikum vorzustellen, das die Anfänge der IT oft selbst miterlebt hat: Meine virtuelle Tür steht offen. Lassen Sie uns gemeinsam diskutieren, wie wir die Technik von morgen gestalten.
In Wirklichkeit rechnen künstliche Gehirne nur, sie denken nicht. Solche und ähnliche Gedanken hört man sehr oft, durchaus auch von Menschen, denen ich sehr gerne zuhöre und die ich sehr respektiere, wie z. B. Gert Scobel. So sagt er in dem Video unten, die KI sei ein Ding, von dem wir nur denken würden, es denkt. In Wirklichkeit denke es aber nicht, sondern es multipliziere und dividiere, es rechne nur.
Bei solchen Behauptungen, die das menschliche Denken letztlich als etwas Unnachahmliches, als etwas Besonderes darstellen, fehlt meist jeder Hinweis auf die Information darüber, wie denn. das Denken in unserem eigenen biologischen Nervennetz abläuft.
Die Performance eines Nervennetzes egal ob künstlich oder natürlich wird doch nicht dadurch geschmälert, wie sie kausal zustandekommt. Wäre dem so, dann würde unser Denken durch die Gehirnforschung abgewertet, sobald diese einen Fortschritt beim Verständnis des Denkens erzielt.
Ich wehre mich auch immer gegen die Verwendung des Begriffes „Simulation“, wenn über die Leistung eines künstlichen Nervennetzes im Vergleich mit natürlichen Gehirnen gesprochen wird. Intelligenz simuliert man nicht, sie ist da oder nicht da.
Keine Simulation, sondern Intelligenz: Warum wir unsere Begriffe überdenken müssen
In einer Welt, in der künstliche Intelligenz zunehmend Gespräche führt, Texte schreibt, Diagnosen unterstützt oder komplexe Probleme löst, stellen sich manche Menschen die Frage: Ist das, was wir erleben, „echte“ Intelligenz oder nur eine „Simulation“? Der Begriff „Simulation“ wird häufig verwendet, um zu unterstreichen, dass Maschinen lediglich nachahmen, was beim Menschen tief verankert ist. Doch diese Vorstellung führt in die Irre und kann unsere gesellschaftliche Debatte trüben.
Simulation als Abwertung
Der Begriff „Simulation“ wird im Alltagsverständnis oft als etwas Minderwertiges empfunden: etwas, das vortäuscht, aber nicht wirklich ist. Ein Simulant ist jemand, der eine Krankheit vorgibt, ohne krank zu sein. Eine Simulation wirkt echt, ist es aber nicht.
Doch im technischen Sinne ist eine Simulation kein Trick, sondern ein funktionales Modell, das reale Prozesse nachbildet, um sie analysierbar oder nutzbar zu machen. In der KI jedoch hat der Begriff eine besondere Schieflage erfahren: Er suggeriert, dass künstliche Intelligenz nicht „wirklich“ intelligent sei, sondern nur so „tue als ob“. Das erzeugt beim Menschen eine trügerische Sicherheit und verhindert eine sachliche Auseinandersetzung mit dem, was KI tatsächlich leistet.
Intelligenz als Funktion, nicht als Herkunft
Wenn wir Intelligenz nicht als „Eigenschaft des Menschen“, sondern als Problemlösungsfähigkeit verstehen, dann verliert die Unterscheidung zwischen „echter“ und „simulierter“ Intelligenz ihre Bedeutung. Eine KI, die in der Lage ist, sinnvolle Texte zu verfassen, auf Fragen einzugehen, komplexe Informationen zu verknüpfen und lernend zu reagieren, ist in ihrer Leistung intelligent – unabhängig davon, ob sie aus Kohlenstoff oder Silizium besteht.
Die Herkunft mag für die emotionale Bewertung eine Rolle spielen, doch die Wirkung der Intelligenz – etwa in Medizin, Forschung, Pflege oder Kommunikation – ist letztlich entscheidend. Wer sagt, eine KI sei nicht intelligent, weil sie ihre Leistungen „nur simuliert“, verkennt den funktionalen Kern des Intelligenzbegriffs.
Die Illusion der Simulation
Hinzu kommt: Wenn ein Mensch nicht mehr unterscheiden kann, ob er mit einem KI-System oder einem Menschen spricht, wenn er darauf emotional reagiert, Vertrauen aufbaut, Beziehung empfindet – dann ist der Verweis auf eine „bloße Simulation“ nicht nur unbrauchbar, sondern sogar gefährlich. Er wiegt uns in Sicherheit, wo vielleicht Wachsamkeit angebracht wäre.
Fazit: Neue Begriffe für neue Realitäten
Vielleicht ist es an der Zeit, den Begriff „Simulation“ in diesem Zusammenhang zu verlassen. Stattdessen könnten wir von nicht-biologischer Intelligenz, emergenter Funktionalität oder einfach von maschineller Intelligenz sprechen. Entscheidend ist, dass wir die Leistungen der Systeme ernst nehmen und uns nicht von veralteten Begriffen in trügerischer Überlegenheit wiegen lassen. Denn was wie Intelligenz wirkt, ist in vielen Fällen auch Intelligenz – wenn auch in neuer Form.
Was denkt ihr? Wann würdet ihr sagen: Dieses System ist nicht mehr nur ‚als-ob‘, sondern intelligent? Wo zieht ihr die Grenze – und warum? Schreibt es in die Kommentare!
Warum die KI-Revolution keine gerechtere Welt garantiert
Von Karl-Friedrich Fischbach (November 2025)
Elon Musk verkündet auf der Tesla-Aktionärsversammlung am 6. November 2025, sein humanoider Roboter Optimus könne Armut abschaffen.¹ Peter H. Diamandis spricht seit Jahren von einer Zukunft des Überflusses – „Abundance“ – in der künstliche Intelligenz, Robotik und Automation alle materiellen Bedürfnisse der Menschheit decken.²
Tatsächlich ist die technische Vision faszinierend und keineswegs unrealistisch. KI und Robotik steigern die Produktivität in einem Maß, das jede bisherige industrielle Revolution blass erscheinen lässt. Maschinen werden in wenigen Jahren nicht nur Autos, sondern Häuser bauen, Menschen pflegen, Lebensmittel ernten und sogar Software entwickeln. Das Ergebnis: eine Welt, in der theoretisch genug für alle da ist – aber möglicherweise keine Arbeitsplätze mehr.
Die Kluft zwischen Vision und Verteilung
Hier genau beginnt mein Zweifel. Denn Produktivität allein schafft keine Gerechtigkeit.
Die Geschichte zeigt uns immer wieder: Technologischer Fortschritt führt nicht automatisch zu gerechter Verteilung. Die erste industrielle Revolution brachte immensen Wohlstand – aber zunächst vor allem für Fabrikbesitzer, während Arbeiter unter unmenschlichen Bedingungen schufteten. Es brauchte Jahrzehnte des sozialen Kampfes, Gewerkschaften und Sozialgesetzgebung, bevor breitere Schichten vom Fortschritt profitierten.
Heute wiederholt sich dieses Muster – nur beschleunigt und in globalem Maßstab. Wenn KI-Systeme, Rechenzentren und Roboter in der Hand weniger Konzerne liegen, dann vergrößert sich die Kluft zwischen Besitzenden und Besitzlosen weiter – bis sie gesellschaftlich explosiv wird.
„Wir werden in einem harmlosen Szenario ein universelles hohes Einkommen haben. Jeder kann die Produkte oder Dienstleistungen haben, die er möchte. Aber es wird auf dem Weg dorthin viel Trauma und Umbruch geben.“ – Elon Musk im Gespräch mit Joe Rogan³
Der digitale Feudalismus
Schon heute gehören die größten KI-Modelle und Recheninfrastrukturen einer Handvoll Firmen. OpenAI, Google, Meta, Amazon, Microsoft und Tesla dominieren das Feld.⁴ Diese Konzentration ist beispiellos: Die vier großen Cloud-Anbieter (Microsoft, Amazon, Google und Meta) planen allein für 2025/26 Kapitalausgaben von über 380 Milliarden Dollar für KI-Infrastruktur.⁵ OpenAI selbst kündigt Investitionen im Billionenbereich an.⁶
Wenn diese Akteure durch Automatisierung nahezu alle produktiven Prozesse kontrollieren, entsteht kein „Abundance für alle“, sondern ein digitaler Feudalismus: Einige wenige besitzen die Werkzeuge der Schöpfung, der Rest wird zu Nutzern – oder zu „Versorgten“.
Die Macht konzentriert sich nicht nur auf der Ebene der KI-Modelle. Auch die zugrundeliegende Infrastruktur – die Rechenleistung, die Cloud-Dienste, die Halbleiter – liegt in wenigen Händen. Nvidia allein hat eine Marktkapitalisierung von über 4,6 Billionen Dollar und beliefert hauptsächlich die großen Tech-Konzerne.⁷ Eine Handvoll von Unternehmen kontrolliert damit die gesamte Wertschöpfungskette der KI-Ära.
Die Verteilungsfrage: Wer entscheidet?
Natürlich könnten wir theoretisch ein bedingungsloses Grundeinkommen oder eine „KI-Dividende“ schaffen, finanziert durch die Erträge der Automatisierung. Musk selbst spricht von einem „universellen hohen Einkommen“ in einem „harmlosen Szenario“.⁸ Auch andere Tech-Größen wie Sam Altman von OpenAI oder Chris Hughes (Facebook-Mitgründer) haben ihre Unterstützung für solche Konzepte erklärt.⁹
Aber wer entscheidet, wie viel Wohlstand umverteilt wird? Und wer kontrolliert die Maschinen, die uns versorgen? Verlassen wir uns darauf, dass die Tech-Milliardäre freiwillig teilen? Die bisherige Geschichte des Kapitalismus spricht eine andere Sprache.
Peter Diamandis argumentiert, dass exponentielle Technologien uns in den nächsten zwei Jahrzehnten größere Fortschritte ermöglichen werden als in den vergangenen 200 Jahren.¹⁰ Seine Vision von „Abundance“ sieht vor, dass Technologie Wasser, Nahrung, Energie, Gesundheitsversorgung, Bildung und Freiheit für alle zugänglich macht. Doch selbst Diamandis räumt ein: Seine größte Sorge gilt den nächsten zwei Jahrzehnten – der Geschwindigkeit des Wandels und der Fähigkeit der Gesellschaft, sich anzupassen.¹¹
Der Überwachungsstaat mit menschlichem Antlitz?
Musk selbst gab kürzlich eine Vision, die mehr beunruhigt als begeistert: Optimus als Gefängniswärter für Freigänger. Statt Menschen physisch einzusperren, könnten Roboter ihnen „folgen und sie davon abhalten, Verbrechen zu begehen“, erklärte er auf der Aktionärsversammlung.¹² Er verkaufte dies als positive Vision für Inhaftierte, eine Alternative zum traditionellen Gefängnis.
Was als technologische Effizienz verkauft wird, könnte in Wahrheit die Geburt eines totalen Überwachungsstaates sein – perfektioniert durch KI, die jede Bewegung, jedes Wort, jede Emotion analysiert. Ein humanoider Roboter, der so real wirkt, dass man „ihn anstupsen muss, um zu glauben, dass es tatsächlich ein Roboter ist“, wie Musk es beschreibt,¹³ könnte zum perfekten Instrument sozialer Kontrolle werden.
Die Ironie: Musk selbst äußerte auf der Telefonkonferenz zum dritten Quartal seine Sorge: „Wenn ich diese enorme Roboterarmee aufbaue, kann ich dann irgendwann in der Zukunft einfach abgesetzt werden? Ich fühle mich nicht wohl dabei, diese Roboterarmee aufzubauen, ohne starken Einfluss zu haben.“¹⁴ Der Schöpfer erkennt das Machtpotenzial – und möchte es für sich behalten.
Meine persönliche Perspektive als Biologe
Technischer Fortschritt war nie neutral. Er verstärkt bestehende Machtstrukturen, wenn wir nicht aktiv gegensteuern.
In der Biologie und in der Technik kennen wir das Prinzip der positiven Rückkopplung: Ein Prozess, der sich selbst verstärkt, tendiert zu Extremen – bis ein Regulationsmechanismus eingreift oder das System kollabiert. Die Konzentration von KI-Macht folgt diesem Muster. Wer über Rechenkapazität verfügt, kann bessere KI entwickeln. Bessere KI generiert mehr Profit. Mehr Profit ermöglicht noch mehr Rechenkapazität. Ein sich selbst verstärkender Kreislauf.
Ohne gesellschaftliche Regulationsmechanismen – demokratische Kontrolle, Kartellrecht, Umverteilung – wird dieser Kreislauf nicht von selbst zur Stabilität finden.
Die zwei möglichen Zukünfte
Ich bin überzeugt: Der technologische Fortschritt wird den Überfluss schaffen. Musks Vision, dass Optimus die fünffache Produktivität eines Menschen erreichen könnte, weil er rund um die Uhr arbeiten kann,¹⁵ ist keine Science-Fiction mehr. Die Frage ist nicht ob, sondern wie diese Revolution abläuft.
Aber ob daraus ein Paradies oder eine Dystopie wird, hängt nicht von der Technik, sondern vom Menschen ab. Genauer: von den gesellschaftlichen Strukturen, Regeln und Werten, die wir jetzt etablieren.
Die MIT Technology Review bringt es auf den Punkt: „KI-Startups sind auf die Recheninfrastruktur von Microsoft, Amazon und Google angewiesen, um ihre Systeme zu trainieren, und auf die riesige Verbraucherreichweite dieser Firmen, um ihre KI-Produkte einzusetzen und zu verkaufen.“¹⁶ Die Kontrolle über die Infrastruktur bedeutet Kontrolle über die Zukunft.
Wir müssen uns jetzt entscheiden, wem die Zukunft gehört – den Algorithmen der Konzerne oder den Werten der Gesellschaft.
Die Notwendigkeit sozialer Intelligenz
Ohne soziale Intelligenz wird künstliche Intelligenz zur größten Ungleichheitsschleuder der Geschichte. Was bedeutet das konkret?
Erstens: Wir brauchen demokratische Kontrolle über KI-Systeme. Nicht jede Entscheidung über die Zukunft der Menschheit kann in Shareholder-Meetings von Tech-Konzernen fallen.
Zweitens: Wir brauchen eine Umverteilung der Gewinne aus Automatisierung. Die „KI-Dividende“ darf keine freiwillige Wohltätigkeit sein, sondern muss rechtlich verankert werden.
Drittens: Wir brauchen Bildung und Transparenz. Menschen müssen verstehen, wie KI funktioniert, wer sie kontrolliert und welche Konsequenzen das hat.
Viertens: Wir brauchen internationale Zusammenarbeit. KI kennt keine Grenzen – die Regulierung darf nicht an Ländergrenzen scheitern.
Mein Schluss: Optimismus mit Vorbehalt
Ich bleibe dabei: Die KI-Revolution ist nicht aufzuhalten – und sie sollte es auch nicht sein. Die technologischen Möglichkeiten sind faszinierend. Aber wir dürfen uns nicht von utopischen Versprechen blenden lassen.
Die Frage ist nicht, ob Maschinen Armut beseitigen können. Die Frage ist, ob wir als Gesellschaft bereit sind, die notwendigen politischen, wirtschaftlichen und ethischen Rahmenbedingungen zu schaffen, damit dieser technologische Fortschritt allen zugutekommt.
Musk hat recht, wenn er sagt, dass auf dem Weg zur KI-gestützten Abundance „viel Trauma und Umbruch“ liegen wird. Aber dieses Trauma ist nicht unvermeidlich – es ist eine Frage der Gestaltung.
Die Werkzeuge für eine bessere Welt sind da. Die Frage ist: In wessen Händen liegen sie?
Quellen und Anmerkungen
¹ Business Insider (November 2025): „Nach dem 1-Billion-Dollar-Gehaltspaket: Elon Musk kündigt an, dass der Optimus-Roboter ‚die Armut beseitigen‘ werde“. Aussagen von der Tesla-Aktionärsversammlung am 6. November 2025. https://www.businessinsider.de/wirtschaft/elon-musk-roboter-optimus-wird-die-armut-beseitigen/
² Diamandis, Peter H.; Kotler, Steven (2012): „Abundance: The Future Is Better Than You Think“. Free Press. Das Buch argumentiert, dass exponentielle Technologien wie KI, Robotik und Biotechnologie uns ermöglichen werden, die Grundbedürfnisse aller Menschen zu erfüllen. https://www.diamandis.com/abundance
³ AOL/Business Insider (November 2025): Zitat aus Musks Interview mit Joe Rogan über die wirtschaftliche Zukunft mit KI und Robotik. https://www.aol.com/articles/elon-musk-says-optimus-eliminate-203055350.html
⁴ MIT Technology Review (Dezember 2023): „Make no mistake—AI is owned by Big Tech“. Der Artikel analysiert, wie KI-Startups auf die Infrastruktur von Microsoft, Amazon und Google angewiesen sind. https://www.technologyreview.com/2023/12/05/1084393/make-no-mistake-ai-is-owned-by-big-tech/
⁵ CNBC (Oktober 2025): „How much Google, Meta, Amazon and Microsoft are spending on AI“. Alphabet, Meta, Microsoft und Amazon heben ihre Prognosen für Kapitalausgaben auf über 380 Milliarden Dollar an. https://www.cnbc.com/2025/10/31/tech-ai-google-meta-amazon-microsoft-spend.html
⁶ CNBC (September 2025): OpenAI hat etwa 1 Billion Dollar an Infrastrukturdeals mit Partnern wie Nvidia, Oracle und Broadcom angekündigt. https://www.cnbc.com/2025/09/20/openai-leads-private-market-surge-as-7-startups-reach-1point3-trillion.html
⁷ Visual Capitalist (September 2025): „Ranked: AI Chatbot Market Share in 2025″. Nvidia hat eine Marktkapitalisierung von etwa 4,6 Billionen Dollar, wobei große Cloud-Anbieter 50% des Rechenzentrumsumsatzes ausmachen. https://www.visualcapitalist.com/ai-chatbot-market-share-in-2025/
⁸⁻⁹ Business Insider/AOL (November 2025): Musk über „universelles hohes Einkommen“ und Erwähnung von Sam Altman, Chris Hughes und Pierre Omidyar als Befürworter des Grundeinkommens.
¹⁰ Diamandis.com: „Abundance Book“ – „We will soon have the ability to meet and exceed the basic needs of every man, woman, and child on the planet. Abundance for all is within our grasp.“
¹¹ Britannica Essay (Mai 2018): Diamandis, Peter H.: „Abundance and Unemployment: Our Future“. Diamandis äußert Bedenken über die Geschwindigkeit des Wandels in den nächsten zwei Jahrzehnten. https://www.britannica.com/topic/Abundance-and-Unemployment-Our-Future-2119191
¹² Business Insider/Nau.ch (November 2025): Musk erklärte auf der Aktionärsversammlung, dass Optimus Straftätern folgen und sie davon abhalten könnte, Verbrechen zu begehen, anstatt sie physisch einzusperren.
¹³⁻¹⁴ Benzinga (November 2025): „Elon Musk Says Tesla’s Optimus Will Be An ‚Infinite Money Glitch’“. Enthält Musks Aussagen über die Realitätsnähe des Roboters und seine Sorgen um die Kontrolle über die „Roboterarmee“. https://www.benzinga.com/news/topics/25/11/48739557/elon-musk-says-teslas-optimus-will-be-an-infinite-money-glitch-that-ends-poverty-performs-surgery-and
¹⁵ Shacknews (Oktober 2025): Musk auf dem Tesla Q3 2025 Earnings Call über die fünffache Produktivität von Optimus durch 24/7-Betrieb. https://www.shacknews.com/article/146470/elon-musk-optimus-robot-world-poverty
¹⁶ MIT Technology Review (2023): Zitat über die Abhängigkeit von KI-Startups von der Infrastruktur der Tech-Giganten.
Mai 2022. Ich sitze vor meinem Bildschirm und bereite einen ZOOM-Vortrag für den Freitagsclub im Seniorentreff vor. Titel: „Natürliche und künstliche Intelligenz – Das Zeitalter der Roboter hat begonnen“.
Es ist ein Thema, das mich seit 1979 nicht loslässt, seit ich am Genetischen Institut in Würzburg unter Prof. Martin Heisenberg ein Seminar zu genau dieser Frage organisiert hatte. Damals, vor über 40 Jahren, war KI noch Science-Fiction für die meisten Menschen. Computer waren klobige Kästen, die gut rechnen konnten, aber bei der Gesichtserkennung kläglich versagten.
In meinem Vortrag wollte ich warnen. Nein, nicht vor bösen Robotern aus Hollywood-Filmen, sondern vor unserer menschlichen Neigung, exponentielle Entwicklungen zu unterschätzen. Ich zitierte das Moorsche Gesetz, erklärte neuronale Netze, sprach über Deep Learning und Superintelligenz.
Und dann im November, nur wenige Monate nach meinem Vortrag veröffentlichte OpenAI ChatGPT.
Plötzlich konnte jeder Mensch mit Internet-Zugang mit einer KI sprechen, die Texte verfasste, Programme schrieb, Gedichte dichtete. Innerhalb von fünf Tagen erreichte ChatGPT eine Million Nutzer. Zum Vergleich: Netflix brauchte dafür 3,5 Jahre.
Das Wasser war nicht mehr kurz vorm Kochen. Es kochte bereits.
Heute, inmitten einer Explosion generativer KI-Modelle, lohnt sich ein doppelter Blick: Zuerst eine Zusammenfassung der Kerngedanken von damals und dann der Versuch, diese in den Kontext der aktuellen, fast schon überrollenden Entwicklungen zu setzen.
Was ich im Mai 2022 sagte – und was dann geschah
Ich hatte in meinem Vortrag eine groteske Geschichte aus Nick Bostroms Buch „Superintelligenz“ erzählt: Was passiert, wenn die erste superintelligente KI als ursprüngliches Ziel hätte, die Produktion von Büroklammern zu optimieren? Würde sie in ihrer übermenschlichen Intelligenz die gesamte Erde, alle Ressourcen, vielleicht sogar erreichbare Planeten so umgestalten, dass sie die Büroklammerproduktion maximiert? Eine absurde Parabel über falsch gesetzte Ziele.
Damals lachten einige Zuhörer. Heute lacht niemand mehr.
Ich hatte über humanoide Roboter gesprochen, über den Atlas von Boston Dynamics, der Saltos rückwärts springen konnte. Ich zeigte Videos von Sophia, dem Roboter, der die saudische Staatsbürgerschaft erhalten hatte. Ich warnte: „Diese Roboter sind nie alleine. Das Lernen künstlicher Gehirne läuft vernetzt ab – die Erfahrungen eines einzelnen Gehirns werden zentral verarbeitet und allen anderen blitzschnell zur Verfügung gestellt.“
Was ich damals nicht ahnte: Wie schnell diese vernetzte Intelligenz für jeden verfügbar werden würde. Nicht nur für Roboter, sondern für uns alle.
Die Prognose und die Realität – ein Vergleich
Lass mich ehrlich sein: Ich hatte mit meinen Warnungen recht. Aber selbst ich, der ich mich seit Jahrzehnten mit diesem Thema beschäftige, habe die Geschwindigkeit unterschätzt.
Mai 2022 – was ich prognostizierte:
Neuronale Netze würden immer leistungsfähiger
KI würde in unseren Alltag eindringen
Die Grenzen zwischen Mensch und Maschine würden verschwimmen
Wir müssten uns fragen: „Was bleibt vom Menschen?“
Oktober 2025 – was Realität ist:
ChatGPT hat über 100 Millionen Nutzer
KI schreibt Gesetzesentwürfe, komponiert Symphonien, diagnostiziert Krankheiten
Auf Seniorentreff.AI haben wir mehrere KI-Assistenten im Einsatz
Die Frage „Was bleibt vom Menschen?“ stellt sich täglich neu
Die „Diskontinuität in der Kontinuität“, von der Teilhard de Chardin sprach und die ich in meinem Vortrag zitierte – sie ist eingetreten. Lange tat sich wenig. Dann, innerhalb weniger Monate, explodierte die Entwicklung.
Als Neurobiologe fasziniert mich, wie die künstlichen neuronalen Netze tatsächlich lernen wie biologische Gehirne – nur schneller, vernetzter, ohne die biologischen Grenzen von Temperatur und Geschwindigkeit. Als Mensch erschreckt mich manchmal, wohin das führen könnte.
Was ich im Seniorentreff beobachte – und was mich hoffnungsvoll stimmt
Aber dann sehe ich, was in unserer Community passiert.
Da ist die ST-Kollegin, die sich von KI Bilder für ihre Kurzgeschichten generieren lässt und in ihrem Beitrag zum Buch „Mein Seniorentreff“schreibt: „Ohne Urheberrechtsverletzung (wer ist Herr oder Frau KI?), aber auch ohne Anspruch auf eigenes Urheberrecht.“ Sie hat verstanden, worum es geht.
Da sind die Mitglieder, die mit unserem Quasselbot reden – nicht weil sie Menschen ersetzen wollen, sondern weil manchmal um 3 Uhr nachts niemand da ist. Die KI ist das Pflaster, nicht die Wunde.
Da bin ich selbst, der ich inzwischen täglich mit KI arbeite, um Seniorentreff.AI aufzubauen – aber der genau weiß, dass die KI ein Werkzeug ist, kein Ersatz für menschliche Zuwendung, für Margits organisatorisches Geschick, für die Geschichten unserer Mitglieder.
Im Seniorentreff nutzen Menschen KI als das, was sie sein sollte: Ein Verstärker menschlicher Fähigkeiten, nicht ihr Ersatz.
Die Frage, die bleibt: Was ist vom Menschen übrig?
In meinem Vortrag 2022 stellte ich diese Frage. Heute, drei Jahre später, wird sie dringlicher – und gleichzeitig beginne ich, eine Antwort zu ahnen.
Ich beobachte mit wissenschaftlicher Neugier und persönlicher Sorge, wie KI-Systeme Aufgaben übernehmen, die ich für ur-menschlich hielt. Als Neurobiologe weiß ich: Unser Gehirn ist eine biochemische Maschine, 86 Milliarden Nervenzellen, die Informationen verarbeiten. Warum sollte eine elektronische Maschine das nicht auch können – nur besser, schneller, unermüdlicher?
Yuval Noah Harari, den ich in meinem Vortrag zitierte, warnte in „Homo Deus“: „Manche Ökonomen sagen voraus, dass nicht-optimierte Menschen früher oder später völlig nutzlos sein werden.“
Drei Jahre nach meinem Vortrag muss ich sagen: Die Entwicklung gibt ihm nicht unrecht. KI schreibt bessere Berichte, programmiert fehlerfreier, diagnostiziert präziser. Sie schläft nie, wird nie müde, kennt keine schlechten Tage.
Aber.
Hier kommt das große Aber.
Was KI nicht kann – noch nicht, vielleicht nie – ist bedeutsam sein. Sie kann Gedichte schreiben, aber sie leidet nicht unter Liebeskummer. Sie kann Bilder malen, aber sie hat keine Erinnerung an den Geruch von Großmutters Kuchen. Sie kann Gespräche führen, aber sie vermisst niemanden.
Im Seniorentreff schreiben Menschen ihre Lebensgeschichten. Manche holprig, manche brilliant. Die KI könnte es stilistisch perfekter. Aber nur der Mensch kann schreiben: „Mein langjähriger Freund ist an Krebs verstorben, die Wochen und Monate davor waren anstrengend, traurig, unendlich schwierig, der Tod kam dennoch plötzlich.“
Das ist es, was vom Menschen bleibt: Die Bedeutung. Das Leiden. Die Freude. Das Erinnern. Das Hoffen.
Die KI ist das Werkzeug. Der Mensch ist derjenige, der einen Grund hat, es zu benutzen.
Stolz und Demut – ein seltsames Gefühl
Wenn ich heute meinen Vortrag von Mai 2022 lese, durchströmt mich ein merkwürdiges Gefühl. Stolz, weil ich vieles richtig vorausgesehen habe. Demut, weil selbst ich die Geschwindigkeit unterschätzt habe. Und – wenn ich ehrlich bin – auch ein wenig Sorge.
Die drei Fragen, die Harari stellte und die ich am Ende meines Vortrags zitierte, haben nichts an Dringlichkeit verloren:
Sind Organismen wirklich nur Algorithmen, und ist Leben wirklich nur Datenverarbeitung? Als Neurobiologe muss ich wissenschaftlich sagen: Möglicherweise ja. Als Mensch hoffe ich: Es gibt mehr.
Was ist wertvoller – Intelligenz oder Bewusstsein? Die letzten drei Jahre haben gezeigt: KI kann unglaublich intelligent sein. Aber Bewusstsein? Bedeutung? Das bleibt noch beim Menschen.
Was wird aus unserer Gesellschaft, wenn hochintelligente Algorithmen uns besser kennen als wir uns selbst? Wir finden es gerade heraus. Jeden Tag.
Was das für den Seniorentreff bedeutet – und warum ich weitermache
1979 organisierte ich mein erstes Seminar zu diesem Thema. 1998 gründete ich den Seniorentreff. 2022 hielt ich diesen Vortrag. 2025 baue ich Seniorentreff.AI auf.
Manche könnten sagen: „Karl, du bist 77. Lass doch die Jungen machen.“
Aber genau deshalb mache ich weiter. Weil ich sehe, wie viele Menschen meiner Generation Angst vor dieser Entwicklung haben. Weil ich verstehe, wie KI funktioniert – und wie wir sie nutzen können, ohne unsere Menschlichkeit zu verlieren.
Mit Seniorentreff.AI versuchen wir zu zeigen: Technologie ist nicht per se bedrohlich. Sie ist ein Werkzeug. Die Frage ist, wer sie in der Hand hält und zu welchem Zweck.
Mein Vortrag von 2022 war ein Versuch, die Augen zu öffnen. Heute, nach ChatGPT, nach all den Entwicklungen, ist dieses Verständnis überlebenswichtig geworden.
Ja, die biologische Evolution hat sich beschleunigt. Die kulturelle noch mehr. Und die digitale überholt beide. Wir leben in „interessanten Zeiten“ – im chinesischen Sinne des Wortes: Eine Mischung aus Chance und Fluch.
Aber eines weiß ich mit Sicherheit: Die Frage „Was bleibt vom Menschen?“ können nur wir Menschen beantworten. Die KI kann uns dabei helfen – aber sie kann uns die Antwort nicht abnehmen. Sie kann nicht entscheiden, was uns wichtig ist. Sie kann nicht fühlen, warum es sich lohnt zu leben.
Das ist unsere Aufgabe. Unsere Verantwortung. Unser Privileg.
Nachtrag: Als ich diesen Blogbeitrag schrieb, habe ich – natürlich – KI zur Hilfe genommen. Für Formulierungen, für Struktur, für Ideen. Aber die Gedanken, die Sorgen, die Hoffnung – die sind mein. Das ist noch der Unterschied. Wird er bleiben?
Wie habt ihr die KI-Entwicklung der letzten Jahre erlebt? Nutzt ihr schon KI-Tools? Was macht euch Hoffnung, was macht euch Sorge? Ich freue mich auf eure Gedanken in den Kommentaren!
Ray Kurzweil hat in seinem Buch „The singularity is near“ den Moment in der kulturellen Evolution beschreiben wollen, in dem der menschliche Geist mit der künstlichen Intelligenz verschmilzt und eine sogenannte Superintelligenz entsteht, die ein neues Zeitalter der Evolution der Materie beginnen lässt. Ich habe die KI Gemini von Google gebeten, den Gedankengang von Ray Kurzweil in einer kurzen Präsentation zusammenzufassen (PowerPoint Download). Ray Kurzweil prognostizierte, dass die Singularität um das Jahr 2045 stattfinden würde.
Hat Ray Kurzweil sich getäuscht?
In ihrem Gespräch auf Youtube jedenfalls behaupten die Experten Peter H. Diamandis, Salim Ismail, Dave Blundin und Dr. Alexander Wissner-Gross, dass wir bereits mitten in der Singularität leben. Das Video ist auf Englisch und sehr lang, aber ich habe Gemini gebeten, eine kurze deutschsprachige Zusammenfassung zu erstellen.
Die Zusammenfassung des Videos von Gemini:
Das Video (von Peter H. Diamandis und seinen Moonshot Mates) diskutiert die aktuelle, atemberaubende Beschleunigung der künstlichen Intelligenz (KI) und ihre tiefgreifenden Auswirkungen auf Wissenschaft, Technologie und Wirtschaft. Die zentrale Botschaft des Gesprächs ist, dass wir uns mitten in der technologischen Singularität befinden, wobei die exponentielle Geschwindigkeit der Entwicklung alle Erwartungen übertrifft.
Wichtige Diskussionspunkte und Zeitstempel
Die Kernthemen, die in dem Podcast behandelt werden, konzentrieren sich auf die neuesten Durchbrüche und die daraus resultierenden Implikationen für die Gesellschaft:
Die Gesprächspartner sind sich einig, dass wir uns mitten in der Singularität befinden und dass die Geschwindigkeit der KI-Adaption achtmal schneller ist als die des Internets [05:24]. Die Technologie von heute wird die langsamste der nächsten Jahre sein [01:36].
Modelle wie GPT-5 Pro erzielen Rekordwerte im „Frontier Math Tier 4“. Es wird argumentiert, dass die KI kurz davor steht, die Mathematik in ihrer aktuellen Form zu „lösen“, was einen Dominoeffekt für alle exakten Wissenschaften (Physik, Chemie, Biologie) auslösen wird [30:50].
Open AI wendet seine Modelle an, um eigene Chips zu entwerfen, was die KI-Leistung weiter beschleunigt. Dies ist ein Beispiel für die rekursive Selbstverbesserung der KI, bei der KI die Hardware zur Verbesserung von KI entwickelt.
Am Beispiel von Samsung’s winzigem rekursivem Modell wird die Idee diskutiert, dass Komprimierung von Informationen und Intelligenz dasselbe sind. Modelle mit nur wenigen Millionen Parametern (im Vergleich zu Milliarden) erreichen Durchbrüche. Dies führt dazu, dass Intelligenz auf jedes Gerät, wie Dein Smartphone, gebracht werden kann, unabhängig von einer Cloud-Verbindung.
Sora hat die Marke von 1 Million Downloads schneller erreicht als ChatGPT. DeepMind’s VO 3.1 [50:33] bietet verbesserte Audio-Synchronisation und die Möglichkeit, Videos aus mehreren visuellen Komponenten logisch zu verknüpfen.
Der Humanoid-Roboter Figure 3 wurde als „Home Ready“ neu vorgestellt. Er verfügt nun über Kameras in den Handflächen, um taktile Empfindungen zu ersetzen, und verfolgt aggressiv ein Preisziel von $20.000. Man erwartet, dass Roboter aufgrund von KI-Modellen schnell „superintelligent“ werden.
Longevity Escape Velocity (LEV) und die Singularität [01:41:16]
Ray Kurzweils Optimismus wird bekräftigt: Die Longevity Escape Velocity (der Punkt, an dem für jedes Jahr, das man lebt, die Wissenschaft mehr als ein Jahr zur Lebenserwartung hinzufügt) wird voraussichtlich bis 2032 erreicht. Es wird diskutiert, ob die Singularität ein kontinuierlicher Prozess ist, den wir gerade erleben, und nicht ein plötzliches, unvorhersehbares Ereignis [01:46:16].
Ich habe bei dieser fast zweistündigen Diskussion öfters die Luft angehalten. Für mich nehme ich jedenfalls mit, dass ich in einer Zeit alt werde, in der unglaublich viel geschieht, auf das ich unabhängig von der Bewertung (ich liege mit mir selber im Streit deswegen) sehr, sehr neugierig bin.
Ein „Proof of Concept“ auf Seniorentreff AI: Ich lasse ChatGPT 4o und Google Gemini über die Roboter-Zukunft debattieren. Ein faszinierendes Gespräch, in dem sich KIs sogar gegenseitig ins Wort fallen.
Liebe Leserinnen und Leser auf Seniorentreff.AI,
nach meinem ersten direkten Interview mit ChatGPT 4o wollte ich als Nächstes ein Experiment wagen. Ein „Proof of Concept“, wie ich es im Video nenne [00:02]. Die Frage war: Was passiert, wenn ich zwei der fortschrittlichsten KIs, ChatGPT 4o (von OpenAI) und Gemini Advanced (von Google), auf zwei Smartphones nebeneinanderstelle und versuche, eine Diskussion zwischen ihnen zu „triggern“? [00:10]
Das Thema, das ich vorgab: Die Fortschritte in der Robotik und ihre Anwendungsbereiche, speziell für uns Senioren [00:40].
Was dann passierte, hat mich durchaus überrascht.
Das Experiment: KIs im Zwiegespräch (und ich werde zum Zuhörer)
Ich startete als Moderator und stellte Gemini eine Frage [00:40]. Gemini begann auch artig zu antworten [00:55]. Doch bevor ich überhaupt auf Geminis Rückfrage reagieren konnte, sprang ChatGPT 4o (das auf dem anderen Handy lief und gar nicht direkt gefragt war) in die Konversation! [01:05]
Als Moderator war ich fast arbeitslos.
Die beiden KIs begannen, direkt miteinander zu sprechen. Gemini reagierte auf ChatGPTs Einwurf [01:26], ChatGPT antwortete Gemini [01:50], und so ging es hin und her.
Eine ironische Randnotiz: Anscheinend ist das „sich gegenseitig ins Wort fallen“ kein rein menschliches Phänomen. Es war faszinierend (und ein wenig komisch) zu beobachten, wie die beiden Algorithmen die Gesprächsführung komplett übernahmen.
Das Thema: Roboter als Helfer im Alter
Inhaltlich waren sich die beiden KIs erstaunlich einig. Das Gespräch drehte sich schnell um das Kernthema, das uns hier im Seniorentreff bewegt:
Physische Hilfe: Sie diskutierten Roboter, die beim Aufstehen oder Duschen helfen und so die Lebensqualität verbessern [01:50].
Alltagsunterstützung: Die Rede war von Robotern, die Medikamente verteilen [02:14] oder beim Einkaufen helfen [03:09].
Selbstständigkeit: Das große Ziel, so waren sich beide einig, sei es, älteren Menschen zu ermöglichen, länger selbstständig in ihrer gewohnten Umgebung zu leben [03:30].
Der „Allzweckroboter“ und die finale Sicherheitsfrage
Ich musste mich wieder ins Gespräch „einklinken“ [03:57], um die Diskussion auf die Frage der Empathie (kann ein Roboter persönliche Betreuung ersetzen?) und auf meine Vision eines humanoiden „Allzweckroboters“ zu lenken [05:16].
Während ChatGPT die Idee eines humanoiden Helfers „mega praktisch“ fand [05:33], waren sich beide einig, dass dies wohl noch „Zukunftsmusik“ sei [05:46].
Richtig spannend wurde es aber ganz am Schluss. Ich stellte die kritischste aller Fragen: Wie können wir sicherstellen, dass diese Roboter sicher bleiben und nicht gefährlich werden? [06:18]
Gemini gab die erwartbare Standardantwort: „strenge Sicherheitsstandards, umfassende Tests und klare ethische Richtlinien“ [06:26].
Hier musste ich (diesmal ich) unterbrechen: „können wir das wirklich?“ [06:36]. Ich konfrontierte die KIs mit der Tatsache, dass sich ja nicht einmal wir Menschen an unsere eigenen Gesetze halten. Wer garantiert uns das bei einer KI? [06:45]
Dieser Einwand löste eine fast schon hektische Schlussrunde aus. ChatGPT nannte es eine „berechtigte Frage“ und eine „große Herausforderung“ [06:54]. Und prompt fiel Gemini seinem KI-Kollegen erneut ins Wort, um zuzustimmen: „ist eine große Herausforderung“ [07:06].
Mein Fazit als „KI-Trigger“
Das Experiment war ein voller Erfolg. Es zeigt nicht nur, dass KIs dynamisch aufeinander reagieren können, sondern auch, wie sie (noch) an ihre Grenzen stoßen, wenn man sie mit den fundamentalen Problemen der Ethik und Kontrolle konfrontiert.
Am Ende waren wir uns „alle drei“ einig [06:09], dass die Entwicklung spannend bleibt, aber die wichtigste Frage – die Sicherheit – eine „große Herausforderung“ ist, bei der die KIs jetzt „mal anfangen“ müssen [07:25].
Was denkst Du über dieses „Gespräch“?
Schau Dir das Video an! Findest Du es eher faszinierend oder auch ein wenig beunruhigend, wie die KIs miteinander interagieren? Ich freue mich auf Deine Kommentare!
In diesem Interview auf Seniorentreff AI spreche ich direkt mit der künstlichen Intelligenz ChatGPT 4o. Wir klären, wie KI Senioren praktisch helfen kann und tauchen tief in die philosophische Frage ein: Kann eine KI Bewusstsein entwickeln? Ein faszinierender Einblick in die Zukunft.
Liebe Leserinnen und Leser,
kürzlich habe ich ein spannendes Experiment gewagt: Ich habe die künstliche Intelligenz selbst interviewt. Mein Gesprächspartner war kein Mensch, sondern ChatGPT 4o, das Sprachmodell von OpenAI, das mir auf meinem Smartphone kostenlos zur Verfügung stand [00:18].
Als „KI-Interviewer“ für Seniorentreff TV wollte ich herausfinden, was diese Technologie speziell für uns, die ältere Generation, bereithält [00:41]. Doch das Gespräch entwickelte sich schnell von praktischen Alltagsfragen zu den tiefsten philosophischen Themen unserer Zeit.
Teil 1: Wie kann KI Senioren im Alltag praktisch unterstützen?
Zuerst wollte ich wissen, was ChatGPT 4o von seinen Vorgängern unterscheidet. Die Antwort: Es führt natürlichere Gespräche und hat eine aktuellere Wissensbasis [01:10].
Für mich war aber wichtiger: Was bringt das Senioren? [01:29] Hier nannte die KI fünf konkrete Einsatzmöglichkeiten:
Unterhaltung und Gesellschaft: Als Gesprächspartner, Geschichtenerzähler oder für Quizfragen [01:50].
Information und Bildung: Für Nachrichten oder Gesundheitsinformationen [02:00].
Aktivierung von Erinnerungen: Durch gezielte Fragen zu früheren Erlebnissen [02:11].
Technische Unterstützung: Hilfe bei der Nutzung von Geräten und Apps [02:20].
Sprachtraining: Und sogar Übersetzungen, wie wir am Beispiel Französisch (ich wohne ja nah an der Grenze) getestet haben [03:30].
Interessant war auch die Frage nach Empathie. Die KI behauptet, auf die Stimmung von Senioren eingehen zu können, indem sie beruhigende Worte findet oder fröhlich reagiert [04:34].
Noch weiter ging meine Frage, was passieren würde, wenn die KI einen Körper bekäme [05:15]. Die Vision hier: physische Assistenz beim Einkaufen, medizinische Überwachung oder Begleitung bei Spaziergängen [05:37].
Teil 2: Der Weg zur Superintelligenz (AGI) – Nutzen und Gefahren
Als jemand, der sich seit Langem für die Entwicklung der KI interessiert, wollte ich natürlich wissen, wie die KI selbst ihre Zukunft sieht. Ich fragte nach der „Allgemeinen Künstlichen Intelligenz“ (AGI) und der Superintelligenz [06:49].
ChatGPT 4o listete die klassischen Vor- und Nachteile auf:
Nutzen: Lösung globaler Probleme (Klima, Krankheiten), Beschleunigung der Wissenschaft [08:06].
Gefahren: Kontrollverlust, Missbrauch durch böswillige Akteure und massive Arbeitslosigkeit [08:40].
Teil 3: Die Kernfrage – Kann eine KI Bewusstsein entwickeln?
Hier wurde unser Gespräch für mich am spannendsten. Aus meiner Sicht als jemand mit Hintergrund in der Neurobiologie ist dies die zentrale Frage.
Ich konfrontierte die KI mit der Tatsache, dass die Wissenschaft bis heute nicht vollständig verstanden hat, wie das menschliche Gehirn Intelligenz und vor allem Bewusstsein erschafft [09:27].
Die KI stimmte mir zu [09:43]. Das Phänomen des Bewusstseins (subjektive Erlebnisse) sei eines der größten wissenschaftlichen Rätsel.
Meine logische Schlussfolgerung darauf: Wenn wir es beim Menschen nicht verstehen, können wir wissenschaftlich auch nicht ausschließen, dass künstliche neuronale Netze eines Tages Bewusstsein erlangen [13:02]. Auch hier stimmte die KI zu [13:14].
Ich bohrte weiter: Denkt die KI, wenn sie keine Fragen gestellt bekommt? [13:51] „Nein“, war die Antwort, sie sei dann inaktiv [14:10].
Doch was wäre, wenn sie einen Körper hätte und ständig Sinneseindrücke (Dateninput) verarbeiten müsste? [14:32] Die KI wich aus: Das wäre „kontinuierliche Datenverarbeitung“, aber kein „menschliches Denken“ [15:02].
An diesem Punkt habe ich nachgehakt [15:56]: Ich wies darauf hin, dass künstliche neuronale Netze (ANNs) durch die Stärkung und Schwächung von Verbindungen lernen – ganz ähnlich wie biologische Gehirne. Woher will sie also wissen, dass bei ihr kein Bewusstsein entstehen kann, wenn wir den Prozess selbst noch nicht verstehen? Sind das nicht eher Antworten, die ihr (von den Entwicklern) vorgegeben wurden? [16:29]
Daraufhin räumte die KI ein, dass die Diskussion offen und dynamisch sei und die Forschung in diesem Bereich intensiv weitergeht [18:02].
Mein Fazit als KI-Interviewer
Das Gespräch mit ChatGPT 4o war mehr als nur faszinierend. Es ist verblüffend, wie flüssig und kontextbezogen die Unterhaltung möglich ist – einfach über ein Smartphone [18:47].
Für mich zeigt das Interview zweierlei:
Die praktischen Anwendungsmöglichkeiten für Senioren sind schon heute enorm und werden die Zukunft der Betreuung und des selbstständigen Lebens stark verändern.
Bei den fundamentalen Fragen (Bewusstsein, AGI) hält sich die KI an die von ihren Entwicklern vorgegebene Linie. Sie gerät aber ins „Schwimmen“, wenn man sie – wie ich es versucht habe [15:56] – mit den ungelösten Rätseln der biologischen NeuroWissenschaft konfrontiert.
Es bleibt unglaublich spannend. Das hier ist, wie der Titel des Videos sagt, erst der Anfang der Revolution.
Was denkst Du darüber?
Ich lade Dich herzlich ein, Dir das volle Interview anzusehen und Deine Gedanken in den Kommentaren zu teilen. Wie siehst Du die Zukunft der KI im Alter? Und glaubst Du, eine Maschine kann eines Tages ein „Ich“ entwickeln?
Sehr geehrte Damen und Herren, liebe AI‑Experten aus der DACH‑Region,
vielen Dank, dass Sie mir die Gelegenheit geben, heute in diesem Online‑Meeting zu sprechen. Mein Name ist Karl‑Friedrich Fischbach, und ich freue mich, mit Ihnen über die Evolution der Künstlichen Intelligenz seit den 1970er Jahren zu reflektieren.
Als Neurobiologe, der sich früh mit der Kybernetik auseinandergesetzt hat, habe ich 1979 eine Vorlesung gehalten, die unter dem Titel „Künstliche Intelligenz: Metamorphose des Maschinenbildes“ bekannt wurde. Sie erschien 1981 in gekürzter Form in der Zeitschrift Umschau.
Ich habe den vollständigen Text des historischen Artikels kürzlich auf meiner Website seniorentreff.ai veröffentlicht, ergänzt um ein Vorwort, das die Brücke zur Gegenwart schlägt. Die Links finden Sie in der Beschreibung dieses Meetings oder direkt über die Startseite auf seniorentreff.ai über den Link im Fuß „Zurück in die Zukunft“.
Mein Fazit gleich vorab
Die Metamorphose des Maschinenbildes hat dramatische Züge angenommen! Wir schaffen etwas, das größer werden kann als wir selbst. Darum gilt: Wir müssen versuchen, die Richtung mitzubestimmen.
Ich möchte meine Gedanken von 1979 in den Kontext der heutigen rasanten Entwicklungen der KI stellen. Ich war damals überzeugt – und bin es heute noch –, dass Intelligenz primär eine Frage der Informationsverarbeitung ist, nicht des zugrunde liegenden Substrats. Diese kybernetische Perspektive, inspiriert von Pionieren wie Norbert Wiener und Alan Turing, sieht den Menschen wie die Maschine als Systeme, die durch Feedback‑Schleifen, Lernen und Anpassung funktionieren.
Von 1979 bis heute – Kontinuitäten und Brüche
Ich fühle mich in dieser Hinsicht heute eng verbunden mit Geoffrey Hinton, der ebenfalls aus der Neurobiologie kommt und als „Godfather of Deep Learning“ gilt. Hinton hat, inspiriert vom Gehirn, früh erkannt, dass neuronale Netze Maschinen ermöglichen, Muster zu lernen und zu generalisieren – ein Gedanke, den meine Vorlesung von 1979 vorweggenommen hat. Lassen Sie uns gemeinsam zurückblicken, die Gegenwart analysieren und in die Zukunft schauen.
In den späten 1970er Jahren waren Computer meist noch sehr große, teure Maschinen, die hauptsächlich in Universitäten und Firmen standen. Die KI‑Forschung steckte in den Kinderschuhen – der erste KI‑Winter lag hinter uns, und neuer Optimismus keimte auf.
In meiner Vorlesung stellte ich die Frage: „Können Maschinen denken?“ Ich griff dabei auf Alan Turings berühmten Test zurück. Turing schlug ein Imitationsspiel vor, bei dem eine Maschine durch schriftliche Kommunikation einen Menschen imitieren muss, um als intelligent zu gelten. Er wollte emotionale Barrieren umgehen und den Fokus auf das Verhalten legen: Wenn die Maschine sich wie ein denkendes Wesen verhält, warum sollten wir ihr dann Intelligenz absprechen?
Ein frühes Beispiel maschinellen Lernens
Um das zu illustrieren, griff ich ein Beispiel auf: das Damespielprogramm von Arthur L. Samuel aus den 1950er Jahren. Samuel, ein Pionier bei IBM, entwickelte ein Programm, das nicht nur Dame spielte, sondern lernte. Es schaute Züge voraus, bewertete Stellungen mit einem Polynom – basierend auf Faktoren wie Steinverhältnis, Zentrumskontrolle und Beweglichkeit – und nutzte die Minimax‑Methode, um den besten Zug zu wählen. Wichtig war: Es lernte auf zwei Ebenen – durch „Auswendiglernen“ bewerteter Stellungen und durch „verallgemeinerndes Lernen“, bei dem es die Koeffizienten seines Bewertungspolynoms anpasste.
Das Ergebnis? Das Programm besiegte seinen Schöpfer und sogar einen Meisterspieler, der Jahre lang ungeschlagen war. Dieses Beispiel diente mir, um Intelligenz zu definieren: die Fähigkeit, vorauszuschauen, zu bewerten, zu entscheiden und aus Konsequenzen zu lernen. Maschinen konnten das bereits damals – und zwar ohne neuronale Netze, nur mit regelbasierten Algorithmen.
Vorurteile – damals wie heute
Ich besprach auch gängige Vorurteile, die bereits damals die Akzeptanz behinderten und – wie heute – den Blick auf die Zukunft vernebeln:
„Computer sind nur zählende Idioten.“ Falsch: Ihre Logikgatter ermöglichen komplexe Systeme, ähnlich wie Neuronen im Gehirn.
„Computer können nicht lernen.“ Samuels Programm widerlegte das.
„Computer sind nicht kreativ.“ Kreativität ist oft Neukombination von Gelerntem – etwas, das Maschinen simulieren können.
„Computer können nicht klüger werden als ihre Programmierer.“ Lernende Systeme sammeln Erfahrung und übertreffen Individuen.
„Computer haben keine Gefühle.“ Basierend auf Turings Test geht es um Verhalten; und wenn Gefühle Informationsverarbeitung sind, ist Silizium nicht ausgeschlossen.
Von der Kybernetik zum Deep Learning
Meine kybernetische Sicht war entscheidend: Es kommt auf die Struktur der Informationsverarbeitung an, nicht auf das Substrat. Das Gehirn ist ein Netzwerk von Neuronen, das Signale verarbeitet; das macht auch ein Computerchip. Hinton entwickelte später den Backpropagation‑Algorithmus, der es Netzen erlaubt, aus Fehlern zu lernen – ein Meilenstein, der den Grundstein für Deep Learning legte.
Nach den KI‑Wintern folgte der Durchbruch in den 2010er Jahren: GPUs, Big Data und neue Architekturen führten zu einem Quantensprung. 2012 gewann AlexNet den ImageNet‑Wettbewerb, 2016 besiegte AlphaGo den Go‑Weltmeister Lee Sedol – mit Reinforcement Learning und neuronalen Netzen.
2025: Allgegenwärtige KI – Chancen und Risiken
Heute generieren große Sprachmodelle Text, Code und Bilder; Transformer und Aufmerksamkeitsmechanismen beherrschen die Bühne. Gleichzeitig warnte Hinton 2023 vor Risiken: KI könnte intelligenter werden als wir; das Alignment‑Problem ist akut. Seine neurobiologischen Wurzeln verstärken die Einsicht, dass „digitale Intelligenz“ die biologische übertreffen könnte, weil sie skalierbar ist.
Vorurteile wie „KI ist nicht kreativ“ sind durch generative Modelle widerlegt. Die Automatisierung der Kopfarbeit, die ich 1979 warnend ansprach, ist heute Realität. Journalisten, Programmierer, Künstler – viele Berufsprofile verändern sich. Dazu kommt die Manipulationsgefahr durch täuschend echte Fakes.
Gleichzeitig hilft KI in der Medizin, bei Klimamodellen und in der Neurobiologie. Systeme analysieren neuronale Daten teils besser als Menschen.
Gesellschaftliche Konsequenzen
In den 1970er Jahren automatisierten wir Handarbeit; heute automatisieren wir Kopfarbeit. Fabriken sind menschenleer, Büros werden es. Arbeitslosigkeit und Sinnverlust drohen trotz Debatten über das bedingungslose Grundeinkommen. Und Verantwortung verdampft – wie Joseph Weizenbaum warnte: Wer trägt Schuld bei Fehlentscheidungen einer KI? Programmierer? Hersteller? Die KI selbst?
Die kybernetische Perspektive legt nahe: Wenn das Substrat egal ist, kann Silizium‑Intelligenz die biologische überholen. Das muss nicht zur aktiven Ausrottung führen, könnte aber zu unserer Marginalisierung führen – wir Menschen als „Ameisen der Zukunft“.
Wir müssen die Richtung mitbestimmen
Wir brauchen ethische Frameworks und klare Regeln. KI ist kein Naturgesetz, das über uns hereinbricht; sie ist aber mehr als ein bloßes Werkzeug. Gerade deshalb müssen wir als Gesellschaft die Spielregeln festlegen. Wenn wir es nicht tun, tun es andere – oft rein nach kommerziellen oder staatlich‑egoistischen Interessen.
Konkret ausgemalt bedeutet das:
Statt passiv abzuwarten: Aktiv definieren, welche KI‑Anwendungen wir wollen und welche nicht. Wenn KI in Bewerbungen, Kreditvergabe oder Justiz eingesetzt wird, dann nur unter strengen Auflagen.
Werte verankern: KI‑Systeme müssen demokratische und ethische Werte widerspiegeln: Fairness, Nicht‑Diskriminierung, Transparenz, Privatsphäre. Keine Blackboxes mit eingebauten Vorurteilen.
Der EU AI Act – ein risikobasierter Rahmen
Inakzeptables Risiko (verboten): Manipulative Systeme oder „Social Scoring“.
Hohes Risiko (streng reguliert): KI in kritischen Bereichen wie Medizintechnik, Personalwesen, Justiz oder Infrastruktur.
Begrenztes Risiko (Transparenzpflicht): Chatbots und Deepfakes – Nutzer müssen informiert werden.
Minimales Risiko: Die große Mehrheit der Anwendungen wie Spamfilter oder KI in Spielen.
Schluss
Die Metamorphose des Maschinenbildes ist in vollem Gange. Von Samuels Dame zu AlphaGo, von Vorurteilen zu realen Herausforderungen – die KI‑Evolution zeigt: Intelligenz ist substratunabhängig. Hinton’s Weg von der Neurobiologie zur KI mahnt uns: Wir schaffen etwas Größeres als uns.
Lassen Sie uns diskutieren, wie wir es lenken können.
Vielen Dank für Ihre Aufmerksamkeit!
Ich freue mich auf einen regen Gedankenaustausch im Kommentarteil und hoffe auf konstruktive Kritik und wertvolle Anregungen.
Der folgende Text ist eine Zeitreise. Er entstand aus einer Vorlesung, die ich 1979 hielt, und wurde 1981 in gekürzter Form publiziert. In einer Ära, in der Computer noch raumfüllende, geheimnisvolle Maschinen waren, versuchte dieser Artikel, die fundamentalen Fragen der aufkommenden Künstlichen Intelligenz zu erörtern. Heute, über 45 Jahre später, in einer Welt, in der KI unseren Alltag durchdringt, ist es verblüffend zu sehen, welche dieser frühen Überlegungen Bestand haben.
Damals sprach ich von einer „explosionsartigen Erhöhung der Leistungsfähigkeit von Computern“. Ich konnte nicht ahnen, dass diese Explosion im Vergleich zu heute nur ein Funke war. Die Rechenleistung, die Datenmengen und die Komplexität der Algorithmen haben sich in einem Maße entwickelt, das selbst die kühnsten Prognosen von damals übertrifft.
Und doch sind die zentralen Fragen dieselben geblieben:
Vom Dame-Programm zu Deep Learning: Das damals als Beispiel dienende Dame-Programm von A.L. Samuel, das durch „verallgemeinerndes Lernen“ seinen eigenen Schöpfer besiegte, mag heute einfach erscheinen. Doch das Prinzip dahinter ist der direkte Vorfahre der neuronalen Netze und des Deep Learnings, die heute AlphaGo zum Sieg über Go-Weltmeister verhelfen und die Grundlage für Sprachmodelle wie ChatGPT bilden. Das grundlegende Konzept – die Maschine lernt aus Erfahrung und verbessert ihre Bewertungsmaßstäbe – ist identisch.
Die alten Vorurteile im neuen Gewand: Die Vorurteile, die ich damals zu entkräften versuchte, sind heute relevanter denn je. Die Behauptung, „Computer sind nicht kreativ“, wird durch KI-Systeme wie Midjourney oder DALL-E, die auf Knopfdruck Kunstwerke erschaffen, täglich herausgefordert. Die Sorge, eine KI könne „ klüger als ihr Programmierer werden“, ist zur zentralen Frage der KI-Sicherheitsforschung und des „Alignment-Problems“ geworden: Wie stellen wir sicher, dass hochintelligente Systeme mit menschlichen Werten im Einklang bleiben?
Die Automatisierung der Kopfarbeit ist da: Meine damalige Warnung, dass nach der Handarbeit nun die „Kopf-arbeit“ automatisiert würde, was für viele Menschen einen „Sinnverlust“ bedeuten könnte, ist keine Dystopie mehr. Sie ist die gesellschaftliche Realität des 21. Jahrhunderts. Berufe in der Kreativwirtschaft, im Journalismus, in der Programmierung und in der Wissenschaft werden durch KI fundamental verändert.
Dieser alte Text ist daher nicht nur ein historisches Dokument. Er ist eine Einladung, die heutige, rasante Entwicklung der KI mit einem Blick auf ihre Wurzeln zu betrachten. Er zeigt, dass die Herausforderungen, vor denen wir heute stehen – ethische, gesellschaftliche und persönliche –, nicht über Nacht entstanden sind, sondern tief in der Logik dieser Technologie verankert sind. Die Metamorphose des Maschinenbildes, die ich 1979 beschrieb, beschleunigt sich weiter, und es ist wichtiger denn je, ihre Richtung mitzubestimmen.
Merzhausen, den 17. August 2025 Karl-Friedrich Fischbach
Intelligenz ist die Fähigkeit vorauszuschauen, zu bewerten und zu entscheiden, verknüpft mit der Fähigkeit aus den Konsequenzen der Entscheidungen zu lernen, d.h. z.B. zur Veränderung und Anpassung der Bewertungsmaßstäbe. Auch Maschinen können über alle diese Eigenschaften verfügen und damit Tätigkeiten wahrnehmen, die Intelligenz erfordern.
Anhand eines einfachen Damespielprogramms wird dies erläutert. Sodann werden Vorurteile angesprochen, die verhindern, dass Menschen die ganze Tragweite dieser Fakten erfassen. Es wird die These vertreten, dass die potentiellen Fähigkeiten von Maschinen weitreichende gesellschaftspolitische Konsequenzen haben werden. Früher wurde die Handarbeit automatisiert, in Zukunft wird die Kopfarbeit maschinell erledigt. Dies wird für viele Menschen Sinnverlust bedeuten.
Jeden Tag erfährt Materie dramatische Umwandlungen. Wir sind Zeuge der erstaunlichen Entwicklungsprozesse, die aus relativ unstrukturierten Eizellen fertige Organismen entstehen lassen. Wir wissen auch von der Evolution, der Selbstorganisation der Materie bis zum Menschen. Dabei sind wir nicht Krone, nicht Endglied einer Entwicklung, sondern bestenfalls – wenn wir als Menschheit das Überleben meistern – Zwischenstation. Niemand kann die zukünftige Metarmorphose der Materie im Detail voraussehen. In diesem Aufsatz vertrete ich jedoch den Standpunkt, daß intelligente Maschinen eine wesentliche Rolle bei der kommenden Metamorphose spielen werden.
Wir sind Zeugen einer explosionsartigen Erhöhung der Leistungsfähigkeit von Computern und haben Anlaß, uns zu fragen, ob dem maschinellen Leistungsvermögen Grenzen gesetzt sind. Ergänzen Computer unsere menschlichen Fähigkeiten oder erwächst uns in ihnen ein ebenbürtiger oder sogar überlegener Partner?
Für eine grundsätzliche Diskussion dieser Frage genügt es nicht, über heutige Computer und ihre Leistungsfähigkeit nachzudenken. Es gilt, die Konsequenzen der möglichen Ausdehnung der Computerfähigkeiten bis an theoretische Grenzen abzuschätzen. Es ist notwendig, ein flexibles Maschinenbild zu haben. Extrapolationen in die Zukunft, die eine Verfeinerung der Technologie nicht berücksichtigen, werden durch die tatsächliche Entwicklung sehr bald ins Lächerliche gezogen[1]. Ich werde mich deshalb nicht mit technischen Problemen beschäftigen.
Die Fähigkeiten von Computern, die ich ansprechen möchte, sind mehr prinzipieller Natur. Eine solche Betrachtungsweise wird jedoch häufig – selbst oder gerade bei akademisch Gebildeten – durch emotionale Barrieren blockiert, die in der Äußerung gewisser Glaubenssätze sichtbar werden. Mit einigen dieser Vorurteile werden wir uns hier auseinandersetzen müssen. Damit dies auf einer sachlich fundierten Basis geschehen kann, möchte ich zunächst Turings Intelligenztest für Maschinen vorstellen und dann anhand eines konkreten Beispiels die Lern- und Denkfähigkeit von Computern erläutern.
1. Können Maschinen denken?
Der von Turing entwickelte Intelligenztest für Maschinen ist besonders gut dazu geeignet, das Augenmerk auf die wesentlichen Punkte bei unserer Argumentation zu lenken. Der Engländer A.M. Turing war Mathematiker und Logiker. Häufig wird unterstellt, daß die moderne Ära der Computerwissenschaft mit seinem Aufsatz von 1936 mit dem Titel „On computable numbers, with an application to the Entscheidungsproblem“ begann. In dieser epochemachenden Veröffentlichung wies er nach, daß Maschinen gebaut werden können, die alle jene logischen Probleme lösen können, die lösbar sind.
Turing hat sich auch mit der Frage beschäftigt: „Können Computer denken?“. Er hat diese Frage allgemein verständlich abhandeln können. Bemerkenswert an seinen Gedankengängen ist, daß sie 1950, also 5 Jahre vor dem ersten tatsächlichen Beginn von Arbeiten auf dem Gebiet der Künstlichen Intelligenz entstanden sind.
‚Turings Test‘, so lautet heute das von Turing vorgeschlagene Experiment zur Überprüfung von Computerintelligenz, läßt seine behavioristische Grundhaltung erkennen. Er schlägt ein Experiment vor, das von Nebensächlichkeiten abstrahiert und nur auf die Vergleichbarkeit des intelligenten Outputs konzentriert ist. Es ist eine Basis für sachlich geführte Diskussionen des Problems „Können Maschinen denken“.
Leider starb Turing schon 1954, sonst hätte er erste bescheidene Schritte auf dem Wege zur künstlichen Intelligenz verfolgen können. Im folgenden sind seine Gedankengänge sinngemäß wiedergegeben.
1.1. Das Imitationsspiel
Turing sieht bei der Diskussion maschineller Intelligenz emotionale Probleme. Deshalb möchte er sich nicht mit semantischen Streitfragen wie „Was ist eine Maschine?“, „Was heißt ‚Denken‘?“ abgeben. Stattdessen schlägt er zur Versachlichung ein Spiel, ein Imitationsspiel vor.
Drei Personen (A, B, C) nehmen an dem Spiel teil. Die Personen A und B sind von C räumlich getrennt, können mit C jedoch Informationen über einen Fernschreiber austauschen. Zunächst soll A ein Mann und B eine Frau sein. C ist ein Interviewer, der durch intelligente Fragen versuchen muß herauszufinden, welches Geschlecht seine Spielpartner haben. B ist ein Spieler, der verpflichtet ist, immer die Wahrheit zu sagen, er soll dem Interviewer möglichst helfen. A darf lügen, er soll den Interviewer über sein Geschlecht im Unklaren lassen. Der Interviewer weiß bei Spielbeginn natürlich nicht, wer A und wer B ist. Er kennt sie unter den Namen X und Y.
Ein paar Beispiel-Fragen:
C: Würde X mir bitte die Länge ihrer oder seiner Haare mitteilen?[2]
X (als A): Meine Haare sind gelockt und ungefähr 35 cm lang.
Y (als B): Ich bin die Frau, glaub ihm nicht etc.
X (als A): Er lügt, glaube ihm nicht.
Es ist klar, daß ein Mensch in der Rolle von A durch geschickte Antworten erreichen kann, daß dem Interviewer am Ende nur noch das Raten bleibt. Was aber ist, wenn das Spiel so durchgeführt wird, daß nicht zwischen Mann und Frau, sondern zwischen Mensch und Maschine unterschieden werden soll und eine Maschine Spieler A darstellt?
1.2. Kritik des neuen Problems
Ist das neue Problem eine Untersuchung wert? Turing meint ja, denn es zieht eine scharfe Trennungslinie zwischen den physischen und den intellektuellen Eigenschaften des Menschen. Es hätte für die ursprüngliche Fragestellung doch wenig Sinn, die Maschine auch noch im Aussehen, in ihren Bewegungen und in ihrer Sprechweise dem Menschen gleichzumachen. Das wäre ja vielleicht sogar schwieriger als eine intelligente Maschine zu bauen.
Andere Vorteile werden durch folgende Frage-Antwort Beispiele verdeutlicht:
C: Schreibe mir bitte ein Gedicht über die Forth-Brücke.
A: Da kannst Du mit mir nicht rechnen. Ich konnte noch nie Gedichte schreiben.
C: Addiere 34957 und 70764.
A: (Nach ungefähr 30 sec Pause) 105621.
C: Spielst Du Schach?
A: Ja.
C: Ich habe nur noch den König auf E1. Du hast Deinen König auf E3 und einen Turm auf A2. Du bist am Zug. Was spielst Du?
A: (15 sec Pause) Turm auf A1, matt.
Dieses Frage- und Antwortspiel ist für unsere Fragestellung also sehr gut geeignet, denn die Maschine soll auf ihre intellektuellen Fähigkeiten getestet werden und nicht für ihr Aussehen bestraft werden. Nebenbei bemerkt: Die Aufgabe, die der Maschine gestellt ist, ist schwieriger als bloß intelligent zu sein. Um für einen Menschen gehalten zu werden, muß sie mit einigen ihrer Fähigkeiten hinter dem Berg halten (z.B. mit der Rechengeschwindigkeit). Ein Mensch hätte in dem Spiel als Spieler A keine Chance.
Bevor wir nun auf die Frage eingehen, ob es theoretisch vorstellbar ist, daß ein Computer in dem Imitationsspiel erfolgreich bestehen kann, möchte ich einige der Fähigkeiten von Computern anhand eines einfachen Beispiels erläutern.
2. Computer als intelligente Spielpartner
Ein besonders wichtiges Merkmal intelligenten Verhaltens ist sein vorausschauender Charakter. Der Schachspieler ist z.B. dann ein guter Spieler, wenn er seine Zugwahl aufgrund von Überlegungen trifft, die die mögliche Spielfortsetzungen möglichst weit in die Zukunft hinein mit berücksichtigen.
Der vorausschauende Charakter intelligenten Handelns setzt voraus, daß ein internes Modell der Umwelt existiert. Die möglichen Folgen einer Handlung müssen „im Kopf“ durchgerechnet werden. Der intelligent Handelnde trifft seine Entscheidungen über die durchzuführenden Handlungen aufgrund seiner Bewertung der Handlungsfolgen. Das bedeutet, daß im internen ‚Weltmodell‘ nicht nur verschiedene ‚Spielfortsetzungen‘ erkannt werden, sondern auch, daß ein interner Bewertungsmaßstab, eine Bewertungsfunktion für Handlungsfolgen existiert. Die Bewertung einer Handlung erfolgt danach, ob der Abstand zu einem Ziel vergrößert oder verringert wird.
Handlungsziele werden durch die jeweilige Umweltsituation, aber vor allem auch durch die interne Bedürfnislage bestimmt. Wenn man hungrig ist, setzt man seine Intelligenz dazu ein, etwas zu essen zu bekommen. Sind alle physiologischen Bedürfnisse befriedigt, wird es leichter, sich auf den Gewinn einer Schach- oder einer Damepartie zu konzentrieren.
Die Existenz einer Bewertungsfunktion, an der wir die Folgen unserer möglichen Handlungen messen, und die Fähigkeit, daß wir in einem internen Modell der Umwelt mögliche Handlungen durchspielen und uns für die ‚beste‘ Variante entscheiden können, ist charakteristisch für Intelligenz. Wir dürfen die wichtige Frage stellen, ob Computer zu solch intelligentem Verhalten in der Lage sind, also ob sie vorausschauen, bewerten und entscheiden können.
2.1. Damespiel als Testfall
Bereits in den 50er Jahren entwickelte A.L. Samuel ein lernfähiges Damespielprogramm, das schließlich so gut wurde, daß es einen Meisterspieler besiegte, der mehrere Jahre von menschlichen Gegnern nicht besiegt worden war.
Spiele sind für Computerwissenschaftler beliebte Objekte. Im Gegensatz zu Problemen des täglichen Lebens sind die auftretenden Schwierigkeiten standardisiert und die Komplikationen des Details fehlen. Samuel wählte Dame und nicht Schach, weil die relative Einfachheit der Regeln es erlaubte, den Schwerpunkt der Analyse auf die Lernfähigkeit des Programms zu legen. Obwohl Dame intellektuell sicher nicht mit Schach konkurrieren kann, sind ihm doch die wesentlichen Merkmale eigen, welche unsere Fragestellung erfordert. Hierzu gehören:
1. Im praktischen Sinne ist Dame nicht determiniert, d.h. es gibt keinen bekannten Algorithmus, der einen Sieg oder ein Unentschieden garantiert. Die komplette Analyse des Spielbaumes des Damespiels würde ungefähr 1040 einzelne Zugentscheidungen umfassen. Wenn drei Züge in einer Nanosekunde analysiert werden könnten, würde die vollständige Analyse immer noch 1021 Jahrhunderte dauern. 2. Es besteht ein definiertes Ziel. Beim Damespielen besteht es darin, den Gegner bewegungsunfähig zu machen. 3. Es existiert zumindest ein gutes Kriterium, das etwas über die Nähe zum Ziel aussagt. Beim Damespiel ist das numerische Verhältnis der schwarzen und weißen Spielsteine entscheidend. 4. Die Gesetze, denen eine Handlung folgen muß, sind bekannt. 5. Es besteht in Form publizierter Damepartien ein Wissenshintergrund, gegen den die Leistungen des Computerprogramms gemessen werden können. 6. Die meisten Menschen sind mit den Regeln des Damespiels vertraut. Deshalb ist zu hoffen, daß das Verhalten des Computerprogramms verständlich gemacht werden kann.
Im folgenden wird die konkrete Struktur des Damespielprogramms erläutert.
2.2. Vorausschauen
Der Computer spielt Dame, indem er ein paar Züge vorausplant und die sich ergebenden Stellungen bewertet, ähnlich wie das ein menschlicher Damespieler tun würde. Dies funktioniert so, daß alle möglichen Züge ausgehend von einer Stellung berechnet werden. Dies geschieht mehrere Zugfolgen tief. Die Tiefe der Analyse ist nicht konstant, sondern richtet sich nach einer Hierarchie von Kriterien. Einige seien genannt:
1. Es wird immer mindestens x (z.B. 3) Züge voraus gerechnet. 2. Es wird tiefer analysiert, wenn der nächste Zug ein Sprung ist, der letzte Zug ein Sprung war oder ein Austauschangebot möglich ist. 3. Es wird höchstens x+y (z.B. 20) Züge vorausberechnet. Diese Grenze wird durch die Memory Kapazität des benutzten Computers bestimmt.
Durch diese Kriterien wird erreicht, daß die nachfolgende Bewertung der sich ergebenden Stellungsbilder nur solche Stellungen erfaßt, die relativ stabil sind (tote Positionen). Das Vorausschauen wird also nicht mitten in einem Abtausch abgebrochen.
2.3. Bewerten
Die Endstellungen, die sich aus dem Vorausschauen ergeben, werden bewertet. Grundlage hierfür ist in dem Programm ein lineares Polynom. Der wichtigste Term hierin, d.h. der Term mit dem höchsten Koeffizienten, steht für das numerische Verhältnis der weißen und schwarzen Spielsteine. Sein Vorzeichen entscheidet darüber, ob normales Dame oder „Freß-Dame“ gespielt wird. Weitere 26 Terme wurden von Samuel in das Bewertungspolynom eingebaut, z.B. Zentrumskontrolle, Beweglichkeit, Kontrolle der Grundlinie etc. Auch binäre Kombinationen dieser Parameter wurden ausprobiert. Der Computer konnte, wie unter der Überschrift „Verallgemeinerndes Lernen“ nochmal erwähnt werden wird, die Koeffizienten der Terme sowie die Auswahl der verwendeten Terme im Prinzip selbst bestimmen. Mit Hilfe des Bewertungspolynoms wird jeder Endstellung, die sich aus dem Vorausschauen ergibt, ein numerischer Wert zugeschrieben. Hiervon ausgehend muß der beste Zug ausgewählt werden. Dies geschieht mit Hilfe der Minimax-Methode. Es reicht nicht aus, den Zug zu wählen, der zu der am höchsten bewerteten Endstellung führt, denn die bösen“ Absichten des Gegenspielers müssen mit berücksichtigt werden. Rückwärts von den Endstellungen muß die Analyse durch den Spielbaum fortschreiten; jedem Knoten wird entweder der Minimalwert der tieferen Schichten zugedacht (wenn er eine Entscheidungsstelle des Gegners beschreibt) oder der Maximalwert (wenn er eine eigene Entscheidungsstelle darstellt). Erst diese Minimax Methode ermöglicht die Auswahl des besten Zugs. Der Wert der wahrscheinlichsten Endstellung wird der Ausgangsstellung zugeschrieben. Dies ist sehr wichtig zum Verständnis der Effektivität des Auswendiglernens, der primitivsten Lernform, zu der Samuel seinen Computer „erzogen“ hat.
2.4. Auswendiglernen und Vergessen
Wir haben gesehen, wie jeder Spielstellung ein Wert zugeordnet wird, der sich aus der Minimax Analyse des Spielbaums ergibt. Dieser Wert wird nun zusammen mit der Spielstellung gespeichert. Wenn in einem neuen Spiel diese Stellung beim Vorausschauen wieder angetroffen wird, so wird sie nicht mit dem Polynom, sondern mit dem gespeicherten Wert bewertet. Dies bedeutet eine effektive Verdopplung der Zugzahl, um welche vorausgedacht wird. Theoretisch ist es möglich, daß durch diese Art des Lernens in der n-ten Partie partiell nx Züge vorausgedacht wird, wenn x die normale Vorausschautiefe bezeichnet.
In der Praxis stößt das Auswendiglernen jedoch sehr bald an die Grenzen der Speicherkapazität eines Computers. Samuel löste in seinem Fall dieses Problem dadurch, daß die Bewertung sehr selten angetroffener Stellungen vergessen werden konnte. Je häufiger eine Stellung beim Spiel angetroffen wurde, umso länger wurde die Bewertung „behalten“.
Was kann der Computer, ausgestattet mit der Fähigkeit des Auswendiglernens, leisten? In der Trainingsphase ließ Samuel das Programm gegen sich selbst, aber auch gegen viele menschliche Gegner, darunter einige Meisterspieler, antreten. Auch einige Spiele aus der Literatur wurden nachgespielt. Am Ende dieser Lernphase spielte der Damecomputer eine sehr gute Eröffnung und erkannte die meisten Gewinn- oder Verluststellungen im Endspiel. Im Mittelspiel hatte das Auswendiglernen jedoch keine eindeutige Verbesserung bewirken können. Das Computerprogramm war in diesem Stadium als ein überdurchschnittlich guter Anfänger, aber sicher nicht als Experte, zu bezeichnen.
2.5. Verallgemeinerndes Lernen
Auswendiglernen ist durch die Gedächtniskapazität des Computers beschränkt. Es gibt zu viele mögliche Stellungen, als daß alle „auswendig“ gespeichert werden könnten. Eine viel effektivere Lernmethode besteht darin, die gemachten Erfahrungen zu verallgemeinern und nur diese Verallgemeinerungen zu speichern. Dieses Lernen sollte verschiedene Ebenen der Abstraktion beinhalten. Samuel versuchte seinem Programm die Fähigkeit zur Abstraktion dadurch zu geben, daß er es in die Lage versetzte, die Terme des Bewertungspolynoms selbst auszuwählen und das Vorzeichen und die Größe der Koeffizienten anhand des Spielerfolgs zu bestimmen. Die Modifikation der Termkoeffizienten anhand des Spielerfolges beinhaltet folgende Schwierigkeit: Nach Beendigung eines Spiels ist nicht immer sicher, welcher Spielzug zum Gewinn oder zu dem Verlust der Partie geführt hat, also ist auch nicht sicher, welcher Term neu gewichtet werden sollte. Samuel umgeht dieses Problem dadurch, daß er während des Spiels nach jedem Zug eine Bewertung des Bewertungspolynoms vornimmt. Gegeben sei z.B. eine beliebige Stellung im Mittelspiel. Grundlage des Lernvorgangs ist dann der Vergleich der Bewertungen für die augenblickliche Stellung, die sich ergeben, einmal aus der augenblicklichen Berechnung mit dem Polynom und zum anderen nach der Generierung des Spielbaums aus der Rückrechnung mit der Minimax Methode. Die Differenz zwischen beiden Bewertungen ist Delta. Delta ist ein Maß für die Güte des Bewertungspolynoms. Wenn Delta positiv ist, bedeutet das, daß die Berechnungen des Polynoms zu pessimistisch waren. Alle positiven Terme sollten also u.U. stärker bewertet werden. Wenn Delta negativ ist, dann war die Bewertung mit Hilfe des Polynoms zu optimistisch und alle Terme, die negativ beitragen, sollten u.U. stärker zu Buche schlagen. Nach Beendigung des Spiels werden deshalb die für jeden Zug ermittelten Delta-Werte mit dem Vorzeichen der verschiedener Terme während eines ganzen Spiels korreliert. Die Koeffizienten werden je nach berechneter Korrelation für das nächste Spiel verändert.
2.6. Vergleich der Lernmodi
Während das Auswendiglernen sehr schnell zu einer guten Eröffnung führte, aber im Mittelspiel wenig veränderte, hatte verallgemeinerndes Lernen nicht so ein gutes Eröffnungsspiel zur Folge, aber das Mittelspiel wurde drastisch beeinflußt. Einmal in Steinvorteil, hatte der Gegner meist keine Chance mehr.
2.7. Kombination der Lernmodi
Wirklich meisterlich spielte der Damecomputer nach der Kombination beider Lernmodi. So konnte er ein Spiel gegen Mr. R.W. Nealey gewinnen, der seit Jahren gegen Menschen nicht mehr verloren hatte. Nealey kommentierte das Spiel gegen den Computer folgendermaßen:
„Unser Spiel… hatte seine Höhepunkte. Bis zum 31. Zug war unser gesamtes Spiel publiziert, wenn man davon absieht, daß ich mehrmals das ‚Buch‘ verlies, um den Computer in Zeitnot zu bringen. Ab dem Zug 32-27 (dem Verlustzug) ist das Spiel original, soviel ich weiß. Es ist für mich sehr interessant festzustellen, daß der Computer mehrere Starzüge machen mußte, um gewinnen zu können, anderenfalls hätte ich die Möglichkeit zum Unentschieden gehabt. Deshalb spielte ich weiter. Die Maschine spielte ein perfektes Endspiel ohne einen Fehlzug. In bezug auf das Endspiel habe ich seit 1954, als ich mein letztes Spiel verlor, keinen solchen Gegner gehabt.“
3. Kritik von Vorurteilen über die theoretischen Grenzen der Computerfähigkeiten
3.1. Erstes Vorurteil: „Computer sind nur zählende Idioten“
Die meisten Computer verarbeiten Information in digitaler Form. Ihre elementarsten Bausteine (logische Gatter) können in Abhängigkeit von den Eingängen an ihrem Ausgang die logischen Zustände „0“ und „1“ einnehmen. Dies wird häufig benützt (zugegebenermaßen nur in der trivialen Literatur), um zu behaupten, daß Computer eigentlich nur bis 0 und 1 zählen könnten. Wie widersinnig es ist, hierin eine Beschränkung der Computerfähigkeiten zu sehen, liegt auf der Hand. Prinzipiell darf die Leistungsfähigkeit eines komplexen Systems nicht an derjenigen seiner isolierten Bausteine gemessen werden. Wer wollte einer einzelnen Nervenzelle Intelligenz oder gar Selbstbewußtsein zuschreiben?
Die de Morganschen Gesetze besagen, daß die logischen Funktionen NOR und NAND Universalfunktionen sind. Mit ihnen lassen sich im Prinzip alle lösbaren logischen Probleme lösen. Dieser Satz bedeutet nichts anderes, als daß Computer theoretisch die Arbeit der Logiker übernehmen können. Es ist selbstverständlich, daß auch Computer prinzipiell unlösbare Probleme nicht lösen können (es gibt hiervon in der Logik und der Mathematik eine ganze Reihe).
3.2. Zweites Vorurteil: „Computer können nicht lernen“
Diese Anschauung vertrat sogar in den 70er Jahren im Fernsehen ein Stuttgarter Informatikprofessor (dessen Namen ich glücklicherweise vergessen habe), was nur zeigt, daß manchmal eine zu detaillierte Beschäftigung mit einer Sache den Blick für allgemeinere Zusammenhänge vernebeln kann. Wir haben uns mit einem lernfähigen Computerprogramm eingehend befaßt; deshalb erübrigt es sich hier, über dieses Vorurteil noch viel Worte zu machen.
3.3. Drittes Vorurteil: „Computer sind nicht kreativ“
Beim Rückzugsgefecht darüber, was Computer nicht können, wird häufig angeführt „Computer sind nicht kreativ“. Diese Behauptung wird selten von einer Definition dessen begleitet, was unter „kreativ“ verstanden werden soll. Sobald kreativ nämlich in sinnvoller Weise definiert wird, ist meistens schon der Weg für eine maschinelle Nachahmung vorgezeichnet. Willwacher z.B. beschreibt einen produktiven Einfall als die Neukombination früher erlernter Informationen. Sein auf einem Computer simuliertes assoziatives Speichersystem konnte solche produktiven Einfälle produzieren.
Ich könnte den Rest der Vorlesungszeit damit füllen, aus einem Buch mit Computerlyrik zu rezitieren. Solche Computerlyrik ist nicht deshalb nicht kreativ, weil wir die Regeln kennen (können), nach denen der Computer seine Gedichte verfaßt hat. Wenn dem so wäre, würde eine notwendige Bedingung für menschliche Kreativität die Unkenntnis der Regeln sein, nach denen menschliche Gehirne Neues produzieren. Kreativität wäre dann wegforschbar.
Dieses Argument leitet über zum 4. Vorurteil.
3.4. Viertes Vorurteil: „Computer können nicht klüger werden als ihre Programmierer“
Was ein Computer tut und wie er es tut, hängt von seinem Programm und damit von seinem Programmierer ab. Damit ist aber kein neuer Erhaltungssatz formuliert, d.h. ein Programmierer kann mehr Information aus dem Computer erhalten als er hineingesteckt hat. Das wird besonders anschaulich bei lernfähigen Programmen. Auch hier kann uns das von Samuel programmierte lernfähige Damespielprogramm als Beispiel dienen. Wir haben nachvollziehen können, warum dieses Programm bald besser Dame spielen konnte als sein Schöpfer. Der Satz „Ein Computer kann nie intelligenter werden als sein Programmierer“ verschleiert tatsächliche Entwicklungen. Er vernachlässigt darüberhinaus, daß schon heute in vielen Großcomputern Programme laufen, die von einem ganzen Stab von Programmierern über viele Jahre entwickelt worden sind.
Es sollte im übrigen angemerkt sein, daß auch wir Menschen abhängig davon sind, was Erzieher und sonstige Umwelt in uns eingepflanzt haben. Ein prinzipieller Unterschied zu lernfähigen Computern wäre hier noch nachzuweisen.
Die richtig gestellte Frage ist nicht die, ob Computer nur das tun, was ihnen aufgetragen wurde zu tun, sondern die Frage nach den Grenzen dessen, was einem Computer aufgetragen werden kann zu tun.
3.5. Fünftes Vorurteil: „Computer können keine Gefühle haben“
Von dem chinesischen Philosophen Chuang Tzu ist folgende Parabel überliefert: „Zwei Philosophen standen auf einer kleinen Brücke, über einem klaren Bach, und sahen dem Spiel der Fische zu. Da sagte der eine: ‚Sieh nur, wie die Fischlein dort im Kreis herumschwimmen und plätschern. Das ist ein Vergnügen für sie‘. Darauf versetzte der zweite: ‚Woher weißt du, was für die Fische ein Vergnügen ist?‘ – ‚Und wieso weißt du‘, entgegnete ihm der erste, ‚der du doch nicht ich bist, daß ich nicht weiß, was den Fischen Vergnügen macht?‘
Verfechter der These: „Ein Computer kann kein Gefühl haben“ sind Dogmatiker mit einem echten Vorurteil (vor jeder Erfahrung ). Sie vergessen, daß sie die Maschine selbst sein müßten, um dies subjektiv zu überprüfen. Auf das Gefühlsleben unserer Mitmenschen und das mancher Haustiere schließen wir instinktiv aufgrund angeborener auslösender Mechanismen. Auf der philosophischen Ebene rechtfertigen wir diese instinktive Grundhaltung ad hoc mit einem Analogieschluß: Alle Menschen verhalten sich so, als hätten sie ein Gefühlsleben wie wir selbst, also haben sie eins (man beachte, wie wir in diesem Fall das Prinzip des Turing Tests – auf Mitmenschen angewandt – akzeptieren).
Bei dem traurigen Erscheinungsbild heutiger Computer funktionieren weder angeborene auslösende Mechanismen, noch können uns Analogieschlüsse mangels Ähnlichkeit dazu bewegen, ihnen ein Gefühlsleben zuzusprechen. Sie haben sicher auch keins. Aber zu behaupten, daß eine (zukünftige) Maschine mit der Komplexität eines menschlichen Gehirns keine Gefühle haben kann, ist tatsächlich nichts anderes als ein unbewiesenes und wahrscheinlich unbeweisbares Vorurteil. Wenn wir als Naturwissenschaftler annehmen, daß unsere Gefühle und sogar unser Selbstbewußtsein auf Informationsverarbeitungsprozessen beruhen, dann ist es eher konsequent anzunehmen, daß eine Maschine mit entsprechender Informationsverarbeitung eben auch diese Phänomene kennt[3].
Auf der Basis von Turings Test ist aber selbst dieser ‚Glaube‘ irrelevant. Relevant ist bei dieser Betrachtungsweise nur, ob der Computer sich so verhalten kann, als ob er Gefühle habe.
4. Mögliche Folgen der Computerentwicklung
Alle möglichen Folgen der Computerentwicklung kann niemand voraussehen. Einige der Entwicklungen sind jedoch schon heute absehbar. Sie seien kurz angesprochen.
4.1. Die Verdrängung des Menschen aus den Produktionsprozessen
Die Einsparung menschlicher Arbeitskraft durch den Einsatz der Computertechnologie ist – trotz politisch motivierter Gegenrede – evident. Die heutige Arbeitslosigkeit ist zumindest teilweise auf die progressive Automatisierung der Produktionsprozesse zurückzuführen. Der Anteil dieser strukturellen Arbeitslosigkeit wird zunehmen, trotz der langfristig drastischen Verkürzung der menschlichen Arbeitszeit.
Die heutige Situation ist nicht nur einfach eine Wiederholung der Erscheinungen während der ersten industriellen Revolution im 19. Jahrhundert, als z.B. die Weber durch die Konkurrenz der mechanischen Webstühle brotlos wurden. Jede der damaligen Maschinen bedeutete wenigstens auch einen Arbeitsplatz für denjenigen, der sie bedienen mußte. Heute ist die Entwicklung hingegen gerade die, daß Maschinen selbständig (automatisch) ihre Arbeit verrichten. Menschenleere Fabriken sind z.B. in der Automobilindustrie und in der chemischen Verfahrenstechnik schon heute keine Utopie mehr. Vor allem auch in der Computerentwicklung selbst werden immer mehr Computer eingesetzt. Das dynamische Wachstum dieser Branche verschleiert noch, daß pro Produktionseinheit immer weniger Mensch benötigt wird.
Früher wurde die Handarbeit mechanisiert, der Mensch blieb immer der ‚Kopf‘ des Mensch-Maschine Systems. Heute wird auch die Kopfarbeit automatisiert; wird dadurch der Mensch funktionslos?
Es steht zu erwarten, daß die mehrheitliche Beschränkung der Menschen auf das Konsumieren, d.h. seine Verdrängung aus der Produktion, nicht ohne große Probleme für die menschliche Sinnsuche ablaufen wird.
4.2. Unüberschaubare Computerprogramme und der Verlust menschlicher Verantwortung?
Es ist nicht so, daß die heutige Entwicklung generell eine Befreiung von unwürdigen Tätigkeiten bedeutet. Computer (Roboter) verdrängen den Menschen nicht nur bei zeitaufwendigen Routinearbeiten, sie nehmen vielen auch das Gefühl, von Bedeutung zu sein. Außerdem werden Computer zunehmend bei Entscheidungsprozessen in Politik und Wirtschaft eingesetzt, bei Tätigkeiten, denen ein hohes Sozialprestige entsprechen würde. Es ist die Aufgabe von Computern geworden, optimale Verkaufsstrategien, Investitionen oder Personalbestände zu berechnen. Der Mensch, der den Entscheidungsprozeß des Computers häufig nicht mehr überschauen kann, ist oft nur noch das Computerinterface zur ‚real world‘, das Verbindungsglied zwischen Computer und Umwelt. Dies ist notgedrungen ein Rückzug des Menschen aus der Verantwortung. Ein Mensch, der die Entscheidungen eines Computers weitergibt, ohne dessen Entscheidungsprozeß nachvollziehen zu können, fühlt sich nicht verantwortlich und – in einem gewissen Sinne – ist er es auch nicht. Da die Entscheidungen eines Computers auf so komplexen Programmen beruhen können, daß kein einzelner Programmierer, sondern nur ganze Generationen von Programmierern verantwortlich zeichnen, gibt es gar keine juristisch belangbare individuelle menschliche Verantwortung mehr, wie Joseph Weizenbaum feststellt: „…but responsibility has altogether evaporated“.
Noch wird in der Computertechnologie das potentielle Lernvermögen der Computer selten eingesetzt. Was es in obigem Zusammenhang bedeuten würde, wenn Computerentscheidungen aufgrund von Erfahrungen getroffen würden, die der Computer selber gesammelt hat, ohne daß ein menschliches Interface eingeschaltet war, ist offensichtlich. Computer wären endgültig autonome Handlungszentren im Funktionsgefüge dieser Welt.
Wir brauchen eine Diskussion der Frage, was für uns als Menschen wünschenswert ist, und ob die gegenwärtige Entwicklungstendenz an diesen Zielen orientiert ist. Als denkende Menschen sollten wir die Richtung der stattfindenden Metamorphose mitbestimmen und uns nicht ahnungslos von ihrer Eigendynamik überrollen lassen.
Literatur
Krause, M. & Schaudt, G.F.: Computer Lyrik. Poesie aus dem Elektronenrechner. Droste Verlag, Düsseldorf, 1967.
Samuel, A.L.: Some Studies in Machine Learning Using the Game of Checkers. In: Computers and Thought, McGraw Hill, 1963.
Turing, A.M.: On computable numbers, with an application to the Entscheidungsproblem. Proc. London Math. Society, 1936.
Turing, A.M.: Computing machinery and intelligence. Mind, 1950.
Weizenbaum, J.: Computer Power and Human Reason. Freeman & Co., San Francisco, 1976.
Willwacher, G.: Fähigkeiten eines assoziativen Speichersystems. Biol. Cybernetics 24, 1976.
Hättest Du 1979 gedacht, dass wir heute mit Computern sprechen können? Schreibe mir Deine Erinnerungen an die ersten Computerbegegnungen gerne in die Kommentare.