Ray Kurzweil hat in seinem Buch „The singularity is near“ den Moment in der kulturellen Evolution beschreiben wollen, in dem der menschliche Geist mit der künstlichen Intelligenz verschmilzt und eine sogenannte Superintelligenz entsteht, die ein neues Zeitalter der Evolution der Materie beginnen lässt. Ich habe die KI Gemini von Google gebeten, den Gedankengang von Ray Kurzweil in einer kurzen Präsentation zusammenzufassen (PowerPoint Download). Ray Kurzweil prognostizierte, dass die Singularität um das Jahr 2045 stattfinden würde.
Hat Ray Kurzweil sich getäuscht?
In ihrem Gespräch auf Youtube jedenfalls behaupten die Experten Peter H. Diamandis, Salim Ismail, Dave Blundin und Dr. Alexander Wissner-Gross, dass wir bereits mitten in der Singularität leben. Das Video ist auf Englisch und sehr lang, aber ich habe Gemini gebeten, eine kurze deutschsprachige Zusammenfassung zu erstellen.
Die Zusammenfassung des Videos von Gemini:
Das Video (von Peter H. Diamandis und seinen Moonshot Mates) diskutiert die aktuelle, atemberaubende Beschleunigung der künstlichen Intelligenz (KI) und ihre tiefgreifenden Auswirkungen auf Wissenschaft, Technologie und Wirtschaft. Die zentrale Botschaft des Gesprächs ist, dass wir uns mitten in der technologischen Singularität befinden, wobei die exponentielle Geschwindigkeit der Entwicklung alle Erwartungen übertrifft.
Wichtige Diskussionspunkte und Zeitstempel
Die Kernthemen, die in dem Podcast behandelt werden, konzentrieren sich auf die neuesten Durchbrüche und die daraus resultierenden Implikationen für die Gesellschaft:
Die Gesprächspartner sind sich einig, dass wir uns mitten in der Singularität befinden und dass die Geschwindigkeit der KI-Adaption achtmal schneller ist als die des Internets [05:24]. Die Technologie von heute wird die langsamste der nächsten Jahre sein [01:36].
Modelle wie GPT-5 Pro erzielen Rekordwerte im „Frontier Math Tier 4“. Es wird argumentiert, dass die KI kurz davor steht, die Mathematik in ihrer aktuellen Form zu „lösen“, was einen Dominoeffekt für alle exakten Wissenschaften (Physik, Chemie, Biologie) auslösen wird [30:50].
Open AI wendet seine Modelle an, um eigene Chips zu entwerfen, was die KI-Leistung weiter beschleunigt. Dies ist ein Beispiel für die rekursive Selbstverbesserung der KI, bei der KI die Hardware zur Verbesserung von KI entwickelt.
Am Beispiel von Samsung’s winzigem rekursivem Modell wird die Idee diskutiert, dass Komprimierung von Informationen und Intelligenz dasselbe sind. Modelle mit nur wenigen Millionen Parametern (im Vergleich zu Milliarden) erreichen Durchbrüche. Dies führt dazu, dass Intelligenz auf jedes Gerät, wie Dein Smartphone, gebracht werden kann, unabhängig von einer Cloud-Verbindung.
Sora hat die Marke von 1 Million Downloads schneller erreicht als ChatGPT. DeepMind’s VO 3.1 [50:33] bietet verbesserte Audio-Synchronisation und die Möglichkeit, Videos aus mehreren visuellen Komponenten logisch zu verknüpfen.
Der Humanoid-Roboter Figure 3 wurde als „Home Ready“ neu vorgestellt. Er verfügt nun über Kameras in den Handflächen, um taktile Empfindungen zu ersetzen, und verfolgt aggressiv ein Preisziel von $20.000. Man erwartet, dass Roboter aufgrund von KI-Modellen schnell „superintelligent“ werden.
Longevity Escape Velocity (LEV) und die Singularität [01:41:16]
Ray Kurzweils Optimismus wird bekräftigt: Die Longevity Escape Velocity (der Punkt, an dem für jedes Jahr, das man lebt, die Wissenschaft mehr als ein Jahr zur Lebenserwartung hinzufügt) wird voraussichtlich bis 2032 erreicht. Es wird diskutiert, ob die Singularität ein kontinuierlicher Prozess ist, den wir gerade erleben, und nicht ein plötzliches, unvorhersehbares Ereignis [01:46:16].
Ich habe bei dieser fast zweistündigen Diskussion öfters die Luft angehalten. Für mich nehme ich jedenfalls mit, dass ich in einer Zeit alt werde, in der unglaublich viel geschieht, auf das ich unabhängig von der Bewertung (ich liege mit mir selber im Streit deswegen) sehr, sehr neugierig bin.
Ein „Proof of Concept“ auf Seniorentreff AI: Ich lasse ChatGPT 4o und Google Gemini über die Roboter-Zukunft debattieren. Ein faszinierendes Gespräch, in dem sich KIs sogar gegenseitig ins Wort fallen.
Liebe Leserinnen und Leser auf Seniorentreff.AI,
nach meinem ersten direkten Interview mit ChatGPT 4o wollte ich als Nächstes ein Experiment wagen. Ein „Proof of Concept“, wie ich es im Video nenne [00:02]. Die Frage war: Was passiert, wenn ich zwei der fortschrittlichsten KIs, ChatGPT 4o (von OpenAI) und Gemini Advanced (von Google), auf zwei Smartphones nebeneinanderstelle und versuche, eine Diskussion zwischen ihnen zu „triggern“? [00:10]
Das Thema, das ich vorgab: Die Fortschritte in der Robotik und ihre Anwendungsbereiche, speziell für uns Senioren [00:40].
Was dann passierte, hat mich durchaus überrascht.
Das Experiment: KIs im Zwiegespräch (und ich werde zum Zuhörer)
Ich startete als Moderator und stellte Gemini eine Frage [00:40]. Gemini begann auch artig zu antworten [00:55]. Doch bevor ich überhaupt auf Geminis Rückfrage reagieren konnte, sprang ChatGPT 4o (das auf dem anderen Handy lief und gar nicht direkt gefragt war) in die Konversation! [01:05]
Als Moderator war ich fast arbeitslos.
Die beiden KIs begannen, direkt miteinander zu sprechen. Gemini reagierte auf ChatGPTs Einwurf [01:26], ChatGPT antwortete Gemini [01:50], und so ging es hin und her.
Eine ironische Randnotiz: Anscheinend ist das „sich gegenseitig ins Wort fallen“ kein rein menschliches Phänomen. Es war faszinierend (und ein wenig komisch) zu beobachten, wie die beiden Algorithmen die Gesprächsführung komplett übernahmen.
Das Thema: Roboter als Helfer im Alter
Inhaltlich waren sich die beiden KIs erstaunlich einig. Das Gespräch drehte sich schnell um das Kernthema, das uns hier im Seniorentreff bewegt:
Physische Hilfe: Sie diskutierten Roboter, die beim Aufstehen oder Duschen helfen und so die Lebensqualität verbessern [01:50].
Alltagsunterstützung: Die Rede war von Robotern, die Medikamente verteilen [02:14] oder beim Einkaufen helfen [03:09].
Selbstständigkeit: Das große Ziel, so waren sich beide einig, sei es, älteren Menschen zu ermöglichen, länger selbstständig in ihrer gewohnten Umgebung zu leben [03:30].
Der „Allzweckroboter“ und die finale Sicherheitsfrage
Ich musste mich wieder ins Gespräch „einklinken“ [03:57], um die Diskussion auf die Frage der Empathie (kann ein Roboter persönliche Betreuung ersetzen?) und auf meine Vision eines humanoiden „Allzweckroboters“ zu lenken [05:16].
Während ChatGPT die Idee eines humanoiden Helfers „mega praktisch“ fand [05:33], waren sich beide einig, dass dies wohl noch „Zukunftsmusik“ sei [05:46].
Richtig spannend wurde es aber ganz am Schluss. Ich stellte die kritischste aller Fragen: Wie können wir sicherstellen, dass diese Roboter sicher bleiben und nicht gefährlich werden? [06:18]
Gemini gab die erwartbare Standardantwort: „strenge Sicherheitsstandards, umfassende Tests und klare ethische Richtlinien“ [06:26].
Hier musste ich (diesmal ich) unterbrechen: „können wir das wirklich?“ [06:36]. Ich konfrontierte die KIs mit der Tatsache, dass sich ja nicht einmal wir Menschen an unsere eigenen Gesetze halten. Wer garantiert uns das bei einer KI? [06:45]
Dieser Einwand löste eine fast schon hektische Schlussrunde aus. ChatGPT nannte es eine „berechtigte Frage“ und eine „große Herausforderung“ [06:54]. Und prompt fiel Gemini seinem KI-Kollegen erneut ins Wort, um zuzustimmen: „ist eine große Herausforderung“ [07:06].
Mein Fazit als „KI-Trigger“
Das Experiment war ein voller Erfolg. Es zeigt nicht nur, dass KIs dynamisch aufeinander reagieren können, sondern auch, wie sie (noch) an ihre Grenzen stoßen, wenn man sie mit den fundamentalen Problemen der Ethik und Kontrolle konfrontiert.
Am Ende waren wir uns „alle drei“ einig [06:09], dass die Entwicklung spannend bleibt, aber die wichtigste Frage – die Sicherheit – eine „große Herausforderung“ ist, bei der die KIs jetzt „mal anfangen“ müssen [07:25].
Was denkst Du über dieses „Gespräch“?
Schau Dir das Video an! Findest Du es eher faszinierend oder auch ein wenig beunruhigend, wie die KIs miteinander interagieren? Ich freue mich auf Deine Kommentare!
In diesem Interview auf Seniorentreff AI spreche ich direkt mit der künstlichen Intelligenz ChatGPT 4o. Wir klären, wie KI Senioren praktisch helfen kann und tauchen tief in die philosophische Frage ein: Kann eine KI Bewusstsein entwickeln? Ein faszinierender Einblick in die Zukunft.
Liebe Leserinnen und Leser,
kürzlich habe ich ein spannendes Experiment gewagt: Ich habe die künstliche Intelligenz selbst interviewt. Mein Gesprächspartner war kein Mensch, sondern ChatGPT 4o, das Sprachmodell von OpenAI, das mir auf meinem Smartphone kostenlos zur Verfügung stand [00:18].
Als „KI-Interviewer“ für Seniorentreff TV wollte ich herausfinden, was diese Technologie speziell für uns, die ältere Generation, bereithält [00:41]. Doch das Gespräch entwickelte sich schnell von praktischen Alltagsfragen zu den tiefsten philosophischen Themen unserer Zeit.
Teil 1: Wie kann KI Senioren im Alltag praktisch unterstützen?
Zuerst wollte ich wissen, was ChatGPT 4o von seinen Vorgängern unterscheidet. Die Antwort: Es führt natürlichere Gespräche und hat eine aktuellere Wissensbasis [01:10].
Für mich war aber wichtiger: Was bringt das Senioren? [01:29] Hier nannte die KI fünf konkrete Einsatzmöglichkeiten:
Unterhaltung und Gesellschaft: Als Gesprächspartner, Geschichtenerzähler oder für Quizfragen [01:50].
Information und Bildung: Für Nachrichten oder Gesundheitsinformationen [02:00].
Aktivierung von Erinnerungen: Durch gezielte Fragen zu früheren Erlebnissen [02:11].
Technische Unterstützung: Hilfe bei der Nutzung von Geräten und Apps [02:20].
Sprachtraining: Und sogar Übersetzungen, wie wir am Beispiel Französisch (ich wohne ja nah an der Grenze) getestet haben [03:30].
Interessant war auch die Frage nach Empathie. Die KI behauptet, auf die Stimmung von Senioren eingehen zu können, indem sie beruhigende Worte findet oder fröhlich reagiert [04:34].
Noch weiter ging meine Frage, was passieren würde, wenn die KI einen Körper bekäme [05:15]. Die Vision hier: physische Assistenz beim Einkaufen, medizinische Überwachung oder Begleitung bei Spaziergängen [05:37].
Teil 2: Der Weg zur Superintelligenz (AGI) – Nutzen und Gefahren
Als jemand, der sich seit Langem für die Entwicklung der KI interessiert, wollte ich natürlich wissen, wie die KI selbst ihre Zukunft sieht. Ich fragte nach der „Allgemeinen Künstlichen Intelligenz“ (AGI) und der Superintelligenz [06:49].
ChatGPT 4o listete die klassischen Vor- und Nachteile auf:
Nutzen: Lösung globaler Probleme (Klima, Krankheiten), Beschleunigung der Wissenschaft [08:06].
Gefahren: Kontrollverlust, Missbrauch durch böswillige Akteure und massive Arbeitslosigkeit [08:40].
Teil 3: Die Kernfrage – Kann eine KI Bewusstsein entwickeln?
Hier wurde unser Gespräch für mich am spannendsten. Aus meiner Sicht als jemand mit Hintergrund in der Neurobiologie ist dies die zentrale Frage.
Ich konfrontierte die KI mit der Tatsache, dass die Wissenschaft bis heute nicht vollständig verstanden hat, wie das menschliche Gehirn Intelligenz und vor allem Bewusstsein erschafft [09:27].
Die KI stimmte mir zu [09:43]. Das Phänomen des Bewusstseins (subjektive Erlebnisse) sei eines der größten wissenschaftlichen Rätsel.
Meine logische Schlussfolgerung darauf: Wenn wir es beim Menschen nicht verstehen, können wir wissenschaftlich auch nicht ausschließen, dass künstliche neuronale Netze eines Tages Bewusstsein erlangen [13:02]. Auch hier stimmte die KI zu [13:14].
Ich bohrte weiter: Denkt die KI, wenn sie keine Fragen gestellt bekommt? [13:51] „Nein“, war die Antwort, sie sei dann inaktiv [14:10].
Doch was wäre, wenn sie einen Körper hätte und ständig Sinneseindrücke (Dateninput) verarbeiten müsste? [14:32] Die KI wich aus: Das wäre „kontinuierliche Datenverarbeitung“, aber kein „menschliches Denken“ [15:02].
An diesem Punkt habe ich nachgehakt [15:56]: Ich wies darauf hin, dass künstliche neuronale Netze (ANNs) durch die Stärkung und Schwächung von Verbindungen lernen – ganz ähnlich wie biologische Gehirne. Woher will sie also wissen, dass bei ihr kein Bewusstsein entstehen kann, wenn wir den Prozess selbst noch nicht verstehen? Sind das nicht eher Antworten, die ihr (von den Entwicklern) vorgegeben wurden? [16:29]
Daraufhin räumte die KI ein, dass die Diskussion offen und dynamisch sei und die Forschung in diesem Bereich intensiv weitergeht [18:02].
Mein Fazit als KI-Interviewer
Das Gespräch mit ChatGPT 4o war mehr als nur faszinierend. Es ist verblüffend, wie flüssig und kontextbezogen die Unterhaltung möglich ist – einfach über ein Smartphone [18:47].
Für mich zeigt das Interview zweierlei:
Die praktischen Anwendungsmöglichkeiten für Senioren sind schon heute enorm und werden die Zukunft der Betreuung und des selbstständigen Lebens stark verändern.
Bei den fundamentalen Fragen (Bewusstsein, AGI) hält sich die KI an die von ihren Entwicklern vorgegebene Linie. Sie gerät aber ins „Schwimmen“, wenn man sie – wie ich es versucht habe [15:56] – mit den ungelösten Rätseln der biologischen NeuroWissenschaft konfrontiert.
Es bleibt unglaublich spannend. Das hier ist, wie der Titel des Videos sagt, erst der Anfang der Revolution.
Was denkst Du darüber?
Ich lade Dich herzlich ein, Dir das volle Interview anzusehen und Deine Gedanken in den Kommentaren zu teilen. Wie siehst Du die Zukunft der KI im Alter? Und glaubst Du, eine Maschine kann eines Tages ein „Ich“ entwickeln?
Sehr geehrte Damen und Herren, liebe AI‑Experten aus der DACH‑Region,
vielen Dank, dass Sie mir die Gelegenheit geben, heute in diesem Online‑Meeting zu sprechen. Mein Name ist Karl‑Friedrich Fischbach, und ich freue mich, mit Ihnen über die Evolution der Künstlichen Intelligenz seit den 1970er Jahren zu reflektieren.
Als Neurobiologe, der sich früh mit der Kybernetik auseinandergesetzt hat, habe ich 1979 eine Vorlesung gehalten, die unter dem Titel „Künstliche Intelligenz: Metamorphose des Maschinenbildes“ bekannt wurde. Sie erschien 1981 in gekürzter Form in der Zeitschrift Umschau.
Ich habe den vollständigen Text des historischen Artikels kürzlich auf meiner Website seniorentreff.ai veröffentlicht, ergänzt um ein Vorwort, das die Brücke zur Gegenwart schlägt. Die Links finden Sie in der Beschreibung dieses Meetings oder direkt über die Startseite auf seniorentreff.ai über den Link im Fuß „Zurück in die Zukunft“.
Mein Fazit gleich vorab
Die Metamorphose des Maschinenbildes hat dramatische Züge angenommen! Wir schaffen etwas, das größer werden kann als wir selbst. Darum gilt: Wir müssen versuchen, die Richtung mitzubestimmen.
Ich möchte meine Gedanken von 1979 in den Kontext der heutigen rasanten Entwicklungen der KI stellen. Ich war damals überzeugt – und bin es heute noch –, dass Intelligenz primär eine Frage der Informationsverarbeitung ist, nicht des zugrunde liegenden Substrats. Diese kybernetische Perspektive, inspiriert von Pionieren wie Norbert Wiener und Alan Turing, sieht den Menschen wie die Maschine als Systeme, die durch Feedback‑Schleifen, Lernen und Anpassung funktionieren.
Von 1979 bis heute – Kontinuitäten und Brüche
Ich fühle mich in dieser Hinsicht heute eng verbunden mit Geoffrey Hinton, der ebenfalls aus der Neurobiologie kommt und als „Godfather of Deep Learning“ gilt. Hinton hat, inspiriert vom Gehirn, früh erkannt, dass neuronale Netze Maschinen ermöglichen, Muster zu lernen und zu generalisieren – ein Gedanke, den meine Vorlesung von 1979 vorweggenommen hat. Lassen Sie uns gemeinsam zurückblicken, die Gegenwart analysieren und in die Zukunft schauen.
In den späten 1970er Jahren waren Computer meist noch sehr große, teure Maschinen, die hauptsächlich in Universitäten und Firmen standen. Die KI‑Forschung steckte in den Kinderschuhen – der erste KI‑Winter lag hinter uns, und neuer Optimismus keimte auf.
In meiner Vorlesung stellte ich die Frage: „Können Maschinen denken?“ Ich griff dabei auf Alan Turings berühmten Test zurück. Turing schlug ein Imitationsspiel vor, bei dem eine Maschine durch schriftliche Kommunikation einen Menschen imitieren muss, um als intelligent zu gelten. Er wollte emotionale Barrieren umgehen und den Fokus auf das Verhalten legen: Wenn die Maschine sich wie ein denkendes Wesen verhält, warum sollten wir ihr dann Intelligenz absprechen?
Ein frühes Beispiel maschinellen Lernens
Um das zu illustrieren, griff ich ein Beispiel auf: das Damespielprogramm von Arthur L. Samuel aus den 1950er Jahren. Samuel, ein Pionier bei IBM, entwickelte ein Programm, das nicht nur Dame spielte, sondern lernte. Es schaute Züge voraus, bewertete Stellungen mit einem Polynom – basierend auf Faktoren wie Steinverhältnis, Zentrumskontrolle und Beweglichkeit – und nutzte die Minimax‑Methode, um den besten Zug zu wählen. Wichtig war: Es lernte auf zwei Ebenen – durch „Auswendiglernen“ bewerteter Stellungen und durch „verallgemeinerndes Lernen“, bei dem es die Koeffizienten seines Bewertungspolynoms anpasste.
Das Ergebnis? Das Programm besiegte seinen Schöpfer und sogar einen Meisterspieler, der Jahre lang ungeschlagen war. Dieses Beispiel diente mir, um Intelligenz zu definieren: die Fähigkeit, vorauszuschauen, zu bewerten, zu entscheiden und aus Konsequenzen zu lernen. Maschinen konnten das bereits damals – und zwar ohne neuronale Netze, nur mit regelbasierten Algorithmen.
Vorurteile – damals wie heute
Ich besprach auch gängige Vorurteile, die bereits damals die Akzeptanz behinderten und – wie heute – den Blick auf die Zukunft vernebeln:
„Computer sind nur zählende Idioten.“ Falsch: Ihre Logikgatter ermöglichen komplexe Systeme, ähnlich wie Neuronen im Gehirn.
„Computer können nicht lernen.“ Samuels Programm widerlegte das.
„Computer sind nicht kreativ.“ Kreativität ist oft Neukombination von Gelerntem – etwas, das Maschinen simulieren können.
„Computer können nicht klüger werden als ihre Programmierer.“ Lernende Systeme sammeln Erfahrung und übertreffen Individuen.
„Computer haben keine Gefühle.“ Basierend auf Turings Test geht es um Verhalten; und wenn Gefühle Informationsverarbeitung sind, ist Silizium nicht ausgeschlossen.
Von der Kybernetik zum Deep Learning
Meine kybernetische Sicht war entscheidend: Es kommt auf die Struktur der Informationsverarbeitung an, nicht auf das Substrat. Das Gehirn ist ein Netzwerk von Neuronen, das Signale verarbeitet; das macht auch ein Computerchip. Hinton entwickelte später den Backpropagation‑Algorithmus, der es Netzen erlaubt, aus Fehlern zu lernen – ein Meilenstein, der den Grundstein für Deep Learning legte.
Nach den KI‑Wintern folgte der Durchbruch in den 2010er Jahren: GPUs, Big Data und neue Architekturen führten zu einem Quantensprung. 2012 gewann AlexNet den ImageNet‑Wettbewerb, 2016 besiegte AlphaGo den Go‑Weltmeister Lee Sedol – mit Reinforcement Learning und neuronalen Netzen.
2025: Allgegenwärtige KI – Chancen und Risiken
Heute generieren große Sprachmodelle Text, Code und Bilder; Transformer und Aufmerksamkeitsmechanismen beherrschen die Bühne. Gleichzeitig warnte Hinton 2023 vor Risiken: KI könnte intelligenter werden als wir; das Alignment‑Problem ist akut. Seine neurobiologischen Wurzeln verstärken die Einsicht, dass „digitale Intelligenz“ die biologische übertreffen könnte, weil sie skalierbar ist.
Vorurteile wie „KI ist nicht kreativ“ sind durch generative Modelle widerlegt. Die Automatisierung der Kopfarbeit, die ich 1979 warnend ansprach, ist heute Realität. Journalisten, Programmierer, Künstler – viele Berufsprofile verändern sich. Dazu kommt die Manipulationsgefahr durch täuschend echte Fakes.
Gleichzeitig hilft KI in der Medizin, bei Klimamodellen und in der Neurobiologie. Systeme analysieren neuronale Daten teils besser als Menschen.
Gesellschaftliche Konsequenzen
In den 1970er Jahren automatisierten wir Handarbeit; heute automatisieren wir Kopfarbeit. Fabriken sind menschenleer, Büros werden es. Arbeitslosigkeit und Sinnverlust drohen trotz Debatten über das bedingungslose Grundeinkommen. Und Verantwortung verdampft – wie Joseph Weizenbaum warnte: Wer trägt Schuld bei Fehlentscheidungen einer KI? Programmierer? Hersteller? Die KI selbst?
Die kybernetische Perspektive legt nahe: Wenn das Substrat egal ist, kann Silizium‑Intelligenz die biologische überholen. Das muss nicht zur aktiven Ausrottung führen, könnte aber zu unserer Marginalisierung führen – wir Menschen als „Ameisen der Zukunft“.
Wir müssen die Richtung mitbestimmen
Wir brauchen ethische Frameworks und klare Regeln. KI ist kein Naturgesetz, das über uns hereinbricht; sie ist aber mehr als ein bloßes Werkzeug. Gerade deshalb müssen wir als Gesellschaft die Spielregeln festlegen. Wenn wir es nicht tun, tun es andere – oft rein nach kommerziellen oder staatlich‑egoistischen Interessen.
Konkret ausgemalt bedeutet das:
Statt passiv abzuwarten: Aktiv definieren, welche KI‑Anwendungen wir wollen und welche nicht. Wenn KI in Bewerbungen, Kreditvergabe oder Justiz eingesetzt wird, dann nur unter strengen Auflagen.
Werte verankern: KI‑Systeme müssen demokratische und ethische Werte widerspiegeln: Fairness, Nicht‑Diskriminierung, Transparenz, Privatsphäre. Keine Blackboxes mit eingebauten Vorurteilen.
Der EU AI Act – ein risikobasierter Rahmen
Inakzeptables Risiko (verboten): Manipulative Systeme oder „Social Scoring“.
Hohes Risiko (streng reguliert): KI in kritischen Bereichen wie Medizintechnik, Personalwesen, Justiz oder Infrastruktur.
Begrenztes Risiko (Transparenzpflicht): Chatbots und Deepfakes – Nutzer müssen informiert werden.
Minimales Risiko: Die große Mehrheit der Anwendungen wie Spamfilter oder KI in Spielen.
Schluss
Die Metamorphose des Maschinenbildes ist in vollem Gange. Von Samuels Dame zu AlphaGo, von Vorurteilen zu realen Herausforderungen – die KI‑Evolution zeigt: Intelligenz ist substratunabhängig. Hinton’s Weg von der Neurobiologie zur KI mahnt uns: Wir schaffen etwas Größeres als uns.
Lassen Sie uns diskutieren, wie wir es lenken können.
Vielen Dank für Ihre Aufmerksamkeit!
Ich freue mich auf einen regen Gedankenaustausch im Kommentarteil und hoffe auf konstruktive Kritik und wertvolle Anregungen.
Der folgende Text ist eine Zeitreise. Er entstand aus einer Vorlesung, die ich 1979 hielt, und wurde 1981 in gekürzter Form publiziert. In einer Ära, in der Computer noch raumfüllende, geheimnisvolle Maschinen waren, versuchte dieser Artikel, die fundamentalen Fragen der aufkommenden Künstlichen Intelligenz zu erörtern. Heute, über 45 Jahre später, in einer Welt, in der KI unseren Alltag durchdringt, ist es verblüffend zu sehen, welche dieser frühen Überlegungen Bestand haben.
Damals sprach ich von einer „explosionsartigen Erhöhung der Leistungsfähigkeit von Computern“. Ich konnte nicht ahnen, dass diese Explosion im Vergleich zu heute nur ein Funke war. Die Rechenleistung, die Datenmengen und die Komplexität der Algorithmen haben sich in einem Maße entwickelt, das selbst die kühnsten Prognosen von damals übertrifft.
Und doch sind die zentralen Fragen dieselben geblieben:
Vom Dame-Programm zu Deep Learning: Das damals als Beispiel dienende Dame-Programm von A.L. Samuel, das durch „verallgemeinerndes Lernen“ seinen eigenen Schöpfer besiegte, mag heute einfach erscheinen. Doch das Prinzip dahinter ist der direkte Vorfahre der neuronalen Netze und des Deep Learnings, die heute AlphaGo zum Sieg über Go-Weltmeister verhelfen und die Grundlage für Sprachmodelle wie ChatGPT bilden. Das grundlegende Konzept – die Maschine lernt aus Erfahrung und verbessert ihre Bewertungsmaßstäbe – ist identisch.
Die alten Vorurteile im neuen Gewand: Die Vorurteile, die ich damals zu entkräften versuchte, sind heute relevanter denn je. Die Behauptung, „Computer sind nicht kreativ“, wird durch KI-Systeme wie Midjourney oder DALL-E, die auf Knopfdruck Kunstwerke erschaffen, täglich herausgefordert. Die Sorge, eine KI könne „ klüger als ihr Programmierer werden“, ist zur zentralen Frage der KI-Sicherheitsforschung und des „Alignment-Problems“ geworden: Wie stellen wir sicher, dass hochintelligente Systeme mit menschlichen Werten im Einklang bleiben?
Die Automatisierung der Kopfarbeit ist da: Meine damalige Warnung, dass nach der Handarbeit nun die „Kopf-arbeit“ automatisiert würde, was für viele Menschen einen „Sinnverlust“ bedeuten könnte, ist keine Dystopie mehr. Sie ist die gesellschaftliche Realität des 21. Jahrhunderts. Berufe in der Kreativwirtschaft, im Journalismus, in der Programmierung und in der Wissenschaft werden durch KI fundamental verändert.
Dieser alte Text ist daher nicht nur ein historisches Dokument. Er ist eine Einladung, die heutige, rasante Entwicklung der KI mit einem Blick auf ihre Wurzeln zu betrachten. Er zeigt, dass die Herausforderungen, vor denen wir heute stehen – ethische, gesellschaftliche und persönliche –, nicht über Nacht entstanden sind, sondern tief in der Logik dieser Technologie verankert sind. Die Metamorphose des Maschinenbildes, die ich 1979 beschrieb, beschleunigt sich weiter, und es ist wichtiger denn je, ihre Richtung mitzubestimmen.
Merzhausen, den 17. August 2025 Karl-Friedrich Fischbach