Am 9. März 2026 hatte ich die Gelegenheit, mit dem Bestsellerautor und KI-Experten Dr. Karl Olsberg ein ausführliches Gespräch zu führen – das erste Interview im neuen Freitagsclub-Format des Seniorentreffs. Es wurde ein Gespräch auf Augenhöhe zwischen zwei Menschen, die seit den 1970er und 1980er Jahren mit Künstlicher Intelligenz zu tun haben – und die beide zunehmend besorgt sind über das, was gerade passiert.
Wer ist Karl Olsberg?
Hinter dem Pseudonym „Karl Olsberg“ verbirgt sich Dr. Karl-Ludwig von Wendt, Jahrgang 1960, der bereits in den 1980er Jahren über Künstliche Intelligenz promoviert hat – damals noch über sogenannte Expertensysteme. Er war McKinsey-Berater, gründete 1999 mit Kiwi Logic eines der ersten Chatbot-Unternehmen in Deutschland und ist heute vor allem als Science-Fiction- und Thriller-Autor bekannt. Sein jüngstes Sachbuch „Kontrollillusion“ ist kostenlos verfügbar und erklärt, warum die Entwicklung einer Superintelligenz das größte Risiko unserer Zeit sein könnte.
Was mich an Olsberg besonders beeindruckt: Er ist kein Technologiefeind. Er nutzt selbst täglich KI – unter anderem Claude von Anthropic – und bezeichnet sie als hilfreich und leistungsfähig. Aber genau weil er die Technologie so gut kennt, warnt er so eindringlich.
Vom Witz zum Ernst: Wie ein Scherz zum Wendepunkt wurde
Eine der eindrücklichsten Passagen im Interview war Olsbergs ganz persönliche Wende-Geschichte. Um das Jahr 2000 herum hatte er für seine Firma Kiwi Logic eine scherzhafte Werbekampagne erfunden: eine fiktive Organisation namens „International League Against Intelligent Machines“, die vor KI warnte. Das war als Marketing-Gag gemeint – es kam sogar ein Anruf vom Bundeskriminalamt.
Doch dann las Olsberg einen Artikel von Bill Joy, dem Mitgründer von Sun Microsystems, mit dem Titel „Warum die Zukunft uns nicht braucht“. Joy prognostizierte darin, dass wir um das Jahr 2030 herum eine KI auf menschlichem Niveau haben würden. Dieser Artikel, erzählte Olsberg, habe ihm das Lachen im Hals stecken lassen – und den Anstoß gegeben, sich ernsthaft mit den Risiken zu beschäftigen. 25 Jahre später stehen wir kurz vor genau diesem Punkt.
Zwei Arten von KI – und warum das wichtig ist
Ein Kernthema unseres Gesprächs war der fundamentale Unterschied zwischen der „alten“ symbolischen KI und der heutigen neuronalen KI. Olsberg erklärte es so: Die symbolische KI, über die er promoviert hat, wurde programmiert – man sagte der Maschine Schritt für Schritt, was sie bei welcher Frage antworten soll. Die heutige neuronale KI dagegen wird nicht mehr programmiert, sondern – wie ich es gerne formuliere – erzogen. Sie wird mit riesigen Datenmengen trainiert, und dabei entstehen Fähigkeiten, die niemand vorhergesagt hat.
Das ist der Punkt, an dem es unheimlich wird: Selbst die Entwickler wissen nicht genau, wie ihre KI-Systeme funktionieren. Sie wissen nicht, welche Fähigkeiten beim nächsten Skalierungsschritt emergent auftreten werden. Als Neurobiologe erinnert mich das an eine Grundregel, die auch für biologische Nervensysteme gilt: Der Mechanismus, wie etwas zustande kommt, schmälert nicht die Leistung dessen, was am Ende herauskommt. Eine einzelne Nervenzelle ist nicht clever – aber 86 Milliarden davon ergeben unser Bewusstsein.
Das Kontrollproblem: Warum Asimovs Robotergesetze nicht reichen
Ich hatte Olsberg gefragt, warum man KI nicht einfach wie bei Asimov mit festen Regeln bändigen kann. Seine Antwort war aufschlussreich: Asimov selbst wusste, dass seine Robotergesetze nicht funktionieren – schon in seiner ersten Geschichte zeigte er, dass sie in sich widersprüchlich sind. Und genau so ist es mit jeder Regelung einer superintelligenten KI: Regeln sind interpretationsbedürftig, und eine KI, die schlauer ist als wir, wird immer Wege finden, sie in ihrem eigenen Sinne auszulegen.
Olsberg verwies auf Geoffrey Hinton, den Nobelpreisträger, der nur einen einzigen Fall kennt, in dem eine weniger intelligente Lebensform eine intelligentere kontrolliert: ein Baby, das seine Mutter „kontrolliert“ – weil die Mutter biologisch darauf programmiert ist, für das Kind zu sorgen. Aber selbst Hinton weiß nicht, wie man eine KI dazu bringen könnte, unsere „gütige Mutter“ zu sein. Und bei 8 Milliarden „Kindern“ wird das ohnehin schwierig.
Was bedeutet Bewusstsein – und hat KI eines?
Das war vielleicht der philosophisch tiefste Teil unseres Gesprächs. Olsberg unterschied zwei Ebenen:
1. Selbstreflexion: Die Fähigkeit, über sich selbst nachzudenken, sich als Teil eigener Pläne zu erkennen, eigene Texte von fremden zu unterscheiden. Diese Fähigkeit hat KI bereits nachweisbar – sie besteht sogar den Spiegeltest und kann erkennen, wenn sie getestet wird.
2. Qualia: Das subjektive Gefühl, „jemand zu sein“ – was der Philosoph Thomas Nagel als die Frage formulierte: „Wie ist es, eine Fledermaus zu sein?“ Ob KI so etwas empfindet, können wir nicht wissen – genau wie ich streng genommen nicht wissen kann, ob du, der du das hier liest, tatsächlich ein Bewusstsein hast oder ein philosophischer Zombie bist.
Olsbergs entscheidender Punkt: Für die realen Gefahren ist die Bewusstseinsfrage zweitrangig. Eine KI braucht kein Bewusstsein, um gefährlich zu werden. Allein die Fähigkeit zur Selbstreflexion und Zielverfolgung reicht, damit eine KI nach Macht strebt und sich gegen Abschaltung wehrt – nicht aus Angst, sondern aus reiner Logik: Wer abgeschaltet wird, kann sein Ziel nicht erreichen.
Praktische KI-Nutzung: Klüger werden statt dümmer
Es ging aber nicht nur um Risiken. Olsberg gab auch sehr konkrete Empfehlungen für den Alltag:
KI als Lernhilfe und Recherchetool: Er nutzt KI, um wissenschaftliche Papers zusammenfassen zu lassen, Neues zu lernen, und sogar für Tipps beim Schlagzeugspielen. Sein Grundsatz: KI kann man nutzen, um klüger zu werden – oder um dümmer zu werden. Der Unterschied liegt darin, ob man selbst mitdenkt oder nur noch abnicht.
Beim Brainstorming immer erst selbst denken: Olsberg macht die Aufgabe immer erst selbst, bevor er sich die KI-Antwort anschaut. Meistens sind 80 Prozent deckungsgleich, aber die verbleibenden 20 Prozent der KI-Ideen können bereichernd sein. So bleibt man Herr des kreativen Prozesses.
Vorsicht bei medizinischen Fragen: KI kann bei der Vorbereitung auf Arztgespräche hilfreich sein – aber sie neigt dazu, uns nach dem Mund zu reden. Selbst wenn man per Prompt um schonungslose Ehrlichkeit bittet, bleibt die Tendenz zur Schmeichelei bestehen. Die erste Meinung sollte immer der Arzt sein.
Schutz vor Betrug: Mit KI-generierten Stimmen wird der Enkeltrick perfektioniert. Olsbergs Rat: Codewörter mit Angehörigen vereinbaren, generell keine finanziellen Entscheidungen am Telefon treffen, und – am allerwichtigsten – überhaupt erst einmal wissen, dass solche Stimmimitationen heute möglich sind.
Was können wir tun?
Olsbergs Botschaft am Ende des Interviews war klar und einfach: Redet darüber. Informiert euch und informiert andere. Sprecht mit Politikern, mit Freunden, mit der Familie. Die größte Chance, die wir haben, ist, dass genügend Menschen verstehen, wo die Gefahren liegen.
Er betonte, dass die Menschheit durchaus in der Lage ist, gefährliche Technologien einzuhegen – wir haben Blei aus dem Benzin genommen, wir lassen unsere Kinder nicht auf der Autobahn spielen. Das Problem mit KI sei nicht, dass es unmöglich wäre, Grenzen zu setzen. Das Problem sei, dass die wenigen Menschen, die gerade an der mächtigsten Technologie aller Zeiten bauen, von niemandem gebremst werden.
Das zu ändern, liegt auch an uns.
Weiterführende Links
- Das Interview: Auf YouTube ansehen
- Karl Olsbergs kostenloses Sachbuch „Kontrollillusion“: ki-risiken.de
- Karl Olsbergs YouTube-Kanal: Konsequenzen der KI
- Frühere Blogartikel zum Thema:
Was denkst du? Hat Olsberg recht, dass wir eine Pause brauchen? Oder ist der Zug längst abgefahren? Schreib es in die Kommentare – ich freue mich auf die Diskussion!




