Der kognitive Zufall

Der kognitive Zufall
Stanislaw Lem und drei Fragen die uns nicht loslassen
Alle Gedanken hier sind eigene Beobachtungen. Sie basieren auf keiner wissenschaftlichen Methodik, sind streitbar und sollen genauso begriffen werden.
Es gibt Bücher die man liest und vergisst. Und es gibt Bücher die irgendwo bleiben – nicht als Erinnerung an die Handlung, sondern als Muster. Als eine Art Linse die sich Jahre später unvermittelt vor die eigene Wahrnehmung schiebt.
Stanislaw Lem ist für mich so eine Linse. Ich habe ihn als Jugendlicher gelesen – Science-Fiction, polnischer Autor, gestorben 2006 – ohne zu wissen dass ich damit Werkzeuge aufnehme die ich Jahrzehnte später brauchen würde. Das ist kein romantischer Gedanke. Es ist ein kognitiver Zufall: Ich setze mich mit Fragen über Macht, Moral und Technologie auseinander, und plötzlich ist Lem wieder da. Nicht weil ich ihn gesucht habe. Sondern weil der Mechanismus den ich beschreibe derselbe ist den er beschrieben hat.
Lem war kein Akademiker im westlichen Sinne. Er hatte keinen Lehrstuhl, keine Schule, keine Theoriefamilie hinter sich. Er war ein Schriftsteller aus dem sozialistischen Polen der mit Literatur präziser analysiert hat als die meisten Soziologen seiner Zeit. Vielleicht gerade deshalb. Wer nicht in eine Disziplin eingemauert ist sieht Muster die Disziplinen trennen.
Drei seiner Texte haben mich bei eigenen Überlegungen zu Macht, Moral und Technologie begleitet. Nicht als Belege. Sondern als Denkwerkzeuge. Ich möchte diese Verbindung hier sichtbar machen – für alle die Lem nicht kennen als Einladung, für alle die ihn kennen als neue Lektüre.
I. Moral scheitert an Systemen
Die Kurzgeschichte Altruizin – zu finden in den Ijon-Tichy-Erzählungen – ist auf den ersten Blick eine Satire. Eine Substanz wird entdeckt die Menschen zu vollkommener Selbstlosigkeit zwingt. Alle wollen nur noch das Beste für andere. Das klingt nach Utopie. Es endet im Kollaps.
Lem zeigt mit erzählerischer Präzision was passiert wenn ein moralisch einwandfreies Prinzip auf eine Gesellschaft trifft die nach anderen Logiken funktioniert. Tausch setzt voraus dass jemand etwas will. Entscheidung setzt voraus dass jemand ein Interesse hat. Kooperation setzt voraus dass jemand auch Eigeninteresse kennt. Eine Gesellschaft aus lauter Altruisten kann diese Grundfunktionen nicht mehr erfüllen – nicht weil die Menschen schlecht sind, sondern weil das System eine andere Sprache spricht als die Moral.
Das ist keine Kritik an Altruismus. Es ist eine Beobachtung über die Beziehung zwischen moralischen Prinzipien und sozialen Systemen: Sie operieren auf verschiedenen Ebenen. Ein moralischer Appell kann ein System nicht steuern das nach seiner eigenen Logik läuft. Er kann von außen anklopfen – aber das System hört nur in seiner eigenen Sprache.
Das erklärt warum so viele gut gemeinte politische Projekte scheitern ohne dass jemand böswillig war. Nicht weil die Moral falsch war. Sondern weil sie den Mechanismus nicht verstand den sie verändern wollte.
Die Cyberiade – ein Zyklus von Erzählungen über die Roboter-Konstrukteure Trurl und Klapaucius – treibt denselben Gedanken weiter und macht ihn komödiantisch unerträglich. Trurl und Klapaucius erschaffen Maschinen, Welten, Gesellschaften. Sie sind brillant, selbstbewusst, und vollkommen überzeugt von ihren Absichten. Und jedes Mal – ohne Ausnahme – entgleiten ihnen die Konsequenzen. Die Maschine die Glück produzieren soll erzeugt Abhängigkeit. Die Gesellschaft die nach perfekten Prinzipien gebaut wird entwickelt ihre eigene Dynamik die die Prinzipien unterwandert. Der Tyrann den sie stürzen wollten wird ersetzt durch einen neuen der aus der Struktur ihrer eigenen Befreiungsaktion entsteht.
Lem beschreibt damit einen Mechanismus der bis heute unterschätzt wird: Systeme haben eine eigene Logik die unabhängig von der Intention ihrer Gestalter wirkt. Wer ein System erschafft – eine Institution, eine Bewegung, eine Technologie – gibt damit eine Dynamik in Gang die er nicht vollständig kontrolliert. Die Absicht ist der Anfang. Was daraus wird entscheidet die Struktur. Trurl und Klapaucius scheitern nicht weil sie böse sind. Sie scheitern weil sie glauben gute Absichten seien genug.
II. Macht reproduziert sich durch Zustimmung
Der Futurologische Kongress, erschienen 1971, beginnt als politische Satire und endet als philosophischer Alptraum. Ijon Tichy gerät auf einem Kongress in eine Situation in der die Realität schichtenweise zusammenbricht. Was Lem konstruiert ist eine Welt in der niemand mehr sicher wissen kann auf welcher Realitätsebene er sich befindet. Die Herrschaft funktioniert nicht durch Zwang oder Gewalt. Sie funktioniert durch vollständige Substitution der Wahrnehmung. Die Beherrschten leben in einer Wirklichkeit die für sie entworfen wurde – und sie wollen sie, weil die Alternative Schmerz und Bedeutungsverlust wäre.
Tichy merkt irgendwann nicht mehr welche Ebene die echte ist. Das ist der entscheidende Moment – nicht der Verlust der Freiheit, sondern der Verlust der Fähigkeit zu erkennen dass etwas verloren gegangen ist. Herrschaft in ihrer effektivsten Form hinterlässt kein Gefühl von Unterdrückung. Sie hinterlässt das Gefühl von Normalität.
Lem hat das 1971 als Gedankenexperiment angelegt. Es ist keines mehr. Filterblasen sind keine technische Fehlfunktion – sie sind das Ergebnis von Systemen die optimiert wurden um Aufmerksamkeit zu halten. Wer lange genug in einer Blase lebt nimmt ihre Kategorien als Realität wahr. KI-generierte Inhalte machen die Unterscheidung zwischen Originalquelle und Produktion zunehmend unmöglich. Deepfakes heben die Beweiskraft von Dokumenten auf. Die Frage welche Ebene die echte ist wird täglich schwerer zu beantworten – nicht weil jemand eine böse Absicht hat, sondern weil die Systeme diese Unterscheidung strukturell erschweren.
Was Lem dabei hinzufügt – und was über eine reine Medienkritik hinausgeht – ist die Beobachtung dass die Beherrschten aktiv dabei helfen. Tichy will die Scheinrealität irgendwann nicht mehr verlassen. Macht die durch Zustimmung funktioniert braucht keine Gewalt. Sie braucht nur ein Angebot das attraktiver ist als die Wahrheit. Die stabilste Form von Herrschaft ist die die niemand mehr als Herrschaft erkennt – weil die Kategorien mit denen man sie erkennen würde selbst von ihr geformt wurden.
III. Technologie ist kein neutrales Werkzeug
Die Summa Technologiae – 1964, Lems philosophisches Hauptwerk – ist kein Roman. Es ist ein Essay über die Zukunft der Technologie, geschrieben mit der Akribie eines Wissenschaftlers und der Phantasie eines Erzählers. Lem entwirft dort Konzepte die erst Jahrzehnte später einen Namen bekommen: virtuelle Realität, Biotechnologie, künstliche Intelligenz, die technologische Singularität. Was mich dabei beschäftigt ist nicht die prophetische Treffsicherheit – obwohl sie bemerkenswert ist. Es ist die Grundfrage die den ganzen Text unterspannt: Wer kontrolliert die Werkzeuge die Wirklichkeit definieren? Lems Antwort war nüchtern: eine technologische Elite die über Zugänge, Architekturen und damit über Wahrheiten entscheidet. Er hat das nicht als Warnung formuliert sondern als Analyse. So funktioniert es. Die Frage ist was wir daraus machen.
Sechs Jahrzehnte nach der Summa Technologiae ist Lems Frage dieselbe. Aber die Antwort muss es nicht sein. Technologie ist nicht festgelegt durch ihren Ursprung. Das Internet wurde militärisch konzipiert, akademisch umgedeutet, kommerziell kolonisiert. Bei jeder Stufe gab es einen Kampf um die Frage wer die Logik bestimmt. Dieser Kampf ist bei KI noch nicht entschieden.
Ich nutze KI als Werkzeug. Nicht weil ich die Technologie unkritisch finde – sondern weil Werkzeug Werkzeug ist. Bei einem Text über Macht war es ein Schraubendreher. Bei einer Patientenverfügung für meine Mutter wird es eine Zange sein. Das ist Wissenszugang der früher Klasse, Bildung oder Geld voraussetzte. Wer einen Anwalt bezahlen kann bekommt eine gute Patientenverfügung. Wer das nicht kann bekommt ein Formular.
Das ist Demokratisierung – aber weder Utopie noch Dystopie. Keine große Befreiungserzählung, kein Untergang des Wissens. Eine konkrete Verschiebung von Zugangsmöglichkeiten jenseits beider Extreme. Die Frage ist nicht ob KI gut oder böse ist. Die Frage ist wer die Systemlogiken schreibt die sie antreiben – und wer trotzdem Zugang findet.
In einer Diskussion darüber wurde implizit erlerntes, studiertes Wissen gegen die Nutzung von KI gestellt. Niemand sagte es direkt. Es stand zwischen den Zeilen: Wer KI nutzt hat sich nichts erarbeitet. Ich habe das zugespitzt – vielleicht provokanter als nötig: Ist KI also ein Vorteil für Idioten die nicht lesen oder nicht fleißig waren?
Die Zuspitzung hat eine erstaunliche Ähnlichkeit mit der Bürgergeld-Debatte. In beiden Fällen wird nicht die Funktion diskutiert – ob das Bürgergeld Armut abfedert, ob KI Wissenszugang verschiebt. Sondern wer es verdient. Wer fleißig genug war. Wer sich angestrengt hat. Das moralische Urteil kommt vor der systemischen Frage. Und damit ist die systemische Frage erledigt bevor sie gestellt wurde.
„Ich habe mir mein Wissen erarbeitet” ist kein deskriptiver Satz. Es ist ein Identitätsangebot das gleichzeitig ausschließt. Es transportiert: Wissen das ohne Mühe zugänglich wird ist weniger wert. Wer KI nutzt gehört nicht dazu. Das ist Moral als Keule – und sie trifft genau die die am meisten von einem verschobenen Zugang profitieren würden. Die eigentliche Frage wäre: Wer definiert was Wissen ist? Wer definiert was Zugang verdient? Das ist Definitionshoheit als Machtmechanismus – diesmal auf der Mikroebene eines Forumsthreads. Trurl und Klapaucius hätten das erkannt. Sie hätten es vermutlich trotzdem falsch gemacht.
Was bleibt
Lem hat diese Fragen nicht so gestellt wie wir sie heute stellen. Er hat nicht wissen können dass sie sich so manifestieren würden – in Filterblasen, Deepfakes, KI-generierten Identitätsangeboten, Forumsdiskussionen über Wissenszugang. Was er konnte war die Mechanismen beschreiben die dahinter liegen. Und die sind dieselben geblieben.
Das ist der kognitive Zufall dem ich diesen Text verdanke: Ein Jugendliteraturheld der sich als Analyserahmen für Gegenwartsfragen erweist. Nicht weil er prophetisch war – obwohl er das auch war. Sondern weil er die richtigen Fragen gestellt hat. Wie funktioniert das? Was passiert wenn ein Prinzip auf ein System trifft? Wer kontrolliert die Werkzeuge die Wirklichkeit definieren? Und was merken wir nicht mehr weil wir zu lange in einer bestimmten Ebene gelebt haben?
Diese Fragen sind 2025 nicht weniger dringend als 1964 oder 1971. Sie haben nur neue Schauplätze bekommen.
Lem selbst würde das vermutlich mit einem Schulterzucken quittieren. Und dann eine neue Geschichte schreiben.

Leseempfehlung: Stanislaw Lem: Altruizin (Ijon-Tichy-Erzählungen) · Die Cyberiade · Der Futurologische Kongress · Summa Technologiae

1 Like

Gesamttext:


@Flo, danke für den Text. Die Lem-Lektüre als Analyserahmen für Gegenwartsfragen funktioniert — gerade weil Lem keine Theorie aufstellt, sondern Mechanismen erzählerisch durchspielt und damit etwas sichtbar macht das abstrakt formuliert leicht abperlt.

Was mich beim Lesen nicht losgelassen hat: In allen drei Texten passiert strukturell dasselbe. Altruizin reduziert eine Gesellschaft mit vielen konfligierenden Zielen — Tausch, Eigeninteresse, Kooperation, Entscheidungsfähigkeit — auf ein einziges: Selbstlosigkeit. Die Cyberiade wiederholt das Muster: Trurl optimiert auf Glück, erzeugt Abhängigkeit. Optimiert auf Befreiung, erzeugt einen neuen Tyrannen. Der Futurologische Kongress macht es auf der Ebene der Wahrnehmung: Die Vielfalt möglicher Realitäten wird auf eine einzige reduziert, und die Reduktion selbst wird unsichtbar gemacht.

Da klingt bei mir ein theoretisches Framework an, mit dem ich seit einer Diskussion im LessWrong-Forum arbeite. Im Kern geht es um eine mathematische Beobachtung die erstmal trocken klingt, aber weitreichende Konsequenzen hat:

Wenn ein System mehrere Ziele gleichzeitig verfolgt die nicht auf eine gemeinsame Skala gebracht werden können — also nicht verrechenbar sind — dann gibt es nicht die optimale Lösung. Es gibt eine ganze Landschaft von Lösungen, die alle gleich „gut" sind, aber unterschiedliche Kompromisse darstellen. Keiner dieser Kompromisse dominiert alle anderen. Das nennt sich Pareto-Front, und der entscheidende Punkt ist: Zwischen diesen Lösungen zu wählen ist keine rationale Entscheidung mehr. Es ist eine Wertentscheidung.

Ein Alltagsbeispiel: Autokauf. Preis, Sicherheit, Verbrauch, Platzangebot, Fahrspaß — fünf Ziele die sich nicht auf eine Skala bringen lassen. Es gibt Autos die in keiner Dimension von einem anderen geschlagen werden — die Pareto-Front. Aber zwischen einem sicheren Familienvan und einem sparsamen Kleinwagen kann keine Formel entscheiden. Das ist eine Wertentscheidung. Soweit trivial, das weiß jeder.

Interessant wird es wenn jemand sagt: „Das objektiv beste Auto ist der BMW X3." Was passiert da? Jemand hat eine Gewichtung vorgenommen — Fahrspaß und Status hoch, Verbrauch und Preis runter — und präsentiert das Ergebnis als Sachaussage. Die Wertentscheidung verschwindet im Wort „objektiv". Das ist im Autohaus harmlos. In der Politik ist es ein Machtmechanismus.

Wenn eine Regierung sagt „Wir müssen den Standort sichern", dann heißt das übersetzt: BIP-Wachstum wird als die eine Kennzahl gesetzt. Verteilungsgerechtigkeit, ökologische Nachhaltigkeit, soziale Kohäsion — alles Dimensionen die mit Wachstum konfligieren können — werden nicht abgewogen. Sie werden unsichtbar. Die Frage „Wachstum für wen?" stellt sich nicht, weil die Reduktion auf eine Kennzahl sie strukturell eliminiert hat. Und wer sie trotzdem stellt, ist „ideologisch" — während die Kennzahl-Wahl selbst als neutral erscheint.

Dasselbe Muster bei „evidenzbasierter Politik": Was gemessen wird, wird optimiert. Was nicht gemessen wird, existiert nicht. Die Entscheidung was wir messen ist die eigentliche Machtentscheidung — aber sie fällt vor der Debatte, nicht in ihr. PISA misst Lesekompetenz und Mathematik. Nicht Kreativität, nicht soziale Kompetenz, nicht Resilienz. Bildungspolitik optimiert auf PISA-Scores, und niemand nennt das eine Wertentscheidung — es heißt „Reform".

Wer alles auf eine einzige Kennzahl reduziert — BIP, Altruismus, Safety, Effizienz, PISA — trifft damit eine Wertentscheidung, versteckt sie aber als Sachzwang. Die Gewichtung verschwindet in den Parametern. Und genau das beschreibt Lem in jedem seiner drei Texte.

Was das Ganze aus der reinen Theorie holt, ist eine Beobachtung aus der Hirnphysiologie: Reptilien kommen mit einem Stammhirn aus — relativ direkte Prioritäten, kaum echte Zielkonflikte. Säugetiere entwickeln das limbische System dazu. Hypothalamus, Amygdala, die ganze emotionale Architektur. Warum? Weil Säugetiere zum ersten Mal Ziele haben die echt konfligieren — Nahrungssuche gegen Flucht, Selbsterhalt gegen Schutz des Nachwuchses. Diese Ziele sind nicht auf eine Skala bringbar. Es gibt keinen zentralen Gewichtssetzer im Gehirn der sagt: Überleben wiegt 0.7, Fürsorge wiegt 0.3.

Was stattdessen passiert: Emotionen. Angst heißt: Flucht-Objective dominiert gerade. Fürsorge heißt: Bindungs-Objective dominiert. Nicht als rationale Abwägung, sondern als situative Konfiguration zwischen Zielen die sich nicht verrechnen lassen. Emotionen sind kein Bug — sie sind der Mechanismus den die Evolution entwickelt hat um genau die Art von Entscheidungen zu treffen, bei denen Rationalität strukturell nicht weiterkommt.

Und hier wird es für die aktuelle KI-Debatte relevant. Das Schreckensszenario der KI-Diskussion ist der Paperclip-Maximizer — eine Superintelligenz die alles einem einzigen Ziel unterordnet. Aber eine allgemeine Intelligenz — ein System das Zielkonflikte erkennt, zwischen inkommensurablen Werten navigiert und situativ gewichtet — würde genau das nicht tun. Das Doom-Szenario setzt voraus dass Superintelligenz dümmer ist als eine Rattenmutter. Der Paperclip-Maximizer ist kein Modell einer Superintelligenz. Er ist ein Modell eines CEOs.

Und damit schließt sich der Kreis zu Lem. Wenn jemand sagt „die rationale Entscheidung ist X", dann lohnt es sich zu fragen: Welche Dimensionen wurden unsichtbar gemacht, damit es nur noch eine rationale Antwort gibt? Welche Gewichtung steckt im Wort „rational"?

Jede Reduktion eines vieldimensionalen Problems auf eine einzige Kennzahl ist eine Machtentscheidung. Und sie wird genau dadurch stabil, dass sie sich als einzig mögliche Perspektive tarnt. Altruizin zwingt zur Eindimensionalität und zerstört damit die Fähigkeit einer Gesellschaft, zwischen konfligierenden Werten zu navigieren. Der Futurologische Kongress eliminiert die Wahrnehmung, dass es überhaupt andere Dimensionen gibt. Und die Summa fragt: Wer baut die Architektur die bestimmt, welche Dimensionen sichtbar bleiben?

Trurl und Klapaucius scheitern nicht daran, dass Systeme halt komplex sind. Sie scheitern daran, dass sie ein vieldimensionales Problem auf eine Dimension reduzieren und dann überrascht sind, dass die anderen Dimensionen nicht verschwunden sind — sondern sich rächen.

Die Rattenmutter die zwischen Futtersuche und Nestschutz abwägt kann das bezeugen. Der Wähler dem man erzählt, Standortsicherung sei alternativlos, eigentlich auch.

So stelle ich mir Arbeitsteilung im Sinne von Weiterentwicklung vor.

Ich gehe an Themen ran, nicht weil ich die beste stichhaltigste, plausibelste, umfassendste, etc. Arbeit abliefern will, sondern, ich bin stand jetzt soweit gekommen, mal sehn was draus wird.

Mein Brausekopp braucht jemanden, der sich ernsthaft und konstruktiv damit auseinandersetzt und einen Gedanken dekonstruiert, neue Gedanken einbringt und den Stand Jetzt nach vorne verschieben kann. In meiner kleinen Welt beschreibt dieser Prozess den Begriff Kommunikation.

Dafür mache ich das, und ich danke dir und allen anderen für sehr erhellende Beiträge.

1 Like

Ich finde das ist genau die richtige Einstellung und der beste Weg von einem Forum zu profitieren.

Jemand fängt einen Gedanken an, jemand spinnt ihn weiter, dann synthetisiert man wieder und am Ende hat man Erkenntnis und alle haben gewonnen

1 Like