Livesalon zu Habermas, Iran und AfD und das neue Hollywood

Jemand schreibt auf YouTube — Alphabet-Plattform, Konzern hinter Gemini — dass Stefan die Technooligarchie unterstützt, weil er Gemini benutzt. In einem Chromium-Browser. Auf Windows. Über Unterseekabel von Google und Meta.

Das passiert nicht einmal. Das passiert seit Monaten. Immer dieselben Moves, von einer Handvoll Accounts die durch Wiederholung den Eindruck erzeugen, sie sprächen für die Community. 180 KI-Kommentare bei 4.330 Kommentaren gesamt. Bei tausenden Hörern. Das ist keine Community-Position. Das ist eine laute Minderheit, die sich selbst für die Mehrheit hält.

„Als Informatiker kann ich sagen…"

„LLMs sind keine ‚KI’ und können auch nichts ‚wissen’, sondern sind token-fokussierte Wahrscheinlichkeits-Maschinen."

Was ein Transformer verarbeitet, sind Zahlen. Was er ausspuckt, sind Zahlen. Ob du die als Token interpretierst oder als Gummibär ist pure Semantik — eine Schicht drüber, nicht der Mechanismus. So funktioniert Datenverarbeitung seit Turing.

Wer „token-fokussiert" sagt, verwechselt die Interpretation mit dem Mechanismus. Fängt da an zu denken, wo es aufhört interessant zu sein. Demonstriert das Gegenteil von dem, was er behauptet.

Ein Webentwickler, ein Datenbankadmin und ein ML-Researcher sind alle „Informatiker". Einer davon hat eine fundierte Meinung zu Transformer-Architektur. Die anderen beiden haben Heise-Artikel. Der Kommentarraum differenziert das nicht. „Informatiker" reicht als Autoritätssignal. Muss es auch — die Argumente tun es nicht.

„Stefan hat 20 IQ-Punkte verloren"

Die Verfallserzählung. Früher war Stefan schlauer. Seit ChatGPT ist er dümmer geworden.

Der Kronzeuge der Anklage: Stefan habe behauptet, aus den Epstein-Files gehe hervor, dass Superreiche Babys quälen und deren Blut trinken. KI-Halluzination. Glaubwürdigkeit verspielt. KI-Psychose.

Nur: Stefan hat die Epstein-Files zitiert. Und da steht es genau so drin. Wer es nicht glaubt, kann es nachlesen — die Files sind öffentlich. Was seit zwei Monaten als bewiesener Fakt durch den Kommentarraum gereicht wird — „Stefan erzählt KI-generierten Unsinn" — ist selbst der Unsinn. Der Kommentarraum hat nicht zugehört, nicht nachgelesen, und seine eigene Falschdarstellung als Beweis für Stefans Unzuverlässigkeit verwendet.

Das ist keine Medienkritik. Das ist Stille Post mit moralischem Sendungsbewusstsein.

Dazu kommen Waymo und Mamdani-Foto als weitere angebliche Belege. Aus der Kombination wird dann „intellektueller Verfall". Nicht weil die Evidenz das hergibt. Sondern weil Verfallsnarrative ein Gefühl bedienen, das Einzelkorrekturen nicht bedienen: Enttäuschung von jemandem, dem man intellektuelle Autorität zugeschrieben hat.

Das ist kein Medienkritik. Das ist ein parasoziales Break-Up.

Moralisierung statt Politik

„Es ist wohl an Ironie nicht zu überbieten, dass Stefan die Technooligarchie kritisiert, aber für eine simple Rechenaufgabe ChatGPT nutzt."

„Wer ein System kritisiert, darf seine Produkte nicht nutzen" — schreibt der YouTube-Nutzer vor Chrome und Windows über eine Internetverbindung von Google und Meta.

Marx hat im British Museum recherchiert — einer Institution des Empire, das er analysierte. Journalisten nutzen Meta-Plattformen, um Meta zu kritisieren. Umweltaktivisten fliegen zu Klimakonferenzen.

Interessant ist nicht der Vorwurf. Interessant ist, was er ersetzt.

Die KI-Kritik in den Kommentaren gibt sich als linke Technologiekritik. Ist sie nicht. Es ist Verfallsnarrativ im linken Kostüm. Früher konnten Leute noch recherchieren, früher konnten Studenten noch schreiben, früher war alles aus Holz.

Echte linke Technologiekritik fragt: Wem gehören die Produktionsmittel. Wie verändert die Technologie Arbeitsverhältnisse. Welche kollektive Organisierung ist nötig. Und formuliert ein Programm.

Was stattdessen kommt: „Stefan soll aufhören KI zu nutzen." Individualisierter Konsumverzicht. „Kauf halt kein Avocado-Toast" von der anderen Seite. Das war noch nie linke Politik.

Der gesamte Raum, in dem tatsächlich Politik stattfindet, wird übersprungen:

Die Kontrolle liegt bei Hyperkapitalisten? Dann bau Gegeninfrastruktur. Llama, Mistral, DeepSeek, Qwen laufen lokal, auf eigener Hardware, ohne dass ein Byte an Alphabet geht. Das Wort „Open Source" kommt im gesamten Kommentarkorpus nicht ein einziges Mal vor.

KI-Modelle können manipuliert sein? Grok ist das Paradebeispiel. Die Antwort ist Transparenzpflicht und Auditing. Zeitungen können auch manipulieren. Die Antwort darauf war Presserecht, nicht Analphabetismus.

KI macht Arbeitsplätze kaputt? Arbeitszeitverkürzung. Umverteilung der Produktivitätsgewinne. Nicht: Stefan soll seine KI-Assistentin durch eine menschliche Arbeitskraft ersetzen.

Das Muster: Reales Problem erkennen. Von der Diagnose direkt zum Moralvorwurf springen. Den Raum dazwischen — den, in dem Handlung möglich wäre — komplett überspringen.

Das ist nicht links. Das ist Ohnmacht als moralische Überlegenheit.

Was niemand sieht, fragt oder zuhört

180 Kommentare. Neun Monate. Keine einzige der Fragen, auf die es ankommt.

Der Kommentarraum ist sein eigenes Skalierungsproblem. Beschwert sich über Olivia. Fragt nie: Was ist die Alternative bei 3.000 Kommentaren im Monat? Alles persönlich lesen? Wer kommentiert, erzeugt den Skalierungsdruck, den Stefan mit KI zu lösen versucht. Reflektiert das nie. Kann sie auch nicht — dann müsste sie sich selbst als Teil des Problems sehen.

KI-Verweigerung schadet den Falschen. Eine Mieterin formuliert mit Claude einen Widerspruch gegen ihren Vermieter. Erste Waffengleichheit ihres Lebens. Ein Migrant versteht mit ChatGPT einen Behördenbrief. Muss nicht mehr blind unterschreiben. Die Privilegierten — Anwälte, Assistenten, Netzwerke — brauchen keine LLMs. Die ohne all das schon. Darüber spricht kein einziger Kommentar. Stört das Verfallsnarrativ.

Niemand hört zu. Stefan sagt: „Schnappt euch Claude, erschließt es euch selbst." Stefan sagt: „KI kann nicht gut schreiben — der Eindruck entsteht nur, weil 7,9 Milliarden Menschen beschissen schreiben." Stefan sagt: „Sam Altman ist ein gefährlicher Idiot." Stefan sagt: „Spielereien" über seine eigene Nutzung.

Was ankommt: KI-süchtig. KI-Psychose. Technooligarchie verfallen.

Der Kommentarraum hört nicht zu. Er schreibt Stefan zu, was er braucht, um die Empörung zu rechtfertigen. Die substanziellen Argumente — Machtkonzentration, Eigentumsstrukturen, KI als Klasseninstrument — versauern resonanzlos am Rand. Empörung wird schneller gelesen als Analyse. YouTube selektiert für Resonanz, nicht für Erkenntnis.

Stefan sagt: Erschließt es euch selbst.

Der Kommentarraum antwortet: Füttere uns.

Das ist das Problem. Kein KI-Problem.

4 „Gefällt mir“