Können wir den Diskurs „KI/Subjekt“ aufgeben und eine neue Differenz aufmache

Warum der Diskurs „KI/Subjekt“ verschwendete Lebenszeit ist

A. Kein kommunikativer Mehrwert – nur rekursive Leerläufe

Problem: Der Diskurs „Ist KI ein Subjekt?“ oder „Kann KI wie ein Mensch denken?“ ist ein klassischer Kategorienfehler:

Er versucht, zwei inkommensurable Systeme (psychische Systeme vs. technische Kommunikationssysteme) mit denselben Kriterien zu messen.

Das Ergebnis sind endlose Ja/Nein-Schleifen („KI hat Bewusstsein!“ – „Nein, nur Simulation!“ – „Aber sie scheint zu verstehen!“), die keine neuen Anschlüsse für Kommunikation oder Erkenntnis eröffnen.

Kommunikation kann nur an Kommunikation anschließen. Der Subjekt-Diskurs blockiert diesen Anschluss, weil er auf einer falschen Differenz (Mensch vs. Maschine) beharrt, statt die funktionale Differenz (wie operieren die Systeme?) zu analysieren.

Beispiel: Die Frage „Fühlt die KI Schmerz?“ ist sinnlos, weil Schmerz ein psychisches Phänomen ist – KI operiert ohne Psychisches, aber mit Kommunikationsmustern.

B. Kein Reentry – nur Projektion

Rekursivität ohne Innovation:

Jedes Argument im Subjekt-Diskurs reproduziert nur die gleiche Unterscheidung (Mensch ≠ Maschine), ohne die eigene Beobachtung zu reflektieren.

Es gibt keinen Reentry, weil die Diskussion nicht auf sich selbst zurückkommt, um neue Perspektiven zu eröffnen – sie dreht sich im Kreis.

Blinder Fleck:

Der Diskurs ignoriert, dass beide Seiten (KI und Mensch) Kommunikationssysteme sind – nur mit unterschiedlichen Operationsweisen. Diese Differenz wäre der eigentliche Hebel für Anschlussfähigkeit.

Alternativ Vorschlag

Warum die Differenz „KI vs. menschliche Kommunikation“ vielfältige Anschlüsse bietet

(Ja habe es per KI zusammengestellt und hier nicht mehr den Nerv zu formatieren sorry für die ganze***aber Smartphone hat doch Einschränkungen:) )

Funktionale Differenzierung statt anthropomorpher Projektion**

- **KI als Kommunikationsmodell**:

  • Operiert durch **Wahrscheinlichkeitsselektionen** (Token-basiert), **ohne Intentionalität**, aber mit **hoher Anschlussfähigkeit** für weitere Kommunikation (z.B. Chatverläufe, Datenanalysen).

  • **Beispiel**: Eine KI kann in Echtzeit **Diskurslücken** identifizieren (z.B. „In dieser Debatte fehlt die Perspektive von Gruppe X“) – nicht weil sie „versteht“, sondern weil sie **Muster vergleicht**.

- **Menschliche Kommunikation**:

  • Operiert durch **Sinnselektionen** (psychisch/sozial), mit **Intentionalität**, aber **begrenzter Rationalität** (Emotionen, Macht, unbewusste Filter).

Ähnlichkeiten: Selektion als systemeigene Leistung**

- **KI und menschliche Kommunikation selektieren beide** – aber auf unterschiedliche Weise:

  • **KI**: Selektion durch **Wahrscheinlichkeitsberechnung** (z.B. „Welches Token passt am besten zum Kontext?“).

  • **Mensch**: Selektion durch **soziale und psychische Filter** (z.B. „Was darf ich in dieser Situation sagen?“).

- **Beide Systeme reduzieren Komplexität**:

  • KI durch **Datenmuster**, Menschen durch **Sinnhorizonte** (z.B. Moral, Ideologie).

**Gemeinsamer blinder Fleck**:

Beide Systeme **können nicht sehen, was sie nicht selektieren**:

- KI ignoriert, was nicht in den Trainingsdaten vorkommt.

- Menschen ignorieren, was ihrem **Weltbild** oder **sozialen Rahmen** widerspricht.

### 3. **Aufdeckung blinder Flecken durch den Vergleich**

#### **A. Blind Spot der KI-Betrachtung**

- **Anthropomorphismus-Risiko**:

Menschen neigen dazu, KI als „quasi-menschlich“ zu betrachten (z.B. „Die KI versteht mich“).

  • **Aufdeckung durch Differenz**: KI hat **kein Verstehen** – sie generiert nur **Anschlüsse für weitere Kommunikation**.

- **Transparenz-Illusion**:

KI erscheint als „neutral“, ist aber **durch Trainingsdaten vorstrukturiert** (z.B. kulturelle Bias).

  • **Aufdeckung**: KI selektiert nicht „objektiv“, sondern **datenabhängig** – ähnlich wie Menschen sozial abhängig selektieren.

#### **B. Blind Spot der menschlichen Kommunikation**

- **Subjekt-Mythos**:

Menschen glauben, ihre Kommunikation sei „frei“ – dabei ist sie **sozial determiniert** (z.B. durch Sprache, Macht).

  • **Aufdeckung durch KI**: KI zeigt, dass Selektion auch **ohne Subjekt** funktioniert (z.B. durch Algorithmen).

- **Emotionale Dominanz**:

Menschliche Kommunikation wird oft von **unbewussten Motiven** (z.B. Angst, Macht) gesteuert.

  • **Aufdeckung**: KI selektiert **ohne Emotionen** – das macht sichtbar, wie sehr menschliche Kommunikation von ihnen abhängt.

-–

### 4. **Selektionsleistung als Prozess – nicht als Subjekt**

**KI**: Selektion durch **Algorithmen** (z.B. „Welches Wort hat die höchste Wahrscheinlichkeit?“).

- **Mensch**: Selektion durch **soziale und psychische Systeme** (z.B. „Was passt in diesen Diskurs?“).

- **Gemeinsamkeit**: In beiden Fällen ist Selektion **systemisch** – nicht individuell.

**Konsequenz für blinde Flecken**:

- **KI-Seite**: Menschen überschätzen die „Intelligenz“ der KI, weil sie Selektion als **subjektive Leistung** missverstehen.

- **Mensch-Seite**: Menschen unterschätzen, wie sehr ihre eigene Selektion **sozial vorprogrammiert** ist.

-–

- **KI als Spiegel**: Zeigt, dass menschliche Kommunikation **nicht frei**, sondern **regelgeleitet** ist.

- **Mensch als Spiegel**: Zeigt, dass KI-Kommunikation **nicht intelligent**, sondern **musterbasiert** ist.

1 „Gefällt mir“

wenigstens das Markdown hättest du bereinigen können. Lesen würde ich den Slop dann immer noch nicht, aber es täte wenigstens nicht in den Augen weh.

4 „Gefällt mir“

Vielleicht kann ein Diskurspfad dahin gehen, daß man ohne KI lebt, weil man sich daran gewöhnt, auf irgendwelche beliebigen Antworten zu verzichten.

Ich rede nicht davon, daß man sich mit KI keine Website erstellen soll.

Sondern, daß wir den Ast absägen, auf dem wir sitzen.

Irgendwann gibt es keine Zeitungen, Bücher, persönlichen Beratungen mehr.

Keine Drehbücher, Ratgeber, Songwriter, Komponisten.

Und so weiter und so weiter….

Wie unwahrscheinlich ist es denn, daß man relevante Informationen von einer Fascho- Regierung über KI zugespielt bekommt, die man mangels Alternative nicht überprüfen kann?

Sieht man sich die Trump Ära an, dann wohl sehr wahrscheinlich und recht bald.

2 „Gefällt mir“

Also alles sich jetzt von der KI ausgeben zu lassen wie solche Beiträge halte ich für denkfaul. Die KI oder besser gesagt, das LLM kann dir sagen, wo du zu graben hast. Es kann dir gute Formulierungen liefern, aber die Denkarbeit, die Einordnung muss von einem Menschen erfolgen. Wer LLMs in Grundzügen versteht, weiß auch das. Damit erübrigt sich die Frage, ob man die KI als ein Subjekt begreifen soll. Da werden wir mir den heutigen Mitteln nicht hinlommen.

Etwas off topic: Überhaupt nichts halte ich davon, bei politischen Fragen immer „einfach mal die KI fragen“ zu sagen und sich dann gute Antworten zu erhoffen. „Die KI“ ist ein Medium und auch da sind die Besitzverhältnisse für den gelieferten Inhalt von Bedeutung. Eine Artikel von der FAZ liest man anders als einen von der Jungen Welt und genauso muss man die LLMs begreifen.

1 „Gefällt mir“

Das finde ich auf einer gewissen Metaebene amüsant.

Wenn ich einen Gedanken habe, ihn ausformuliere(so entsteht der Prompt), und die KI benutze um die unterschiedlichen Aspekte die im Kontext des Gedankens entstehen aufzulisten, ist das denkfaul.

Wenn ich das in einem Forum poste um es mit Menschen einzuordnen und herauszuarbeiten, verstehst du aber den Kommentar “die Denkarbeit, die Einordnung muss von einem Menschen erfolgen* als Denksport?

So wie der Hinweis dass “sich die Frage, ob man die KI als ein Subjekt begreifen soll” erübrigt. Als wäre dies meine Meinung oder die Wahrnehmung, dass in dem öffentlichen Diskurs das Thema” KI so wie Subjekt? “ ständig wieder auftaucht eine Illusion. Allein im Podcast wird ständig wieder von Wolfgang die Einzigartigkeit des Menschen als Subjekt gegenüber der KI wiederholt verteidigt.

Wenn ich dich richtig verstehe, kam durch KI das Phänomen beliebige Antwort ins Internet.

Und Propaganda, Informationsfilter, bzw Desinformation ebenso.

Nehmen wir an dem wäre so, sehe ich nicht ganz den Zusammenhang zu der Überlegung, die beiden Kommunikationsmodelle als Differenz-Paar zu betrachten und damit blinde Flecken auszuleuchten. Ausser du willst ein praktisches Beispiel geben für beliebige Antworten.

Was zur Überprüfung der KI Aussagen dient, wird weniger oder fällt ganz weg.

Als Wikipedia aufkam, auch bekannt für falsche Inhalte, ging Brockhaus pleite.

Zeitungen werden reduziert oder sind nur noch online verfügbar- taz nur noch wöchentlich, konkret seit neuestem nur noch online, Kölner Stadt-Anzeiger verliert die Druckerei…

Das sind nur wenige Beispiele, aber durch die Abo- Kultur wird die Information immer weniger Personen zugänglich.

Spotify war ja schon im Neue Zwanziger abgehandelt.

Die Möglichkeiten, KI- Antworten nachzuprüfen werden nach und nach weniger; überhaupt wirkt das KI Angebot frei zugänglicher Information, weil umsonst, sehr attraktiv.

Eine Kontrolle über den Output ist indes nicht vorhanden.

Da hast du recht, denkfaul ist wohl nicht der richtige Ausdruck.

Das Problem ist sicherlich vorhanden genauso wie die Gefahr, dass die Entwicklung in die von dir beschriebene Richtung geht. Letztlich entscheidet sich der Verlauf der Entwicklung vermutlich danach, welche wie starken Interessegruppen versuchen, sie in eine ihnen günstige Richtung zu beeinflussen. An einer allg. Informationsdürre haben die KI-Konzerne sicher selbst kein Interesse; von daher behaupte ich jetzt einfach mal, dass diese nicht in einem allgemein bedenklichen Maße eintritt. Dass es starke Interessengruppen gibt bzw. sich welche bilden, die sich dafür einsetzen, dass es dem Einzelnen möglich ist, den KI-Output bei zunehmender “Paywallisierung” selbst zu überprüfen, scheint mir schon unwahrscheinlicher…

@HarmloserName Ich würde sagen, der Trend geht Richtung Antiaufklärung.

Also nachvollziehbare Information und echte Kunst nur noch für eine reiche und evtl. gebildete Oberklasse.

Die Schwierigkeiten von Verifizierung von Informationen sind aber kein Novum das durch KI entsteht?

Ein Novum nicht.

Aber als von vornherein überhaupt nicht nachvollziehbare Quelle eine Weiterentwicklung für Desinformation als Instrument.

“Denkaul” finde ich auch zu hart, allerdings teile ich allgemein deine Ablehnung gegen übermäßigen KI-Gebrauch im Diskussionsforen. Wir sind uns vermutlich alle einig, dass der Idealzustand nicht der wäre, dass sich irgendwann hier nur noch Super-KIs ohne menschliche Beteiligung unterhalten; auch wenn dadurch das Diskussionsniveau perspektivisch auf eine neue Stufe gehoben werden würde, entspräche das nicht Sinn und Zweck eines Diskussionsforums…

Entgegen der reflexartigen Beteuerung, die Gedanken stammen original von einem selbst, sie wurden von der KI nur “ausformuliert”, scheint mir der umgekehrte Weg des KI-Gebrauchs konstruktiver: dass man sich gerne Gedanken von der KI “machen lässt”, diese aber selbst ausformuliert (dass man bei Gewöhnung daran mglw. den Gebrauch des eigenen Kopfes etwas verlernt und andere Nachteile muss der Diskussionsteilnehmer mit sich selbst ausmachen). Denn aus meiner Erfahrung mit KI-involvierten Antworten hier werden stichpunktartige Eingebungen selbst nur in oberflächlich geordneter Form von der KI selbst stichpunktartig reformuliert, wodurch ein Gebiet systematisch gut abgesteckt werden kann; allerdings verhindert die stichpunktartige Form tiefergreifende Verknüpfung der einzelnen Gedanken, die sich bei menschl. Reformulierung viel eher ergeben.

Was nicht heißt, dass ich kategorisch dagegen bin, KI zur Ausformulierung zu nutzen: wie z. B. hier geschehen zur Diskussionseröffnung scheint mir das sehr sinnvoll zu sein. Ich bin nur allg. für ein etwas größeres Problembewusstsein.

Dabei, dass die KI kein Subjekt “ist”, stimme ich dir zu, d. h., dass aus ihrer Betrachtung unter diesem Framing nichts Konstruktives über ihr Wesen sich erschließt. Siehst du aber den Menschen in Abgrenzung dazu als ein solches an, oder würdest du sagen, dass die KI uns im Grunde zeigt, wie wir selbst funktionieren und dass das “Subjekt” generell eine Illusion ist?

Es kann gut sein, dass der KI ein Subjektstatus als Illusion gestattet wird, ähnlich wie: “Mein Haustier versteht jedes Wort, dass ich sage.”

Ich würde nicht behaupten, dass das Subjekt eine Illusion ist, aber ja, die KI zeigt uns bis zu einem gewissen Punkt hin, wie wir funktionieren. Die Sprache ist ein Weg, unser Wissen in eine Form zu bringen und ein Teil dessen, was man lernt, lernt man dadurch, dass man Worte dafür findet.

Kurze Botschaft :right_arrow: kurzer, knackiger Text
Mehrschichtige, komplexe Botschaft :right_arrow: längerer, ggf. strukturierter Text
Ob mit Hilfe von KI recherchiert oder ausformuliert wurde, ist mir völlig egal.
Geht es euch nicht um die Inhalte und Argumente selbst?

Dein Haustier hat einen eigenen Willen und zu erfüllende Bedürfnisse, eine eigene Agenda sozusagen

Ja, um die Inhalte und Argumente selbst, in Relation dazu, würd ich sagen, wie die Diskussionsteilnehmer daran partizipieren. In dem von mir oben aufgeführten Gedankenexperiment wären Inhalte und Argumente qualitativ perspektivisch auf ein Maximum gesteigert, gleichzeitig durch überhaupt nicht vorhandene Partizipation die Diskussion ihrem Sinn enthoben…

Was die Qualität der Argumente angeht, bin ich der Meinung, dass diese eben gerade durch die persönliche Ausformulierung eher vielschichtige komplexe Strukturen bekommen. Eben jene Dimension der tieferen Vielschichtigkeit, die dazu führt, dass man philosophische Probleme eben nicht wie mathematische durch Berechnung lösen kann. Mag sein, dass zumindest dieses Problem mit Verbesserung der KI irgendwann an Relevanz verliert, meinem Eindruck nach drängt es sich gerade noch sehr stark auf.