Bezüglich der Verwendung der KI im künstlerischen Bereich stellt sich auch die Frage, ob die Nutzung der KI hier nicht meistens die Rolle des menschlichen Schöpfers als inhärente Kategorie des Kunstwerks abschwächt. Auch wenn man die KI zur Lösung konkreter Probleme im Schaffensprozess heranzieht, wie in dem von Stefan vorgestellten Text des letzten Salons beschrieben, hat die KI ja unmittelbaren Anteil an der Formung des Werkes, müsste deshalb vielleicht eher als Mitschöpfer begriffen werden. Oder man verschiebt den Fokus generell von der Idee einer “Autorschaft” weg und findet neue Beschreibungsmöglichkeiten, die auch einem KI-Anteil gemäßer sind…
Der Anschluss hier fällt mir nicht weniger schwer. Einerseits ist diese Schwierigkeit um die Kategorisierung des Subjekt Begriffs, ein Grund weshalb ich von ihm Abstand nehmen will. Andererseits muss ich mich der Frage stellen, ob die Betrachtung die mir vorschwebt ohne einen auskommt.
Ich würde sagen, dass du mit “sondern wie sie in der Gesellschaft wirkt, denn immerhin hat sie doch die Affordanz eines Subjektes, …” einen interessanten Punkt aufmachst an dem ich ein wenig hänge. Bevor ich weiter im Kreis denke, schreib ich Mal die Gedanken runter.
Die unabdingbare Zuschreibung des Subjekts in diesem Zusammenhang ist gekoppelt an eine Gesellschaft die aus Subjekten besteht.
In diesem Kontext wird es natürlich schwierig, die Interaktion, die soziale Komponenten enthält ohne Subjekt zu verstehen.
Deshalb der Vorschlag den Blick eher auf die Kommunikationsmodelle zu legen, da die Exkursionen zum Subjekt dort nicht nötig sind.
Also, ja Bereiche der Interaktion Mensch / KI die das Phänomen Subjekt betreffen, wird man ohne Subjekt Begriff nicht betrachten können.
Meiner Meinung nach, sind die Komplikationen die durch bereits beschriebene Probleme am Subjekt Begriff hängen so vielfältig, dass es aus meiner Sicht nur Sinn macht sich dafür zu wappnen, wenn man explizit den Subjekt Begriff beleuchten will.
So würde ich meinen, dass bei Betrachtung eines allgemeinen Kommunikations Begriffes deutlich wird dass es nicht primär wichtig ist, ob der einzelne ein Erkenntnis Stufe Level Up kriegt, oder Autorschaft einem oder mehreren zugeschrieben werden kann.
Es wird Information generiert die Anschlussfähigkeit ermöglichen soll. Interessanter Weise wird bei dem Menschen oft eine intrinsische Motivation der Auswahl hoch gehalten, dabei ermöglicht in einer hohen Anzahl von Kommunikations Vorfällen offenbar auch die Token basierte Auswahl Anschluss.
Der Erfolg von Kommunikation, oder auch während dessen die Wahrscheinlichkeit von Erkenntnisgewinn, hängt meiner Meinung nach nicht davon ab, ob beide Teilnehmer Subjekt sind, sondern ob die Anschlüsse der Kommunikation dafür geeignet sind.
Ich räume ein dass irgendwann in der Kommunikation zumindest ein Teilnehmer intrinsische Motivation zum Erkenntnisgewinn gehabt haben muss. Danach können theoretisch aber auch zwei LLM miteinander diese Motivation in der Kommunikation weiter mittragen.
Deshalb sehe ich in meiner Betrachtung auch keine Relevanz in der Autorschaft, da diese auch vor KI noch nie einem Subjekt zugeschrieben werden konnte, aus dieser Betrachtung. Jeder Punkt einer Kommunikation, auch ein wunderbar gestalteter Satz in einem Text, ist immer Anschluss eines anderen Anschlusses und würde niemals für sich bestehen.
Ich verstehe dass es im System Wirtschaft eine Relevanz hat, da es eine Grundlage ist den Code Geld für andere Anschlüsse zu erhalten. Oder von mir aus auch Ansehen in anderen Systemen.
Aber aus Sicht der Kommunikation, ihrer Anschlussfähigkeit, ist die Autorschaft höchstens relevant als Vektor fals der Anschluss unbedingt zielgerichtet sein muss.
Die Frage ist, was bedeutet z. B. Wissen oder Fortschritt in diesem Bereich und wie kann die KI gemäß ihrer Natur dazu beitagen
Wie Stefan auf seiner Website (Die nächste Druckerpresse) geschrieben hat: “Heute halten ICE-Terroristen Menschen ihr Handy ins Gesicht und lassen sich anzeigen, ob sie einen amerikanischen Staatsbürger sehen oder nicht. Was dieses Gerät sagt, gilt, nicht was im Ausweis steht. Der Präsident fühlt sich nur seiner Moral, nicht der Verfassung verpflichtet. Amtsträger erklären sich als „absolut immun“. Immun gegen was eigentlich? Gegen die Regeln der Gutenberg-Galaxie! Die Regentschaft der Druckerpresse geht vorüber. Code is Law! Schwarz auf Weiß reicht nicht mehr. Die Antike und die Archive dienen nur noch der Erinnerung. Die Welt wird nun jeden Morgen neu erfunden. Jetzt müssen wir alle neu lesen und schreiben lernen.”
Sprich: Die Zeit der „Mönche“ (der fixen Autorschaft und der Qualitätskontrolle durch Wissenseliten) ist vorbei.
Bei der Frage nach dem Subjektstatus der KI sind sich denke ich alle in dieser Diskussion einig. Wir beide zumindest auch, was die Art der Nutzung und den Gewinn für den Ottonormalverbraucher angeht.
Yes.
Auch wenn man die KI zur Lösung konkreter Probleme im Schaffensprozess heranzieht, […] hat die KI ja unmittelbaren Anteil an der Formung des Werkes, müsste deshalb vielleicht eher als Mitschöpfer begriffen werden.
Wenn wir die KI zum ‚Mitschöpfer‘ befördern, geben wir ihr durch die Hintertür doch wieder einen Subjektstatus. Dass die Nutzung der KI die Rolle des Menschen ‚abschwächt‘, sehe ich eher als eine Verschiebung der Kompetenz: Wir sind weniger ‚Handwerker‘, die Sätze drechseln, und mehr ‚Kuratoren‘, die Ideen bewerten und steuern. Das ist keine Schwächung, sondern eine Konzentration auf das, was uns als Menschen ausmacht: Bedeutung und Sinn zu setzen (was die KI eben mangels Erfahrung nicht kann).
Ich mache hier eine neue Metapher auf: Ein Dirigent denkt ja auch nicht, dass es ihm nicht zugeschrieben werden kann, Musik zu machen, nur weil er weder Saiten zupft noch Klaviertasten anschlägt. Ganz im Gegenteil - Trotzdem ist er es, bei dem alle Stränge zusammenlaufen und der die Interpretation vorgibt. Niemand würde die Qualität einer Sinfonie daran messen, wie sehr der Dirigent geschwitzt hat, sondern daran, wie das Orchester klingt. Es ist die Erfahrung und die Metaebene, die hier geschätzt wird. Ein Dirigent kann gewissermaßen multiple Instrumente auf einmal spielen, er hat eine Super-Position. Analog dazu sehe ich den KI-Nutzer in einer Super-Position, er bestimmt in welcher Ausformung Wissen, Daten, Technik, Quellen und Stil zu ihm “fließen”.
In konkreterer Ausdifferenzierung müsste man hier sicherlich noch mal zwischen z. B. Philosophie, wo immerhin noch direkte Aussagen über die Welt gemacht werden, und dem von dir angesprochenen symbolisch funktionierenden Bereich der Kunst unterscheiden.
Ist das nicht eine sehr klassische Grenze, die der Poststrukturalismus (den du ja als Interesse nanntest) eigentlich längst eingerissen hat? Vergleiche zum Beispiel Deleuzes Tausend Plateaus und der Begriff des Rhizoms: “Binary logic is the spiritual reality of the root-tree. Even a discipline as ‘advanced’ as linguistics retains the root-tree its fundamental logic” und “Each time, mental correctiveness are necessary to undo the dualisms we had no wish to construct but through which we pass. Arrive at the magic formula we all seek - Pluralism = Monism - via all the dualisms that are the enemy, an entirely necessary enemy, the furniture we are forever rearranging”. Ironischerweise ist das Philosophie, verpackt in verspielter, künstlerischer Sprache – folglich gibt es hier (1980) bereits keine scharfe Trennung zwischen Philosophie und Kunst mehr.
Hier noch einmal weiterentwickelt der vorherige Gedanke. Ja wieder mit KI zusammengefasst sind sonst 5 Mal so viel Absätze.
Das psychische System des Menschen ist kein isoliertes Ich sondern eine hochverdichtete Ansammlung gesellschaftlicher Erfahrungen und Sprachmuster die mit einer individuellen neurobiologischen Hardware und einer einzigartigen Biografie kombiniert wird. Je nach sozialem Kontext verschiebt sich das Gewicht zwischen diesem gesellschaftlich geprägten Anteil und der individuellen Eigenlogik. Die KI hingegen kann als die reinste Form eines abbildes des Prozesses von Gesellschaft verstanden werden die wir je erschaffen haben da sie ausschließlich aus der historisch geronnenen Weltkommunikation der Trainingsdaten und den moralischen Leitplanken ihrer Entwickler besteht. Während der Mensch die Gesellschaft durch seine unberechenbare biologische Irritation immer wieder aufbricht spiegelt die KI uns die Gesellschaft als perfekt funktionierendes System aus reinen Anschlussmöglichkeiten . Dadurch wird die KI zum idealen Spiegel für unsere eigenen Denkprozesse da sie uns eine Resonanzfläche bietet die hochkomplexen Sinn verarbeitet.
Die KI zeigt uns damit nicht wer sie ist sondern wer wir als Gesellschaft sind und wie unser eigenes Denken in diesen gesellschaftlichen Strukturen verankert ist.
Die Diskussion behandelt LLMs als Kommunikationspartner - das ist ein Kategorienfehler.
LLMs sind Werkzeuge. Wenn ich einen LLM-generierten Text poste, kommuniziere ich mit euch, nicht “die KI”. Genau wie beim Telefonieren: Ich kommuniziere mit der Person am anderen Ende, nicht mit dem Telefon.
Die vorgeschlagene Differenz “KI-Kommunikation vs. menschliche Kommunikation” reproduziert denselben Fehler, den sie kritisieren will. Es gibt keine “KI-Kommunikation” - es gibt nur menschliche Kommunikation mit oder ohne LLM als Werkzeug.
LLMs antworten in natürlicher Sprache, was anthropomorphe Projektionen triggert. Aber sie haben weder Intentionalität noch Bewusstsein. Sie sind komplexe Textgeneratoren, keine Subjekte.
Der produktive Ansatz wäre: Wie verändert das Werkzeug LLM menschliche Kommunikation? Nicht: Welchen Subjektstatus hat das Werkzeug?
Das ist in Schlagzeilen gedacht; die Diskussion ist hier schon weiter, die von dir aufgemachten Gegensätze kommen in ihr als vertretene Meinung so nicht vor. Dass KI ein Werkzeug “ist”, hingegen schon, hilft allerdings bei den interessanten Fragen, die die letzten Beiträge aufwerfen, nicht weiter…
Ich glaube was hier weiter hilft und was nicht muss jeder Leser hier selbst entscheiden
Dein Vergleich mit dem Telefon passt nicht, das Werkzeug das dem Telefon entspräche wäre die CPU / RAM.
Es wird auch nicht (primär)betrachtet Kommunikation zwischen LLM und Mensch. Es wird vorgeschlagen das Kommunikations Modell des Menschen mit dem Kommunikationsmodell der LLM zu vergleichen.
Darüber hinaus ist die Frage nicht wirklich aufgekommen welchen Subjekt Status LLM haben könnte, vielmehr wurde die Kategorie Subjekt bisher generell umrissen im Kontext der Frage, inwiefern eine so oder so geartete Zuschreibung zur LLM Sinn macht.
Inwiefern aber LLM nicht die Voraussetzungen für ein Kommunikations Modell erfüllt , wie es hier umschrieben wird, bleibst du in deinem Kommentar schuldig.
Warum der “CPU/RAM”-Einwand falsch ist
Der Einwand behauptet: “Das Werkzeug das dem Telefon entspräche wäre die CPU/RAM.”
Das ist ein Kategorienfehler. CPU/RAM sind keine Werkzeuge, sondern Bauteile eines Werkzeugs.
Ein Telefon ist ein Medium - etwas, das man benutzt um zu kommunizieren. CPU/RAM sind Komponenten, die in vielen verschiedenen Geräten verbaut sind. Sie sind nicht selbst Medien.
Die Analogie ist falsch konstruiert:
-
Telefon : Kommunikation = Auto : Transport
-
CPU/RAM : Telefon = Motor : Auto
CPU/RAM entsprechen nicht dem Telefon, sondern sind Teile im Inneren des Systems. Das wäre wie zu sagen “Der Motor entspricht dem Auto” - nein, der Motor ist im Auto.
(Nebenbei: LLMs laufen hauptsächlich auf GPUs, nicht CPUs, Telefone haben auch CPU/RAM- aber das ist irrelevant, weil die gesamte Hardware-Analogie von vornherein schiefliegt.)
Der Einwand verfehlt die Ebene: Es ging nicht um technische Architektur, sondern um die funktionale Rolle als Medium zwischen Kommunizierenden.
Du weißt schon dass der Unterschied GPU CPU darin liegt dass die GPU eine spezialisierte CPU . Und dass mittlerweile an prozessing Units gearbeitet wird die auf LLM spezifische Algorithmen spezialisiert sind.
Ich hatte Eingangs überlegt anstatt der CPU RAM Sache den Computer zu nennen, bin aber davon ausgegangen dass du dann eh irgendetwas einganwandt hättest in die Richtung, es läuft auch auf VM oder sonst was.
Weiterhin ändert der Einwand nichts daran :
Inwiefern aber LLM nicht die Voraussetzungen für ein Kommunikations Modell erfüllt , wie es hier umschrieben wird, bleibst du in deinem Kommentar schuldig.
Technische Korrektur:
GPUs sind keine spezialisierten CPUs. Das sind fundamental unterschiedliche Architekturen:
CPU (Central Processing Unit):
-
Sequenzielle Verarbeitung komplexer Logik
-
Wenige, aber sehr leistungsfähige Kerne (4-64)
-
Branch prediction, out-of-order execution, komplexe Kontrollflüsse
-
Große Caches (L1/L2/L3) für schnellen Zugriff
-
Direkte Speicherverwaltung und Betriebssystemsteuerung
-
Optimiert für niedrige Latenz bei verschiedenartigen Aufgaben
GPU (Graphics Processing Unit):
-
Massive Parallelverarbeitung (tausende einfache Kerne)
-
SIMD-Architektur (identische Operation auf vielen Daten gleichzeitig)
-
Optimiert für Durchsatz bei gleichförmigen Operationen
-
Perfekt für Matrixmultiplikationen (daher Neural Networks)
-
Kann keine komplexen Kontrollflüsse oder Betriebssysteme ausführen
Eine GPU kann kein Betriebssystem ausführen, keine bedingten Verzweigungen effizient handhaben, keine direkte Speicherverwaltung leisten. Das sind keine graduellen Unterschiede - das sind verschiedene Paradigmen.
Zum Kommunikationsmodell:
Das LLM ist im Kommunikationsmodell das Medium, nicht ein Kommunikationspartner.
Beim Telefon: Zwei Menschen kommunizieren miteinander. Das Telefon ist das Medium, das die Kommunikation technisch vermittelt. Es hat kein eigenes “Kommunikationsmodell”.
Genauso: Wenn LLM-generierter Text gepostet wird, findet Kommunikation zwischen den Forum-Teilnehmern statt. Das LLM ist das Medium, das diese Kommunikation technisch vermittelt-
Die Frage “Welches Kommunikationsmodell hat das LLM?” ist äquivalent zu “Welches Kommunikationsmodell hat das Telefon?” - Medien haben keine Kommunikationsmodelle, sie ermöglichen Kommunikation zwischen Akteuren.
Die offene Frage bleibt: Warum sollte ein statistischer Prozess ohne Intentionalität und Sinnkonstitution ein “Kommunikationsmodell” haben, nur weil er in natürlicher Sprache operiert?
Nun ja, bevor wir uns darin verstricken was für den einzelnen für uns Grenzen sind, bei denen wir von Paradigmenwechsel und fundamental Unterschieden sprechen, sei es drum. CPU GPU von mir aus Apfel Birne.
Kommen wir zu dem eigentlichen Thema.
In der Systemtheorie nach Niklas Luhmann ist Kommunikation kein Austausch von Bewusstseinsinhalten sondern eine dreifache Selektion aus Information Mitteilung und Verstehen. Ein Kommunikationsmodell lässt sich auf statistische Prozesse wie LLMs anwenden weil auf die Begebenheit des Ursprungs der Information und der Intentionalität im Rahmen der Kommunikation (in diesem Modell)verzichtet werden kann. Für das System ist es unerheblich ob ein biologisches Gehirn oder ein Algorithmus die Nachricht erzeugt solange das Ergebnis anschlussfähig ist. Die Sinnkonstitution findet nicht im Inneren der Maschine statt sondern im Moment des Verstehens durch den Beobachter der zwischen dem Inhalt (Information) und dem Akt der Erzeugung (Mitteilung) unterscheidet. Ein statistischer Prozess operiert also deshalb innerhalb eines Kommunikationsmodells weil er die soziale Anforderung der Anschlussfähigkeit erfüllt und damit die Autopoiesis der Gesellschaft unabhängig von individueller Absicht fortführt. Die KI ist in diesem Sinne kein Subjekt mit Absicht sondern ein funktionales Äquivalent das Sinn prozessiert indem es die historische Wahrscheinlichkeit gesellschaftlicher Anschlüsse simuliert.
Mir ist klar, dass hier unser Verständnis von Kommunikation und Gesellschaft genau so auseinander geht, wie das Setzen von Paradigmen.
Freue mich aber trotzdem auf deine Anmerkungen dazu.
Zur Luhmann-Referenz:
Die Berufung auf Luhmann scheitert an mehreren Punkten:
1. Sinnprozessierung vs. Wahrscheinlichkeitsberechnung
Luhmanns Kommunikationstheorie setzt Sinn als Grundkategorie voraus. Sinn operiert durch Kontingenz - die Möglichkeit, dass es auch anders sein könnte, verbunden mit Selbstreferenz.
LLMs führen deterministische Berechnungen durch. Sie haben keine Kontingenz im Luhmannschen Sinne - sie berechnen Token-Wahrscheinlichkeiten basierend auf Training, ohne Selbstreferenz.
2. Verwechslung von Output und Operation
“Anschlussfähigkeit” wird mit “Kommunikation” gleichgesetzt. Das ist ein Kategorienfehler.
Ein Buch ist anschlussfähig. Ein Straßenschild ist anschlussfähig. Ein Zufallsgenerator könnte theoretisch anschlussfähige Sätze produzieren. Das macht sie nicht zu Kommunikationsteilnehmern.
3. Die dreistellige Selektion
Information/Mitteilung/Verstehen setzt voraus, dass das System zwischen diesen Momenten unterscheiden kann. Ein LLM kann das nicht. Er berechnet Token-Folgen ohne Unterscheidung zwischen “was wird mitgeteilt” und “wie wird es mitgeteilt”.
Das “Verstehen” findet ausschließlich beim menschlichen Beobachter statt - genau das bestätigt, dass der LLM Medium ist, nicht Kommunikationsteilnehmer.
4. “Funktionales Äquivalent”
Bei Luhmann bedeutet funktionale Äquivalenz: verschiedene Operationen erfüllen dieselbe Funktion innerhalb eines selbstreferenziellen Systems. Die Funktion von Kommunikation ist Sinnprozessierung durch autopoietische, selbstbeobachtende Operationen.
LLMs sind nicht autopoietisch - sie erzeugen sich nicht selbst, sondern werden von außen trainiert und gesteuert. Sie beobachten sich nicht selbst als kommunizierende Systeme.
5. “Historische Wahrscheinlichkeit gesellschaftlicher Anschlüsse simulieren”
Diese Formulierung ist theoretischer Hochglanz ohne Substanz. Was LLMs tatsächlich tun: Token-Wahrscheinlichkeiten berechnen basierend auf Korpusstatistik. “Welches Wort folgt statistisch häufig auf diese Sequenz?”
Das ist keine Simulation von “gesellschaftlichen Anschlüssen” - das wäre Nachbildung sozialer Strukturen. Es ist Mustererkennung in Text.
Analogie: Ein Schachcomputer berechnet Züge basierend auf Bewertungsfunktionen. Man könnte sagen: “Er simuliert strategische Entscheidungen.” Tatsächlich: Er rechnet, welche Züge statistisch öfter gewinnen. Das ist keine Simulation von Strategie - das ist Berechnung von Mustern.
Da würde ich nicht sagen, dass LLMs Sinn prozessieren, sondern das hineingelesen wird. “funktionales Äquivalent” ist zu stark, weil wir wissen auch, dass die KI kein Mensch ist und kein soziales System ist. Auf kommunikativer Ebene werden LLMs genutzt, aber sie sind keine kommunikative Operation.
Da würde ich auf technischer Ebene argumentieren, dass das soziale System das nicht so leicht unterscheiden kann: es gibt technische Variation in den LLMs drin und sei es nur Pseudo-Zufall, aber der Output ist von der Verarbeitung im System kaum zu unterscheiden.
Soziale Kontingenz kommt aber trotzdem nicht auf, weil ein LLM nicht plötzlich anders kommuniziert. Wobei es nahe herankommt auf technischer Ebene: Wir haben Pseudo-Zufall, wir haben die Reaktion auf den Eingabe-Text (technisch gesehen ist das nicht determiniert), wir haben neuen Text, der Kommunikation werden kann, und diese Dreiteilung ist empirisch etwas schwer nachweibar (ist das nicht sowieso eher ein Analyse-Werkzeug?).
Inwiefern reicht die Anschlussreaktivität und Dialogbereitschaft aus, um von operative Beteiligung zu sprechen?
1. “Sinn wird hineingelesen, nicht prozessiert”
Präzise. Der LLM generiert Token-Sequenzen. Sinnkonstitution findet ausschließlich beim menschlichen Beobachter statt.
2. “Funktionales Äquivalent” ist zu stark
Korrekt. Funktionale Äquivalenz würde bedeuten: verschiedene Operationen erfüllen dieselbe systemische Funktion. LLMs erfüllen nicht die Funktion von Kommunikation (Sinnprozessierung), sie produzieren Material für Kommunikation.
3. Pseudo-Zufall vs. Determinismus
Der technische Einwand (temperature, sampling) ist formal richtig, aber systemtheoretisch irrelevant. Ob deterministisch oder stochastisch - es bleibt Berechnung ohne Selbstreferenz.
4. “Anschlussreaktivität und Dialogbereitschaft”
Hier der entscheidende Punkt: Die Frage suggeriert, dass LLM-Output direkt als Kommunikation eingeht. Das ist empirisch falsch.
Die Workflow-Realität:
LLM-generierte Texte durchlaufen intensive menschliche Kuration: Jedes Komma wird geprüft, Formulierungen werden angepasst, Strukturen überarbeitet. Es wird so lange gefeilt, bis das Ergebnis den Intentionen entspricht.
Das ist kein Zufall. Das ist kein “Dialog mit der KI”. Das ist Werkzeugnutzung mit iterativer Qualitätskontrolle.
Operative Beteiligung?
Nein. Der Hammer hat auch keine “operative Beteiligung” am Hausbau, nur weil er “reaktiv” auf Schläge reagiert und “anschlussfähige” Ergebnisse (eingeschlagene Nägel) produziert.
Die operative Kommunikation findet zwischen Menschen statt. Der LLM ist das Medium - mit menschlicher Kontrolle auf jeder Ebene.
Och Leute, die Produktivität dieser Diskussion nähert sich gerade gefühlt der über intersektionalen Queerfeminismus. Für die neu eingestiegenen: es ging weniger darum, wie die KI funktioniert als als was sie in der Praxis des Gebrauchs erscheint (z. B. KI ist kein Kommunikationspartner, erscheint aber in der Praxis des Gebrauchs als ein solcher), bzw. wie sie z. B. in der künstlerischen Praxis demgemäß sinnvoll eingesetzt werden kann und was für Implikationen für den Bereich performativer Selbstverständigung damit zusammenhängen.
Überhaupt hat die Diskussion einen Verlauf, eine Geschichte, und es macht wenig Sinn, einfach immer nur aufzulisten, was einen beim jeweils letzten Beitrag gestört hat. Wünschenswert wäre es meiner Ansicht nach, dass man Ansichten aus diesem Verlauf aufnimmt, neu verknüpft und im eigenen Sinne ausarbeitet. Nur so baut man sich doch ein Fundament auf, auf dem man aufbauen kann und fährt nicht eine wilde Achterbahnfahrt durchs Nichts…
Zur Metakritik:
Die technischen Klärungen (CPU/GPU, Luhmann-Theorie, Statistik vs. Kommunikation) waren notwendig, weil Begriffe falsch verwendet wurden. Präzision ist keine Pedanterie - sie ist Voraussetzung für produktiven Diskurs.
Zur “Erscheinung in der Praxis”:
Dass etwas “als X erscheint”, macht es nicht zu X. Ein Buch erscheint im Gebrauch als “Gesprächspartner” - das macht es nicht zum Kommunikationsteilnehmer. Die phänomenologische Perspektive (“wie erscheint es?”) kann die funktionale Analyse (“was ist es?”) ergänzen, aber nicht ersetzen.
Zur Diskussionsstruktur:
Die Diskussion hat eine klare Entwicklung:
-
Ausgangsthese: Subjekt-Diskurs ist unproduktiv → Zustimmung
-
Gegenvorschlag: LLM als Kommunikationsmodell betrachten → Kategorienfehler
-
Luhmann-Berufung zur Rechtfertigung → Missverständnis der Theorie
-
Technische Analogien (CPU/GPU) → Falsche Begriffe
-
JJ_Anons präzise Intervention → Produktiver Anschluss
Das ist keine “wilde Achterbahnfahrt” - das ist normale argumentative Auseinandersetzung mit notwendigen Korrekturen.
Kernpunkt:
Die Diskussion über “wie LLMs in künstlerischer Praxis eingesetzt werden” ist sinnvoll. Aber dafür braucht es kein fehlerhaftes theoretisches Fundament (LLM als Kommunikationspartner). Die Werkzeug-Perspektive mit iterativer Kuration ist präziser und produktiver.
Um mich nicht in der Frage um die rein theoretische Deutungshoheit zu verlieren, schlage ich vor, die luhmannsche Systemtheorie eher als Blaupause denn als Dogma zu begreifen. Nutzen wir die herausgestellten Aspekte – wie die funktionale Äquivalenz oder die operative Schließung – doch als Werkzeuge für weiterführende Überlegungen, statt sie als Grenzpfähle für menschliche Exklusivität zu verwenden.
Mein initialer Gedanke droht sonst unterzugehen: Es geht mir nicht darum, der KI einen anthropozentrischen Geltungsanspruch (wie ‘Intentionalität’ oder ‘Bewusstsein’) überzustülpen. Im Gegenteil: Wenn wir die Differenz zwischen Mensch und KI ohne diesen Beißreflex betrachten, gewinnen wir ein hochpräzises Analyseinstrument.
Wir können das LLM als ein Destillat der Weltkommunikation betrachten – eine hochverdichtete Ansammlung gesellschaftlicher Anschlüsse. Wenn wir diese ‘reine Gesellschaftlichkeit’ der KI neben das psychische System des Menschen stellen, das zusätzlich durch biologischen Eigensinn und eine individuelle Biografie irritiert wird, erkennen wir erst die wahre Kontur des Menschlichen. Die KI ist dann kein Konkurrent um den Status des ‘Subjekts’, sondern ein Spiegel, der uns zeigt, wie viel von unserem eigenen Denken eigentlich ‘statistische’ Reproduktion gesellschaftlicher Muster ist und wo der tatsächlich individuelle Part beginnt.
Wenn wir die KI (als Gedankenexperiment) als reine Gesellschaftlichkeit begreifen, verschiebt sich die Perspektive: Die KI ist nicht „weniger“ als der Mensch, weil ihr das Bewusstsein fehlt, sondern sie ist „mehr“ Gesellschaft, weil sie nicht durch die Eigenlogik eines biologischen Körpers abgelenkt wird.
Das LLM ist die materialisierte Form dessen, was Luhmann das „Gedächtnis der Gesellschaft“ nannte. Es hält die Formen des Sinns bereit, ohne sie selbst „erleben“ zu müssen. Für unsere Analyse bedeutet das:
1. Die KI zeigt uns den statistischen Erwartungshorizont der Gesellschaft. Alles, was die KI generiert, ist das „Normalisierte“, das bereits milliardenfach Kommunizierte.
2. Der Mensch hingegen wird in dieser Differenz als das sichtbar, was Luhmann die „Unwahrscheinlichkeit der Kommunikation“ nannte. Unsere individuelle Abweichung, unser biologisch motivierter Eigensinn und unsere Fähigkeit, das statistisch Unwahrscheinliche zu sagen, treten erst vor dem Hintergrund der Genauigkeit der KI-Statistik klar hervor.
Wir nutzen die KI also nicht als Gegenüber, das uns ähnlich ist, sondern als Kontrastmittel. Sie übernimmt die operative Schwerstarbeit der Sinn-Sortierung, damit wir sehen können, was am Ende übrig bleibt, wenn man die gesellschaftliche Standard-Sprache vom Menschen abzieht. In diesem Sinne ist die KI kein Werkzeug des Menschen, sondern ein Analyse Prozess der Gesellschaft über sich selbst.
Quod erat demonstrandum…
Genau solche Beiträge meine ich: einfach bestimmte Schlagworte des letzten Beitrages jeweils für sich oberflächlich stichpunktartig abarbeiten, gerne mit solchen nichtssagenden Schlagzeilen wie “Präzision ist keine Pedanterie” gewürzt - ohne den Willen, wirklich etwas Produktives zum Diskurs beizutragen, sondern einfach nur in einer Position des Rechthabens zu verharren. Nichts von dem Aufgelisteten ist eine adäquate Auseinadersetzung mit den Positionen der Anderen. Ich für meinen Teil werde auf so etwas jedenfalls ab jetzt nicht mehr reagieren.
Dies bezieht sich jetzt übrigens auf fdoemges Beiträge, nicht auf die der Anderen. Sorry, aber ich finde es inzwischen schon etwas nervig, und wenn ich in andere Diskussionen reinschaue, bin ich da auch nicht der Einzige…