Können wir den Diskurs „KI/Subjekt“ aufgeben und eine neue Differenz aufmache

Ich habe mich ein wenig über Luhmanns Systemtheorie informiert und bin nun doch etwas skeptisch, ob uns das hier weiterhelfen kann - und zwar aus Gründen, die die grundlegenden Weichenstellungen dieser Theorie betreffen. Mir erschließt sich nicht, wieso man eine Beschreibung der Gesellschaft nicht von der menschlichen Lebenswelt, ihren Bedürfnissen, den Dualismen wie z. B. Individuum - Gesellschaft, die unsere Vorstellungswelt prägen und somit gesellschaftlich relevant sind, her aufzieht, sondern von dem System, das man dann ohne Not auch noch als selbstreferentielle Totalität begreift, die sich auf die ein oder andere Weise selbst reproduziert. Diese Ausrichtung auf einen nicht einholbaren Systembegriff kann man hier vermutlich als Symptom des Überschusses begreifen, den ein funktional rationalisiertes Weltbild als Ideologie produziert. Die Ausrichtung auf ein in dieser Weise verstandenes System ist es auch, die den Ansatz zumindest für mein Erkenntnisinteresse, den Bereich menschlicher Selbstverständigung, uninteressant macht. Sicher kann man mit dem Modell Veränderungen durch KI beschreiben - die Kommunikationsprozesse verdichten und beschleunigen sich, die Vernetzung der Funktionssysteme ist komplexer und mehrdimensionaler, der Mensch wird noch mehr zur Umwelt, was weiß ich -, aber aus dem Modell heraus erklärt sich nicht, wieso diese Veränderungen überhaupt Etwas sein sollten und nicht Nichts. Ich würde deshalb eher von anderen Kommunikationsmodellen ausgehen, die noch aufzuspüren wären, da ich jetzt doch eher zu der Ansicht tendiere, dass das luhmannsche Modell, gerade weil es auf die beschriebene Weise alles menschliche aus seiner Beschreibung abzieht, nicht geeignet ist, einen Beschreibungsrahmen für die Unterscheidung Mensch - KI zu gewährleisten, da es eher alles Menschliche einebnet.

Mir kommt das Modell wie ein Kind vor, das in einem konfrontativen Aushandlungsprozess einfach immer die jeweils letzte Aussage des Gegenübers wiederholt. So kann man sich vielleicht das Gefühl des letzten und ultimativen Triumphes verschaffen, gewonnen ist damit allerdings wenig…

Man könnte meiner Meinung nach aber vielleicht die noch genauer zu erörternde These aufstellen, dass sich unser Selbstverständnis demgemäß durch die Integration der KI in Kommunikationsprozesse der luhmannschen Systemtheorie anpasst…

Ich hatte andernorts ja erwähnt dass ich nicht an dem Luhmann Model per se festhalte, unter anderem weil es dann wieder zu sehr in Diskurs wie wird welcher Begriff ausgelegt tendiert.

Ich nehme es lediglich als Horizont zur Erklärung was ich als Kommunikationsprozess verstehe.

Es geht darum ein wie auch immer begründetes Verständnis des Prozesses herauszuarbeiten, das darauf abzielt den Fokus auf die jeweiligen Prozesse zu legen anstatt auf die Wesensbeschreibung.

Von daher spricht meiner Meinung nach nichts dagegen Luhmann hier aussen vor zu lassen.

Ich bin offen für Vorschläge wie die Prozesse untersucht werden können, ohne zu sehr den Fokus in der Betrachtung erster Ebene bereits auf dem Herausstellen von Alleinstellungsmerkmalen des Menschen zu legen. Wie gesagt, diese eröffnen sich meiner Meinung nach genauer wenn sie sich aus der Differenz einer möglichst neutralen Beobachtung der Differenz auf erster Ebene ergeben.

1 Like

Kleiner Exkurs

Habe es mir Eingangs eher angehört da ich Amüsement erwartet habe da der Host oft so schwach argumentiert und das Potenzial der Themen und Gäste verfehlt dass ich dabei meine Nackenmuskulatur entspanne beim Kopfschütteln.

Aber für hier interessant fand ich die Metaebene, ihres struggels dass sie die ganze Zeit darauf hinweist dass es ihr nicht um die Wesensbeschreibung der KI oder des Gottes geht sondern um den Prozess der Wahrnehmung, ihr durchgängig aber Argumente auf Ebene der Wesensbeschreibung vorgesetzt werden.

1 Like

Ich stimme grundsätzlich zu, dass eine triviale Unterscheidung zwischen Subjekt und KI nicht trägt. Was mich an der Diskussion zwischen Stefan und Wolfgang jedoch stört, ist die Konstellation der Diskursteilnehmer: Auf der einen Seite ein systemtheoretisch geschulter Soziologe, auf der anderen ein geisteswissenschaftlich geprägter Intellektueller. Beide wollen die gesellschaftlichen Auswirkungen von KI erfassen, ohne sich regelmäßig mit deren informatischer Grundlage auseinanderzusetzen.

Damit will ich ausdrücklich nicht sagen, dass weder die luhmannsche Systemtheorie noch die Geisteswissenschaften etwas relevantes beizutragen hätten, das wäre vermessen. Auch ich selbst arbeite eher im Bereich Simulation als in der KI-Entwicklung und beanspruche hier ausdrücklich keine Expertenrolle. Auffällig ist jedoch, dass kritische Stimmen aus der Informatik im Podcast wie auch im Forum kaum vorkommen.

Als populärwissenschaftliches Beispiel ließe sich Katharina Zweig nennen, Professorin für Sozioinformatik, die in einer gut verständlichen Buchreihe versucht, gesellschaftliche Fragen konsequent aus informatischen Kategorien heraus zu entwickeln. Daneben existiert mit Explainable AI ein genuiner Forschungsbereich der Informatik, der sich wissenschaftlich mit diesen Fragen befasst. Diese noch junge und teils unsortierte Disziplin verfolgt zwar häufig einen instrumentellen Zugang, führt aber eine analytisch hilfreiche Unterscheidung ein: die zwischen Blackbox- und Whitebox-Modellen.

Blackbox-Ansätze interessieren sich ausschließlich für Input und Output, nicht für die internen Prozesse des Modells. Für viele gesellschaftliche Analysen ist das durchaus angemessen. Problematisch wird es jedoch, wenn individuelle Nutzungserfahrungen – etwa persönliche Interaktionen mit einem Modell – mit Analyseinstrumenten vermischt werden, die eigentlich für makrosoziale Fragestellungen konzipiert sind.

Whitebox-Ansätze der Explainable AI verfolgen dagegen die Idee, auf Basis eines komplexen Modells ein erklärendes Zweitmodell zu erzeugen, dessen Architektur bewusst eingeschränkt ist. Dieses kann ähnliche Aufgaben lösen, erlaubt aber eine bessere Nachvollziehbarkeit der Verarbeitungsschritte. Daraus ergibt sich auch eine Verantwortungsdebatte: In welchen gesellschaftlichen Bereichen sollten Blackbox-Modelle, die keine oder nur eingeschränkte Erklärbarkeit zulassen, überhaupt eingesetzt werden dürfen?

In Bezug zum einzelnen Nutzer rückt zudem die Interaktivität stärker in den Fokus. Grafische Interfaces, Tabellen oder Filterfunktionen ermöglichen dichtere Rückkopplung als reine Texteingaben(auch immer mehr innerhalb von Dialogsystemen) Diese verbessern zwar das mentale Modell der Nutzer, dass notwendig ist für eine gute Benutzung und damit Verwandtschaft zum Bereich der human Computer interaction hat (HCI) hat führt aber nicht zu einem echten Verständnis der inneren Modellstruktur, oder dessen Bezug zur Gesellschaft.

Abschließend erscheinen mir zwei Probleme der KI-Forschung zentral für die Subjektfrage. Erstens das Symbol Grounding Problem: Sprachmodelle lernen Relationen zwischen Symbolen/Tokens, ohne diese an ein Weltmodell rückzubinden. Menschen integrieren dagegen Sinnesdaten zu einem kohärenten Realitätsmodell, an dem sprachliche Aussagen überprüft werden können. Für KI ist das bislang nicht gegeben, wenngleich daran aktiv geforscht wird.

Zweitens lernen diese Modelle nicht kontinuierlich. Training und Nutzung sind strikt getrennt: Versionen wie GPT-3.5, 4 oder 5 werden trainiert und anschließend bereitgestellt. Während eines Dialogs findet kein Lernen statt, auch wenn es durch das Token-Fenster gelegentlich so wirkt.

Dies ist insbesondere deshalb relevant weil die immer neuen trainingsphasen den Entwicklern durch Selektionen großen Einfluss darauf geben können was hier erzeugt wird, und weshalb ich mit dem Begriff eines autonomen Systems äußerst unzufrieden bin.

Im Nutzungszusammenhang stimme ich allerdings Katharina Zweig zu: KI ist vor allem dort nützlich, wo Erzeugung deutlich aufwendiger ist als Verifikation desselben Inhalts. Der Mensch wird dabei nicht in allen Fällen ersetzt, denn gerade in kritischen Kontexten bleibt die Prüfung durch Rückkopplung an einen Arbeiter und dessen Weltmodell wichtig.

Das erklärt auch, warum kreative Tätigkeiten besonders betroffen sind. Wo eine klare kreative Vision existiert, kann KI unterstützend wirken. Wo diese fehlt und lediglich „gefüllt“ werden soll, kann sie hingegen weitgehend ohne Verifikation eingesetzt werden. Kulturelle Kreativerzeugnisse müssen weniger Rückkopplung an diese Weltmodelle haben als anderes.

1 Like

Deine Ausführungen unterstreichen meine Annahme, dass es weniger ertragreich ist sich über das Wesen der KI, als über den Prozess Gedanken zu machen.

Während eines Dialogs findet kein Lernen statt, auch wenn es durch das Token-Fenster gelegentlich so wirkt.

Dies ist insbesondere deshalb relevant weil die immer neuen trainingsphasen den Entwicklern durch Selektionen großen Einfluss darauf geben können was hier erzeugt wird, und weshalb ich mit dem Begriff eines autonomen Systems äußerst unzufrieden bin.

Hier würde ich “was Hänschen nicht lernt, lernt Hans nimmermehr* einwerfen.

Würde dies dann bedeuten fest gefahrene Meinungen/ Weltbilder weisen darauf hin dass keine Kommunikation statt findet bzw es widerspricht dem Autopoiesis Ansatz? Die Autonomie wurde nicht angenommen, würde ich aber auch nicht beim Subjekt des Menschen.

Die Blackbox der Maschine kann auch in Relation zu der beim Menschen gesetzt werden. Ich glaube wenige Neurobiologen würden behaupten, das Wesen hinter der Funktionsweise der elektrischen Ströme in den unterschiedlichsten Hirnregionen abschließen aufgedeckt zu haben.

Wenn wir in die Wesensbeschreibung eintauchen kommen wir meines Erachtens eher in diverse Sackgassen, die wiederum auf diverse Ursachen hinweisen.

Ich bin zugegebenermaßen nicht systematisch in der luhmannschen Systemtheorie ausgebildet. Da entsprechende Bezüge jedoch in aktuellen Diskussionen um Künstliche Intelligenz regelmäßig auftauchen, möchte ich an dieser Stelle auf einen Aufsatz aus dem Sammelband KI-Realitäten hinweisen, der sich – aus meiner derzeitigen Perspektive und vor dem Hintergrund meines bisherigen Technologieverständnisses – als anschlussfähig erweist. Der Beitrag entwickelt eine Luhmann-Interpretation, die sich in einzelnen Punkten von Elena Espositos Darstellung in „Kommunikation mit unverständlichen Maschinen“ unterscheidet, wie sie unter anderem im Podcastkontext positiv rezipiert wurde.

Der Text ist Open Access und ohne größeren Aufwand online zugänglich:

„Von allopoietischen zu autopoietischen algorithmischen Systemen. Überlegungen zur Eigenlogik der operationalen Schließung algorithmischer Systeme“

Selbstverständlich liegt bislang keine umfassende Erklärung neuronaler Aktivitätsmuster vor, die es erlauben würde, Gehirnprozesse im Sinne einer vollständigen semantischen Interpretation zu verstehen. Allerdings möchte ich darauf hinweisen, dass ein solches Verständnis für bestimmte Fragestellungen möglicherweise gar nicht erforderlich ist.

Dies zeigt sich exemplarisch in aktuellen neurotechnologischen Forschungsansätzen, bei denen fMRI-Signale mit bildgenerierenden Modellen gekoppelt werden. Ohne eine explizite Interpretation einzelner neuronaler Aktivitätsmuster gelingt es diesen Systemen, visuelle Inhalte zu rekonstruieren, die den vorgestellten oder wahrgenommenen Bildern der Probanden in relevanten Aspekten ähneln. Ein aktuelles Beispiel hierfür ist die Arbeit „Brain-IT: Image Reconstruction from fMRI via Brain-Interaction Transformer“

Ich gebe dir recht damit, dass Wesensbeschreibungen an sich wenig produktiv sein dürften.

Der Punkt den ich machen will ist dass der Einwand, die Funktionsweise der KI liegt uns lediglich im Rahmen einer black Box vor nicht mehr Geltung haben sollte als die black Box beim Gehirn. Denn dort schließt Dun a auch

Selbstverständlich liegt bislang keine umfassende Erklärung neuronaler Aktivitätsmuster vor, die es erlauben würde, Gehirnprozesse im Sinne einer vollständigen semantischen Interpretation zu verstehen. Allerdings möchte ich darauf hinweisen, dass ein solches Verständnis für bestimmte Fragestellungen möglicherweise gar nicht erforderlich ist.

Den erwähnten Text suche ich die Tage Mal raus. Klingt interessant. Danke

Den Unterschied von KI und Gehirn kann man an praktischen Beispielen erkennen.

Hier ein Beispiel für Superpositionsmustertechnik (1962). Jeder Mensch findet andere Muster im Chaos. Keine zwei Personen hören das Gleiche. Bei jeder Person ist das Hören und der Denkprozess nur auf eine Weise möglich ( denke ich) ,also individuell .

Eine KI würde vermutlich alle Muster ausrechnen, aber ohne Gefühl oder sinnlichen Bezug.

30 Sekunden Vorrede, Aufführungsdauer: ca. 8 Minuten

Es lohnt sich, das kurze Experiment mal zu machen.

100 mechanische Metronome werden unterschiedlich aufgezogen, mit verschiedenen Geschwindigkeiten.

Am Anfang herrscht maximale Entropie, nach und nach werden Muster erkennbar.

1 Like

Vielen Dank für den ausführlichen Input und die vielen Anregungen!

Ich habe ehrlich gesagt bei dem “KI in Davos”-Teil mal wieder nicht verstanden, wie sich ihre Ansichten genau unterscheiden, genauer: wo Stefans Kritik an Wolfgangs Position ansetzt. Wolfgang grenzt ja häufig Bereiche ab, bei denen es einen relevanten Unterschied macht, ob etwas von einer KI oder einem Menschen ausgeübt wird, sei es weil die KI noch nicht so weit ist oder weil er überhaupt nur als menschliche Selbstverständigung Sinn macht. Vielleicht sieht Stefan letzteren Bereich aus mglw. systemtheoretischer Perspektive als gar nicht kategorisch unterscheidbar an, aber Kritik an z. B. Musks Vorschlägen formuliert er ja auch. Es scheint mir eher ein Aneinandervorbeireden zu sein, bei der der eine sagt, was wünschenswert wäre bzw. wie man etwas ansehen sollte, und der andere, was geschieht/geschehen wird und wie etwas funktioniert/funktionieren wird. Das ist mglw. gar nicht notwendig an Verwurzelung in unterschiedlichen Disziplinen geknüpft.

Hier ist mir noch schleierhaft, wie das funltionieren soll. Oder meintest du “informatische Informiertheit”?

Dies scheint mir in die Unterscheidung “Funktionsweise der KI, mglw. im gesellschaftlichen Kontext - Erscheinung der KI in der Praxis des Gebrauchs, Relevanz für die gesellschaftliche Selbstverständigung” zu fallen. Von einem ins andere zu kommen, scheint mir entscheidend zu sein.

Den Wesensbegriff möchte ich dabei nicht abschreiben, wenn man darunter nicht ein festes Bündel von Eigenschaften versteht, das etwas im Unterschied zu etwas anderem ausmacht, sondern ihn bspw. wie Heidegger versteht. Vielleicht könnten auch seine Gedanken zur Technik nützlich sein, diesen Gap zu überwinden.

Um den Einfluss der KI umfassend zu beschreiben, muss also ausgelotet werden, was für einen Möglichkeitshorizont sie eröffnet, wie dieser ausgenutzt werden wird; gleichzeitig auch, wie sich vor dem Hintergrund des Eindringens der KI in das Leben und dem Möglichkeitshorizont das menschliche Selbstverständnis, seine Bedrüfnisstruktur (damit zusammenhängend gesellschaftliche Strukturen) verändert, was wiederum auf die Art rückwirkt, wie KI genutzt und entwickelt wird.

Ein interessanter Gedanke; ich glaube, hier könnte ein Unterschied der stefanschen und wolfgangschen Herangehensweise ausgemacht werden. Jener würde wahrscheinlich sagen, dass KI-generierte Kunst innerhalb unserer Gesellschaft funktioniert, da sie genau so wie menschengemachte anschlussfähig ist. Dieser, dass die Rückkopplung notwendig ist, da Kunst im emphatischen Sinn ohne sie ihrer Sinnhaftigkeit entleert werden könnte. Ich bin eher bei letzterem: ob etwas ‘funktioniert”, scheint mir eine irrelevante bzw. sehr doppeldeutige Frage zu sein…

Ein paar Gedanken zu Davos:

Die These von der self-improvement loop ist: KI wird besser im Coden, schreibt dadurch bessere KI, die wird noch besser im Coden, und so weiter – exponentielles Wachstum bis zur Superintelligenz. Das klingt logisch, wenn man Intelligenz als geschlossenes System versteht, das sich selbst optimieren kann. Aber das ist ein Kategorienfehler. Was da beschrieben wird, ist Optimierung innerhalb eines bestehenden Rahmens. Schneller rechnen, effizienter coden, mehr Daten verarbeiten. Das ist nicht dasselbe wie Innovieren oder Durchbrüche erzielen.

Innovation entsteht nicht durch Iteration. Durchbrüche entstehen durch Reibung – durch Widerstand, durch das Unerwartete, durch Konfrontation mit etwas, das nicht ins Modell passt. Ein geschlossenes System, das sich selbst verbessert, wird immer besser darin, das zu tun, was es schon tut. Es wird nicht besser darin, etwas zu tun, woran es noch nie gedacht hat. Echte Erkenntnis erfordert ein Gegenüber, das widerspricht. Eine KI in einer self-improvement loop hat das nicht. Sie optimiert sich selbst nach Kriterien, die sie selbst setzt. Das ist keine Verständigung, das ist Selbstbestätigung mit höherer Rechenleistung. Das Silicon-Valley-Denken verwechselt systematisch Komplexität mit Kompliziertheit. Komplizierte Probleme kann man lösen, wenn man genug Rechenleistung hat. Komplexe Probleme nicht – weil die Lösung nicht feststeht, sondern sich im Prozess erst ergibt. Und die meisten menschlichen Probleme sind komplex, nicht kompliziert.

Zu Harari: Harari personifiziert KI, als wäre sie ein eigenständiger Akteur, der die Welt formt. Aber KI ist ein Werkzeug. Sie tut, was ihre Betreiber wollen. Wenn der Finanzmarkt in zehn Jahren noch undurchsichtiger ist, liegt das nicht an KI – es liegt an den Institutionen, die KI nutzen, um ihre Interessen zu schützen. Harari macht KI zum Übermenschen im nietzscheanischen Sinne - unverständlich, übermächtig, schicksalhaft. Aus dieser Logik heraus kann man dann auch von AI aliens oder AI immigrants sprechen – Metaphern, die KI vermenschlichen und dabei echte Verantwortlichkeiten verschleiern.

Zu Musks “robots will saturate all human needs” (im Podcast zu Recht kritisiert): Bedürfnisse stillen ist nicht dasselbe wie ein Leben führen. Selbst wenn es so kommt und Roboter alles Materielle abdecken, bleibt die Frage, was das alles soll – und die ist nicht automatisierbar. Nicht weil KI zu dumm ist, sondern weil Bedeutung nur für jemanden existiert, dem etwas wichtig ist.

1 Like

Ja, das war mal wieder ein typischer Harari. Andere machen sich differenziert Gedanken über komplexe Zusammenhänge oder haben das schon gemacht, und er haut permanent irgendwelche sensationsumwitterten generalisierenden Thesen raus und löst ein ehrfürchtiges und selbstgefälliges Staunen darüber aus, in was für bedeutsamen Zusammenhängen wir alle gemeinsam stehen. Sicher sind seine Thesen auch häufig interessant, aber auch seine Gedanken zur Sprache, von denen er die zur KI ableitete, fand ich ziemlich oberflächlich.

2 Likes

Ich halte es auch für wichtig, dass Wolfgang und Stefan ihre Diskussion und Argumente an bestimmten Punkten in irgendeiner Form zusammenfassen oder ordnen. Einfach für den Zuhörer, der nicht jeden Gedankensprung und Insider immer folgen kann.

Stefan sagt, ein Journalist ist auch ein Textgenerator, ich verstehe ihn da metaphorisch, das Argument kann aber auch vergleichend verstanden werden, also: KI als Autor. mMn versteht es Wolfgang auch so, um dann dagegen zu argumentieren: Autorenschaft ist Subjektivität/Perspektive, die KI nicht hat (jetzt nicht und nie?). Das gilt aus historischer Perspektive: Ein Kulturprodukt entsteht immer zur jeweiligen Zeit unter bestimmten Bedingungen und Vorstellungen, die eine KI nicht reproduzieren kann.

Außerdem: Wie soll die KI sich etwas neues ausdenken? Sie greift immer nur auf das bestehende zurück.

1 Like

Menschen denken sich was neues aus. LLMs helfen nur bei der Formulierung. Ohne Nutzer ist das LLM nichts.

1 Like

Es kommt sicher auch darauf an, ob man sich bei der Frage nach Kreativität auf das Ergebnis oder den Produktionsprozess bezieht. Ein von der KI erzieltes Ergebnis kann auch als kreativ wahrgenommen werden, indem es einem imaginativ “nach”schaffenden Betrachter neue Verknüpfungen ermöglicht. Für einen kreativen Schöpfungsprozess fehlen der KI aber die dafür erforderlichen menschlichen Eigenschaften.

hmmm ich weiß nicht, ob es sich lohnt, den prozess der kreativen schöpfung zu berücksichtigen, und es sei noch ergänzt, dass der menschliche autor natürlich auch mit dem schon-bestehenden arbeitet. wir sind halt grad bei der debatte, die es beim “tod des autors” gab, inwiefern gibt es individuelle schöpfung.

wieso wird eine KI niemals einen “werther”, “silence of the lambs” oder “resident evil” produzieren?

wie sollte die KI jetzt auf die idee kommen: das ist aktuell mein verhältnis zu mir und zu mir als verliebter person und das schreibe ich jetzt nicht als novelle auf, sondern in der form briefroman.

ich glaube, es wird auch unterschätzt, wie wichtig der soziale raum für die entstehung von ideen aus dem menschlichen kopf ist in unterschiedlicher interaktion mit anderen menschen.

(selbst bei dem klischee des lonesome genius)

Kreativität ist natürlich auch ein sehr weiter und unbestimmter Begriff. Künstlerische Tätigkeit ist meiner Meinung nach im engeren Sinne kreativ, weil man hier schöpferisch aktiv ist; in dieser Hinsicht drückt jedes Kunstwerk auch etwas Singuläres aus, das in keiner anderen Weise genauso erreicht werden kann. Bedeutende Kunst geht dementsprechend gerade nicht darin auf, innerhalb eines Regelsystems dieses besonders günstig auszuführen, sondern erschafft sich in der Ausführung seine eigenen Regeln. Bei anderen Bereichen geht es eher darum, objektives Wissen konsequent zu erweitern und anzuwenden. Die Gesetzmäßigkeiten dazu liegen eher in der Sache selbst und müssen nur aufgedeckt werden. Da sind manche findiger als andere: bei Erfindern gilt das noch als kreativ, wenn sich später Schüler aus Schulbüchern das Wissen genau auf dem gleichen durch die Sache vorgegebenen Pfade aneignen, nicht mehr. Es werden hier bekannte Dinge in neuer Weise verknüpft, was auch eine KI leisten kann.

Der Einwand bei künstlerischen Schöpfungen, dass die KI keine subjektive Selbstreferenz leisten kann, gilt ja für Referenz im Allgemeinen, und trotzdem produziert sie Sätze, die wir wiederum auf die Welt beziehen können. Hier kann die KI auf anderem Wege das gleiche Resultat erzielen; ähnliches ist auf dem Gebiet der Kunst theoretisch möglich, auch wenn es praktisch ungleich schwieriger zu erreichen ist.

Klar kann die KI so viele Bilder malen, daß ich mir die Wohnung damit tapezieren kann.

Sie könnte auch ad hoc Musik komponieren, die der jeweiligen Stimmung entspricht, für jede Minute des Tages.

Oder sie schreibt Romane und Texte oder sonst was, nach den eigenen Vorlieben.

Wer sich aber damit zufrieden gibt und Kunst und Künstler leichtfertig preisgibt, an den ist Müßiggang verschwendet, der soll sich dann von mir aus CDU- Style mäßig den ganzen Tag in irgendeiner Tretmühle abrackern.

Die Frage die ich mir in dem Kontext stelle, wenn wir das Beispiel nehmen von dem Satz über den im Podcast geredet wurde, den die KI zu dem Roman mit der Mutter die ihr totgeborenes betrauert. Man kann unterschiedlicher Meinung über die Qualität des Satzes sein. Aber es hat gezeigt, dass Leute die nicht wussten dass er von der KI generiert war und selbst die Autorin ihn als kunstvoll betrachtet hatten.

Die Frage also ist, verliert ein Kunstwerk seine künstlerische Zuschreibung,wenn man erfährt er ist KI generiert, aber solange man denkt er ist menschengemacht behält er sie.

Was sagt das über die Zuschreibung aus?

Darum geht es mir, die Betrachtung des Prozesses (Zuschreibung)birgt mehr Informationen als die Wesensbeschreibung (was ist Kunst)

1 Like

Interessanter Punkt.

Ich denke drüber nach….