Ich stimme grundsätzlich zu, dass eine triviale Unterscheidung zwischen Subjekt und KI nicht trägt. Was mich an der Diskussion zwischen Stefan und Wolfgang jedoch stört, ist die Konstellation der Diskursteilnehmer: Auf der einen Seite ein systemtheoretisch geschulter Soziologe, auf der anderen ein geisteswissenschaftlich geprägter Intellektueller. Beide wollen die gesellschaftlichen Auswirkungen von KI erfassen, ohne sich regelmäßig mit deren informatischer Grundlage auseinanderzusetzen.
Damit will ich ausdrücklich nicht sagen, dass weder die luhmannsche Systemtheorie noch die Geisteswissenschaften etwas relevantes beizutragen hätten, das wäre vermessen. Auch ich selbst arbeite eher im Bereich Simulation als in der KI-Entwicklung und beanspruche hier ausdrücklich keine Expertenrolle. Auffällig ist jedoch, dass kritische Stimmen aus der Informatik im Podcast wie auch im Forum kaum vorkommen.
Als populärwissenschaftliches Beispiel ließe sich Katharina Zweig nennen, Professorin für Sozioinformatik, die in einer gut verständlichen Buchreihe versucht, gesellschaftliche Fragen konsequent aus informatischen Kategorien heraus zu entwickeln. Daneben existiert mit Explainable AI ein genuiner Forschungsbereich der Informatik, der sich wissenschaftlich mit diesen Fragen befasst. Diese noch junge und teils unsortierte Disziplin verfolgt zwar häufig einen instrumentellen Zugang, führt aber eine analytisch hilfreiche Unterscheidung ein: die zwischen Blackbox- und Whitebox-Modellen.
Blackbox-Ansätze interessieren sich ausschließlich für Input und Output, nicht für die internen Prozesse des Modells. Für viele gesellschaftliche Analysen ist das durchaus angemessen. Problematisch wird es jedoch, wenn individuelle Nutzungserfahrungen – etwa persönliche Interaktionen mit einem Modell – mit Analyseinstrumenten vermischt werden, die eigentlich für makrosoziale Fragestellungen konzipiert sind.
Whitebox-Ansätze der Explainable AI verfolgen dagegen die Idee, auf Basis eines komplexen Modells ein erklärendes Zweitmodell zu erzeugen, dessen Architektur bewusst eingeschränkt ist. Dieses kann ähnliche Aufgaben lösen, erlaubt aber eine bessere Nachvollziehbarkeit der Verarbeitungsschritte. Daraus ergibt sich auch eine Verantwortungsdebatte: In welchen gesellschaftlichen Bereichen sollten Blackbox-Modelle, die keine oder nur eingeschränkte Erklärbarkeit zulassen, überhaupt eingesetzt werden dürfen?
In Bezug zum einzelnen Nutzer rückt zudem die Interaktivität stärker in den Fokus. Grafische Interfaces, Tabellen oder Filterfunktionen ermöglichen dichtere Rückkopplung als reine Texteingaben(auch immer mehr innerhalb von Dialogsystemen) Diese verbessern zwar das mentale Modell der Nutzer, dass notwendig ist für eine gute Benutzung und damit Verwandtschaft zum Bereich der human Computer interaction hat (HCI) hat führt aber nicht zu einem echten Verständnis der inneren Modellstruktur, oder dessen Bezug zur Gesellschaft.
Abschließend erscheinen mir zwei Probleme der KI-Forschung zentral für die Subjektfrage. Erstens das Symbol Grounding Problem: Sprachmodelle lernen Relationen zwischen Symbolen/Tokens, ohne diese an ein Weltmodell rückzubinden. Menschen integrieren dagegen Sinnesdaten zu einem kohärenten Realitätsmodell, an dem sprachliche Aussagen überprüft werden können. Für KI ist das bislang nicht gegeben, wenngleich daran aktiv geforscht wird.
Zweitens lernen diese Modelle nicht kontinuierlich. Training und Nutzung sind strikt getrennt: Versionen wie GPT-3.5, 4 oder 5 werden trainiert und anschließend bereitgestellt. Während eines Dialogs findet kein Lernen statt, auch wenn es durch das Token-Fenster gelegentlich so wirkt.
Dies ist insbesondere deshalb relevant weil die immer neuen trainingsphasen den Entwicklern durch Selektionen großen Einfluss darauf geben können was hier erzeugt wird, und weshalb ich mit dem Begriff eines autonomen Systems äußerst unzufrieden bin.
Im Nutzungszusammenhang stimme ich allerdings Katharina Zweig zu: KI ist vor allem dort nützlich, wo Erzeugung deutlich aufwendiger ist als Verifikation desselben Inhalts. Der Mensch wird dabei nicht in allen Fällen ersetzt, denn gerade in kritischen Kontexten bleibt die Prüfung durch Rückkopplung an einen Arbeiter und dessen Weltmodell wichtig.
Das erklärt auch, warum kreative Tätigkeiten besonders betroffen sind. Wo eine klare kreative Vision existiert, kann KI unterstützend wirken. Wo diese fehlt und lediglich „gefüllt“ werden soll, kann sie hingegen weitgehend ohne Verifikation eingesetzt werden. Kulturelle Kreativerzeugnisse müssen weniger Rückkopplung an diese Weltmodelle haben als anderes.