KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?

KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?

Organisatoren
Zentrum verantwortungsbewusste Digitalisierung (ZEVEDI), Technische Universität Darmstadt
Förderer
Hessisches Ministerium für Digitale Strategie und Entwicklung
Ort
Darmstadt
Land
Deutschland
Fand statt
Hybrid
Vom - Bis
25.08.2023 - 26.08.2023
Von
Kathrin Burghardt, Institut für Theologie und Sozialethik, Technische Universität Darmstadt

Der Diskurs bestimmt den Gegenstand, aber was passiert, wenn der Gegenstand den Diskurs mitführt? KI-Textgeneratoren sorgen für Aufsehen – zwischen Bewunderung und Besorgnis, zwischen Utopie und Dystopie – ein Umgang muss her. Die interdisziplinäre Tagung wurde im Rahmen des Ad hoc-Vorhabens „Diskurse disruptiver digitaler Technologien am Beispiel von KI-Textgeneratoren“ des Zentrums verantwortungsbewusste Digitalisierung (ZEVEDI) durchgeführt und zeichnete ein ambivalentes Stimmungsbild zu ChatGPT und äquivalenten textgenerierenden Programmen. Die Disruptivität von KI-Textgeneratoren drängt sich auf, aber auf welchen Ebenen ist sie zu verorten? Greifen KI-Textgeneratoren disruptiv nur in technische Abläufe des Schreibprozesses ein und sind somit als hilfreiche Werkzeuge zu nutzen oder wirken sie auch disruptiv auf der Ebene der Autorschaft und des Geltungsanspruches an und von Texten? Paradigmen über Konzepte von Wissenschaft und Wahrheit, Verantwortung, sozialer Interaktion, Lehre und Kreativität werden durch die künstliche Generierung von Texten in Frage gestellt und bedürfen einer neuen Festigung oder vielleicht sogar Reevaluierung. Ethische und rechtliche Herausforderungen bei der Implementierung und Nutzung von KI-Textgeneratoren stehen neben Überlegungen zur sinnvoller Hilfe, Weltöffnung und Zeiteffizienz.

GERHARD SCHREIBER (Darmstadt/Hamburg) eröffnete die Tagung mit dem provokant anmutenden Satz in Anlehnung an Miriam Meckel: „Und nein, wir werden nicht begeistert vor den Texten der Sprachmodelle sitzen wie der Dackel vor dem Grammophon, in dem Glauben, sein Herrchen verstecke sich im Gerät“, gefolgt von den motivierenden Worten: „Es geht nicht darum, kritisches Denken an der Garderobe abzugeben, […] es geht darum, sachlich, offen und vorurteilsfrei darüber zu diskutieren, wie wir trotz aller zu befürchtenden oder sich abzeichnenden problematischen, missbräuchlichen Nutzungsweisen KI-gestützter Werkzeuge diese sinnvoll und verantwortungsvoll einsetzen können.“

Die Tagung nahm den erhofften Verlauf in einem sehr impulsreichen und teilweise auch multivalenten inhaltlichen sowie respektvollen intersubjektiven und interdisziplinären Setting.

Neben einem Plädoyer von HAIMO STIEMER (Darmstadt), KI-Textgeneratoren als Gesprächs- und Lernpartner im Sinne Heinrich von Kleists „allmählicher Verfertigung der Gedanken beim Reden“1 zur Erzeugung und Förderung von literaturwissenschaftlicher Expertise zu nutzen, skizzierte DORIS WESSELS (Kiel) die dystopische „Exit-Strategie“ einer in „Realitätsapathie“ verfallenen Gesellschaft im Zeitalter der „Informationsapokalypse“.

Diese beiden Standpunkte seien zunächst als Einstieg in die spannende Diskursivität der Tagung erwähnt, eröffnen sie doch die Darstellung der Tagung als ein diverses Stimmungsbild: ein Changieren zwischen Chancen und Risiken von KI-Textgeneratoren, zwischen Beschwichtigungen und Warnungen in den Vorträgen und Diskussionen. Der Versuch, zu (be-)greifen, was KI-Textgeneratoren und ihre generierten Texte sind und welchen Einfluss sie tatsächlich auf Wissenschaft und (Lebens-)Praxis haben, prägte als (un-)ausgesprochene Gemeinsamkeit die Tagung.

In den Fächern, in denen das genuine Verfassen von Texten im Mittelpunkt der fachlichen Tätigkeit steht, wurden KI-Textgeneratoren auffälligerweise nicht als Bedrohung des eigenen Schaffens im rudimentären Sinne angesehen, sei es das künstlerische literarische Werk oder das Verschriftlichen geisteswissenschaftlicher Argumentationen. Verständlich, dass gerade die Fachdisziplinen, deren Arbeit auf dem Generieren von Texten beruht, einen praktischen, im Sinne eines nutzbarmachenden und positiv eingestimmten Umgangs mit KI-Textgeneratoren versuchen und rechtfertigen. Da ihre Geltung in der Wissenschaft durch Texte erfolgt, würden sie sich ihrer eigenen Disruptivität aussetzen durch die Annahme, dass KI-Textgeneratoren menschlichen Texten ihre Geltung entziehen. Dennoch wurden bestimmte Konzepte in der Herausforderung durch KI-generierte Texte hinterfragt und Veränderungen diskutiert. Beruhigende Worte schwangen aus der Literaturwissenschaft (Haimo Stiemer) und von Seiten des literarischen Schreibens (Jenifer Becker) mit, aber auch aus der Geschichtswissenschaft (Miriam Weiss), deren Analysemittel der Text ist, indem ChatGPT und Äquivalente als nützliche Schreibinstrumente oder Gesprächspartner in dem Verfassen von Texten vorgestellt wurden.

JENIFER BECKER (Hildesheim) stellte aus ihrer Perspektive als Künstlerin und Literatur- und Kulturwissenschaftlerin KI-Textgeneratoren als sinnvolles Schreibtool in der Kollaboration mit dem Menschen beim Verfassen von Texten vor. Die Nutzung von Chatbots werde es „niederschwelliger“ machen, ein Buch zu schreiben. Die Schritte im Schreibprozess der Konzeption, Textproduktion und Überarbeitung ließen sich im Dialog mit ChatGPT umsetzen. In der Debatte über Autorschaftkonzepte und „Textseele“ postulierte Becker eine bleibende Bedeutung des Autorenschreibstils in der Kollaboration mit KI. „Die Autor:in ist nicht tot!“ – Becker plädierte jedoch für einen Wandel des Autorenkonzeptes hin zu einer Kuratierung von Texten. Die gleichzeitig stattfindende „exponentielle Vermehrung“ der Menge an KI-generierten Romanen bewertete Becker damit, dass es bisher noch keine originellen Texte gegeben habe. Es stellt sich jedoch die Frage, ob dies eine qualitative Unterscheidung ist und ob sich KI-Textgeneratoren mit der Verbesserung ihrer Technologie der Originalität von Texten annähern werden. Eine gewisse Skepsis lag in der Luft.

Auch AMREI BAHR (Stuttgart) sprach von einer Überholung des Autorschaftskonzeptes. Die Frage, auf die sich ihr Vortrag zuspitzte, bestätigte die Skepsis gegenüber der Originalität von KI-Texten: „Wie gehen wir mit Texten um, die Schöpfungshöhe und Originalität haben, aber keine Autorschaft?“ Bahr unterschied zwischen Textkopien, die mittels KI erzeugt werden, und Textkopien, die durch „halluzinierende“ KI entstehen. Während erstere Textidentität Werkidentität erzeugt qua kausalem Bezug zu dem:der Autor:in, weist letztere keine Werkidentität auf aufgrund des ontologischen Problems einer „Doppelschöpfung“. Die Frage der Autorschaft ist im ersten Fall eindeutig geklärt: Als Exemplar des ursprünglichen Textes ist der:die ursprüngliche Autor:in der:dieselbe. Im zweiten Fall ist die Frage der Autorschaft ebenso wie die Plagiatsfrage ungeklärt. Bahr leitete die Diskussion mit der Anschlussfrage ein: „Wie wollen wir mit wissenschaftlichen Erkenntnissen, wissenschaftlichen Argumenten und Theorien umgehen, die das Resultat halluzinierender KI sind?“ Sie deutete an, dass diese Argumente eine Gleichwertigkeit mit menschlichen haben müssten. Zukünftig werde es mehr um die Qualität des Arguments gehen als um die Autorschaft, die an Bedeutung verlieren werde.

MIRIAM WEISS (Saarbrücken) führte in ihrem Vortrag eine praktische Nutzungsmöglichkeit von KI-Textgeneratoren an, die Studierenden und Forschenden ohne die entsprechenden Lateinkenntnisse die Teilhabe am Forschungsgebiet der Geschichte in vielen Bereichen überhaupt erst ermöglicht: die Übersetzung vom Lateinischen ins Deutsche für die Arbeit mit Quellen. Dieses Praxisbeispiel verdeutlichte die Ambivalenz einer Chancen- und Risikobetrachtung von KI-Textgeneratoren. Ist die Übersetzungspraxis für das Auffinden von Anknüpfungspunkten für die Forschungsdiskussion obligatorisch, so steht ihr eine potenzielle Weltöffnung entgegen, die ohne Nutzung der Technologie in dieser niederschwelligen Weise nicht möglich wäre. Weiss überlegte, dass die Wissenschaft den KI-übersetzten Text als eine von mehreren Übersetzungen als Grundlage für die Beurteilung nutzen werden müsse. Die Diskussion spitzte sich zu dem Punkt zu, dass über die Entstehung einer Praxis der universalen digitalen Weltsprache gesprochen wurde, die es jedem ermöglicht, mit jedem anderen in dessen Muttersprache zu sprechen – was jedoch in wissenschaftlicher Perspektive, diese Übersetzungen zu bewerten, ein schwieriges Unterfangen sei.

Ein Problem mit KI-Textgeneratoren, das im Verlauf der Tagung immer wieder zur Sprache kam, war der Non-Sense-Prozess einer KI, die mit einer KI interagiert. Eine durch KI vermittelte universale Weltsprache ist ein Beispiel unter vielen für solche auf der Tagung angesprochenen Prozesse. Eine ähnliche praktische Anwendung zwischenmenschlicher Kommunikation, vermittelt durch KI-Textgeneratoren, stellten DIDEM SEDEFOGLU und SANDRA OHLY (Kassel) in ihrem Vortrag aus wirtschaftspsychologischer Perspektive vor. Ihre empirische Forschungsarbeit zielt darauf, die intersubjektive Beziehungsgestaltung durch Texte zu untersuchen und herauszufinden, ob zwischenmenschliche Kommunikation, die über Chatbots wie ChatGPT vermittelt wird, empathischer oder unempathischer aufgefasst wird. Der Untersuchungsgegenstand ihrer Studie ist die Kommunikation zwischen Führungskräften und ihren Mitarbeitenden. Die Frage, wer mit wem kommuniziert, wenn beide Seiten ihre Anliegen als Prompts formulieren und von Chatbots ausformuliert versenden, drängte sich auf, blieb aber weitestgehend offen.

In weitere Non-Sense-Sphären begab sich STEFFEN ALBRECHT (Berlin) aus dem Bereich der Technikfolgenabschätzung. Implizit klang in seinem Vortrag die Möglichkeit einer Reflexivität von KI an. Er fragte sich, was wäre, wenn ChatGPT eine Technikfolgenabschätzung von ChatGPT vornehmen würde. Neben den Kosten eines hohen Ressourcenverbrauchs sah Albrecht die Chance in der Arbeitserleichterung und Zeitersparnis. Er gab jedoch gleichermaßen zu bedenken, dass die Ausgewogenheit in der Debatte, die auf einem KI-Diskurs von vor 50 Jahren aufbaue, kaum mehr gegeben sein könne, wenn ChatGPT und äquivalente KI-Textgeneratoren daran beteiligt seien, welche die Interessen einiger weniger vermittelten.

Ähnlich argumentierte auch ROLAND KUNZ (Frankfurt am Main), der die industrielle Perspektive eines Tech-Konzerns einnahm: Der Nutzen von KI-Textgeneratoren liege in der Effizienzsteigerung. Dabei werde Wissen immer unwichtiger, während das Stellen der richtigen Fragen (Prompts) an Bedeutung gewinne. Kunz betonte den wirtschaftlichen Konkurrenzgedanken einer Teilhabe am Fortschritt durch KI-Textgeneratoren und den Kampf um wirtschaftliche Vormachtstellungen.

Neben diesen Analysen des Einflusses von KI-Textgeneratoren auf Wissenschaft und Gesellschaft, die Chancen hervorhoben und beruhigende Worte über KI-Textgeneratoren verlauten ließen, war die Stimmung anderer Teilnehmender der Tagung eher negativ, besorgt und risikosensibel.

Unsere Öffentlichkeit ist bereits durchsetzt von Desinformation, die durch automatisierte algorithmische Maschinen entstehen. Es gibt bereits KI-generierten Journalismus, KI-generierte Propaganda. KI-generierte Videos, Fotos, Texte kursieren zuhauf im Internet. „Es gibt eine Menge Leute im Internet, die es nicht gibt“, so CHRISTIAN STÖCKER (Hamburg). Das habe Folgen, nicht nur für die Wirtschaft. Die Frage nach der Wahrheit eröffnete im Anschluss an seinen Vortrag eine rege Diskussion. Authentizität zu erkennen, wird immer schwieriger; der Wunsch nach schnell erkennbaren Kennzeichnungen und Fehlermarkierungen wurde laut. Eine erste Strategie der Desinformationsforschung sei es, das Vertrauen in informationsgenerierende Institutionen zu erschüttern. Der von Weßels prognostizierte Rückzug aus der Öffentlichkeit trat wieder ins Bewusstsein.

CONSTANZE SPIESS (Marburg) führte in die anfangs erwähnte Problematik der Diskursanalyse in der Herausforderung durch KI-Textgeneratoren ein, indem sie darauf aufmerksam machte, dass Sprache als Mittel der Weltgestaltung auftrete und Wirklichkeit konstruiere. „Wenn ich über etwas spreche, dann bewerte ich es schon.“ Spieß beschrieb Sprache als Zuschreibungshandlung. Wir befinden uns in der Situation, dass der Diskurs bestimmt, welche Kompetenzen und Eigenschaften wir KI zuschreiben und wie wir KI durch Handlungszuschreibungen anthropomorphisieren, während die KI selbst am sprachlichen Diskurs teilnimmt.

Das hier entstehende Bild ist das einer handlungsfähigen, weil sprachfähigen KI. Fragen drängen sich auf, die sich schon OLIVER BENDEL (Nordwestschweiz/Windisch) gestellt hatte: Gibt es ein maschinelles Bewusstsein? Sollten Robotern Rechte zugesprochen werden? Bendel diskutierte eine Maschinenethik, die auf ethisch gefütterten Sprachmodellen beruht. Sogenannte Moralmodule sollen Nutzer:innen die Wahl ermöglichen, wie sich ein Roboter mit integriertem Sprachmodell ihnen gegenüber verhalten soll.

Gegen eine Anthropomorphisierung sprach sich TORSTEN HILTMANN (Berlin) aus. Die Gleichsetzung von Sprache mit Handeln und das Nachdenken über Bewusstsein von Künstlicher Intelligenz standen im Gegensatz zu Hiltmanns eindringlichem Appell, KI sei Hilfsmittel und kein personifiziertes Wesen. KI sei kein Handlungsakteur, sondern nur für bestimmte Handlungsfelder trainiert.

Die Frage der Differenzierung des Menschen von der Maschine, wenn diese die natürliche Sprache nun zu sprechen vermag, griff unter anderem HENDRIK KLINGE (Wuppertal) auf. Klinge sprach sich gegen die theologische Gleichsetzung von Mensch und Maschine aus, indem er christlich-theologisch und anhand eines Gedankenexperimentes einer aus einem KI-Text entstandenen Religion dafür plädierte, dass Gott sich explizit für die Menschlichkeit ausgesprochen habe (Zwei-Naturen-Lehre).

KI-Textgeneratoren sind nicht reproduzierbar und nicht erklärbar, so der Informatiker THOMAS ARNOLD (Darmstadt). Das macht sie sowohl in universitären Forschungskontexten als auch in sensiblen Anwendungsbereichen wie beispielsweise der intersubjektiven Interaktion problematisch. KI-Textgeneratoren können unser Verständnis von und unseren Zugang zu Texten verändern, indem sie neue Bedeutungsebenen eröffnen (Hiltmann), als Weltöffner fungieren (Weiss) oder den wissenschaftlichen Umgang mit Texten unterstützen (Becker, Stiemer). KI-Textgeneratoren lassen uns an unserer Annahme zweifeln, Wahrheiten als solche zu erkennen (Stöcker), und drängen uns, nach verbleibenden Unterschieden zwischen Mensch und Maschine zu suchen (Peiter, Klinge, Doeben-Henisch). Die wirtschaftliche Macht einzelner Unternehmen, die den Markt dominieren, steht im Kontrast zur mehr oder weniger ausgeprägten Bewusstheit der Nutzenden hinsichtlich der Chancen und Risiken von KI-Textgeneratoren.

Doris Weßels betonte die Notwendigkeit umfassender Aufklärung und forderte die zeitnahe Einrichtung einer Taskforce: Wie können wir als Gesellschaft rechtlich, ethisch und wirtschaftlich angemessen auf die Implementierung und Disruptivität von KI-Textgeneratoren reagieren? „Es muss etwas geschehen, was schon längst überfällig ist“, so ANN-KATRIN VAN DEN HAM (Hamburg) über den Wandel hin zu einer Lehre mit einer Digitalität, die längst Einzug in unsere Gesellschaft gehalten hat. PETRA GEHRING (Darmstadt) appellierte, dass es eben nicht nur Sprache sei, die durch KI beherrscht werde, sondern Sprache im elementaren Sinne. Wir hätten es mit einem „Weltveränderungspotenzial“ zu tun, dessen wir uns gewahr werden müssten.

LUKAS OHLY (Frankfurt am Main) schloss die Tagung mit der Überlegung, dass wir uns durch die Implementierung von KI-Textgeneratoren von einem Tool abhängig gemacht haben, das den Text als Forschungsgegenstand durch massenhafte Texterzeugung verdecke und dennoch benötigt werde, um ihn zu überblicken. Die Kreise, die KI-Textgeneratoren zu ziehen scheinen, sind ebenso groß wie die Textmenge, die sie generieren. Die Tagung hat durch ihre interdisziplinäre Betrachtung der Thematik wertvolle und inspirierende Impulse gesetzt, die in der Folge unbedingt weiter vertieft und diskutiert werden sollten.

Konferenzübersicht:

Gerhard Schreiber (Darmstadt/Hamburg): Begrüßung

Doris Weßels (Kiel): Mit generativen KI-Systemen auf dem Weg zum Human-AI Hybrid in Forschung und Lehre

Constanze Spieß (Marburg): „Keine Panik vor der KI“ – Zuschreibungspraktiken und Textualitätsverhandlungen in Diskursen über KI. Eine linguistische Perspektive

Jenifer Becker (Hildesheim): Können Chatbots Romane schreiben? Der Einfluss von KI auf kreatives Schreiben und Erzählen

Anne D. Peiter (La Réunion): KI-Texte = Intertexte? Fragen der Geltung von Literatur im Mensch-Maschinen-Vergleich

Roland Kunz (Frankfurt am Main): Transformer – Textgenerierung, Industrieanwendungen und Grenzen

Oliver Bendel (Nordwestschweiz/Windisch): KI-basierte Textgeneratoren aus Sicht von Informationsethik und Maschinenethik

Steffen Albrecht (Berlin): ChatGPT und der wissenschaftliche Text – eine Annäherung aus der Perspektive der Technikfolgenabschätzung und eigener Betroffenheit

Amrei Bahr (Stuttgart): Same same but different? Textidentität, Autorschaft und Schöpfungshöhe im Angesicht von generativer KI

Hendrik Klinge (Wuppertal): „Schreibe mir eine Heilige Schrift.“ Das Schriftprinzip im Zeitalter der Künstlichen Intelligenz

Thomas Arnold (Darmstadt): Herausforderungen in der Forschung: Mangelnde Reproduzierbarkeit und Erklärbarkeit

Gerd Doeben-Henisch (Frankfurt am Main): Kollektive Mensch-Maschine Intelligenz und Text-Generierung & Text-Verstehen. Eine transdisziplinäre Re-Analyse

Alisa Geiß (Frankfurt am Main): Von Maschinen und Mythen. Die kybernetische Revolution des Textes

Haimo Stiemer und Evelyn Gius (Darmstadt): Künstliche Intelligenz und literaturwissenschaftliche Expertise

Christian Stöcker (Hamburg): Lernende Maschinen und die Zukunft der Öffentlichkeit

Didem Sedefoglu und Sandra Ohly (Kassel): Human versus AI: empathic leadership communication

Ann-Katrin van den Ham (Hamburg): KI-Textgeneratoren: Eine neue Ära des Unterrichts? – Perspektiven und Gefahren

Torsten Hiltmann (Berlin): Hermeneutik im Zeitalter der KI: Large Language Models und deren Konsequenzen für das historische Arbeiten

Miriam Weiss (Saarbrücken): Lateinkenntnisse erforderlich?! KI-geschaffene Übersetzungen als Hilfsmittel zur Quellenerschließung in der Geschichtswissenschaft

Lukas Ohly (Frankfurt am Main): Generalaussprache

Petra Gehring (Darmstadt): Generalaussprache

Anmerkungen:
1 Heinrich von Kleist: „Über die allmähliche Verfertigung der Gedanken beim Reden“, Königsberg 1805.
[2] Jerrold Levinson: „Autographic and Allographic Art Revisited“, in: Philosophical Studies 38, 1980, 367–383.