Alle reden über ChatGPT. Der österreichische Digitalisierungsstaatssekretär, dessen schülerhaft geschriebener Facebook-Reisebericht aus dem Silicon Valley soeben in den sozialen Medien hierzulande für Spott sorgte, will eine österreichische KI-Regulierungsbehörde. Austria first? Ein wenig sinnvoller Ansatz bei einer weltweit dynamischen Entwicklung. Und die EU will nicht, dass wir China werden (Stichwort „Social Scoring“-System). Ja eh, wer will das schon?
Dann gibt es die wissenschaftliche Publizistik, die sich (und das ist ihr positiv anzurechnen!) mit Open-Access-Publikationen zum Thema geradezu überschlägt, siehe etwa im deutschsprachigen Raum hier und (allerdings schon vor ChatGPT) hier. Jedoch fällt das Schweigen der Institutionen für Qualitätssicherung und gute wissenschaftliche Praxis sowie der die Hochschulen vertretenden Organe zum Thema eindeutig negativ auf.
Nach einer ChatGPT-Richtlinie sucht man derzeit sowohl auf der Website des bundesdeutschen Ombudsman für die Wissenschaft als auch auf der Website der Österreichischen Agentur für wissenschaftliche Integrität vergeblich.
Uneinigkeit in der Verbotsfrage an deutschen Universitäten
Interessant ist dieses aktuelle Positionspapier der Universität Hohenheim, in dem der Konflikt schön zum Ausdruck kommt (S. 7 f.):
„Das Rektorat der Universität Tübingen hat sich am 31. Januar 2023 in einer hochschulinternen E-Mail klar positioniert:
‚Von ChatGPT erstellte Texte dürfen nicht von Studierenden im Rahmen von schriftlichen Studien- und Prüfungsleistungen (Klausuren; Abschlussarbeiten; usw.) verwendet werden, soweit dies nicht im Einzelfall durch die Prüfungsaufgabe begründet und rechtskonform zugelassen ist.‘
Aus unserer Sicht bedarf es keines expliziten Verbots dieser Art.“
Auf gut Deutsch: An der Universität Tübingen ist die Nutzung von ChatGPT verboten. An der Universität Hohenheim wird die Sinnhaftigkeit eines solchen Verbots nicht gesehen. – Nun gut, wenn Uneinigkeit herrscht, sind lokale Verbote sowieso sinnlos.
Ein Vorschlag zur Frage der Zitierwürdigkeit von ChatGPT
Ich habe mir daher folgendes überlegt: Ich schlage vor, die Diskussion über Texte von ChatGPT (und andere KI-generierte Texte) so zu führen wie die Diskussion über Texte aus Wikipedia. Die erste Frage muss also sein:
1. Sind Texte von ChatGPT zitierwürdig? Und diese Frage ist zu verneinen – außer, sie werden zur Demonstration verwendet. Es ist zwischen „use“ und „mention“ zu unterscheiden: Zur Inhalts- und Faktenvermittlung sind Texte von ChatGPT genau so wenig zitierwürdig wie Texte aus Wikipedia. Auf der metasprachlichen Ebene, also als Analysegegenstand, wie etwa hier weiter unten, können sie hingegen von größtem Interesse sein.
2. Wie wären Texte von ChatGPT allenfalls dennoch zu belegen? Es gilt, hier zwei Unterschiede zu Wikipedia zu beachten:
- Texte aus Wikipedia haben einen – wenn auch häufig anonymen – Verfasser, der sich in der Versionsgeschichte finden lässt, Texte von ChatGPT haben keinen menschlichen Verfasser.
- Texte aus Wikipedia sind „eingefroren“ (ebenfalls in der Versionsgeschichte), Texte von ChatGPT sind vergängliche Unikate, die man (derzeit) nur mittels Screenshot oder Copy/Paste sichern kann.
Daraus folgt: Bei Belegen mit ChatGPT als Quelle würde sich die Funktion des Zitats ändern. Während bislang die Quellenangabe urheberrechtlich den Sinn hatte, den Leser auf den exakten Fundort hinzuweisen, würde der Beleg mit ChatGPT nur der Kennzeichnung eines nicht vom Menschen verfassten Textes dienen. Der Beleg würde somit eigentlich zu einer Art digitalem Wasserzeichen. ChatGPT ist so gesehen auch formal nicht zitierfähig.
Ein korrekt gekennzeichnetes direktes (wörtliches) Zitat aus ChatGPT könnte folglich nicht zur Faktenvermittlung, sondern nur als Analysegegenstand vorkommen. Ein korrekt belegtes indirektes (sinngemäßes) Zitat aus ChatGPT könnte logisch gar nicht vorkommen. (Wenn sich an Absatzenden von Bachelorarbeiten Hinweise der Art „(vgl. ChatGPT)“ befinden, dann können wir den Laden endgültig zusperren.)
3. Fällt die nicht-gekennzeichnete und/oder unbelegte Verwendung von ChatGPT unter die Verwendung unerlaubter Hilfsmittel? Die Frage wird zu bejahen sein, ohne dass ein explizites „Verbot von ChatGPT“ ausgesprochen werden müsste (siehe auch hier weiter unten). Erstens gibt es kaum einmal eine taxative oder auch nur demonstrative Aufzählung unerlaubter Hilfsmittel (hier wäre zu denken an: den klassischen Spickzettel, Ear Phones, Handys usw.). Zweitens wäre ein „Verbot von ChatGPT“ schwammig: Was wäre etwa, wenn Texte von ChatGPT erstellt, aber dann von Menschenhand oder Software paraphrasiert wurden?
Diskussion über automatisch generierte oder veränderte Texte muss breiter geführt werden
Die Diskussion ist daher in einem viel breiteren Kontext zu führen: Es geht auch um automatisierte Übersetzungen (etwa mit DeepL) oder um automatische Paraphrasierungen (etwa mit QuillBot). Hier bedarf es dringender Festlegungen seitens der bundesdeutschen Hochschulrektorenkonferenz oder der österreichischen Uniko, welcher Einsatz in welchem Kontext sinnvoll ist und welcher nicht. Vielleicht sind entsprechende Richtlinien in Arbeit, derzeit ist die Situation jedenfalls unbefriedigend:
Quelle: https://www.hrk.de/suche/?id=479&q=ChatGPT
Ein Verbot wäre aus meiner Sicht derzeit sinnlos. Sowohl KI-Tools zur Textgenerierung als auch zur Paraphrasierung bilden Unikate. Deren Einsatz ist derzeit also kaum nachweisbar. Solange die AI-Detektion von Turnitin und anderen Playern noch in Entwicklung ist (Näheres bei einem kostenlosen, frei zugänglichen ZOOM-Webinar am 06.06.23), ergeben Verbote meines Erachtens keinen Sinn.
Verbieten kann man nur jene Software, deren Einsatz auch einigermaßen zuverlässig nachweisbar ist.
Dieser Satz trifft auch auf Ghostwriting zu: Solange dieses so schwer zu erkennen ist, sind Verbote wie jene im österreichischen Universitätsgesetz Feigenblätter.
Wir sollten nicht über Verbote reden, sondern über Standards und sinnvolle Modi der Nutzung. Und das vermisse ich derzeit von allen verantwortlichen Institutionen in Österreich wie in Deutschland.
Turing-Test: „Versteht“ ChatGPT ein komplexes Problem?
Ich schlage abschließend einen kontinuierlichen Turing-Test mit ChatGPT vor. Solange ChatGPT nicht in der Lage ist, den Fehler in der trivialen Formulierung des Lügner-Paradoxons zu „verstehen“, ist entweder das Sprachmodell noch nicht ausreichend weit entwickelt oder aber bereits generell an seine Grenze gelangt. Interessant ist es jedenfalls, ChatGPT hier an seine „Verstehensgrenze“ zu bringen, wie seine „verlegene“ Antwort auf meine Korrektur zeigt:
@ interessierter Leser / „Red“ 🙂 (Sie haben Humor!)
So ein Einsatz der KI würde wahrscheinlich die Lesbarkeit verbessern. Wie Sie selbst ausführten: Die Leistung liegt ja in der eigenen Forschung und den daraus gewonnenen Erkenntnissen. Wo liegt also der Mehrwert, wenn etwa ein Physiker etwas ausschließlich im eigenen Schul-Englisch verfasst, ohne Tools zur sprachlichen Optimierung zu nützen?? In wissenschaftlichen Arbeiten wird wohl – unabhängig vom Fachgebiet – INHALT und neues WISSEN kreiert. Die Textsorte hat ja keinen LITERARISCHEN Wert; man schreibt ja keinen Lyrikband. Demnach täuscht niemand etwas vor, wenn die KI an der Sprache feilt.
Der Vergleich hinkt etwas, aber: Kein Mensch würde abstreiten, dass ein ins Deutsche übersetzter Roman trotzdem ausschließlich vom amerikanischen Originalautor stammt – und zwar zur Gänze. Der (menschliche) Übersetzer wird irgendwo kleingedruckt auf der ersten Seite erwähnt. Diesen Tribut kann man dem Übersetzer auch zollen – aber er bleibt ein ausführender, ins-Deutsche-übertragender Dienstleister und kein „Schöpfer/Urheber“ des Inhaltes, der Struktur usw. Fairerweise könnte man also bei KI-Einsatz zur Sprachverbesserung einer Arbeit in der Einleitung erwähnen, dass die Arbeit durch Einsatz des Tools XY sprachlich optimiert wurde – im Sinne der besseren Lesbarkeit. Ich könnte mir sogar vorstellen, dass das Usus wird, und dass Betreuer irgendwann sagen werden: „Bitte nützt ein Tool, damit neben dem Inhalt auch die Sprache einwandfrei passt!“ Man könnte sich ja als Betreuer die „Rohfassung“ zeigen lassen, damit gewährleistet ist, dass INHALTLICH alles ausschließlich „vom Menschen“ geschöpft wurde.
Und wir sehen: Es entsteht tatsächlich ein Diskurs darüber, was uns die Software NÜTZT – und nicht darüber, welchen Schaden sie uns bringt.
Ergänzung 2: Von einem Akademiker würde ich mir grundsätzlich erwarten, dass er sprachlich eloquent ist und Rechtschreibung beherrscht – und dass er auch ein gewisses Englisch-Niveau aufweist. Ein Einsatz einer Software zum „Drüberlesen“ ist demnach okay. Aber wenn ein Verfasser einer Arbeit von Vornherein auf ein Tool angewiesen ist, das ihm etwa „das“ und „dass“ korrigiert, oder wenn sich ein Verfasser überhaupt nicht mehr bemüht, die richtigen Worte zu finden, weil das eh die KI macht, dann gute Nacht!! Also da muss man schon differenzieren. Demnach sollte man so einen Einsatz der KI auf jeden Fall mit Vorsicht genießen und nicht gleich als völlig legitim kategorisieren! Denn mit der KI hätte es dann auch keine Seepocken gegeben. Aber gut, da hätte ChatGPT beim Originaltext wahrscheinlich gemeldet „Das habe ich nicht verstanden“…
Lieber Andy Dufresne
Vielleicht sollte ich mich „Red“ nennen :). Danke für Ihre Ausführlichen Antworten. Ich stimme Großteils zu. Ich persönlich sehe diese Tools as Chance und plädiere für einen intelligenten Einsatz. Ich denke es gibt hier auch erhebliche Unterschiede zwischen den Fachdisziplinen. In meinem Bereich (den Naturwissenschaften) kann man sich wirklich Arbeit sparen. Ich sehe nicht wo hier ein Problem liegen sollte. Wenn ich neue Forschungsergebnisse habe (Messungen aus dem Labor oder neue Simulationsergebnisse bzw. analytische Resultate), warum sollte man sich nicht von ChatGPT helfen lassen diese Dinge aufzuschreiben? Ich denke dass das die Zukunft ist, und dass wahrscheinlich Firmen wie Microsoft ihre Textverarbeitungsprogramme mit Language-AI ausstatten werden. Die Message die Vermittelt wird, ist ja nach wie vor von „mir“. Sie wurde nur formuliert mit Hilfe eines Language models. Ich verstehe auch die Panik mancher Fachjournale nicht ganz. Wenn man von ChatGPT verfasste Texte in Nature unterbringen kann, dann hat das Journal ausgedient. Es geht darum neue Erkentnisse zu veröffentlichen. Das können Language models (noch) nicht.
Ergänzung: Ich würde meinen, einen Studienkollegen zu bitten: „Lies mal bitte über meine Arbeit drüber, ob du sprachlich irgendwelche Tippfehler findest oder manche Formulierungen holprig klingen“, ist vermutlich gelebte Praxis.
Den Studienkollegen zu bitten: „Übersetz mir das bitte“ oder „Du kennst dich beim Thema eh aus. Schmück mir das bitte mit deinem Wissen aus“ ist natürlich mit GWP nicht vereinbar! Das würde ich vereinfacht so auf die Anwendung der KI ummünzen.
Beruht das jüngst im März dieses Jahres veröffentlichte KI-Modell von ChatGPT auf einer Mathematik, die „dem Stoffe äußerlich ist“, wie Hegel in der Vorrede zur „Phänomenologie des Geistes“ aus dem Jahr 1807 längst kritisiert, sind die heutzutage von der Maschine generierten Texte schon deshalb nicht zitierwürdig. Auch die von einem Menschen verfassten Schriften können aus demselben Grund nicht zitiert werden, falls sie versuchen, „von außen“ (Leibniz, 1714: § 7) auf die wirkliche Welt zuzugreifen. Ihr Verständnis, Andy Dufresne, was eine gute wissenschaftliche Praxis (GWP) konstituiert, könnte angesichts dessen irreführender nicht sein.
Bin zwar nicht gefragt, aber: spannende Frage von „Interessierter Leser“. Ich denke, das lässt sich pauschal so nicht beantworten. Würde aber vereinfacht meinen: Die Grenze liegt dort, wo die KI INHALTLICHE Ergänzungen zum „menschlich“ verfassten Text vornimmt. Das wäre einem Ghostwriting gleichzusetzen, während die von Ihnen geschilderte Anwendung einem sprachlichen Lektorat gleichkommt. Und einen Menschen in Hinblick auf Grammatik, Beistrichsetzung etc drüberlesen zu lassen, ist vermutlich nicht unüblich – vor allem, wenn die Arbeit nicht in der Muttersprache verfasst wird. Und die geistige Eigenleistung ist wohl immer noch der Inhalt, nicht die Sprache. Ich würde aber auch meinen, es hängt davon ab, in welchem Teil der Arbeit die KI den Text sprachlich bearbeitet. In irgendeinem Anfangskapitel, das den Forschungsstand zusammenfasst, wäre so eine Nutzung der KI wohl legitim. Bei der „Quintessenz“ der Arbeit – nämlich etwa bei der Beantwortung der Forschungsfrage, stellt sich schon die Frage, ob dort neben dem Inhalt auch eine Schöpfungshöhe im Wortlaut zu finden ist (der dort schon eher selber formuliert sein sollte) – aber das lässt sich sicher so nicht verallgemeinern. Wenn „sprachliche Hilfsmittel“ jedoch zitierpflichtig wären, hätte man seit jeher bei fremdsprachigen Arbeiten zB den Langenscheidt bei jedem nachgeschlagenen Wort als Quelle anführen müssen. Das wäre natürlich absurd. Was die „Zitierpflicht“ von eventuellen inhaltlichen Ergänzungen der KI anbelangt: Diese Frage stellt sich für mich nicht, da dies (wie erwähnt) für mein Empfinden einem Ghostwriting gleichkommt. Und das ist sowieso verboten.
Bereits am 15. Juli 1944 plädierte Max Born in einem an Albert Einstein adressierten Brief für einen „international code of behaviour on ethics …, by which our scientific community could act as a regulating and stabilising power in the world, not, as at present, being nothing than tools of industries and governments“ (Briefwechsel, 1969: 198). Angesichts dessen ist es inzwischen mehr als überfällig, im Umgang nicht zuletzt mit ChatGPT sich selbst dementsprechende Richtlinien für eine gute wissenschaftliche Praxis zu geben. Insofern beispielsweise in Deutschland die zahllosen, aber niemals von Erfolg gekrönten Versuche, das Subjekt zu einem Objekt zu degradieren, unter der dortigen Bevölkerung geschätzt allein im Jahr 2020 zu rund 40.000 zusätzlichen und dadurch von vornherein vermeidbaren Toten führten (Spitzer, 2005: 6), wäre es allemal der Mühe wert, wenn man nicht fortgesetzt buchstäblich über Leichen gehen will. Österreich könnte hier der Pionier für den notwendigen „Bruch“ (D’Alessio et al., 2000) sein, dass der Humanität nicht länger über alle Maße hinweg gespottet wird.
In meinem Bereich wird ChatGPT vor allem zur Verbesserung/Otimierung selbst geschriebener Texte verwendet. Das scheint vor allem dann hilfreich zu sein wenn man nicht in der eigenen Muttersprache schreibt. Man schreibt also selbst einen Absatz und bittet ChatGPT dann, das zu verbessern. Für gewöhnlich sind dann etwa ~20% verwendbar. Das iteriert man dann einige male. Man verwendet ChatGPT sozusagen als Diskussionspartner um Texte zu optimieren. ChatGPT spielt daher eine ähnliche Rolle wie andere Tools, etwa wie Grammarly.
Meine Frage an Sie ist nun: Ist für Sie diese Vorgehensweise legitim? Ist hier eine Erwähnung von ChatGPT sowie auch anderer verwendeter Tools zwingend notwendig? Und wo ist die Grenze?