„Die Grenze ist erreicht, wenn die KI die Autorenschaft übernimmt“
Germanistik-Professor Matthis Kepser über den richtigen Umgang mit KI im Schreibprozess
Können Dozierende erkennen, ob Studierende KI-generierte Texte einreichen? Matthis Kepser erklärt, welche Methoden funktionieren und warum der richtige Einsatz von KI wichtiger ist als Verbote.
Herr Kepser, macht es einen Unterschied, wenn Studierende Hilfe von einer generativen KI wie ChatGPT in Anspruch nehmen, statt von Eltern oder Lektor:innen. Wie sehen Sie das?
Ich sehe da kein Problem. ChatGPT übernimmt die Rolle eines elektronischen Lektors, der Aufgaben unterstützt, die zuvor nur menschliche Lektoren erledigen konnten. Das sehe ich nicht als problematisch, sondern eher als Schritt zur größeren Chancengleichheit.
Wo ziehen Sie dann die Grenze zwischen erlaubt und unerlaubt?
Die Grenze ist erreicht, wenn die KI die Autorenschaft übernimmt. Das verstößt nicht nur gegen die Eigenständigkeitserklärung, sondern nimmt den Studierenden auch die Möglichkeit, durch den Schreibprozess selbst Erkenntnisse zu gewinnen. Schreiben ist ein Lernprozess, und dieser geht verloren, wenn Texte komplett von einer KI generiert werden.
Wie sieht ein sinnvoller Einsatz von KI beim Schreiben aus?
KI kann beim Überarbeiten von Texten oder bei der Ideengenerierung wertvolle Hilfe leisten. Entscheidend ist, dass die Studierenden lernen, wo die Grenzen liegen, und den Prozess des Schreibens nicht auslassen.
Wie können Dozierende erkennen, ob ein Text von einer KI generiert wurde?
Es gibt drei Ansätze: Erstens, der Vergleich mit früheren Arbeiten kann auffällige Sprünge in Stil oder Argumentation zeigen. Zweitens, KI-generierte Texte weisen oft typische Schwächen auf, wie inkonsistente Argumentationen oder repetitive Satzmuster. Drittens, KI-Detektoren-Tools können Verdachtsmomente bestätigen, sind aber allein nicht ausreichend, da sie Schwächen haben.
Sie haben eigene Forschung in diesem Bereich betrieben. Wie sind Sie darauf gekommen?
Der Auslöser war eine auffällig schlechte Arbeit einer Studierenden, bei der die KI falsche Zitate generiert hatte. Das hat mich motiviert, tiefer einzusteigen. Ich habe zahlreiche Texte von KIs generieren lassen und mit Detektionstools gearbeitet. Diese Tools liefern oft gute Ergebnisse, sind aber nicht fehlerfrei. Meine Forschung hat gezeigt, dass die Kombination verschiedener Methoden die beste Möglichkeit bietet, KI-Texte zu erkennen.
Ist das nicht ein endloses Katz-und-Maus-Spiel zwischen neuen KI-Generationen und Erkennungstools?
Ja, das ist es. Es ist vergleichbar mit Virenscannern: Sowohl die Angreifer als auch die Verteidiger entwickeln sich ständig weiter. Das bedeutet, wir müssen aufmerksam bleiben und uns kontinuierlich anpassen.
Was halten Sie von der Idee, KI-generierte Texte durch Watermarking — in den Texten unsichtbare oder schwer erkennbare Markierungen — zu kennzeichnen?
Das wäre ein hilfreicher Schritt. Wenn KI-Hersteller solche Marker standardmäßig einbauen würden, wäre die Erkennung einfacher. Ob das umgesetzt wird, bleibt abzuwarten.