Wie geht man mit KI-generierten Texten in der Schule um?

  • Erstellt von JWD-Redaktion (CB)

Welche KI-Tools sind beim Erstellen einer Arbeit erlaubt? Wie müssen KI-Texte gekennzeichnet werden? Klare Regeln vermeiden Unsicherheiten.

Seit der Einsatz von Anwendungen, die künstliche Intelligenz nutzen, einfach und niedrigschwellig ist, steht im Bildungskontext eine Frage in besonderem Fokus: wie verändern Anwendungen, die auf textgenerierender Künstliche Intelligenz beruhen, den Prozess der Texterstellung? Und in der Folge, unsere Einschätzung davon, was ein guter oder schlechter Text ist?

Das ist natürlich insbesondere für Kontexte in Studium und Schule relevant, wo Texte erstellt werden müssen und das eigenständige Verfassen von zum Beispiel wissenschaftlichen Texten sowohl für den Lernprozess als auch für die Notengebung wichtig sind. Es betrifft aber selbstverständlich auch die Schule, wenn es darum geht Projektarbeiten, Aufsätze oder andere Textsorten zu schreiben.
 

Wie also umgehen mit KI-basierter Texterstellung?

Den Einsatz von Künstlicher Intelligenz beim Verfassen von Texten zu verbieten, ist sinnlos. Einerseits weil sich gerade bei den Arbeiten, die nicht vor Ort oder handschriftlich geschrieben werde, Verbote weder prüfen noch durchsetzen lassen. Es gibt einfach keine technische Möglichkeit, den Einsatz von KI bei der Texterstellung zweifelsfrei nachzuweisen. Anderseits weil es einfach wichtig ist, zu lernen KI kritisch und effektiv einzusetzen.
 

Richtiges Zitieren reicht nicht

Im Laufe des Jahres 2023 sind allen Bundesländern Handlungsleitfäden zur Nutzung von textgenerierenden KI Anwendungen erschienen, die auch Vorschläge für die richtige Zitierweise enthalten, wenn eine textgenerierende KI genutzt wurde. In der Regel sollen dabei die Prompts angegeben werden, mit der die KI- Anwendung gesteuert wurde. Dieses Verfahren gerät allerdings schnell an seine Grenzen, denn die Interaktion mit der textgenerierenden KI-Anwendung erzeugt eine verzweigte Sequenz von prompts bzw. längere Chatverläufev. Visuell gut integrieren lässt sich das nicht immer und natürlcih ergibt sich hier die Frage, wer diese Angaben prüfen und beurteilen soll.

Letztendlich basiert das Zitieren aber auf einer falschen Annahme: nämlich darauf, dass ich eine textgenerierende KI auch wie ein Quelle behandeln könnte – denn das ist sie gerade nicht. Anwendungen, die mit textgernerierenden KI arbeiten, produzieren tatsächlich neue Texte – und nicht immer beruhren diese Texte auf tatsächlich existierenden Quellen oder Referenzen.
 

Rahmenbedingungen schaffen Transparenz und helfen bei der kritischen Einordnung

Viel wichtiger ist der bereits oben erwähnte kritische Blick auf die Textproduktion von und mit der KI sowie auch eine klare Haltung dazu, welche Rahmenbedingungen gesetzt werden. Dazu gehört dann auch eine Beschäftigung mit der Frage, wofü sich der Einsatz textgenerierenden Ki überhaupt eignet und wie in der Folge die Ergebnisse umgegangen wird (und wo zum Beispiel eine einfache Übernahme nicht erlaubt ist). Ziel: um eine verantwortungsvolle Nutzung zu ermöglichen und zeitgleich Transparenz für die Schüler:innen zu schaffen.
 

Beispiele für Rahmenbedingungen

Manuel Flick, Lehrer an einem Oberstufenzentrum in Berlin hat auf seinem Blog (https://www.manuelflick.de/blog/projektarbeiten-und-ki-wie-gehen-wir-damit-um) darüber berichtet wie er mit dem Einsatz von KI Tools bei der Texterstellung umgeht. Dabei hat er ein sehr hilfreiches Dokument erarbeitet: die AI Policy.

In diesem Papier werden zunächst grundsätzliche Vereinbarungen über den Einsatz von KI Tools erlaubte Hilfsmittel geschlossen. Gleichzeitig macht er auch ziemlich deutlich, welche Verwendungen nicht zugelassen sind. Nämlich immer dann, wenn der generierte Text komplett übernommen wurde oder klar ist, dass die KI-Anwendung bei der generierten Antwort keine Datenbasis hatte.

Es ist klar, dass die Auflistung von erlaubten und nicht-erlaubten Anwendungen allein nicht ausreicht. Es gehört dazu, solche Vereinbarungen im Unterricht zu besprechen und zu erproben, denn Grenzfälle oder Unklarheiten wird es immer geben. Aber genau diese Begründungen und Gespräche helfen dabei, KI generierte Texte besser und vor allem kritisch einzuordnen und die Grenzen dieser Technik zu erkennen.
 

Ein weiterer Schlüssel: Textproduktion in Zukunft anders gewichten

Schon jetzt ist klar, dass sich durch textgenerierende KI-Tool die Bedeutung und die Gewichtung von digitalen Text ändern muss. Ein Weg kann zum Beispiel sein, dass Reflexion des Prozesses oder der methodischen Arbeit bei der Texterstellung und die individuelle Erfahrung bei der Bewertung eine größere Rolle spielen müssen. Manuel Flick beschreibt das für die Bewertung von Projektarbeiten so:

[…] wir als Projektteam [haben] die Bewertung des Projekts angepasst. Bei der Gesamtbewertung des Projekts wurde der Anteil des methodischen Arbeitens von 5 % auf 15 % erhöht und den Anteil der Abschlusspräsentation inkl. des Fachgesprächs von 15 % auf 50 % angehoben. Der schriftliche Teil der Projektarbeit macht mit 35 % nun einen wesentlich geringeren Teil bei der Bewertung aus.

ai_question_firefly.jpg
© KI-generiertes Bild mit Adobe Firefly