(Geschätzte Lesezeit: 4 - 7 Minuten)
KI Nutzung in Prüfungen erlaubt?

KI Nutzung in Prüfungen erlaubt?

Die Regelung der KI Nutzung in Prüfungen erfolgt überwiegend über Prüfungsordnungen, Modulvorgaben und konkrete Hilfsmittelzulassungen.

An vielen Hochschulen und Schulen gilt: Ohne ausdrückliche Zulassung ist der Einsatz generativer KI in Prüfungen als nicht zulässiges Hilfsmittel zu bewerten, mit entsprechenden prüfungsrechtlichen Folgen.

  • Die Zulässigkeit hängt von Prüfungsform, Lernziel und Hilfsmittelregelung ab.
  • Viele Hochschulen verlangen Transparenz, Dokumentation und teils separate Erklärungen bei schriftlichen Arbeiten.
  • Technische „KI Detektion“ gilt häufig als unsicher, deshalb rücken Prüfungsdesign und Dokumentationspflichten in den Mittelpunkt.

Eine unzulässige KI Nutzung kann als Täuschung gewertet werden, auch wenn die Formulierung „KI“ in Regelwerken nicht ausdrücklich genannt ist, sofern die Prüfungsleistung eigenständig zu erbringen ist und Hilfsmittel nicht zugelassen wurden.

Arten von Prüfungen

Arten von Prüfungen an Hochschulen

Mit generativer KI verschiebt sich die Frage von „ob“ zu „unter welchen Bedingungen“ eine eigenständige Leistung noch nachvollziehbar bleibt.

1. Wissenschaftliche Arbeiten (Bachelorarbeit, Hausarbeit, Masterarbeit)

Wissenschaftliche Arbeiten sind meist unbeaufsichtigte schriftliche Prüfungsleistungen. Genau diese Formate stehen besonders im Fokus, weil KI-Werkzeuge Textentwürfe, Strukturvorschläge, Literaturhinweise oder sprachliche Überarbeitungen liefern können.

Hochschulen reagieren darauf mit unterschiedlichen Modellen.

Permissive Rahmung

Generative KI Systeme können bei unbeaufsichtigten schriftlichen Prüfungsleistungen grundsätzlich als Hilfsmittel eingesetzt werden, sofern der Einsatz nicht dem Prüfungszweck entgegensteht. Die Entscheidung liegt bei Prüfenden oder Modulverantwortlichen.

Restriktive Rahmung

Der Einsatz von KI ist prüfungsrechtlich zunächst nicht zulässig, solange keine ausdrückliche Zulassung als Hilfsmittel erfolgt. Bei Zulassung entsteht eine Angabepflicht zur Nutzung, sonst ist die Nutzung unzulässig.

Typische erlaubte Nutzungsszenarien, wenn freigegeben

  • Ideenfindung und Themenabgrenzung, zum Beispiel Vorschläge für Forschungsfragen.
  • Sprachliche Überarbeitung auf Satzebene, sofern dies als nicht sinnverändernde Formulierungsverbesserung eingeordnet wird.
  • Reflexive Nutzung, zum Beispiel KI-Antwort als Gegenposition, die anschließend kritisch geprüft und fachlich belegt wird.

Risiken bei der KI-Nutzung

Generative KI kann Quellen erfinden oder falsche Aussagen formulieren. Dadurch steigt das Risiko fachlicher Fehler, die trotz „guter Sprache“ inhaltlich nicht tragfähig sind. Daraus folgen neue Anforderungen an Quellenprüfung und Nachvollziehbarkeit.

2. Klausuren

Klausuren sind häufig beaufsichtigte Prüfungen mit begrenzter Bearbeitungszeit. In dieser Konstellation steht der Nachweis eigenständiger Kompetenz oft stärker im Vordergrund als die Nutzung externer Hilfsmittel.

Leitlinien empfehlen, KI-Werkzeuge in beaufsichtigten Prüfungen nur dann zuzulassen, wenn die Prüfungsaufgaben nicht primär Wissensabfrage sind und wenn Chancengleichheit gesichert ist, beispielweise durch gleichen Zugang zu Werkzeugen.

KI in Klausuren möglich

  • Transferaufgaben
  • Analyse und Reflexion

KI in Klausuren untersagt

  • Definitionsfragen
  • Rechenwegere
  • Multiple choice

3. Übungen

Übungen reichen von unbenoteten Lernformaten bis zu prüfungsähnlichen Leistungsnachweisen. In Übungen kann KI didaktisch sinnvoll sein, wenn die Bewertung nicht den reinen Output, sondern den Arbeitsprozess untersucht, zum Beispiel:

  • Recherchelogik
  • Begründungsqualität
  • Fehleranalyse

Beispiel:
Übungsaufgabe: KI generiert eine Gliederung. Anschließend wird diese Gliederung anhand eines Kriterienrasters überarbeitet, begründet und mit Quellen belegt. Bewertet wird die Überarbeitung und Begründung, nicht die Rohfassung.

Einsatz von KI in Prüfungen

Einsatz von generativer KI in Prüfungen

Die Hochschulpraxis folgt meist einem Hilfsmittelmodell. Generative KI wird wie ein Hilfsmittel behandelt, dessen Zulassung oder Untersagung von Prüfungszweck, Kompetenzniveau und Prüfungsformat abhängt.

  1. Ohne ausdrückliche Zulassung gilt die Nutzung häufig als nicht erlaubtes Hilfsmittel.
  2. Bei Zulassung entstehen Pflichten zur Transparenz, teilweise mit Dokumentation, Erklärungstexten oder Nachweisen, welche Tools in welchem Umfang genutzt wurden.
  3. Nachweisbarkeit ist technisch begrenzt, weshalb Prüfungsdesign, Aufgabenformulierung und Prozessdokumentation an Bedeutung gewinnen.
Prüfungsform Regeln Beispiel für zulässige Nutzung Täuschungsbereich
Wissenschaftliche Arbeiten KI oft im Rahmen erlaubt, aber dokumentationspflichtig KI liefert Formulierungsvorschläge, anschließend fachlich belegt und offengelegt KI erstellt argumentativen Kern, ohne Kennzeichnung
Klausuren KI nur selten, eher bei Transferaufgaben KI Antwort wird kritisch geprüft und verbessert KI ersetzt Wissensabfrage oder Lösungsweg
Übungen KI als Lernwerkzeug häufig sinnvoll Prozess und Reflexion werden bewertet Abgabe als eigene Leistung ohne Prozessnachweis

Hochschulen verlangen sehr häufig eine transparente Dokumentation, wenn KI bei einer Prüfung eingesetzt wurde. Hierzu zählen:

Tool Angabe: Name des KI Werkzeugs und Version, soweit bekannt.

Einsatzbereich: wofür KI genutzt wurde, zum Beispiel Gliederung, Sprache, Ideensammlung.

Umfang: kurze Beschreibung, ob einzelne Passagen, vollständige Entwürfe oder nur Korrekturen betroffen sind.

Eigenleistung: Beschreibung, welche fachlichen Schritte eigenständig erfolgten, zum Beispiel Literaturauswahl, Argumentationsaufbau, Ergebnisinterpretation.

Folgen von KI

Welche Folgen hat KI auf Hochschul-Prüfungen?

Generative KI verändert weniger die Existenz von Prüfungen als diese Logik der Leistungsbewertung. Der Schwerpunkt verschiebt sich von reiner Wissenswiedergabe hin zu nachvollziehbarer Eigenleistung. Diese Eigenleistung wird entweder über das Prüfungsdesign sichtbar oder über einen dokumentierten Arbeitsprozess.

Folgen für Studierende

1. Eigenleistung muss belegbar werden

Viele Prüfungsformate bewerten nicht nur das Endprodukt, sondern auch die fachliche Herleitung. Sobald KI im Spiel ist, entsteht ein zusätzlicher Anspruch: Es muss erkennbar bleiben, welche Denk- und Arbeitsleistung eigenständig erfolgt ist.

Lernbeispiel
Eine Hausarbeit enthält eine besonders „runde“ Argumentationslinie, jedoch ohne belastbare Quellenführung. In dieser Konstellation steigt das Risiko, dass die Leistung als nicht eigenständig bewertet wird, auch wenn keine Täuschungsabsicht vorliegt. Eine saubere Herleitung über Literatur, Zwischenergebnisse und Begründungen reduziert dieses Risiko.

2. Dokumentationspflicht wird zum Sicherheitsnetz

Wenn KI als Hilfsmittel zugelassen ist, verlangen viele Hochschulregelungen Transparenz, etwa über Tool, Umfang und Zweck der Nutzung. Ohne Dokumentation entsteht schnell eine Grauzone, die prüfungsrechtlich nachteilig sein kann.

Praxisnaher Standard, der in vielen Kontexten akzeptiert wird

  • Tool und Einsatzbereich benennen, zum Beispiel Ideensammlung, Sprachüberarbeitung, Strukturvorschläge.
  • Umfang knapp einordnen, zum Beispiel einzelne Absätze oder nur Formulierungsvarianten.
  • Eigenständige Schritte sichtbar machen, zum Beispiel Literaturauswahl, Argumentation, Ergebnisinterpretation.

3. Quellenprüfung wird anspruchsvoller

KI kann überzeugend formulieren und gleichzeitig sachlich falsch liegen. Zudem können Quellenangaben erfunden oder ungenau sein. Daraus folgt eine Pflicht zur strengen Prüfung jeder Aussage, die später als wissenschaftliche Begründung dienen soll.

4. Konkrete Lernregel

Jede zentrale Behauptung braucht eine überprüfbare Quelle. Jede Quelle braucht einen echten Fundort. Ohne diese Kette entsteht ein inhaltliches Risiko, auch wenn die Sprache hochwertig wirkt.

5. Datenschutz und Rechte werden relevanter

Texte mit personenbezogenen Daten oder fremde Manuskripte sollten nicht in KI Systeme übertragen werden, wenn keine Rechte oder Einwilligungen vorliegen. Diese Anforderung betrifft insbesondere Praxisberichte, Interviews, Fallvignetten und unpublizierte Materialien.

Folgen für Dozierende und die Hochschule

1. Prüfungsdesign wird zur Hauptsteuerung

Technische KI Erkennung gilt als begrenzt zuverlässig. Deshalb rückt die Aufgabenlogik in den Vordergrund. Prüfungen werden dann robuster, wenn diese Transfer, Begründung und Reflexion untersuchen, statt reproduzierbares Wissen abzufragen.

Didaktisches Beispiel
Statt „Definition erklären“ wird ein KI Output vorgegeben. Anschließend sollen Fehler identifiziert, fachlich korrigiert und mit Literatur begründet werden. Bewertet wird diese Korrekturleistung und Begründungstiefe.

2. Klare Regeln reduzieren Konflikte

Unklare Vorgaben erzeugen Unsicherheit auf beiden Seiten. Deshalb brauchen Modulbeschreibungen oder Aufgabenstellungen klare Aussagen, ob KI erlaubt ist, wofür diese erlaubt ist und welche Transparenz erwartet wird.

Formulierungsbausteine für Prüfungsaufgaben

  • KI Nutzung ist zulässig für Sprache und Struktur, nicht zulässig für inhaltliche Argumentation und Ergebnisbildung.
  • KI Nutzung ist zulässig, sofern eine Nutzungsdokumentation beigefügt ist.
  • KI Nutzung ist nicht zulässig, da diese Prüfung die eigenständige Problemlösung ohne externe Hilfsmittel untersucht.

3. Bewertungskriterien müssen Prozess und Eigenanteil abbilden

Wenn KI zugelassen wird, verschiebt sich die Bewertung. Neben Ergebnisqualität werden Nachvollziehbarkeit, Quellenarbeit und argumentative Konsistenz wichtiger. Diese Kriterien sind auch ohne „Detektion“ prüfbar.

Ziel der Prüfung Robust gegen KI durch Bewertungsfokus
Wissen prüfen Beaufsichtigung, begrenzte Hilfsmittel Korrektheit, Zeitmanagement
Transfer prüfen fallbasierte Aufgaben, offene Daten Begründung, Anwendung, Abwägung
Wissenschaftlichkeit prüfen Dokumentationspflicht, Kolloquium, Verteidigung Quellenarbeit, Argumentation, Ergebnislogik

4. Kombinationen aus schriftlich und mündlich gewinnen an Bedeutung

Bei längeren schriftlichen Arbeiten können kurze mündliche Elemente die Eigenleistung absichern, etwa Rückfragen zur Methode, zu Quellenentscheidungen oder zu zentralen Ergebnissen. Diese Praxis wird als praxistaugliche Reaktion auf KI diskutiert.

5. Prüfungsrechtliche Einordnung bleibt entscheidend

Wenn Eigenständigkeit gefordert ist und KI nicht zugelassen wurde, kann eine Nutzung als Täuschung bewertet werden. Ein aktuelles Beispiel aus dem Bildungsbereich zeigt, dass Gerichte diese Logik über die Hilfsmittelregelung und die Erwartung einer eigenen Leistung nachvollziehen.

Handlungsrahmen für Hochschulen

  • Einheitliche Leitlinien pro Fakultät mit Mindeststandards zur Dokumentation.
  • Aufgabentypen definieren, die Transfer und Reflexion untersuchen.
  • Schulungen für Prüfende zur rechtssicheren Formulierung von Hilfsmittelregeln.
Icon
Hol dir 10 % Rabatt auf deinen Plagiats- & KI-Scan!