Egal, ob in der Schule oder in der akademischen Lehre – die Frage nach der Einhegung und Kontrolle von ChatGPT-Nutzung wiederholt sich. Für die akademische Lehre ist sie aber falsch gestellt, denn sie dreht sich nur um ein Symptom. Und nein: nicht das Symptom, dass Studierende immer schon mit der je zur Verfügung stehenden Technik geschummelt haben. Und Lehrende auf ihre Art ja auch.

Die Frage nach der Einbindung oder dem Verbot von diversen KI geht davon aus, dass das Fach bzw. die fachlichen Anforderungen und wissenschaftlichen Praktiken stabil bleiben. Darum müssen wir am Ende der Lehre abprüfen, ob Studierende wirklich „eigene“ Leistungen erbringen, wirklich „selbst“ denken und – wenn überhaupt – KI wohldosiert und kritisch-reflektiert für alte Prüfungsfragen und -zwecke nutzen. Als gehe es darum, Lehre und Prüfung und damit auch unser Profil und Selbstverständnis als graduierte Geisteswissenschaftler:innen stabil zu halten.

Aber es ist nicht stabil. Die wissenschaftliche Praxis verändert sich durch und mit KI. Und akademische Lehre wird aus der wissenschaftlichen Fachpraxis abgeleitet. Wenn wir uns also didaktische und prüfungsbezogene Fragen stellen, ist es zu kurz gedacht, ChatGPT einhegen zu wollen. Die Frage ist: Wie verändert KI unsere wissenschaftliche Praxis, wie verändern wir in der Folge das WAS, WIE und WARUM der Lehre, und was sind dann die passenden Prüfungsformate?

Natürlich nutzen auch wir Lehrenden KI, ohne es groß zu thematisieren oder in jedem Fall zu reflektieren, für Recherche, Vorbereitung von Lehrveranstaltungen, für Projektanträge, zum Schreiben in unterschiedlichsten Formen. Für mich ist ChatGPT z.B. ein wunderbarer Gesprächspartner, der meine Produktivität erhöht, weil ich über mich weiß, dass ich viele Gedanken am besten dialogisch entwickle.
Aber das sind Banalitäten.

KI hat unsere Fächer in den letzten Jahren vielfältig bereichert:

  • OCR: Optische Zeichenerkennung – im Rahmen der Digitalisierung historischer Dokumente, sodass wir sie durchsuchen können
  • Historische Rekonstruktionen mittels KI-gestützter Bildauswertung
  • Automatisierte Extraktion von Bedeutungsstrukturen aus sehr langen Texten oder umfangreichen Textcorpora, Mustererkennung
  • Kartierung relevanter Zusammenhänge in großen Datenmengen, Verknüpfung von Informationen über verschiedene Quellen hinweg, auch crossmedial – Visualisierung ganzer Forschungslandschaften, argumentativer Strukturen oder Narrationen
  • Vorhersage fehlender Informationen in unvollständigen Datensätzen oder Manuskripten
  • Interdisziplinäre Forschungsfragen entstehen an der Schnittstelle von Geistes-, Technik- und Naturwissenschaften samt Anwendungsfragen, etwa in der Konservierung, Kommunikation – und auch Didaktik.

Bestimmt könnt Ihr aus Eurer jeweiligen Fachpraxis weitere Beispiele anführen. Was wir hier sehen, ist aber für die fachliche Praxis bedeutsam und eine Verschiebung: das, was vor ein paar Jahren noch die Digital Humanities waren, ein optionaler On-Top-Masterstudiengang, sind nun Grundwissenschaften.
Quellenkunde entwickelt sich weiter zu Data Literacy.
Aus dem klassischen wissenschaftlichen Schreiben wird kuratierende Arbeit.
Die handwerklichen Grundlagen – Paläografie, Epigrafik usw. – funktionieren nur noch Hand in Hand mit Tool Literacy, also dem Auswählen und Einsetzen geeigneter technischer Unterstützung.

Wenn wir akademische Lehre ernst nehmen als Lehre aus der und in der fachlichen Praxis, dann stellt sich eine einfache Folgefrage:

Warum beäugen wir KI-Nutzung durch Studierende auf Regelverstöße hin?

Drei unbequeme Antwortvorschläge:

  1. Die Lehrperson arbeitet in ihrer fachlichen Praxis tatsächlich ohne KI. Dann ist das Reglementieren und der Fokus auf LLM und andere Alltagstools authentisch und in einer stabilen Tradition. Aber fachlich entsteht ein Rückstand, und dem Insistieren auf fachliche Integrität bricht die Grundlage weg.
  2. Die Lehrperson arbeitet ihrerseits durchaus mit KI, aber teilt diese Praxis nicht mit den Studierenden. Dann entsteht in der akademischen Lehre pädagogische Simulation, die akademische Sozialisation verhindert.
  3. Es geht um Macht und Autorität, nicht um Entwicklung. Wer neugierig, wach und experimentierfreudig ist, kann mit Unterstützung von KI (und gerade auch der Kombination unterschiedlicher KI-Tools) sehr schnell fachliche Tiefe entwickeln. KI ermöglicht Sprünge, vielleicht schneller, als die klassische Lehre vorsieht, vielleicht auch schneller, als die Lehrperson führen kann. KI in der Lehre fordert aufgrund der möglichen exponentiellen Lernkurven von Lehrenden sowohl neue Haltungen als auch neue Kompetenzen.
    Ich erlebe das selbst mitunter als erheblich verunsichernd; nicht, weil plötzlich Studierende mehr wissen und schneller kombinieren als ich selbst (das kratzt allenfalls an meiner Eitelkeit), sondern weil ich unsicher bin, ob ich ihren Lernweg dann noch kompetent gestalten kann. Ich muss mich immer wieder fragen: Will ich wirklich die fachlich-persönliche Entwicklung meiner Studierenden fördern, oder will ich vor allem meine eigene Autorität und Rolle absichern? KI beschert mir also ganz andere Integritäts-Fragen als die nach Schummelei. 😊

Wenn wir anerkennen, dass sich unsere wissenschaftliche Praxis mit und durch KI verändert hat, dann steht außer Frage, dass sich Prüfungen verändern, und zwar nicht auf der Ebene von Micromanagement (ChatGPT – verboten, DeepL – erlaubt, oder so). Wir müssen Prüfungen wieder in den Fachkontext hineindenken und fragen: Was zählt denn in der wissenschaftlichen Praxis?

Im Grundstudium könnte das heißen:

  • Die gezielte Schulung in den neuen Grundwissenschaften: Tool Literacy, Prompt Literacy, Data Literacy, kuratorisches Denken. Und dann: Prüfungen, in denen das souveräne Arbeiten mit fachlich relevanten Tools gezeigt werden muss. Nicht in der Anwendung von ChatGPT zur Textgenerierung, sondern im Analyse- und Strukturierungsvermögen, im kritischen Umgang mit Quellen, im Reflektieren epistemischer Grenzen von Systemen, in der Notwendigkeit zur inter- und transdisziplinären Zusammenarbeit.
  • Reflexive Formate: Nein, keine Beichte, wo man Perplexity zur Recherche verwendet hat, und auch keine Selbstanzeige, den ersten Satz eben doch mit ChatGPT erzeugt zu haben. Sondern so, wie Naturwissenschaftler:innen ihren Versuchsaufbau beschreiben, so beschreiben Geisteswissenschaftler:innen künftig auch ihr Arbeits- udn Forschungsdesign mit KI-Tools:
    Welche fachspezifischen Tools wurden wie genutzt, warum, mit welchem Erkenntnisgewinn und welchen blinden Flecken?
    Es geht um eine wissenschaftliche Praxis, die ernst nimmt, wie Wissen entsteht und wie es durch die Wahl von Tools, Trainingsdaten und Auswertungsstrategien beeinflusst wird. Was im Übrigen bezüglich der Integrität vollkommen konventionell ist.

In höheren Semestern:

  • Projektorientierte Prüfungsformate, in denen KI als Teil des wissenschaftlichen Arbeitens eingesetzt wird – so selbstverständlich wie früher Konkordanzbände, Suchmaschinen oder Zitationssoftware. Dabei werden sie eigenständig ausgewählt: „Ich arbeite mit maschinengestützter Mustererkennung“, „Ich vergleiche mit einer LLM-generierten Gegenhypothese“ oder „Ich nutze Mapping-Tools zur Darstellung der Theorielandschaft“.

KI ist nicht Prüfungsgegnerin, sondern selbstverständlicher Teil der Methode, so wie früher eine Konkordanz, eine Statistik, eine Grafik. Natürlich wird die Nutzung transparent gemacht; aber nicht zur Kontrolle, sondern zur Erkenntnis.

Die Frage nach dem Schummeln mit KI reagiert auf den Lehralltag, und Leitlinien zum KI-Einsatz in Prüfungsleistungen versuchen, Lehrenden diesen Alltag zu erleichtern. Aber statt allzu viel Zeit und Energie in diese Fragen zu stecken, wäre es wichtiger, die Veränderung in unserer fachlichen Praxis weiterzudenken. Wenn wir das tun, wird klar

  • wie wir akademische Lehre verstehen und wie unsere Haltung als Lehrperson ist,
  • wie unsere eigene fachliche Verortung ist, ob wir möglicherweise Aufholbedarf haben,
  • was wir lehren – nämlich auch den Einsatz von fachspezifischen Tools als Teil der Grundwissenschaftne
  • wohin wir die Studierenden führen wollen,
  • und in der Folge: welche Prüfungen dazu passen.

Vielleicht trage ich Eulen nach Athen. Vielleicht machen es viele von Euch längst so.
Aber mein Eindruck ist, dass über Prüfungen überwiegend so gesprochen wird, als hätte sich das Fach nicht verändert, nur das Ungemach von ChatGPT sei über uns gekommen. Und mein Eindruck ist auch, dass in den hochschuldidaktischen Weiterbildungen viel mehr über einen kontrollierten Einsatz von Alltags-KI und KI-gestützte Evaluation gesprochen wird als über hochschulfachdidaktische Fragen der wissenschaftlichen Praxis mit KI.
Aber wenn es so ist, dass dieser Text längst gängige Praktiken beschreibt, dann fehlt uns der Austausch und die gemeinsame Vergewisserung darüber, was heute wissenschaftliche Praxis ist – und wie wir sie in die Lehre mitnehmen.