KI im Hörsaal – nicht mehr ob, sondern wie

Von Prof. Dr. Till Krause
Künstliche Intelligenz schreibt Hausarbeiten, beantwortet Prüfungsfragen und strukturiert Argumente. Die Schulen und Universitäten rätseln, wie man das verhindern kann – und stellen dabei oft die falsche Frage. Das sagt Prof. Dr. Till Krause, Professor für Medien und Kommunikation an der Hochschule Landshut.
#KI
© Deagreez/iStock

Im Februar 2026 dachte ich kurz, ich sei in einem Science-Fiction-Film gelandet: Richter am Verwaltungsgericht Kassel mussten über eine Frage urteilen, die vor wenigen Jahren noch nach Fantasie geklungen hätte: Stammt ein Text von einem Menschen – oder wurde er unerlaubterweise von einer Maschine geschrieben? Konkret ging es um eine Bachelorarbeit im Fach Informatik an der Universität Kassel, die von den Prüfern mit „nicht bestanden“ bewertet worden war. Der Grund: schwere Täuschung durch verbotene Nutzung künstlicher Intelligenz. Der Studierende klagte, doch das Durchfallen war rechtens, entschied das Gericht. Bereits 2023 lehnte die TU München einen Bewerber ab, weil sein Essay verdächtig perfekt war. Zu flüssig, zu fehlerfrei, zu ChatGPT.

Der Experte
KI im Hörsaal – nicht mehr ob, sondern wie© Priscillia_Grubo

Prof. Dr. Till Krause ist Professor für Medien und Kommunikation an der Hochschule Landshut und mehrfach preisgekrönter Autor. Als Gründer der Hypeshift Media GmbH berät er Unternehmen und Verlage im Umgang mit künstlicher Intelligenz. In seinen Seminaren üben Studierende, KI-Einsatz transparent zu machen. Einige der Ideen in diesem Text hat er mit dem zuverlässigsten Praktikanten hin- und hergespielt, den er je hatte: dem Chatbot Claude.

Müssen wir Lehrenden uns also künftig verabschieden von Hausarbeiten, Essays und anderen Texten – weil: Schreibt ja eh alles die KI? Fast niemand, der heute studiert, tut dies ohne die Hilfe von künstlicher Intelligenz. Texte zusammenfassen, bei der Recherche helfen, Ideen strukturieren, all das ist längst Alltag. 92 Prozent der britischen Studierenden nutzen laut einer Studie des Higher Education Policy Institute regelmäßig KI-Tools im Studium. Global sind es 86 Prozent.

Worüber es bisher noch kaum verlässliche Untersuchungen gibt: Wie viele Schülerinnen und Schüler oder Studierende lassen die KI gleich komplette Hausarbeiten schreiben? Denn damit sind wir mitten im eigentlichen Problem. Denn eine Seminararbeit ist ja nie nur der Text, der am Ende bewertet wird. Es geht um den Prozess, der zum Text führt: Forschungsfrage finden, Literatur sichten, ein großes Thema in handliche Portionen aufteilen, die sich dann einzeln beantworten lassen. Der Text am Ende ist nur die sprichwörtliche Spitze des Eisbergs. Das Sichtbare, das aus dem Wasser ragt. Was darunter liegt, das Denken, Suchen, Zweifeln, Neu-Denken – das macht die eigentliche Leistung aus.

Wissen ist kein rares Gut mehr

Was aber, wenn wir es im KI-Zeitalter mit neuen Eisbergen zu tun bekommen? Mit Eisbergen, die nur aus der sichtbaren Spitze bestehen? Und für Lehrende stellen sich damit Fragen, die wir uns schon viel früher hätten stellen müssen. Denn unsere Art, Prüfungen durchzuführen, basiert oft noch immer auf der Annahme, dass Wissen ein rares Gut ist. Das war einmal richtig – in einer Zeit, als das Wort „Vorlesung“ noch wörtlich gemeint war. Es gibt ein kleines Gemälde, das diese Situation zeigt, gemalt von Laurentius de Voltolina im 14. Jahrhundert, heute im Berliner Kupferstichkabinett zu sehen. Darauf sieht man eine Szene aus dem Hörsaal, ein Lehrer sitzt auf einem hohen Pult, die Studenten davor – manche aufmerksam, manche tuschelnd, einer eingeschlafen. Der dösende Student aus dieser Zeit könnte heute, hunderte Jahre später, in einem modernen Hörsaal aufwachen – und wüsste vermutlich sofort, wo er ist. So wenig hat sich das Prinzip Hochschule verändert: Vorne steht jemand, hinten hören die Leute (mehr oder weniger) zu. Alles wie immer.

KI im Hörsaal – nicht mehr ob, sondern wie
Dieses Gemälde aus dem 14. Jahrhundert zeigt, dass sich das Prinzip Universität seit hunderten Jahren nicht großartig verändert hat. Vorne steht jemand, hinten hören die Studenten (mehr oder weniger) zu© Wikicommons

Der Unterschied zu damals: Heute haben wir keinen Mangel, sondern einen Überfluss an Informationen – einen Klick entfernt. Und jetzt kommt generative KI, die Wissen nicht nur reproduziert, sondern aufbereitet, strukturiert und in verständliche Sprache übersetzt. In dieser Realität geht es weniger darum, Fakten im Kopf zu haben. Sondern darum, vorhandenes Wissen einzuordnen, zu kuratieren und sinnvoll zu nutzen.

Die naheliegende Reaktion vieler Bildungseinrichtungen: bessere Erkennungstools, die zwischen menschlichem und maschinellem Schreiben unterscheiden. Aber das ist ein Wettrüsten, das Lehrkräfte vermutlich verlieren werden. Mittlerweile gibt es Auftragsarbeiter, die KI-Texte „ent-KI-fizieren“, damit sie menschlicher klingen. Aber werden solche Dienste überhaupt gebraucht? Denn KI-Erkennungssoftware als Aufklärungsinstanz ist notorisch unzuverlässig:

94 Prozent

der KI-Prüfungsantworten werden laut einer britischen Studie nicht erkannt.

Die Universität Kopenhagen hat eine bemerkenswert klare Konsequenz gezogen: Sie verzichtet bewusst auf KI-Detektionstools – zu viele falsche positive Ergebnisse, zu viele zu Unrecht beschuldigte Studierende. Stattdessen werden die Studierenden im Umgang mit KI geschult, um sie als Werkzeug zu nutzen, nicht als Abkürzung. „Die Arbeitgeber erwarten von unseren Absolventen, dass Sie die neuesten Technologien beherrschen,“ sagt Stefan Nordgaard, einer der Verantwortlichen hinter der KI-Strategie der Hochschule. KI ist in offenen Prüfungsformaten grundsätzlich erlaubt, aber mit Deklarationspflicht. Transparenz statt Kontrolle.

Transparenz schützt vor Täuschung

In meinen Seminaren an der Hochschule Landshut gehe ich einen ähnlichen Weg. Wer bei mir eine Hausarbeit einreicht, muss KI-Nutzung genauso kenntlich machen wie die Nutzung von anderen Quellen. Am Ende jeder Arbeit steht ein Anhang, der aufführt, welche KI-Modelle verwendet wurden, welche konkreten Prompts eingegeben wurden, und zu welchem Zweck. Nicht anders als ein Literaturverzeichnis. Das Experiment ist noch nicht abgeschlossen, und wir lernen selbst noch, wie man das sinnvoll bewertet. Aber der Grundgedanke ist klar: Wer transparent macht, wie er für eine wissenschaftliche Arbeit mit KI gearbeitet hat, täuscht nicht.

„Wer bei mir eine Hausarbeit einreicht, muss KI-Nutzung genauso kenntlich machen wie die Nutzung von anderen Quellen.“

© gorodenkoff/iStock

Ähnlich handhaben das auch führende Hochschulen weltweit. Die Universität Oxford verabschiedete im Juli 2025 eine verbindliche Policy für alle Prüfungsleistungen: KI ist erlaubt, wo Lehrende es ausdrücklich gestatten – und muss dann zwingend deklariert werden. Unerlaubte Nutzung gilt als akademisches Fehlverhalten, gleichgestellt mit Plagiieren. Die ETH Zürich formulierte präzise Regeln: Transparenz, Verantwortung, Fairness: Wer KI benutzt, muss angeben, welches Tool, für welchen Teil der Arbeit und in welchem Umfang. Und: Urheberrechtlich geschützte, private oder vertrauliche Inhalte dürfen kommerziellen KI-Systemen grundsätzlich nicht übergeben werden – es sei denn, das ist ausdrücklich erlaubt. Die Frage lautet überall nicht mehr „Hat jemand KI benutzt?“, sondern „Wie – und versteht die Person, was sie tut?“

Denn wer das Denken konsequent auslagert, riskiert etwas, das man schlecht messen, aber gut beobachten kann: den Verlust der eigenen Stimme.

Eine Studie des Max-Planck-Instituts für Bildungsforschung analysierte 740.000 Stunden Material – das Ergebnis: Menschen verwenden zunehmend dieselben Vokabeln wie KI-Systeme. Der Journalist Adrian Lobe nennt das in einem Artikel in der NZZ „McDonaldisierung der Sprache“ und beschreibt, was dabei entsteht: „ KI-isch“, eine weichgespülte, uniforme Sprache, der jede Individualität fehlt. In wissenschaftlichen Abstracts taucht seit 2023 das englische Verb „to delve“ (vertiefen) massiv häufiger auf, ebenso „showcasing“ (präsentieren) oder „notably“ (merklich, insbesondere, vor allem) – typisches ChatGPT-Vokabular, das in echte Forschung sickert.

„War es nicht eigentlich unsere Aufgabe als Lehrende, Studierenden beizubringen, ihre eigene Stimme zu finden? Zu zeigen, wie man durch Nachdenken, Ausprobieren und Kritik zu neuem Wissen kommt? Kein Mensch ist je durch Nicht-Nachdenken schlauer geworden.“

Prof. Dr. Till Krause

Und: Um KI-Texte überhaupt bewerten zu können, braucht man Textkompetenz. Mit der KI werden redaktionelle Fähigkeiten wichtiger, die früher vor allem Journalisten ausübten – Material sichten, einschätzen, redigieren. All das muss heute längst jeder können, um nicht verloren zu gehen in der Flut aus Quatsch, Desinformation, Memes und natürlich jeder Menge toller, wissenschaftlich fundierter Information (die auch dank KI so auffindbar ist wie nie!).

Mündliche Prüfungen werden immer wichtiger

Entscheidend ist die Frage, die sich jede lehrende Person stellen sollte: Was will ich eigentlich vermitteln? Ich beispielsweise könnte in meinem Seminar Medienethik fragen: „Nennen Sie drei Konzepte der Verantwortungsethik.“ Das prüft tendenziell auswendig gelerntes Faktenwissen, das bei Bedarf auch jede KI liefern kann. Lieber mache ich es so: „Hier ist ein konkretes Problem. Wie sollen wir mit KI-generierten Bildern im Journalismus umgehen? Lösen Sie es mit einem ethischen Modell Ihrer Wahl. Lassen Sie mich an Ihrem Denkprozess teilhaben.“ Und dann wird darüber diskutiert.

„Eine der praktischsten Antworten auf die KI-Herausforderung ist dabei gleichzeitig die älteste: das Gespräch, also die mündliche Prüfung. „Schon Sokrates wusste: Wer ein Thema wirklich verstanden hat, zeigt das im Dialog.“

Prof. Dr. Till Krause

Auch in der Arbeitswelt funktioniert ja vieles durch das mündliche Übermitteln von Geschichten. In Echtzeit, ohne Rückgängig-Taste. Mündliche Prüfungsformate an Schulen und Universitäten sollten deshalb gestärkt werden – etwa durch stichprobenartige Verteidigungen schriftlicher Arbeiten oder durch Pitches, die den Grundgedanken auf den Punkt bringen und die auch kritischen Nachfragen standhalten. Ein solcher Vortrag zeigt schnell, ob jemand sein Thema wirklich durchdrungen hat – oder ob da nur ein hübsch formatierter Text war, für den sich niemand Gedanken gemacht hat.

Und doch darf man – bei aller Vorsicht – nicht vergessen, welche Chancen KI bietet. Das Lamento, eine neue Technologie lasse Menschen verdummen, ist inzwischen Folklore. Der Buchdruck sollte das kritische Denken untergraben. Radio die Lesekultur zerstören. Selbst die Schrift galt einst als potenzielle Bedrohung für Gedächtnis und Denkfähigkeit. Und doch lesen wir noch. Denken noch. Schreiben noch. Wer eigene Fähigkeiten mit KI verstärkt, wird im Zweifel bessere Texte schreiben, originellere Ideen haben und klarer denken als jemand, der auf diese Werkzeuge völlig verzichtet.

Ich erkläre das meinen Studierenden als den Sullenberger-Fall. Am 15. Januar 2009 ereignet sich am Himmel von New York beinahe eine Katastrophe. Kurz nach dem Start eines Airbus A320 fliegt ein Schwarm Kanadagänse in beide Triebwerke. Totaler Triebwerksausfall, der Pilot Chesley Sullenberger hat nur wenige Augenblicke, um die Maschine zu retten. Ohne Handbuch, ohne Autopilot. Was er hat: rund 20.000 Flugstunden eigenhändigen Fliegens. Er setzt die Maschine auf dem Hudson River auf, eine sogenannte Notwasserung, ein kompliziertes Manöver, ein Risiko. Alle 155 Menschen an Bord überleben.

Moderne Passagierflugzeuge werden die weitaus größte Zeit des Fluges vom Autopiloten gesteuert. Das ist sinnvoll und sicher. Aber wenn der Autopilot nicht mehr kann, muss ein Mensch das Steuer übernehmen. Und zwar sofort. Aus eigener Kraft. Und das geht nicht, wenn man nie gelernt hat, eigenhändig zu fliegen.

So ist es mit KI im Studium und Schule. Wer das Denken auslagert, ohne je selbst gesucht, gezweifelt, umformuliert zu haben, der sitzt irgendwann vor einem Problem, auf das die KI keine Antwort kennt. Vor dem Schwarm Gänse im Triebwerk. Die Bildungsstätten der Zukunft werden also Orte sein, in denen seltener gefragt wird „Was weißt du?“, und öfter „Was kannst du mit dem, was du weißt, anfangen?“ Ein Ort, an dem man mit künstlicher Intelligenz experimentiert, ihr enormes Potenzial ebenso kennenlernt wie ihre Grenzen. Und am Ende als klügerer Mensch herauskommt.

Wenn Laurentius de Voltolina sein Hörsaal-Bild heute malen würde, sähe es vielleicht anders aus: Der Gelehrte ist nicht mehr allein auf dem Lehrstuhl, sondern im Dialog. Die Studierenden nicht mehr passiv lauschend – oder schlafend –, sondern aktiv mitdenkend. Und irgendwo im Hintergrund, dezent aber präsent: KI als Werkzeug, nicht als Ersatz für eigene Gedanken. So können junge Menschen fit gemacht werden für die neuesten Technologien. Und sind vorbereitet, wenn sie im Job mit einem Problem konfrontiert werden, das sie ohne Hilfe selbstständig und spontan lösen müssen. Auch wenn es vermutlich kein Gänseschwarm sein wird.