Fast alle Studenten lassen sich bei schriftlichen Arbeiten von künstlicher Intelligenz helfen. Manche halten das für Betrug, andere für die Zukunft der Bildung.
Wer eine Vorstellung davon bekommen will, welch dramatische Umwälzungen sich derzeit an Universitäten in der ganzen Welt abspielen, muss nach Nairobi gehen. Die kenyanische Hauptstadt gilt als globales Zentrum der akademischen Auftragsmogelei. Für ein paar hundert Dollar schreiben dort Ghostwriter Masterarbeiten oder absolvieren Online-Kurse für zahlungskräftige Studenten in reichen Ländern.
Das Internet brachte arbeitsscheue oder überforderte Studenten aus dem Norden mit jungen Genies aus dem Süden zusammen. Über Websites wie essayshark.com, eine Art Uber für Seminararbeiten, wird einem in intellektuellen Notfällen sieben Tage in der Woche, 24 Stunden am Tag, geholfen – jede Manuskriptseite kostet 13 Dollar 40.
Die Geschichte einer glücklichen Spinne
Doch seit dem 30. November 2022 ist alles anders. An diesem Tag wurde «der Betrug demokratisiert», wie es der englische Bildungsforscher Mike Sharples von der britischen Open University nennt: An diesem Tag machte das amerikanische Unternehmen Open AI seine künstliche Intelligenz Chat-GPT kostenlos im Internet zugänglich.
Sharples befasst sich schon seit vierzig Jahren mit künstlicher Intelligenz (KI) in der Bildung. «Ich war wahrscheinlich die erste Person, die in diesem Gebiet mit texterzeugender künstlicher Intelligenz gearbeitet hat.» Doch die Systeme waren über Jahrzehnte unbrauchbar. Auf einigen Spezialgebieten wurden wohl Fortschritte erzielt, aber ein auch nur annähernd natürliches Sprachverständnis schien ausser Reichweite.
Dass sich etwas änderte, merkte Sharples, als er vor zwei Jahren exklusiven Zugang zu GPT-2 bekam, dem Vorläufer von Chat-GPT. Damals gab er der Maschine den Auftrag, eine Kindergeschichte über eine glückliche Spinne zu schreiben. Tatsächlich kam eine passable Erzählung zurück.
«Was mich am meisten erstaunte, war, dass die Spinne sprechen konnte», erinnert sich Sharples. Andere Anwender hätten über dieses Detail hinweggeschaut, doch dem Bildungsforscher war klar, dass er eben Zeuge einer geistigen Grosstat geworden war. «Ich konnte mir einfach nicht vorstellen, wie eine künstliche Intelligenz, die nicht für genau diese Aufgabe geschaffen wurde, wissen konnte, dass Spinnen in Kindergeschichten sprechen können.»
Als ein Jahr später Chat-GPT über die Welt kam, brach der Markt für die kenyanischen Studienhelfer zusammen. Warum teures Geld ausgeben, wenn eine Maschine gratis ähnliche Resultate liefert? Die Qualität der kenyanischen Autoren erreichte Chat-GPT zwar nicht auf Anhieb. Aber ihren Auftraggebern ging es meistens ohnehin nur darum, nicht durchzufallen.
Staunen am Bildschirm
Chat-GPT bestand bald die Schlussprüfung in Verfassungsrecht an der University of Minnesota Law School und die medizinische Zulassungsprüfung der USA. Zudem rühmten sich Studenten auf X (dem früheren Twitter), dass ihre innerhalb von wenigen Tagen mithilfe von künstlicher Intelligenz verfassten Bachelor- und Masterarbeiten angenommen und zuweilen gut benotet worden seien.
Wer spracherzeugende künstliche Intelligenzen zum ersten Mal benutzt, kommt aus dem Staunen nicht mehr heraus. Sie beantworten Fragen zu fast allem, und das erst noch eloquent. Sie schlagen Strukturen für wissenschaftliche Arbeiten vor und schreiben längere Absätze oder auch einmal ein paar Seiten am Stück zu vorgegebenen Themen.
Eine ganze Arbeit mit Quellenangaben liefert Chat-GPT zwar nicht, und die Maschine phantasiert hin und wieder etwas zusammen. Dafür kann man sie ohne Spezialwissen bedienen. Man fragt einfach in ganz normaler Sprache:
Und Chat-GPT schreibt zurück:
Betrug ist normal geworden
In der Fähigkeit, auf Befehl scharfsinnige und kreative Texte zu beliebigen, auch eng gefassten Themen zu verfassen, liegt denn auch die Sprengkraft der künstlichen Intelligenz für die höhere Bildung. Seit 200 Jahren ist die selbständig erarbeitete schriftliche Arbeit in vielen Fächern eine der wichtigsten Säulen des Studiums. Mit der Einführung des wissenschaftlichen Seminars Anfang des 19. Jahrhunderts in Deutschland wurde auch die Seminararbeit erfunden, in der sich die Studenten mit einem Thema befassen und es dann im Plenum diskutieren.
Heute sei das der Standard, sagt Sharples: «Die einfachste Option: Man legt einen Aufsatz mit 5000 Wörtern fest, man gibt einen Titel vor, man hat ein Benotungsschema: Die Universitäten wissen, wie man das macht.» Die Karriere der schriftlichen Arbeit verlief so steil, dass sie heute selbst in der Ausbildung zu Berufen eingefordert wird, in denen das Schreiben später gar keine Rolle spielt.
Zwar gab es schon immer Kritik an den Texten als Eckpfeiler eines Studiums. Wer aus einer gebildeten Familie kam, konnte sich dort Hilfe holen. Oder man kaufte sich auf einer Online-Börse eine Arbeit zum gleichen Thema von einem Studenten einer anderen Universität. Oder man bezahlte einen Ghostwriter in Kenya. Der Aufwand und das Risiko waren aber in jedem Fall erheblich: Entweder mussten Drittpersonen beträchtliche Zeit investieren, oder es floss Geld an professionelle Autoren, die damit zu Mitwissern wurden. Im schlechtesten Fall flog der Betrug auf.
Mit Chat-GPT ist nun alles anders. Gemütlich am Laptop ein paar Fragen in ein Suchfeld eines Browser-Fensters zu tippen und die Antworten zu einem flüssigen Text zu arrangieren, fühlt sich weder anrüchig noch kriminell an. Der Betrug wurde nicht nur demokratisiert, sondern auch normalisiert, und zwar in einer noch nie da gewesenen Geschwindigkeit.
Bei anderen wichtigen Technologien wie dem Internet oder dem Handy geschahen die Veränderungen langsamer: Die Glasfaserkabel für die schnelle Datenübertragung mussten erst gelegt werden, die Handys musste jemand bauen, verschiffen, verkaufen. Doch für die spracherzeugenden künstlichen Intelligenzen war der Boden schon bereitet. Sie erreichten uns so plötzlich wie ein Erdbeben.
KI-Detektoren sind keine Lösung
Der Unglaube über ihre stupenden Fähigkeiten wurde an vielen Bildungsinstituten schnell von Panik abgelöst. Die Universität Sciences Po in Paris verbot die Benutzung von künstlicher Intelligenz, das Schulamt der Stadt New York blockierte den Zugang zu Chat-GPT im Schulnetz. «Doch der Damm war gebrochen, jetzt mussten wir lernen, zu schwimmen», sagt Lukas Löffel, Leiter der Abteilung Digitale Lehre und Forschung an der Universität Zürich.
Schnell wurde klar, dass Verbote kaum Wirkung zeigen würden. Von den angefragten Schweizer Universitäten untersagt heute keine die Anwendung von KI. «Verbote von bereits genutzten Hilfsmitteln sind weder zweckmässig noch durchsetzbar», schreibt zum Beispiel die Medienstelle der Universität Bern.
Durchsetzbar sind sie nicht, weil es anders als bei Plagiaten keine Möglichkeit gibt, zweifelsfrei zu erkennen, ob ein Text aus der Maschine kommt. Was Chat-GPT liefert, ist nicht einfach ein aus bestehenden Textfragmenten zusammengestückeltes Traktat, sondern ein einzigartiges Original, das in diesem Moment formuliert wurde.
Sogenannte KI-Detektoren zur Erkennung von künstlich generiertem Text spucken nur eine Wahrscheinlichkeit aus, mit der ein Text von einer KI stammt. Jemanden aufgrund einer solchen Prozentzahl zu verdächtigen, von der man noch nicht einmal weiss, wie sie zustande kommt, ist heikel. Zumal eine kürzlich veröffentlichte Studie zeigt: KI-Detektoren sprechen vermehrt auf Texte an, die von Studenten stammen, die nicht in ihrer Muttersprache schreiben.
Der Einsatz von KI-Detektoren wird an Schweizer Hochschulen unterschiedlich beurteilt. Während sie an der Pädagogischen Hochschule Bern im Moment überhaupt nicht verwendet werden, stellt die Universität Luzern eine solche Software zur Verfügung. Die Universität St. Gallen benutzt eine Plagiatsprüfungssoftware mit integriertem KI-Scanner, die KI-generierte Texte identifizieren könne – mit den erwähnten Schwächen.
Mike Sharples hält den Kampf gegen KI-Texte mit technischen Mitteln für vergeblich: «Jedes hinreichend leistungsfähige Programm, das feststellen kann, ob ein Text von einem Menschen oder einer Maschine geschrieben wurde, kann von einem ebenso leistungsfähigen KI-Textgenerator in einem sinnlosen rechnerischen Wettrüsten überlistet werden.» Bereits gibt es im Internet Werkzeuge, die Texte detektionssicher machen sollen.
Die Universitäten setzen auf eine Mischung aus Vorschriften, Transparenz und Autonomie. So müssen wie an der Universität St. Gallen Studentinnen und Studenten an allen Hochschulen Eigenständigkeitserklärungen unterschreiben: Alle Hilfsmittel und Quellen müssen deklariert werden. An der Universität Luzern bestätigt man, «keinen KI-generierten Text wortwörtlich übernommen zu haben». Andere Hochschulen verlangen beim Einsatz einer KI den Eingabetext sowie den Original-Output im Anhang. Überprüfen, ob die Regeln befolgt werden, lässt sich nicht.
Studenten sind viel schneller als Dozenten
Die grundsätzlich offene Haltung der Universitäten gegenüber dem Einsatz von künstlicher Intelligenz ist nicht das Resultat einer grossen Begeisterung für die neue Technik. Die Hochschulen schicken sich einfach ins Unvermeidliche. Hätte man vor Chat-GPT eine Professorin gefragt, ob sich ihre Studenten von einem Universalgelehrten begleiten lassen dürfen, der ihnen hier eine Idee zuflüstert und da eine kleine Arbeit schreibt, wäre die Antwort selbstverständlich ein Nein gewesen. Genau das macht heute die KI.
Viele Universitäten ermuntern ihre Dozenten, mit künstlicher Intelligenz zu experimentieren und die neue Technologie zum Teil ihres Unterrichts zu machen. Die Universität Zürich etwa organisiert Workshops für ihre Dozenten. Dort lernen sie, Leistungsnachweise im Hinblick auf die neuen technologischen Möglichkeiten zu gestalten und künstliche Intelligenz in den Unterricht zu integrieren. Doch wie nicht anders zu erwarten, experimentiert die Studentenschaft erheblich schneller als die Dozenten.
«Es sind die Studenten, die diese Revolution anführen», sagt Mike Sharples. «Die Universitäten müssen ständig aufholen.» Kürzlich hielt er ein Referat an einer Universität. Von den sechzig anwesenden Lehrpersonen hatten gerade drei schon einmal Chat-GPT benutzt – «verglichen mit 70 oder 75 Prozent der Studenten». Eine Studie an der Zürcher Hochschule für Angewandte Wissenschaften vom vergangenen Oktober ergab, dass sich rund zwei Drittel der befragten Studentinnen und Studenten bei ihren Bachelorarbeiten von einer KI unterstützen liessen. Die meisten davon nutzten Chat-GPT. Ein Jahr nach der Lancierung des Tools gehört zur Minderheit, wer keine KI einsetzt.
«Ich frage Chat-GPT, anstatt selber zu überlegen»
Eine informelle Umfrage unter Studentinnen und Studenten zeigt, dass sich die Fachgebiete in zwei Gruppen teilen: auf der einen Seite Wissenschaften wie Biologie, Physik, Psychologie oder auch die Technikwissenschaften, die Sprache brauchen, um ein Experiment, ein Gerät oder eine Erhebung zu beschreiben. Dort ist der Einsatz von sprachgenerierender KI oft unproblematisch, da ein Text ein in der Realität existierendes Resultat der Forschung darstellt. Wenn der Roboter gehen kann oder das Gen gefunden wurde, ist es nebensächlich, ob man bei ihrer Beschreibung eine künstliche Intelligenz verwendet.
Ein Volkswirtschaftsstudent, mit dem die NZZ gesprochen hat, benutzt KI nicht oft. «Das Studium ist sehr mathematiklastig und der Zeitdruck bei Prüfungen hoch», da sei eine KI selten nützlich. Aber manchmal helfe es doch, den ganzen Text einer Aufgabe in das Eingabefeld einer KI zu kopieren. Am nützlichsten sei die KI, um schnell Ideen für einen Soziologieaufsatz zu bekommen. In der Mühelosigkeit der Anwendung sieht der junge Mann denn auch ein Problem der neuen Technologie: «Die Kreativität, um nach Lösungen zu suchen, geht verloren. Ich frage einfach schnell Chat-GPT, anstatt selber zu überlegen.»
Auf der anderen Seite stehen Gebiete wie Geschichte, Politologie, Pädagogik oder eben Soziologie: Forschungsrichtungen, in denen häufig aus alten Texten neue Texte fabriziert werden. Dort ist der Text selber oft das Endprodukt der Wissenschaft. Deshalb verwischen die Grenzen zwischen sinnvollem und fragwürdigem Einsatz von KI. Das zeigt auch die Tatsache, dass die angefragten Personen anonym bleiben wollen.
Eine Studentin der Politikwissenschaften sagt: «Manchmal muss man sich schon an der Nase nehmen und sagen: ‹Jetzt arbeitest du mal wieder ohne KI.›» Bei kleineren Arbeiten hat sie KI schon «intensiv» benutzt: Sie hat sich Absätze schreiben lassen und diese dann zusammenmontiert. Um die Spuren zu verwischen, liess die Studentin das Resultat von einer anderen KI auf Englisch und wieder zurück auf Deutsch übersetzen. «Ich bin damit immer durchgekommen.»
Manchmal dient Chat-GPT ihr auch als Tutor, um zu überprüfen, ob sie etwas richtig verstanden hat. Besonders oft benutzt sie updf.com. Für neun Euro pro Monat erlaubt dieses Online-Werkzeug, Texte als PDF hochzuladen und dann Fragen zu stellen: «Was ist die Hauptaussage auf Seite vier?», «Welche Fragen verbinden die drei von mir hochgeladenen Arbeiten?» oder einfach «Fasse den Artikel auf einer Seite zusammen!»
«Für eine Seminardiskussion reicht das aus», sagt die Studentin. Das spart einerseits enorm Zeit, andererseits befürchten Studenten, ins Hintertreffen zu geraten, wenn sie KI nicht benutzen. Mike Sharples sagt: «Viele Studenten wollen nicht schummeln, aber wenn alle anderen schummeln, verpassen sie den Anschluss, wenn sie es nicht auch tun.»
Das macht es schwer, den Versprechungen von Werkzeugen wie PerfectEssayWriter.ai zu widerstehen. Dieser automatisierte Aufsatzschreiber verspricht eine Lösung für alle «spezifischen Probleme beim Schreiben». Die Struktur der Arbeit erzeugt der «Essay Outliner», die These formuliert der «Thesis Statement Generator», das Schreiben übernimmt der «AI Powered Essay Writer», und allfällige Plagiate bringt das «Paraphrasing Tool» zum Verschwinden. Und selbst wenn man noch nicht einmal weiss, worüber man schreiben will, gibt es eine Lösung: den «Essay Topic Generator».
«Niemand lernt, niemand profitiert»
Die Universitäten stehen vor einem Dilemma. Einerseits gehört die texterzeugende künstliche Intelligenz zu den Werkzeugen, die ihren Abgängern in ihrem Berufsleben zur Verfügung stehen wird. Also müssen sie in der Ausbildung den Umgang damit lernen. Andererseits liegen Denken und Formulieren so nahe zusammen, dass das Erste Schaden nehmen könnte, wenn man das Zweite nicht mehr pflegt.
«Die Arbeit an der Sprache ist Arbeit am Gedanken», hat Friedrich Dürrenmatt einmal gesagt. Heisst das, die Gedanken werden schlechter, wenn man das Ringen um Worte an den Computer delegiert?
Vielleicht hat die selbständig verfasste schriftliche Arbeit als Übungsstück und Leistungskontrolle in unserem Bildungssystem ihr unnatürliches Ende erreicht. «Die Studenten werden KI einsetzen, um Aufgaben zu schreiben. Die Professoren werden KI einsetzen, um sie zu bewerten. Niemand lernt, niemand profitiert», sagt Mike Sharples. «Wenn es jemals eine Zeit gab, die Bewertung zu überdenken, dann ist es jetzt.»
Was immer an die Stelle des wissenschaftlichen Aufsatzes tritt – engmaschig betreute Projektarbeiten, persönliche Reflexionen, beaufsichtigte Prüfungen auf Papier –, es wird einen höheren Betreuungsaufwand erfordern. Sharples vermutet, dass die Veränderungen auch in Richtung mündlicher Ausdrucksfähigkeit gehen werden. «Man wird sich weniger auf das geschriebene Wort verlassen und mehr auf die Fähigkeit, Argumente auf der Stelle zu artikulieren und einen Standpunkt zu verteidigen.»
Damit wären wir wieder da, wo wir vor 200 Jahren schon waren. Vor der Erfindung der Seminararbeit beruhten weite Teile des Lehrsystems auf der mündlichen Weitergabe von Wissen. Schriftliche Arbeiten verfassten bloss die Professoren, der Student reagierte lediglich auf Einwände und zeigte, dass er sein Thema verstanden hatte und es mit Argumenten untermauern konnte.