Hat diese Studienarbeit wirklich der Student geschrieben, oder steckt dahinter ein Computerprogramm? Hat die Schülerin die Hausaufgabe selbst gelöst oder doch der Chatbot GPT-3? Diese Fragen beschäftigen Schulen und Unis.
Aus gutem Grund: Programme, die künstliche Intelligenz (KI) nutzen, schreiben heute Essays, prüfen Programmcodes auf Fehler oder beantworten Wissensfragen. Blick weiss, dass gewiefte Schweizer Studenten und Schülerinnen GPT-3 einsetzen, um sich helfen zu lassen.
Neue Form von Ghostwriting
Der deutsche Wissenschaftler Robert Lepenies (38) warnte kürzlich, dass GPT-3 viele Prüfungsformen «ab heute undenkbar mache». Denn das Programm erzeugt Texte, die qualitativ nicht unterscheidbar seien von der Arbeit von Studierenden.
Das ist auch den Schweizer Hochschulen nicht entgangen. Das Problem sei zurzeit, dass man mit den herkömmlichen Tools diese Texte nicht entlarven könne, heisst es bei der ETH auf Anfrage. «Bei von einer KI geschriebenen Texten handelt es sich nicht um Plagiate, sondern um eine neue Form von Ghostwriting», sagt ETH-Sprecher Markus Gross.
Verschiedene Strategien
Wie geht man damit um? Darüber herrscht keine Einigkeit. An der Universität Bern prüft man aktuell Strategien, um Leistungskontrollen aufzudecken, die von künstlicher Intelligenz generiert wurden. Zusätzlich wolle man Angehörige der Universität für die Thematik sensibilisieren. Die Uni Luzern will auf den Frühling hin eine neue Antiplagiatssoftware einführen. Andere plädieren dafür, gewisse Prüfungen nur noch vor Ort und handschriftlich oder mündlich durchzuführen.
Beat Schwendimann, Leiter der Pädagogischen Arbeitsstelle des Dachverbands Lehrerinnen und Lehrer (LCH), forderte kürzlich zudem eine grundsätzliche Diskussion über Sinn und Zweck von Hausaufgaben: Denn wenn man nicht kontrollieren kann, wer die gemacht hat – welchen Sinn haben sie dann noch?
Programm erfindet Quellen
Der Schweizer KI-Experte Kevin Schawinski (41) sagt, es sei wohl kaum zu verhindern, dass etwa Studenten und Schüler solche Programme einsetzen: «Daher wäre es sinnvoller, sie darauf zu sensibilisieren, wie man damit umgeht», so der CEO des KI-Start-ups Modulos.
Er erinnert daran, dass etwa GPT nicht über ein wirkliches Verständnis verfüge. «Das Modell wurde mit dem Ziel trainiert, die nächsten Worte vorherzusagen. Wenn man dieses Modell nach jedem Wort immer wieder anwendet, erhält man Sätze oder grössere Textstücke.»
Er selbst hat das Sprachprogramm mehrmals damit beauftragt, wissenschaftliche Texte zu schreiben. Es sei noch fehleranfällig. So wüsste es, dass zu dieser Textsorte zwingend Quellenangaben gehörten. «Diese erfand GTP teilweise komplett. Manchmal wiederum stimmten sie.»
Die Verbesserung solcher KI-Sprachprogramme entwickle sich aber gerade rasend schnell, so Schawinski. «Es ist darum sehr schwierig, vorherzusagen, was sie in naher Zukunft alles können.»
New Yoker Schulen verbannen ChatGPT
Die ersten internationalen Bildungsinstitutionen haben bereits auf die Entwicklung reagiert. In Australien haben Universitäten als Reaktion festgelegt, dass das Benutzen von künstlicher Intelligenz als Betrug gilt. Gemäss Berichten des «Guardian» planen einige Hochschulen zusätzlich, Klausuren künftig wieder häufiger mit Papier und Stift statt digital schreiben zu lassen.
Das New Yorker Bildungsministerium hindert Schüler daran, über das öffentliche Schulnetzwerk auf ChatGPT zuzugreifen. Dies sei aufgrund «von Bedenken hinsichtlich negativer Auswirkungen auf das Lernen von Schülern» nötig, hiess es in einer Erklärung.
Die angefragten Schweizer Hochschulen halten nichts von einer solchen Sperre, da eine solche leicht zu umgehen ist. Bei der ETH weist man zudem darauf hin, dass man Arbeiten eng begleite und man «einen Fokus auf experimentelle Daten» habe. Zudem gehöre zu einem Abschluss auch die mündliche Verteidigung der Arbeit oder anderweitige Prüfungen. «Spätestens hier wird erkennbar, ob eine Arbeit von der Studentin oder dem Studenten selbst verfasst wurde», so Markus Gross von der ETH. Denn zur mündlichen Prüfung lässt sich keine künstliche Intelligenz schicken.
Bundesrat soll sich damit befassen
Das Thema bewegt inzwischen auch die Schweizer Politik: So will der grünliberale Nationalrat und selbständige Programmierer Jörg Mäder (47) vom Bundesrat in einer Anfrage wissen, wie der Bundesrat die Auswirkungen solcher KI-Programme auf das Schweizer Bildungssystem einschätzt. Mit solchen Systemen entfalte sich ein grosses Feld von Chancen und Risiken, die es gelte, im Auge zu behalten, so Mäder.
Die Firma Open AI, die hinter dem Ghostwriting-Programm steht, hat sich zur Problematik schon geäussert. So teilt sie in einem Statement mit, dass sie zusammen mit Pädagogen an Lösungen arbeiten wolle. «Wir möchten nicht, dass ChatGPT in Schulen oder woanders für irreführende Zwecke eingesetzt wird», hiess es darin.