Kürzlich hat die Fudan-Universität die "Bestimmungen der Fudan-Universität über den Einsatz von KI-Werkzeugen in Bachelorarbeiten (Entwurf) (zur probeweisen Umsetzung)" veröffentlicht, die die "sechs Verbote" klar darlegen und den Einsatz von Werkzeugen der Künstlichen Intelligenz (KI) im Prozess des Schreibens von Bachelorarbeiten (Entwurf) detailliert regeln.
Soweit ich weiß, ist dies das erste Mal, dass Hochschulen und Universitäten auf der ganzen Welt so viele "Verbote" für den Einsatz von KI-Tools ausgesprochen haben. Dies ist nicht nur wegweisend und vorbildlich, sondern wird auch zu weiteren Überlegungen und sogar Debatten führen, so dass die Menschen die Nutzung von KI durch Studenten auf eine praktischere Art und Weise anleiten und regeln können, wenn es um die Herausforderungen geht, die durch KI entstehen.
Möglichkeit des Verbots der Verwendung von KI-Tools zur Verschönerung und Übersetzung von Sprache
Die von der Fudan-Universität vorgeschlagenen "sechs Verbote" umfassen das Verbot der Verwendung von KI-Tools zur Erzeugung oder Veränderung von Rohdaten und Original- oder Versuchsergebnissen von Bildern, Abbildungen und Illustrationen der Bachelorarbeit (Design); das Verbot der direkten Verwendung von KI-Tools zur Erzeugung von Text, Danksagungen oder anderen Bestandteilen der Bachelorarbeit (Design); das Verbot der Verwendung von KI-Tools zur Bewertung der Bachelorarbeit (Design) und anderer sechs Elemente durch die Verteidiger und Bewertungsexperten. Das Verbot für Verteidiger und Gutachter, KI-Tools für die Bewertung von Bachelorarbeiten (Design) und anderen sechs Elementen zu verwenden. Diese Regelungen haben Pioniercharakter, haben aber auch eine gewisse "Zielwirkung", die mehr Raum für Diskussionen über die Regulierung des Einsatzes von KI bietet.
Es sollte gesagt werden, dass die oben genannten Bestimmungen einige gute Vorschläge enthalten, wie z. B. das Verbot der Generierung spezifischer Inhalte und das Verbot für Experten, KI-Tools zur Bewertung von Abschlussarbeiten (Entwürfen) von Studenten zu verwenden. Es gibt jedoch auch einige Elemente, die es wert sind, hinterfragt zu werden, zum Beispiel das "Verbot der Verwendung von KI-Tools zur sprachlichen Verschönerung und Übersetzung".
Ein Verbot des Einsatzes von KI-Tools zur sprachlichen Verschönerung und Übersetzung scheint mir aufgrund der Eigenschaften der KI-Tools selbst kaum eine sinnvolle Regelung zu sein.
Erstens sind KI-Tools für das akademische Schreiben konzipiert und haben von Natur aus eine unterstützende Funktion. KI wird auch immer mehr als Hilfsmittel und nicht als Ersatz gesehen. Ihre Hauptaufgabe besteht darin, den Studierenden zu helfen, sich flüssiger auszudrücken, grammatikalische Fehler zu korrigieren, die Satzstruktur zu optimieren usw. Vor allem für Schüler, die eine Fremdsprache lernen und anwenden, können KI-Tools bei sprachlichen Nachbesserungen und Übersetzungen sehr nützlich sein.
Unter dem Gesichtspunkt der sprachlichen Verschönerung helfen KI-Tools den Studierenden, die Genauigkeit, den Fluss und die Logik ihres Schreibens zu verbessern, insbesondere bei akademischen Arbeiten, indem sie die Ausdrücke präziser machen und an die Normen der akademischen Sprache anpassen.
Aus der Sicht der Übersetzung können KI-Tools den nicht muttersprachlichen Studierenden helfen, fremdsprachliche Literatur besser zu verstehen und sprachübergreifend zu recherchieren, anstatt ihre akademische Arbeit zu ersetzen. KI-Übersetzungstools können die Effizienz des sprachübergreifenden akademischen Schreibens erheblich verbessern und gleichzeitig die Genauigkeit gewährleisten.
Ein Verbot des Einsatzes von KI-Tools für Nachbesserungen und Übersetzungen würde die Studierenden daher der Möglichkeit berauben, dieses leistungsstarke Instrument zur Verbesserung der Qualität ihrer wissenschaftlichen Arbeit zu nutzen.
Zweitens steht der Einsatz von KI-Tools im Einklang mit den Zielen des akademischen Schreibens. Akademisches Schreiben betont Logik, Strenge und Klarheit des Ausdrucks. Die Rolle der KI-Tools bei der Verschönerung und Übersetzung besteht genau darin, den Studierenden zu helfen, ihre Ideen klarer und genauer auszudrücken, und das Ziel dieser Tools ist nicht, die akademische Kreativität der Studierenden zu ersetzen.
KI-generierter Text ist kein kreatives Denken; er kann nur auf der Grundlage von vom Benutzer bereitgestellten Informationen und vorhandenen Daten erstellt werden. Daher besteht die Rolle der KI hauptsächlich darin, den Schülern dabei zu helfen, ihre Fähigkeiten und ihr Ausdrucksvermögen zu verbessern, und sie kann das eigenständige Denken und die Kreativität der Schüler nicht ersetzen.
Die Verwendung von Tools zur Rechtschreib- und Grammatikprüfung zur Verbesserung der Schreibqualität ist in der englischsprachigen Welt weithin akzeptiert, und auch KI-Tools können als technologisches Hilfsmittel beim akademischen Schreiben betrachtet werden.
Schließlich haben Studierende, die Fremdsprachen studieren und verwenden, einen echten Bedarf an KI-Tools. Sie verlassen sich auf KI-Tools für sprachliche Nachbesserungen und Übersetzungen. Letztere bieten ihnen auch die notwendige sprachliche Unterstützung, um die sprachliche Qualität und den Ausdruck ihrer Arbeiten zu gewährleisten, ohne den akademischen Inhalt zu beeinträchtigen. Für sie sind die KI-Tools ein wirksamer Durchbruch bei der Überwindung der Sprachbarriere. Wird ihnen deren Nutzung untersagt, erhöht sich ihre Belastung beim akademischen Schreiben und beeinträchtigt sogar die Qualität ihrer Arbeit.
Im akademischen Bereich ist Originalität nach wie vor der Schlüssel. Akademische Integrität ist auf Originalität und unabhängiges Denken ausgerichtet, nicht auf sprachliche Perfektion. Das Verbot des Einsatzes von KI-Nachbesserungswerkzeugen oder Übersetzungswerkzeugen wird die Originalität der Studierenden nicht fördern, sondern kann dazu führen, dass sie zu viel Zeit mit unnötigen sprachlichen Herausforderungen verbringen.
Hochschulen und Universitäten erforschen noch, wie sie die Herausforderungen der KI meistern können
Vor zwei Jahren stellte das Aufkommen von ChatGPT eine große Herausforderung für Hochschulen und Universitäten in aller Welt dar. Leider sind bis heute fast alle Hochschulen und Universitäten dabei, herauszufinden, wie sie mit dieser Herausforderung umgehen sollen, und haben noch keinen konsensfähigen Ausweg gefunden.
An britischen und US-amerikanischen Universitäten haben viele Universitäten angesichts des weit verbreiteten Einsatzes von KI-Tools im akademischen Bereich damit begonnen, spezifische Vorschriften und Richtlinien zu entwickeln, um sicherzustellen, dass der Einsatz von KI-Technologie nicht gegen die akademische Integrität verstößt und den akademischen Anforderungen entspricht. Derzeit konzentrieren sich diese Vorschriften jedoch in der Regel darauf, wie KI-Tools vernünftig eingesetzt werden, wie die Originalität von Arbeiten sichergestellt wird und wie mit potenziellem akademischem Fehlverhalten, das durch KI ausgelöst wird, umgegangen wird.
Im Jahr 2023 gab die Universität Cambridge im Vereinigten Königreich einen Leitfaden zur akademischen Integrität heraus, in dem es heißt, dass Studierende KI-Tools zur Unterstützung ihrer Forschung und ihres Studiums verwenden dürfen, z. B. um erste Ideen zu entwickeln, sich sprachlich auszudrücken, Informationen zu finden und eine Literaturübersicht zu erstellen. Darüber hinaus geht die Universität auf die Frage der akademischen Integrität ein, indem sie von Studierenden, die von KI-Tools generierte Inhalte verwenden, verlangt, die Quelle anzugeben und zu erklären, wie das KI-Tool verwendet wurde. Jedes Versäumnis, KI-generierte Inhalte zu kennzeichnen, wird als akademisches Fehlverhalten betrachtet.
Ähnlich wie die Universität Cambridge schreibt auch das Harvard Writing Handbook, ein von der Harvard University in den Vereinigten Staaten herausgegebener Leitfaden, den Einsatz von KI-Tools vor. Es schreibt vor, dass alle mit KI-Tools erstellten Inhalte in den von den Studierenden eingereichten Aufgaben oder Arbeiten deutlich gekennzeichnet werden müssen. Studierende dürfen KI-generierten Text nicht als persönliche Originalität betrachten. Gleichzeitig müssen die Studierenden bei der Verwendung von KI-Tools zur Erstellung von Inhalten die von der KI generierten Inhalte analysieren, kritisch betrachten und integrieren und dürfen die KI nicht als "Ghostwriting"-Tool verwenden.
Die University of London im Vereinigten Königreich hat ebenfalls eine Klausel über die Verwendung von KI-Tools in ihre Richtlinie zur akademischen Integrität aufgenommen, die besagt, dass Studierende KI-Tools in ihren Kursen zur Datenanalyse, Ideenfindung, Strukturierung und für andere Nebenarbeiten verwenden können, sofern der von der KI generierte Textinhalt als Referenz und nicht als endgültige Vorlage betrachtet wird. Die Schule betont, dass Studierende, die KI-Tools in ihren Dissertationen verwenden, dies klar angeben und erklären müssen. Die Schule stellt sicher, dass die KI-generierten Inhalte den akademischen Standards der Schule entsprechen, indem sie Kursanleitungen und Online-Tools testet.
Die Universität Yale in den Vereinigten Staaten erklärt in ihrem System für akademische Integrität, dass KI-Tools nicht zum Ghostwriting von Arbeiten verwendet werden dürfen, aber Studenten dürfen KI-Tools für die Recherche und Analyse verwenden. Die Universität empfiehlt den Lehrkräften, die von KI-Tools erstellten Vorentwürfe als Ausgangspunkt für die Überlegungen der Studierenden und nicht als endgültigen Entwurf zu verwenden, wobei sie besonderen Wert auf die Originalität der Studierenden legen.
Die meisten Praktiken der oben genannten berühmten britischen und US-amerikanischen Schulen konzentrieren sich darauf, den Schülern beizubringen, wie sie KI sinnvoll nutzen können, und betonen die ergänzende Rolle der KI-Tools, anstatt das eigenständige Denken der Schüler zu ersetzen. Sie legen Wert auf die Erziehung zur akademischen Integrität, indem sie die Studierenden daran erinnern, sich an die akademischen Normen zu halten und nicht zu schummeln. Indem sie von den Studierenden verlangen, ihre KI-Nutzung ausdrücklich anzugeben, erhöhen die Schulen die Transparenz und können das Risiko des Schummelns wirksam verringern. Solche Regelungen sind nachahmenswert und können anderen Hochschulen und Universitäten weltweit als Vorbild dienen, insbesondere im Hinblick auf die Kennzeichnung und Transparenz von KI-generierten Inhalten.
Die größte Schwierigkeit besteht in der Aufdeckung
Die größte Schwierigkeit bei der Entwicklung von Regeln für den Einsatz von KI besteht darin, dass Inhalte nicht leicht zu erkennen sind, wie man in der aktuellen Welt der Regelsetzung an den Universitäten sieht.
Die geltenden Hochschulvorschriften sowie die Forderungen einiger Lehrkräfte verbieten in den meisten Fällen das Plagiat von KI-generierten Inhalten. Auch wenn es Ähnlichkeiten zwischen dem von KI-Tools generierten Text und bestehenden Inhalten im Internet geben kann, "kopiert" KI nicht direkt bekannten Text, sondern generiert vielmehr Inhalte, die bestehenden Inhalten ähneln. Daher muss bei der Ausarbeitung solcher Verbote besonders auf die Definition von "Plagiat" geachtet werden. Darüber hinaus ist es sehr schwierig, die generierten Inhalte genau zu beurteilen, ohne sie in ein akademisches Prüfsystem zu integrieren. Genau aus diesem Grund sind die Universitäten in aller Welt derzeit nicht in der Lage, spezifische Verbote auszusprechen.
Die rasante Entwicklung der KI-Technologie macht es immer schwieriger, die von ihr generierten Inhalte von menschlichen Texten zu unterscheiden. So kann es sein, dass generierter Text von herkömmlichen Plagiatserkennungsprogrammen nicht ohne Weiteres erkannt werden kann, da KI-generierte Inhalte oft neu zusammengestellt werden und nicht wie bei herkömmlichen Plagiaten eine direkte Kopie bestehender Inhalte sind.
In der Zwischenzeit können zwar einige bestehende KI-Erkennungstools dabei helfen, bestimmte KI-generierte Texte zu identifizieren, doch befinden sich diese Tools noch im Entwicklungsstadium und sind noch nicht in der Lage, alle Merkmale von KI-generierten Inhalten genau zu bestimmen.
Darüber hinaus sind KI-Tools von Natur aus vielfältig. Es ist durchaus möglich, dass Studierende verschiedene KI-Tools für eine Vielzahl von Aufgaben verwenden (z. B. sprachliche Nachbesserungen, Übersetzungen, Datenanalysen usw.), und die Tatsache, dass viele KI-Tools nicht direkt akademische Inhalte erzeugen, sondern als Hilfsmittel verwendet werden, macht es kompliziert und schwierig, ein einfaches Verbot eines bestimmten Aspekts zu überwachen.
AI-Regelungen sollten die Offenheit des akademischen Umfelds widerspiegeln
Mir ist aufgefallen, dass Universitäten und Hochschulen auf der ganzen Welt, die sich heute mit dem Einsatz von KI-Tools befassen, generell dazu neigen, deren Einsatz als Hilfsmittel zu fördern, anstatt ihn durch Verbote zu steuern. Dafür gibt es mehrere Gründe, insbesondere Überlegungen zu den Eigenschaften der KI-Technologie, zur Wahrung der akademischen Integrität und zum Zweck der Bildung.
Wie bereits erwähnt, ist der Einsatz von KI-Tools in der Bildung kein bloßer "Ersatz", sondern vielmehr ein Hilfsmittel zur Verbesserung der Effizienz und Qualität des Lernens der Studierenden. Im Vergleich zu herkömmlichen akademischen Werkzeugen (z. B. Rechtschreibprüfung, Dokumentenverwaltungssoftware usw.) ersetzen KI-Werkzeuge nicht das Denken und die Kreativität der Studierenden, sondern verbessern vielmehr ihren sprachlichen Ausdruck, ihre analytischen Fähigkeiten und ihre Effizienz.
Universitäten auf der ganzen Welt sind im Allgemeinen auf Originalität und akademische Integrität bedacht, während der Einsatz von KI-Tools die Originalität an sich nicht direkt bedroht. In diesem Zusammenhang ist ein Verbot des Einsatzes von KI oft unvereinbar mit den Kernzielen der Bildung. In den Händen von Studierenden werden KI-Tools häufig dazu verwendet, die Generierung von Inspirationen zu erleichtern und die Qualität von Texten zu verbessern, anstatt sie direkt zu schreiben. Es geht also nicht um den Einsatz von KI-Tools, sondern darum, wie sichergestellt werden kann, dass die Studierenden ihre Originalität und akademische Integrität wahren. Derzeit betonen viele führende Universitäten die KI als Werkzeug, und trotz ihrer starken unterstützenden Rolle brauchen die Studierenden immer noch ihre eigene Analyse, ihr kritisches Denken und ihre Kreativität, und KI-generierte Inhalte müssen immer noch von den Studierenden verarbeitet, analysiert und verfeinert werden.
Sowohl im Inland als auch im Ausland sollte das akademische Umfeld Innovation und kritisches Denken fördern. Aus diesem Grund ermutigen viele Universitäten und Hochschulen ihre Studenten dazu, neue Technologien zu nutzen, um ihr Lernen und ihre Forschung zu verbessern, anstatt sie zu verbieten. Ziel der Bildung ist es, den Studierenden zu helfen, sich an ein sich schnell veränderndes technologisches Umfeld anzupassen und die Fähigkeit zu entwickeln, mit Hilfe von Technologie zu denken und zu innovieren. Die Anleitung der Studierenden zum richtigen Einsatz von KI-Tools durch Bildung und Betreuung wird sowohl die akademische Integrität wahren als auch den Studierenden ermöglichen, in einer Gesellschaft, in der sich die technologische Entwicklung rasant verändert, wettbewerbsfähig zu bleiben.
Da sich die Technologie weiterentwickelt, sollte der Bildungsbereich schrittweise fortschrittlichere Tools übernehmen. Technologische Fortschritte ermöglichen es uns, akademische Schreibaufgaben effizienter zu erledigen, und KI-Tools sind nur ein Teil der Gleichung. In gewisser Weise ist das Verbot von KI-Tools nicht mehr zeitgemäß. Die moderne Bildung sollte sich auf die Förderung des kritischen Denkens, der Kreativität und der akademischen Integrität konzentrieren, anstatt den Einsatz technologischer Hilfsmittel auszuschließen. Der Einsatz von KI-Übersetzungswerkzeugen für die sprachübergreifende akademische Kommunikation erleichtert nicht nur den Fluss globaler akademischer Ressourcen, sondern steht auch im Einklang mit dem Trend zur Globalisierung der Bildung.