6 interdictions ! Fudan introduit les nouvelles règles les plus strictes du monde en matière d'IA
Récemment, l'université de Fudan a publié le "Règlement de l'université de Fudan sur l'utilisation d'outils d'intelligence artificielle dans les thèses de premier cycle (conception) (pour une mise en œuvre expérimentale)", qui énonce clairement les "six interdictions" et réglemente en détail l'utilisation d'outils d'intelligence artificielle (IA) dans le processus de rédaction des thèses de premier cycle (conception).
À ma connaissance, c'est la première fois que des collèges et des universités du monde entier proposent autant d'"interdictions" concernant l'utilisation d'outils d'IA. Il s'agit donc non seulement d'une initiative exemplaire, mais aussi d'une initiative qui suscitera davantage de réflexions, voire de débats, afin que les gens puissent guider et réglementer l'utilisation de l'IA par les étudiants d'une manière plus pratique pour relever les défis posés par l'IA.
Possibilité d'interdire l'utilisation d'outils d'IA pour embellir et traduire la langue
Les "six interdictions" proposées par l'université de Fudan comprennent l'interdiction d'utiliser des outils d'IA pour générer ou modifier des données brutes et des résultats originaux ou expérimentaux de la thèse de premier cycle (conception), des images et des illustrations ; l'interdiction d'utiliser directement des outils d'IA pour générer le texte de la thèse de premier cycle (conception), les remerciements ou d'autres éléments ; l'interdiction pour les membres du comité de soutenance et les experts en évaluation d'utiliser des outils d'IA pour évaluer la thèse de premier cycle (conception) de l'étudiant. L'interdiction faite aux membres du comité de soutenance et aux experts en évaluation d'utiliser des outils d'IA pour évaluer le texte de la thèse de premier cycle (conception) des étudiants et les six autres éléments. Ces réglementations sont pionnières par nature, mais elles ont également un certain effet "cible", ce qui donne plus d'espace aux gens pour discuter de la manière de réglementer l'utilisation de l'IA.
Il convient de préciser que les dispositions susmentionnées contiennent de bonnes suggestions, telles que l'interdiction de générer un contenu spécifique et l'interdiction pour les experts d'utiliser des outils d'IA pour évaluer les thèses de premier cycle des étudiants (conceptions). Toutefois, certains éléments méritent également d'être examinés de plus près, par exemple "l'interdiction d'utiliser des outils d'IA pour l'embellissement de la langue et la traduction".
Il me semble qu'interdire l'utilisation d'outils d'IA pour l'embellissement linguistique et la traduction n'est pas une réglementation raisonnable basée sur les caractéristiques des outils d'IA eux-mêmes.
Tout d'abord, les outils d'IA sont conçus pour la rédaction académique et ont un rôle de soutien inhérent. Les IA sont également de plus en plus considérées comme une aide plutôt qu'un remplacement. Leur rôle principal est d'aider les étudiants à améliorer la fluidité de l'expression linguistique, à corriger les erreurs grammaticales, à optimiser la structure des phrases, etc. En particulier pour les étudiants qui apprennent et utilisent une langue étrangère, les outils d'IA peuvent être très utiles pour les retouches linguistiques et les traductions.
Du point de vue de l'embellissement du langage, les outils d'IA aident les étudiants à améliorer la précision, la fluidité et la logique de leurs écrits, en particulier dans les travaux universitaires, en rendant les expressions plus précises et conformes aux normes du langage universitaire.
Du point de vue de la traduction, les outils d'IA peuvent aider les étudiants non natifs à mieux comprendre la littérature étrangère et à mener des recherches interlinguistiques plutôt que de remplacer leur travail universitaire.
Par conséquent, interdire l'utilisation d'outils d'IA pour les retouches et les traductions priverait les étudiants de la possibilité d'utiliser cet outil puissant pour améliorer la qualité de leurs travaux.
Deuxièmement, l'utilisation d'outils d'IA est cohérente avec les objectifs de l'écriture académique. Le rôle des outils d'IA dans l'embellissement et la traduction est précisément d'aider les étudiants à exprimer leurs idées de manière plus claire et plus précise, et l'objectif de ces outils n'est pas de remplacer la créativité académique des étudiants.
En termes d'utilisation, le texte généré par l'IA ne relève pas de la pensée créative ; il ne peut que générer des résultats sur la base des informations fournies par l'utilisateur et des données existantes. Par conséquent, le rôle de l'IA est principalement d'aider les étudiants à améliorer leur capacité et leur niveau d'expression, et elle ne peut pas remplacer la pensée indépendante et la créativité des étudiants.
L'utilisation d'outils de vérification de l'orthographe et de la grammaire pour améliorer la qualité de l'écriture est largement acceptée dans le monde anglophone.Les outils d'IA peuvent également être considérés comme un outil technologique dans l'écriture académique.Puisque les outils de vérification de l'orthographe et de la grammaire sont largement acceptés, pourquoi ne pas permettre aux outils d'IA de jouer un rôle dans l'embellissement de la langue et la traduction ?
Enfin, les étudiants qui étudient et utilisent des langues étrangères ont un réel besoin d'outils d'IA. Ils comptent sur les outils d'IA pour les retouches linguistiques et les traductions, et ces derniers leur fournissent également le soutien linguistique nécessaire pour les aider à garantir la qualité linguistique et la fluidité expressive de leurs travaux sans compromettre le contenu académique. Pour eux, les outils d'IA constituent une percée efficace dans la barrière linguistique. S'il leur est interdit de les utiliser, cela accroît leur charge de travail en matière de rédaction académique et affecte même la qualité de leur thèse.
Dans le monde universitaire, l'originalité reste la clé. L'intégrité académique est centrée sur l'originalité et la pensée indépendante, et non sur la perfection linguistique. Interdire l'utilisation d'outils de retouche d'IA ou d'outils de traduction ne renforcera pas l'originalité des étudiants, mais risque au contraire de leur faire passer trop de temps sur des défis linguistiques inutiles.
Les établissements d'enseignement supérieur explorent encore les moyens de relever les défis de l'IA
Il y a deux ans, l'émergence du ChatGPT a posé un grand défi aux collèges et universités du monde entier. Malheureusement, à ce jour, presque tous les établissements d'enseignement supérieur et les universités sont en train de réfléchir à la manière de relever ce défi et n'ont pas trouvé de solution consensuelle.
Dans les universités britanniques et américaines, avec l'utilisation généralisée des outils d'IA dans le monde universitaire, de nombreuses universités ont commencé à élaborer des réglementations et des politiques spécifiques pour s'assurer que l'utilisation de la technologie de l'IA ne viole pas l'intégrité académique et répond aux exigences académiques. Toutefois, à l'heure actuelle, ces réglementations se concentrent généralement sur la manière d'utiliser raisonnablement les outils d'IA, de garantir l'originalité des articles et de traiter les fautes académiques potentielles déclenchées par l'IA.
En 2023, l'Université de Cambridge au Royaume-Uni a publié un document d'orientation sur l'intégrité académique, indiquant que les étudiants peuvent utiliser des outils d'IA pour les aider dans leurs recherches et leurs études, par exemple pour générer des idées initiales, aider à l'expression linguistique, trouver des informations et effectuer des analyses documentaires, mais que le contenu généré par l'IA ne peut pas être utilisé directement pour la rédaction d'un mémoire ou comme substitut à une réflexion indépendante. En outre, l'université aborde la question de l'intégrité académique en demandant aux étudiants qui utilisent du contenu généré par des outils d'IA d'indiquer la source et d'expliquer comment l'outil d'IA a été utilisé. Tout manquement à l'obligation d'étiqueter le contenu généré par l'IA sera considéré comme une faute académique.
À l'instar de l'université de Cambridge, le Harvard Writing Handbook, un document d'orientation publié par l'université de Harvard aux États-Unis, précise également l'utilisation des outils d'IA. Il stipule que tout contenu généré à l'aide d'outils d'IA doit être clairement identifié dans les devoirs ou les documents soumis par les étudiants. Les étudiants ne peuvent pas considérer le texte généré par l'IA comme une originalité personnelle. Parallèlement, lorsqu'ils utilisent des outils d'IA pour générer du contenu, les étudiants doivent toujours analyser, penser de manière critique et intégrer le contenu généré par l'IA, et ne peuvent pas utiliser l'IA comme un outil de "ghostwriting" (écriture fantôme).
L'Université de Londres au Royaume-Uni a également inclus une clause sur l'utilisation des outils d'IA dans sa politique d'intégrité académique, suggérant que les étudiants peuvent utiliser des outils d'IA dans leurs cours pour l'analyse de données, la génération d'idées, la structuration et d'autres travaux auxiliaires, à condition que le contenu textuel généré par l'IA soit considéré comme une référence plutôt que comme une soumission finale. L'école insiste sur le fait que si les étudiants utilisent des outils d'IA dans leurs mémoires, ils doivent en faire une déclaration et une explication claires. L'école veillera à ce que le contenu généré par l'IA réponde aux normes académiques de l'école par le biais d'orientations de cours et de tests d'outils en ligne.
L'université de Yale, aux États-Unis, indique dans son système d'intégrité académique que les outils d'IA ne peuvent pas être utilisés pour la rédaction d'articles, mais que les étudiants peuvent les utiliser à des fins de recherche et d'analyse. L'université recommande aux enseignants d'utiliser les avant-projets générés par les outils d'IA comme point de départ de la réflexion des étudiants plutôt que comme projet final, tout en mettant l'accent sur l'originalité des étudiants.
La plupart des pratiques des célèbres écoles britanniques et américaines susmentionnées se concentrent sur l'éducation des étudiants à une utilisation raisonnable de l'IA, en mettant l'accent sur le rôle complémentaire des outils d'IA plutôt que sur le remplacement de la pensée indépendante des étudiants. Elles attachent de l'importance à l'éducation à l'intégrité académique, rappelant aux étudiants de respecter les normes académiques et d'éviter la tricherie. Dans le même temps, en exigeant des étudiants qu'ils déclarent explicitement leur utilisation de l'IA, les écoles renforcent la transparence et peuvent également réduire efficacement le risque de tricherie. Ces réglementations sont reproductibles et peuvent servir de leçons à d'autres établissements d'enseignement supérieur dans le monde, notamment en ce qui concerne l'étiquetage et la transparence des contenus générés par l'IA.
La difficulté de détection est la plus grande difficulté
La plus grande difficulté dans l'élaboration de règles pour l'utilisation de l'IA est que le contenu n'est pas facile à détecter, comme on le voit dans le monde actuel de l'élaboration des règles dans les universités.
Les réglementations universitaires actuelles, ainsi que les demandes de certains enseignants, interdisent pour la plupart le plagiat de contenu généré par l'IA. Cependant, bien qu'il puisse y avoir des similitudes entre le texte généré par les outils d'IA et le contenu existant sur le web, l'IA ne "copie" pas directement un texte connu, mais génère plutôt un contenu qui est similaire au contenu existant. Il convient donc d'accorder une attention particulière à la définition du "plagiat" lors de la formulation de ces interdictions. En outre, il est très difficile de porter un jugement précis sur ce qui est généré sans l'intégrer à un système de test académique. C'est précisément la raison pour laquelle les universités du monde entier sont actuellement incapables d'imposer des interdictions spécifiques.
Le développement rapide de la technologie de l'IA fait qu'il est de plus en plus difficile de distinguer le contenu qu'elle génère de l'écriture humaine. Par exemple, le texte généré peut ne pas être facilement reconnaissable par les outils conventionnels de détection du plagiat, car le contenu généré par l'IA est souvent nouvellement assemblé, plutôt qu'une copie directe d'un contenu existant, comme c'est le cas pour le plagiat traditionnel.
Par ailleurs, si certains outils de détection de l'IA peuvent aider à identifier certains textes générés par l'IA, ils n'en sont encore qu'au stade du développement et ne sont pas encore en mesure de déterminer avec précision toutes les caractéristiques du contenu généré par l'IA.
En outre, les outils d'IA sont intrinsèquement diversifiés. Il est tout à fait possible que les étudiants utilisent différents outils d'IA pour une variété de tâches (par exemple, des retouches linguistiques, des traductions, des analyses de données, etc.), et le fait que de nombreux outils d'IA ne génèrent pas directement de contenu académique mais sont utilisés comme des aides rend compliqué et difficile le contrôle d'une simple interdiction d'un aspect particulier.
L'élaboration des règles en matière d'IA doit refléter l'ouverture de l'environnement universitaire
J'ai remarqué que lorsque les universités et les établissements d'enseignement supérieur du monde entier traitent de l'utilisation des outils d'IA aujourd'hui, ils ont généralement tendance à encourager leur utilisation en tant qu'aide, plutôt que de la gérer en l'interdisant. Il y a de multiples raisons à cela, notamment en raison des caractéristiques de la technologie de l'IA, du maintien de l'intégrité académique et de l'objectif de l'éducation.
Comme indiqué précédemment, l'utilisation d'outils d'IA dans l'éducation n'est pas un simple "remplacement", mais plutôt une aide pour améliorer l'efficacité et la qualité de l'apprentissage des étudiants. ), les outils d'IA ne remplacent pas la réflexion et la créativité des étudiants, mais améliorent plutôt leur expression linguistique, leurs compétences analytiques et leur efficacité.
Les universités du monde entier se préoccupent généralement de l'originalité et de l'intégrité académique, alors que l'utilisation d'outils d'IA ne menace pas directement l'originalité en soi. Dans ce contexte, l'interdiction de l'utilisation de l'IA est souvent incompatible avec les objectifs fondamentaux de l'éducation. Entre les mains des étudiants, les outils d'IA sont souvent utilisés pour faciliter la génération d'inspiration et améliorer la qualité des textes plutôt que pour rédiger directement. Le problème n'est donc pas l'utilisation d'outils d'IA, mais la manière de s'assurer que les étudiants conservent leur originalité et leur intégrité académique. Actuellement, de nombreuses universités de premier plan mettent l'accent sur l'IA en tant qu'outil, et malgré son rôle de soutien important, les étudiants doivent toujours faire preuve de leur propre analyse, de leur esprit critique et de leur créativité, et le contenu généré par l'IA doit toujours être traité, analysé et affiné par les étudiants.
Dans le pays comme à l'étranger, l'environnement universitaire doit encourager l'innovation et la pensée critique. C'est pourquoi de nombreuses universités et écoles supérieures ont tendance à encourager les étudiants à utiliser les nouvelles technologies pour améliorer leur apprentissage et leur recherche, plutôt que de les interdire. L'objectif de l'éducation est d'aider les étudiants à s'adapter à un environnement technologique en évolution rapide et à développer leur capacité à penser et à innover à l'aide de la technologie. Guider les étudiants dans l'utilisation correcte des outils d'IA par l'éducation et le mentorat permettra à la fois de sauvegarder l'intégrité académique et de rester compétitif dans une société où les développements technologiques évoluent rapidement.
En fait, à mesure que la technologie évolue, le domaine de l'éducation devrait progressivement adopter des outils plus avancés. Les progrès technologiques nous permettent d'effectuer des tâches de rédaction académique plus efficacement, et les outils d'IA ne sont qu'une partie de l'équation. D'une certaine manière, l'interdiction des outils d'IA va à l'encontre du temps. L'éducation moderne devrait se concentrer sur la promotion de la pensée critique, de la créativité et de l'intégrité académique plutôt que d'exclure l'utilisation d'outils technologiques. L'utilisation d'outils de traduction assistée par ordinateur pour la communication universitaire interlinguistique facilite non seulement la circulation des ressources universitaires mondiales, mais s'inscrit également dans la tendance à la mondialisation de l'éducation.
© déclaration de droits d'auteur
Article copyright Cercle de partage de l'IA Tous, prière de ne pas reproduire sans autorisation.
Articles connexes
Pas de commentaires...