Aux États-Unis, une étudiante de Northeastern découvre que son professeur utilise ChatGPT pour corriger ses devoirs. Elle demande un remboursement partiel des frais de scolarité. Une première qui fait débat sur l’éthique de l’IA à l’université.
Comment a-t-elle découvert la supercherie ?
Selon le média américain Fortune, Ella Stapleton, étudiante en quatrième année à la Northeastern University de Boston, a demandé le remboursement de 8 000 dollars, soit la moitié du tarif de son cours d’anglais, après avoir découvert que son enseignant utilisait ChatGPT pour corriger ses devoirs.
L’étudiante a émis des doutes sur la véritable correction de son professeur d’anglais en constatant des retours extrêmement vagues, toujours positifs, et presque jamais personnalisés. Par exemple :
- « Vos idées sont intéressantes et bien exprimées ».
- « Cette dissertation fait preuve d’un raisonnement solide ».
- « Bon travail dans l’ensemble ».
Des remarques qui pourraient passer inaperçues… si elles n’étaient identiques à celles générées par ChatGPT 3.5, lorsqu’elle a testé ses propres textes dans l’interface gratuite de l’outil.
« Je paye pour un retour pédagogique réel, pas pour que l’IA fasse le boulot en douce« , explique-t-elle à Fortune.
Un recours inédit contre l’IA dans l’éducation
Le cours d’anglais en question fait partie du tronc commun de la Northeastern, et inclut théoriquement un accompagnement individuel via des retours détaillés sur les productions écrites. Mais ni le support du cours, ni les conditions générales de l’université ne précisent à ce jour si les corrections doivent être faites exclusivement par un humain.
« On ne nous a jamais dit qu’un bot pouvait remplacer le prof. C’est une rupture de contrat moral », s’agace Ella Stapleton.
Le nom du professeur concerné n’a pas été divulgué par Fortune, et l’université s’est refusée à tout commentaire officiel. Aucune précision non plus sur la version de ChatGPT utilisée (3.5 ou 4), ni via quelle interface (web, API, ou intégration à un outil tiers).
Quelle utilisation faire de l’IA sans aller trop loin ?
La question dépasse largement le cas de Northeastern. L’usage de l’IA dans l’enseignement explose : préparation de cours, évaluations, corrections… Une enquête de Tyton Partners, cabinet spécialisé en éducation, révèle qu’en 2024, 40% des administrateurs et des professeurs américains déclaraient utiliser régulièrement des outils IA dans leurs tâches pédagogiques.
En France, le sujet a aussi fait parler. De plus en plus de professeurs feraient appel à l’intelligence artificielle pour la correction de copies. Néanmoins il ne s’agirait pas d’une correction complète par IA mais d’un support qui assisterait l’enseignant comme l’explique France Info. De nombreux outils comme Gingo, Examino ou Pyxiscience accompagneraient quotidiennement les enseignants dans leur travail. De quoi semer le doute dans les têtes des élèves.
Les étudiants veulent de la transparence
« À 66 000 dollars l’année, je m’attends à ce que mon prof lise vraiment mes devoirs » a commenté un étudiant sous l’article de Fortune.
Même si cette réaction n’est qu’une réaction parmi d’autres, elle illustre un sentiment croissant parmi les étudiants : l’exigence de transparence dans les enseignements qui sont donnés dans les établissements du supérieur.
Peut-on utiliser ChatGPT dans l’enseignement supérieur ?
Oui, l’usage de l’IA dans l’enseignement est de plus en plus courant, mais il reste soumis à certaines conditions. Elle est généralement acceptée en tant qu’outil d’assistance, par exemple pour la génération de quiz, la relecture rapide de copies ou la reformulation d’idées. En revanche, son utilisation comme substitut total au jugement humain dans l’évaluation reste encadrée : elle n’est permise que si cela est précisé explicitement dans le support du cours.
Aux États-Unis, les universités exigent que tout recours à l’IA dans l’évaluation soit déclaré et évalué selon des principes éthiques. À Stanford, la transparence est encouragée : les enseignants sont incités à définir des règles claires sur l’usage de l’IA dans leurs cours, notamment concernant les retours générés par ces outils.
En France, le cadre reste encore flou, mais certaines grandes écoles prennent les devants. Sciences Po a déjà mis en place des règles strictes, imposant la déclaration de tout usage d’outils comme ChatGPT dans les travaux étudiants.
Existe-t-il d’autres exemples comparable à celui d’Ella Stapeton ?
Ella Stapeton est la première étudiante à avoir exprimé son mécontentement sur l’utilisation de ChatGPT dans la correction de travaux. À ce jour elle reste le seul exemple médiatisé sur le sujet. Mais en cas de généralisation de ce genre de pratiques, on pourrait assister à une vague de protestation dans tout le système universitaire.
Si aucun tollé n’a eu lieu en France pour une situation semblable, des étudiants expriment leur mécontentement face à l’utilisation de l’IA par certains enseignants, notamment lorsque celle-ci est perçue comme excessive ou non divulguée.
Sur des forums en ligne, des témoignages font état de corrections automatisées ou de supports de cours générés par IA, suscitant des interrogations sur la transparence et l’équité de ces pratiques. Preuve que l’utilisation de l’intelligence artificielle dans l’enseignement supérieur comme support de cours de façon totale ou partielle n’a pas fini d’alimenter les discussions.
Cet article vous a-t-il été utile ? Votre point de vue compte énormément pour enrichir la discussion. N’hésitez pas à partager vos idées, expériences ou questions en commentaire. Si vous avez noté une imprécision ou souhaitez proposer des améliorations, dites-le nous !
Certains liens de cet article peuvent être affiliés.
