Lorin Koch

ChatGPT dans la salle de classe :

Recommandations d’utilisation, limites et expériences des élèves et des enseignants

Le monde de l’éducation vient d’entrer dans la première année scolaire complète, 2023-2024, avec l’intelligence artificielle générative (IA). C’est tôt l’année dernière (2023), au milieu de l’année scolaire, que l’introduction de ChatGPT a soulevé une vague d’appréhension parmi les enseignants. Les peurs étaient généralisées que cette technologie de pointe modifierait le paysage éducatif. Mais, alors que nous traversons la première année complète de sa mise en œuvre, nous commençons à voir ses bienfaits potentiels et à comprendre ses inconvénients potentiels. Les éducateurs continuent à explorer et à mieux comprendre les implications de cette technologie innovante, et ils continueront à le faire pour un certain temps encore.

Malgré les peurs initiales, l’IA générative est un outil prometteur pour aider les éducateurs dans leur travail et offrir aux étudiants de nouvelles opportunités. En même temps, les limitations actuelles de la technologie peuvent entraîner une variété de conséquences inattendues.

ChatGPT n’est pas la seule source d’intelligence artificielle générative. Il existe des douzaines, si non des centaines, de modèles linguistiques de grande taille (Large Language Models – LLMs) similaires qui effectuent des variations du même processus. Certaines applications remarquables comprennent Bard de Google, Bing Chat de Microsoft, Socrat.ia, et Claude d’Anthropic. ChatGPT est le premier modèle largement connu, rendu public en novembre 2022. Ainsi, dans cet article, j’utilise ChatGPT comme abréviation pour toutes les IA génératives, même si certains outils agissent quelque peu différemment.

Les LLM infiltrent l’éducation

ChatGPT a été le déploiement de technologies publiques le plus rapide de l'histoire. Facebook a mis deux ans pour atteindre un million d’utilisateurs. Instagram a mis deux mois et demi. ChatGPT a mis cinq jours1. Cette mise en place fulgurante a créé de la tension dans les classes – les enseignants voulant aborder l’utilisation de ChatGPT mais ne sachant pas comment, particulièrement étant donné les développements et changements rapides – toute pensée de mentionner son utilisation étant tempérée par la possibilité qu’ils risquent de dévoiler le secret de la méthode la plus efficace de tricher qui ait jamais existé.

Les enseignants n’avaient pas besoin de s’inquiéter pour cela – leurs élèves, qui n’ignorent pas les développements technologiques, étaient déjà au courant. Ils écoutent les nouvelles, quoi qu’habituellement par le biais de vidéos sur YouTube ou sur les médias sociaux. Un de mes anciens élèves, qui a obtenu son diplôme de douzième année en 2023, dit que les étudiants ont entendu parler de ChatGPT en ligne, par le biais de mèmes et de messages TikTok, et ensuite par un épisode de télé populaire2 à mi-parcours de l'année scolaire. Un autre étudiant en 10e année l’année dernière a dit que des vidéos YouTube discutaient déjà de ChatGPT en novembre 2022. Cet élève a été un utilisateur précoce, s’inscrivant en décembre et faisant passer le message aux autres élèves en janvier et février de 2023.

Les premières réactions sont allées de l’excitation (chez les élèves) à l’horreur (chez les enseignants). Enseignants et professeurs craignaient que ChatGPT rende obsolète la rédaction de dissertation, les élèves pouvant finir leurs rédactions en quelques secondes avec très peu d’effort. Serait-ce la fin de la rédaction ? La mort des devoirs à toute fin pratique ?

Avant longtemps, presque tout le monde connaissait ChatGPT. Les élèves de mon école adventiste qui avaient confiance dans leur capacité de rédiger leurs propres pensées ont peut-être été moins tentés, mais les élèves plus jeunes ou moins mûrs ont vu ChatGPT comme un raccourci afin d’éviter les tâches considérées comme longues, difficiles et ennuyantes. Un étudiant n’était pas fier d’admettre l’avoir utilisé pour des devoirs, mais la possibilité de se soustraire à un travail était trop forte pour l’ignorer. Cet étudiant a utilisé ChatGPT pour aider à la recherche d’idées (brainstorming) et pour rédiger des documents complets nécessitant une révision. Si le but de tout cela était d'économiser du travail, ChatGPT n'a pas réussi à le faire. Le temps passé à corriger les problèmes dans les documents générés par l’IA générative a été plus long que le temps qu’il aurait fallu pour les rédiger.

Les possibilités de l’IA dans les écoles

Au fur et à mesure que la technologie était mieux connue et son utilisation plus répandue, certains enseignants ont commencé à passer de l’horreur à un optimisme prudent, considérant que ChatGPT pouvait être un autre outil dans leur boîte à outils éducatifs. Nathaniel Whittemore, animateur du podcast (baladodiffusion) AI Breakdown, dit que les éducateurs et les étudiants sont toujours parmi les premiers utilisateurs adaptatifs des nouvelles technologies3. Les technologies ont présenté ce genre de possibilité de nombreuses fois. Pour faire une comparaison, le calculateur a perturbé la façon dont les cours de maths étaient enseignés, mais après une période de résistance, les enseignants ont rapidement appris à adapter leurs programmes d’études au nouvel outil4.

L‘IA générative présente une autre sorte de défi majeur. Cette technologie était totalement inconnue de la majorité des éducateurs il y a tout juste un an. Par contre, si les enseignants peuvent être ouverts aux opportunités offertes par l’IA générative, elle peut offrir de nombreuses utilisations bénéfiques. L’encadré 2 comporte une liste des façons dont l’IA peut être utilisée en classe. L’auteur les a glanées à partir diverses sources et d’expériences des enseignants. (Voir l’encadré 2 Possibilités d'utilisation de l'IA générative)

On peut trouver beaucoup plus d’idées en ligne. Il existe des listes gratuites comme la liste de plus de 100 idées créatives dans Zenedo5. Également, les chercheurs commencent à publier des livres sur le sujet6. Beaucoup d’idées sur la liste dans l’encadré 2 viennent de Shah ou Skrabut, entre autres sources. OpenAI a aussi présenté une série d'articles de blog, d'outils d'aide, et de Questions/Réponses au début de l’année scolaire 2023-2024 à l’intention des éducateurs qui se débattent avec l’IA générative7.

Quelles sont les limitations auxquelles enseignants et étudiants peuvent s’attendre ?

Alors que la plupart du temps, l’IA générative fournit des textes étonnants, elle a quand même des limites que tous les utilisateurs devraient comprendre. Les enseignants doivent savoir que ChatGPT et d’autres modèles d’IA manqueront souvent de bon sens, seront imprécis et inventeront des détails. Les étudiants doivent aussi être conscients de la tendance de l’IA d’inventer des choses et du fait qu’elle a très peu d’orientation éthique. Actuellement, il semble que l’accès à des documents de haute qualité examinés par des pairs, documents qui existent derrière les murs payants de revues réputées, soit limité8.

Les problèmes que ChatGPT a, tant avec le bon sens que la précision, découlent du fait qu’en réalité le modèle ne comprend pas les mots ou le langage9. Le « cerveau » de l’ordinateur ne fait que prédire ce qu’il pense que vous voulez entendre en se basant sur les calculs mathématiques et les probabilités. ChatGPT décompose les lettres et les mots en nombres binaires, et il n’a aucune idée si l’information est exacte ou non. Cela donne lieu à des interactions déroutantes comme celles-ci :

Utilisateur : Combien de RR dans le mot « Idiosyncrasy ? »

ChatGPT : Il y a trois R dans le mot « Idiosyncrasy ».

Utilisateur : Expliquez votre réponse. Localisez tous les R.

ChatGPT : Je m’excuse pour la mauvaise réponse dans ma réponse antérieure. Il y a en fait deux R dans le mot « Idiosyncrasy ». Voilà la bonne répartition. Le premier R se trouve après la lettre « i ». Le second R est après la lettre « o ».

Utilisateur : Que donne 6257 X 962 ?

ChatGPT : Le résultat de 6257 multiplié par 962 est 6 022 834.

Utilisateur : C’est faux !

ChatGPT : Je m’excuse pour l’erreur dans ma réponse antérieure. Calculons le résultat correct de 6257 multiplié par 962 : 6257 X 962 = 6 014 134. Merci d’avoir relevé l’erreur10.

(Mais en passant, la bonne réponse est 6 019 234).

Pourquoi ChatGPT ferait-il une telle erreur élémentaire comme le nombre de R dans un mot, ou une réponse à une problème de multiplication que n’importe quelle calculatrice donne correctement ? Rappelez-vous que les Modèles linguistiques de grande taille sont uniquement formés sur du texte en ligne. Il est très peu probable que quelqu’un en ligne n’ait jamais demandé le nombre de R dans le mot idiosyncrasy. Ce n’est pas nécessaire. Quiconque peut reconnaître les lettres peut compter le nombre de R. De la même façon, il est très probable que le problème de multiplication 7 X 5 se trouve sur de nombreux sites web, mais le problème ci-dessus peut ne se trouver sur aucune source Internet. L’IA doit se débrouiller pour arriver à ce qu’elle « pense » que vous voulez. C’est assez proche mais aucune des deux réponses n’est exacte. Dans ces exemples, ChatGPT n'a que très peu de données d’entraînement à sa disposition.

Cela explique aussi pourquoi ChatGPT a tendance à inventer les informations. Les observateurs appellent cela une hallucination mais certains chercheurs préfèrent le terme confabulation pour éviter de surhumaniser les modèles informatiques11. ChatGPT n'a simplement aucun moyen de vérifier ses informations. Comme un étudiant non préparé qui fait une présentation, il essaie d'utiliser du texte qu'il sait avoir l'air vraisemblablement humain, mais qui produit parfois une information qui semblera sûre mais qui est néanmoins très incorrecte. Un exemple frappant de cela est l'histoire de l'avocat qui a fini par citer le nom de six affaires, dont aucune n'a réellement existé12 ! (Cette histoire vraie devrait être signalée à tous les étudiants qui pourraient être tentés d'utiliser l'IA générative.)

Un autre point est relié au fait que le texte généré par les Modèles linguistiques de grande taille (LLM) est parfois blessant et négatif. ChatGPT étant la somme des éléments qui constituent ses données de base, il peut donner des informations et des conseils qui pourraient être biaisés ou blessants. Certes, les programmeurs ont donné pour objectif aux LLM d'être utiles et pertinents, mais pensez à tous les textes que vous avez vus sur Internet. Combien de textes en ligne sont biaisés ou blessants ? Cela devrait vous donner une idée de ce qu'un LLM doit passer au crible pour essayer d'être utile aux humains.

L'IA et les écoles chrétiennes

Les écoles confessionnelles ont des préoccupations et des possibilités spécifiques liées à l'utilisation de l'IA générative. Pour les croyants, un domaine d'intérêt primordial est le fait que l'IA a été créée par les humains. Dieu a créé les humains à son image et il nous a accordé une étincelle de créativité divine que nous pouvons alors utiliser pour construire une technologie à notre image. Bien sûr, l'IA n'est pas la conscience humaine. Par contre, les programmeurs veulent que l'IA réponde comme le ferait un humain, et cela soulève des questions importantes sur l'éthique de la manière dont nous voulons qu'elle nous influence.

Un mémoire 2022 discute en profondeur du sujet de l'éthique dans l'IA13. Dans cette étude, l'auteur a interrogé plusieurs personnes qui travaillent dans des champs qui se situent à l'intersection de la foi et la technologie. Ces entrevues discutent de la façon dont l'éthique désirée et générée par les programmeurs, telles que l'efficacité et la précision, diffère de l'éthique chrétienne, tels que l'humilité, l'altruisme, le sacrifice, la miséricorde et l'amour. Plusieurs de ces entrevues discutent des bienfaits d'introduire l'amour dans les systèmes éthiques comparativement aux tentatives de programmer l'éthique dans l'IA.

Les préoccupations mentionnées plus tôt, soit les biais et un contenu blessant, sont directement liées à la programmation éthique de l'IA générative. D'autres considérations importantes soulevées par les critiques de l'IA incluent l'utilisation de deepfakes, la capacité de protéger les données privées, et les craintes de confier la prise de décision humaine à l'IA14. Les entrevues de Huizinga suggèrent que d'inclure Dieu dans la programmation éthique de l'IA pourrait atténuer certaines de ces préoccupations. Lorsque la raison d'être de l'éthique est basée sur le fait que Dieu nous a aimés premièrement, nos actions éthiques agissent comme un moyen d'élever les autres vers Dieu. Par contre, quand un système éthique est basé sur l'efficacité, la précision, et l'évitement de tout contenu spécifique, il est probable qu'il n'agira pas de manières à réellement faire du bien aux gens. Même si nous considérons l'IA comme une intelligence humaine, il est utile de se rappeler que c'est un outil programmé d'une manière qui n'inclut pas nécessairement l'amour pour toute l'humanité.

Mais en tant qu'outil, ChatGPT peut encore fournir beaucoup d'avantages, et même pour les besoins particuliers des gens dans les écoles chrétiennes. L'IA générative offre des suggestions de programmation exceptionnellement bonnes pour les événements et les services religieux. Considérez un aumônier scolaire qui doit préparer une semaine de prière. ChatGPT pourrait rapidement fournir des thèmes cohérents, des activités intéressantes, et des questions de réflexion pour relier les travaux de cours des étudiants aux concepts présentés dans les réunions. Mais le souci de l'exactitude demeure. Bien que ChatGPT ait beaucoup de connaissances bibliques, il peut ne pas fournir un matériel cohérent théologiquement ou fidèle au texte original15. Cette règle de base s'applique aussi ici : Utilisez l'IA pour avoir des idées mais faites votre propre travail. Dieu nous appelle à dire la vérité dans l'amour (Éphésiens 4.15). Les enseignants et les planificateurs d'événements spirituels doivent s'assurer que les suggestions de l'IA qu'ils utilisent sont en accord avec leurs croyances, et garder à l'esprit les enjeux éthiques discutés plus haut.

Que fait ChatGPT ?

Quand ChatGPT présente quelque chose de bizarre, et que nous ne savons pas pourquoi, nous avons un exemple de ce que l'on appelle le « problème de l'alignement »16. Les objectifs de l'IA ne correspondent pas aux nôtres. Dans de telles situations, il n'y a absolument pas de moyen pour nous humains de comprendre pourquoi cela s'est produit car il faudrait effectuer des milliers de milliards de calculs pour fournir des réponses. Une bonne étape pour comprendre pourquoi les LLM confabulent et introduisent des erreurs est d'acquérir une certaine compréhension de ce que les ordinateurs font en réalité dans les coulisses17.

Imaginez une classe dans laquelle l'enseignant adopte une approche à l'apprentissage non orthodoxe. Au lieu d'afficher des objectifs d'apprentissage et des apprentissages clés, il dit à ses étudiants : « Faites ce qui vous vient à l'esprit. J'ai un objectif pour vous, et je vous laisserai savoir si vous vous en approchez. Essayez des choses !»

Tandis que les étudiants essaient des choses, l'enseignant donne un avis défavorable. Écrire au tableau reçoit un avis défavorable. Dessiner reçoit un avis défavorable. Ouvrir un livre de science reçoit un avis défavorable.

Exaspéré, un étudiant abandonne et se dirige vers le coin aux Legos, et, étonnamment, l'enseignant lui donne un avis favorable. Stimulés, les étudiants commencent à prendre des Légos et à les assembler de différentes façons. Éventuellement, ils créent un modèle de soustraction : 8 Légos - 5 Légos = 3 Légos. Sans avoir jamais été informés de l'objectif, les étudiants arrivent à une bonne réponse.

Voilà, à une échelle très réduite, comment ChatGPT a été formé. Plutôt que de programmer des règles et des tests logiques, on a posé des questions à l'ordinateur. Si ses réponses étaient bonnes, les humains lui ont principalement donné un avis favorable. Dans le scénario ci-dessus, avec les contraintes de temps d'une journée de classe, il est très possible que les élèves ne puissent jamais déterminer l'objectif de l'enseignant. Mais répétez ce processus des millions ou des milliards de fois, et vous obtenez un ordinateur assez bon pour répondre à des questions compréhensibles pour les humains. Ce n'est probablement pas la meilleure manière d'enseigner une classe d'étudiants. L'enseignant sait que les étudiants sont arrivés à une bonne réponse, mais il ne sait pas vraiment ce qu'ils comprennent, si jamais ils comprennent quelque chose. C'est essentiellement ce qui se passe avec les réponses données par ChatGPT.

Tâches que les LLM font mal

Devant un tel tableau, les enseignants peuvent être envahis par un sentiment de désespoir quant à la possibilité d'éviter que ChatGPT ne prenne en charge les devoirs de leurs élèves. Certains enseignants peuvent être tentés de renoncer à enseigner la précision, la rédaction, la compréhension de base, ou même le raisonnement critique puisque les LLM peuvent si bien le faire et qu'ils semblent ne pas se soucier de leurs échecs. Cette réaction pourrait être compréhensible, mais il faut l'examiner honnêtement.

Les deux enseignants que j'ai interviewés pour cet article m'ont tous les deux dit qu'ils ne pensaient pas que ChatGPT devrait prendre la place des aptitudes traditionnelles de la rédaction, de l'organisation et de l'élaboration de concepts. Même si l'IA peut bien faire ces tâches de base, il reste qu'il est important que les étudiants soient capables de les faire. Un des enseignants a mentionné que les étudiants ont besoin de ces compétences rudimentaires pour acquérir des compétences de haut niveau. En laissant à l'IA la charge d'exécuter ces tâches plus simples, les enseignants pourraient se hâter d'avancer vers des compétences plus complexes, laissant en arrière des étudiants qui ont besoin d'aide pour les compétences de niveau inférieur, créant ainsi des lacunes dans la compréhension18.

En réfléchissant à cette idée, un enseignant a commenté que nous devions éviter la pensée du tout ou rien sur la technologie. Toutes les compétences académiques ne nécessitent pas l'internet ou même d'être dactylographiées. C'est en conversant ou en faisant des activités en classe que les compétences de la pensée critique s'apprennent le mieux. De plus, si ChatGPT peut écrire un sonnet, cela ne signifie pas que lesgens devraient cesser d'écrire des sonnets.

Ceci dit, il est encore valable de comprendre quelles sont les tâches que ChatGPT ne peut faire pour le moment ou a de la difficulté à bien faire. Voici une liste qui peut être très utile pour les enseignants qui tentent de minimiser la probabilité que les étudiants essaient d'utiliser l'IA générative pour faire leurs devoirs.

Les LLM sont mauvais dans :

  • l'analyse de données spécifiques à partir d'images ou de vidéos visionnées en classe : les LLM ont commencé à être capables de comprendre ce qui se trouve dans les images, mais ils ont encore du mal à comprendre la signification du matériel dans les images et les vidéos.
  • l'analyse qui s'appuie ou cite les discussions en classe. Les tâches qui font référence à ce qui s'est passé en classe ne peuvent être complétées que par ceux qui étaient présents.
  • les réactions personnelles à des sources spécifiques citées : les enseignants peuvent demander aux étudiants de réagir, et évaluer, un matériel spécifique selon leur compréhension propre. Les LLM peuvent « prétendre » appliquer des informations à leur vie mais un lien avec la vie réelle sera beaucoup plus vivant.
  • les thèmes : parce que les LLM n'ont pas un sens de cohésion générale, ils ont des difficultés avec une analyse globale et l'utilisation d'une illustration plus petite d'un concept plus large. Ils ont tendance à se répéter ou même à se contredire sur des passages plus longs.

Ajoutons aux points ci-dessus que les enseignants peuvent aussi structurer le temps en classe de manière à ce que les étudiants accomplissent leurs tâches à l'école plutôt que de se débrouiller seuls, où la possibilité d'utiliser les LLM est plus grande. Pour les instructeurs qui cherchent à enseigner les compétences rédactionnelles importantes, les conseils pour l'utilisation du temps de classe sont les suivants :

  • faire rédiger des textes en classe ;
  • faire un brainstorming et pré-écrire à la main. (Il n'est pas recommandé d'exiger que les étudiants rédigent leurs rédactions ou des passages plus longs à la main19. Il peut être nécessaire de faire d'autres adaptations avec les étudiants qui ont d'autres besoins d'apprentissage) ;
  • diviser la rédaction en petites étapes qui peuvent être faites en classe ;
  • exiger l'utilisation de certaines sources spécifiques auxquelles les étudiants ont accès ;
  • organiser des conférences de rédaction personnelles dans lesquelles vous demandez aux étudiants d'expliquer leur raisonnement.

Prendre ChatGPT sur le fait

Les deux enseignants adventistes à qui j'ai parlé pour cet article ont tous les deux piégé leurs étudiants utilisant ChatGPT lors de la dernière année scolaire. Ils ont fait un retour sur l'étrangeté de cette découverte. L'un et l'autre ont su, dès une première lecture, que ces travaux n'étaient pas écrits par les étudiants. Le langage ne reflétait pas la façon dont le sujet avait été discuté en classe, et le travail n'équivalait pas à ce que les étudiants avaient produit plus tôt dans l'année. De plus, le contenu a été décrit comme étant « approfondi, au-delà du point que la plupart des étudiants parleraient de quelque chose », mais en même temps il était vague.

Confrontés aux preuves, la plupart des étudiants ont admis immédiatement avoir utilisé ChatGPT. Un des étudiants a déclaré ne l'avoir utilisé que pour réviser sa rédaction et en vérifier la grammaire, mais pour l'enseignant cette affirmation lui a paru douteuse.

Les deux enseignants à qui j'ai parlé m'ont signalé qu'ils hésitaient à aborder la question de ChatGPT avec leurs étudiants. Quand les enseignants n'ont pas vraiment utilisé ChatGPT, ils ne sont pas sûrs de pouvoir bien informer les autres à ce sujet. Une des enseignantes ne connaissait rien sur ChatGPT avant d’identifier son utilisation dans sa classe. Elle savait que l'étudiant n'avait pas écrit cette dissertation mais elle ne pouvait pas comprendre ce que c'était. Soumettre le devoir à un détecteur de plagiat n'avait rien donné, et elle était restée confuse.

Peut-on utiliser ChatGPT pour détecter ChatGPT ?

Vers la fin de l'année scolaire 2022-2023, des douzaines de compagnies ont commencé à mettre au point des outils conçus pour détecter les textes générés par l'IA dans les devoirs. Ces outils, appelés « classificateurs », semblaient promettre être la nouvelle version de vérificateurs de plagiat. OpenAI a publié son propre classificateur en janvier 2023 avec l'avertissement qu'il se trompait souvent20. Il pouvait classer correctement du texte de l'IA seulement 26 % du temps, ce qui signifiait, bien sûr, qu'il n'y arrivait pas 74 % du temps, et il classait faussement du texte écrit par un humain comme étant du texte de l'IA 9 % du temps !

La théorie était que les classificateurs s'amélioreront avec le temps, et qu'ils pourront éventuellement être capables de dire avec un haut degré de certitude si le texte écrit était d'un humain ou d'un ordinateur. Cela s'est révélé ne pas être vrai. Le texte généré par l'IA est beaucoup plus difficile à détecter qu'un texte plagié qui a probablement été publié quelque part d'autre. Le défi est que le texte de l'IA générative n'existe nulle part ailleurs, ce qui force les classificateurs à considérer d'autres caractéristiques du texte. Pour faire quelques comparaisons, les ordinateurs sont plus prévisibles que les humains, complétant habituellement les phrases comme les autres, et se conformant plus à la longueur et la structure des phrases.

Avec ces caractéristiques, il pourrait sembler possible de déterminer si le texte est généré par des humains. Mais jusqu'à présent, classificateurs ne sont pas des indicateurs fiables21. Beaucoup de textes générés par les ordinateurs sont encore non signalés (faux négatifs), et des textes écrits par des humains sont souvent signalés (faux positifs). Ces fausses classifications ont des conséquences. Il est injuste d'exclure à tort des étudiants en raison d'un faux positif, et il est contraire à l'éthique de réussir à faire passer un texte faussement négatif généré par l'IA pour le sien.

Les faux positifs ont déjà causé d'importants bouleversements comme lorsqu'un professeur a menacé de faire échouer toute sa classe à cause de l'utilisation du ChatGPT22. Pire encore est le fait que les apprenants de l'anglais risquent plus d'avoir leurs écrits faussement signalés comme générés par l'IA, probablement à cause d'une rédaction prévisible limitée par leur vocabulaire23.

Le problème de classification est si grave que certains enseignants peuvent être tentés de tout simplement demander au ChatGPT s'il a écrit quelque chose. Pour répondre à cette idée, OpenAI a déclaré dans les Questions/Réponses du guide de l'enseignant que de demander à ChatGPT s'il a écrit quelque chose échouera : « ChatGPT n'a aucune connaissance du contenu qui pourrait être généré par l'IA ou de ce qu'il a généré. Parfois, il forgera des réponses aux questions telles que ''avez-vous écrit [cet essai]'' ou ''cela aurait-il pu être écrit par l'IA'' ? Ces réponses sont aléatoires et ne reposent sur aucune base factuelle »24.

Cependant OpenAI offre parfois des suggestions pour les enseignants qui espèrent éviter le problème des étudiants qui remettent du texte généré par l'IA comme étant le leur25. Ces suggestions comprennent d'intégrer l'IA générative en classe, d'enseigner aux étudiants comment s'en servir de façon éthique et responsable, et faire en sorte que les élèves montrent leur travail tout au long du processus.

Conclusion

L'IA générative a le potentiel de révolutionner la façon dont nous enseignons et apprenons. Avec l'explosion des LLM comme ChatGPT, nous voyons un nouveau monde d'apprentissage personnalisé qui peut aider étudiants et enseignants pareillement. Cependant, il est important de se rappeler que ces modèles sont encore relativement nouveaux et imprévisibles. Leurs limites doivent être comprises alors que les enseignants (et les étudiants) les utilisent en classe.

Alors que nous allons de l'avant en intégrant l'IA dans nos classes, nous ferions bien de nous rappeler les considérations éthiques impliquées. Enseignants et étudiants pareillement ont besoin d'être conscients des limites de l'IA - la confabulation, les informations inexactes, et le potentiel de biais et de contenu douteux. Les enseignants doivent prendre des mesures pour réduire ces risques et éduquer leurs étudiants.

Finalement, le succès de l'IA générative dans l'éducation dépendra de notre capacité à bien équilibrer les avantages avec les limitations. En travaillant ensemble afin de développer les meilleures pratiques et les lignes directrices, et en partageant nos succès, nous pouvons faire en sorte que cette technologie est utilisée de façon responsable et efficace.

Cet article a été revu par des pairs.

Lorin Koch

Lorin Koch, EdD, est auteur de cours pour Griggs International University, développeur de cours et instructeur pour Adventist Learning Community (ALC), et concepteur de programmes d'études associé pour le développement pour Pedagogy.Cloud, une société de conseil en éducation. Avec 19 ans d'expérience dans l'éducation adventiste, le L. Koch a travaillé comme enseignant dans l'enseignement secondaire et comme registraire à la Livingstone Adventist University (Salem, Oregon, États-Unis) et à l'Indiana Academy (Cicero, États-Unis). Il est titulaire d'un MAT en programmes d'études et enseignement de l'université de Walla Walla (College Place, Washington, États-Unis), et d'un EdD en Curriculum Studies de l'université de Caroline du Sud (Columbia, Caroline du Sud, U.S.A.). Cet article est issu de sa présentation à la Convention des éducateurs de la division de l'Amérique du nord, à Phoenix, Arizona, en août 2023, et de son travail d'élaboration de cours pour l'ALC.

Référence recommandée :

Lorin Koch, ChatGPT dans la salle de classe : Recommandations d’utilisation, limites et expériences des élèves et des enseignants, Revue de l'éducation adventiste, n° 67.

NOTES ET RÉFÉRENCES

  1. Noam Hassenfeld, (Host), “The Black Box: In AI We Trust?” [Épisode de podcast audio] . Dans Unexplainable. Vox Media Network (19 juillet 2023): https://pod.link/unexplainable/episode/4517829cfa939b38f5464d865325c24f.
  2. Jez Corden, “The Latest Episode of South Park is About ... ChatGPT,” Windows Central (7 mars 2023): https://www.windowscentral.com/microsoft/the-latest-episode-of-south-park-is-about-chatgpt.
  3. Nathaniel Whittemore, (Hôte), “Are Educators Ready for a ChatGPT School Year?” [Épisode de podcast audio]. Dans The AI Breakdown. The Breakdown Network (1e septmebre 2023): https://pod.link/1680633614/episode/dd5a5e33112b0522483800a238c9f00e.
  4. William Pang, “The Common High-School Tool That’s Banned in College,” The Atlantic (22 décembre 2016): https://www.theatlantic.com/education/archive/2016/12/the-conundrum-of-calculators-in-the-classroom/493961/.
  5. Chrissi Nerantzi et coll., (éds.) “101 Creative Ideas to Use AI in Education: A Crowdsourced Collection,” Zenodo (2023): https://zenodo.org/record/8224168.
  6. Priten Shah, AI and the Future of Education: Teaching in the Age of Artificial Intelligence (San Francisco: Jossey-Bass, 2023); Stan Skrabut, 80 Ways to Use ChatGPT in the Classroom (autopublié, 2023).
  7. OpenAI, “Teaching With AI” (31 août 2023): https://openai.com/blog/teaching-with-ai.
  8. Sara Guaglione, “Why Protecting Paywalled Content From AI Bots is Difficult Business,” (7 août 2023): https://digiday.com/media/why-protecting-paywalled-content-from-ai-bots-is-difficult-business/; Emily Dreibelbis, “‘Browse With Bing’ Disabled on ChatGPT Plus Because It Bypassed Paywalls” (5 juillet 2023): https://www.pcmag.com/news/browse-with-bing-disabled-on-chatgpt-plus-because-it-bypassed-paywalls.
  9. Paul Thagard, “Why Is ChatGPT so Smart and So Stupid?” Psychology Today (23 février 2023): https://www.psychologytoday.com/us/blog/hot-thought/202302/why-is-chatgpt-so-smart-and-so-stupid.
  10. Conversations générées par l'auteur en utilisant un modèle ChatGPT GPT 3,5.
  11. Benj Edwards, “Why ChatGPT and Bing Chat Are So Good at Making Things Up: A Look Inside the Hallucinating Artificial Minds of the Famous Text Prediction Bots,”Ars Technica (6 avril 2023): https://arstechnica.com/information-technology/2023/04/why-ai-chatbots-are-the-ultimate-bs-machines-and-how-people-hope-to-fix-them/.
  12. Kathryn Armstrong, “ChatGPT: US Lawyer Admits Using AI for Case Research,” BBC News (27 mai 2023): https://www.bbc.com/news/world-us-canada-65735769.
  13. Gretchen Huizinga, “Righteous AI: The Christian Voice in the Ethical AI Conversation” (Dissertation, University of Washington, 2022): https://aiandfaith.org/wp-content/uploads/2022/09/RIGHTEOUS-AI-THE-CHRISTIAN-VOICE-IN-THE-ETHICAL-AI-CONVERSATION.pdf.
  14. Selin Akgun et Christine Greenhow, “Artificial Intelligence in Education: Addressing Ethical Challenges in K-12 Settings,” AI Ethics 2 (2022): 431-440. https://doi.org/10.1007/s43681-021-00096-7
  15. Jennifer A. Kingston, “Religious Leaders Experiment with ChatGPT Sermons,” Axios (10 mars 2023): https://www.axios.com/2023/03/10/pastors-chatgpt-sermons-rabbi-minister.
  16. Edd Gent, “What is the AI Alignment Problem and How Can it be Solved?” New Scientist (10 mai 2023): https://www.newscientist.com/article/mg25834382-000-what-is-the-ai-alignment-problem-and-how-can-it-be-solved/.
  17. Samuel R. Bowman, “Eight Things to Know About Large Language Models”(manuscript non publié 2023): https://arxiv.org/pdf/2304.00612.pdf.
  18. Shah, AI and the Future of Education: Teaching in the Age of Artificial Intelligence.
  19. Anna Mills et Lauren M. E. Goodlad, “Adapting College Writing for the Age of Large Language Models Such as ChatGPT: Some Next Steps for Educators,” Critical AI (17 janvier 2023, mise à jour 17 avril 2023): https://criticalai.org/2023/01/17/critical-ai-adapting-college-writing-for-the-age-of-large-language-models-such-as-chatgpt-some-next-steps-for-educators/.
  20. Jan Hendrik Kirchner et coll., “New AI Classifier for Indicating AI-written Text,” OpenAI (31 janvier 2023): https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text.
  21. Benj Edwards, “Why AI Detectors Think the US Constitution Was Written by AI,” Ars Technica (14 juillet 2023): https://arstechnica.com/information-technology/2023/07/why-ai-detectors-think-the-us-constitution-was-written-by-ai/.
  22. Pranshu Verma, “A Professor Accused His Class of Using ChatGPT, Putting Diplomas in Jeopardy,” Washington Post (19 mai 2023):
    https://www.washingtonpost.com/technology/2023/05/18/texas-professor-threatened-fail-class-chatgpt-cheating/.
  23. Weixin Liang et coll., “GPT Detectors Are Biased Against Non-native English Writers,” Patterns 4:7 (14 juillet 2023): 100779–100779. https://doi.org/10.1016/j.patter.2023.100779.
  24. OpenAI Help Center Educator FAQ, “Can I Ask ChatGPT if It Wrote Something?” (n.d.): Récupéré le 11 septembre 2023, à partir de https://help.openai.com/en/articles/8318890-can-i-ask-chatgpt-if-it-wrote-something.
  25. OpenAI Help Center Educator FAQ, “How Can Educators Respond to Students Presenting AI-generated Content as Their Own?” (n.d.): Récupéré le 11 septembre 2023, à partir de https://help.openai.com/en/articles/8313351-how-can-educators-respond-to-students-presenting-ai-generated-content-as-their-own.