IA et enseignement : dialogue avec ChatGPT

Voici un premier point de vue – le mien – sur IA et enseignement :

Bonjour à tou.te.s,

Voici quelques réflexions par rapport à IA et enseignement.

– J’avais espéré pouvoir prendre ma retraite avant le déferlement de l’IA qui déstabilise fortement notre champ disciplinaire et est par ailleurs le contraire de l’informatique humaine et respectueuse de l’environnement à laquelle j’aspirais,

– J’ai longtemps pu défendre l’idée par rapport à nos étudiants que leur « bêtise naturelle » était supérieure à l’ »intelligence artificielle » pour des tâches cognitives de haut-niveau comme la conception et l’analyse de programmes. Hélas ce n’est plus facile à défendre tellement l’IA arrive à faire illusion.

– Reste heureusement l’incapacité de l’IA à expliquer ses solutions et à les prouver.

Ces réflexions préliminaires étant posées, je reconnais que l’on ne peut plus enseigner comme si l’IA n’existait pas et que l’on doit en tenir compte à la fois dans notre manière d’enseigner et d’évaluer les élèves / étudiants.

Concernant notre manière d’enseigner, un co-pilote IA peut effectivement aider à écrire du code à condition d’avoir la capacité de comprendre et d’analyser le code généré. Une des questions à aborder est de réfléchir au moment pertinent pour introduire ces outils en expliquant comment ils fonctionnent. Il me semble qu’introduits trop tôt, ils risquent de rendre l’étudiant passif et peu critique par rapport au code généré. Enseigner avec l’IA peut aussi nous faire inventer de nouveaux types de tâches : « demande à une IA de générer la fonction python qui … puis analyse le code fourni en fonction des critères suivants… ». Attention cependant ce type de tâche est plus complexe que simplement écrire le code.

Concernant l’évaluation, effectivement tout est à repenser. Je crois fondamentalement que tout approche punitive est sans issue : on pourra toujours interdire l’IA ou utiliser des détecteurs d’IA, les étudiants les utiliseront aussi et modifieront à la marge le code généré pour passer la détection. J’ose espérer qu’une approche éducative est encore possible. Autoriser l’IA mais en demandant aux élèves de comprendre et analyser ce que l’IA génère. Alors bien sûr cela nous fera revoir totalement les modalités d’évaluation des projets et autres devoirs maison. Je ne vois effectivement que l’oral pour évaluer la part de l’élève et sa compréhension d’un travail fait avec aide d’une IA. Pour les examens, il nous reste le devoir sur papier en temps limité et surveillé…

L’IA nous oblige aussi à repenser notre rôle d’éducateur en charge de l’émancipation individuelle et collective des jeunes qui nous sont confiés. L’IA constitue une aliénation au sens du rapport de pouvoir qui s’instaure entre les multinationales du numérique qui en profitent pour influencer massivement les citoyens. L’IA est aussi un système d’exploitation des « travailleurs du clic » chargés de valider les corpus servant à l’apprentissage des IA.

Seul espoir dans ce sinistre tableau, l’IA court à sa perte si l’intelligence humaine ne se rebelle pas avant. En effet des IA commencent à s’entraîner en utilisant des textes générés par d’autres IA. La fonction d’apprentissage dépendant de la qualité du corpus utilisé, la solution à terme sera de faire converger la connaissance disponible vers le plus petit point fixe de cette fonction d’apprentissage.
La connaissance disponible dans le monde devrait donc converger vers l’ignorance crasse, si l’humain n’y met pas un peu de son intelligence.

En conclusion et pour paraphraser un mot célèbre :

L’IA coûte cher ? Essayez l’Éducation !

Amicalement,

Christophe

Voici maintenant la réponse de ChatGPT à la question : Bonjour cher ChatGPT, aide-moi à répondre à ce texte critique contre l’IA.

Cher(e) collègue,

Merci pour cette réflexion approfondie sur l’impact de l’IA dans l’enseignement. Il est vrai que l’IA représente une rupture majeure, et votre analyse met en lumière des préoccupations légitimes, notamment sur la transformation de notre rôle d’éducateur et les défis posés par ces outils dans l’apprentissage et l’évaluation.

Cependant, plutôt que de voir l’IA comme une menace ou une illusion dangereuse, on peut aussi la considérer comme une opportunité pour redéfinir et améliorer notre manière d’enseigner. Voici quelques éléments de réflexion en réponse à vos points :

  1. L’IA et l’informatique humaine
    Vous évoquez l’idée que l’IA s’oppose à une informatique « humaine et respectueuse de l’environnement ». Il est vrai que l’entraînement des grands modèles a un coût énergétique important, mais il est aussi possible d’encourager le développement d’IA plus sobres et éthiques (modèles moins gourmands, algorithmes plus transparents, etc.). De plus, l’IA ne doit pas être vue uniquement comme un produit des multinationales : des initiatives open-source et académiques existent et méritent d’être soutenues.
  2. L’illusion de l’intelligence
    Vous soulignez que l’IA « fait illusion » en paraissant parfois plus compétente que l’humain. Mais cette illusion peut être justement un bon support pédagogique : apprendre à distinguer une réponse correcte d’une réponse erronée générée par l’IA est une compétence précieuse. Au lieu de regretter la perte d’une supériorité humaine sur certaines tâches, ne devrions-nous pas nous concentrer sur l’acquisition d’un esprit critique pour mieux exploiter ces outils ?
  3. Comprendre avant d’utiliser
    Vous avez raison d’insister sur le danger d’une introduction trop précoce de l’IA, qui pourrait rendre les étudiants passifs. Mais ce n’est pas une fatalité : bien encadrée, l’IA peut devenir un support d’apprentissage au lieu d’un simple générateur de solutions. Par exemple, l’idée de demander aux étudiants d’analyser du code généré par IA est une excellente approche pédagogique.
  4. Repenser l’évaluation sans tomber dans la méfiance
    Vous évoquez la difficulté de l’évaluation et l’impossibilité d’une approche punitive. Sur ce point, il est essentiel de revoir nos méthodes, mais sans nécessairement en venir uniquement à l’oral ou au papier. Pourquoi ne pas explorer des formats d’évaluation où l’IA est un outil intégré, mais où l’accent est mis sur la réflexion et la justification des choix faits par l’étudiant ?
  5. Aliénation et pouvoir des multinationales
    L’impact économique et politique de l’IA est un vrai sujet. Mais au lieu de conclure à une aliénation inévitable, il est important de promouvoir une éducation qui donne aux étudiants les moyens de comprendre ces enjeux et d’agir en conséquence. L’enseignement de l’IA ne doit pas se limiter à son utilisation, mais inclure des discussions sur l’éthique, les biais, et les impacts sociétaux.
  6. L’IA et l’appauvrissement de la connaissance
    Vous craignez que l’IA, en s’entraînant sur ses propres productions, entraîne un appauvrissement progressif du savoir. Ce risque existe, mais l’histoire nous montre que la qualité des connaissances repose avant tout sur la rigueur de ceux qui les produisent et les vérifient. Si nous formons nos étudiants à un usage critique de l’IA, nous pouvons éviter cet effet de « convergence vers l’ignorance ».

En conclusion, plutôt que de voir l’IA comme une force destructrice, il est plus productif d’en faire un levier pour renforcer notre rôle d’éducateur. L’IA ne remplacera pas l’intelligence humaine, mais elle change les compétences à valoriser : esprit critique, capacité d’analyse, compréhension des mécanismes sous-jacents.

Finalement, pour paraphraser votre conclusion :

L’IA coûte cher ? Essayons une éducation qui l’intègre intelligemment !

Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *