Les Crises Les Crises
14.août.202514.8.2025 // Les Crises

Réguler l’IA ne suffit pas. Il faut démonter la logique qui l’introduit dans nos écoles

Merci 35
J'envoie

Introduire l’IA dans les écoles n’est pas un progrès, c’est un signe qui montre à quel point nous nous sommes éloignés de la finalité de l’éducation.

Source : Jesse Hagopian, Truthout
Traduit par les lecteurs du site Les-Crises

Les entrepreneurs du secteur de l’éducation vantent les mérites de l’intelligence artificielle comme remède à tous les maux, de l’inégalité d’accès au tutorat à l’épuisement professionnel des enseignants. Ayo Walker / Truthout

En avril dernier, la secrétaire d’État à l’éducation, Linda McMahon, a pris la parole lors d’une importante conférence sur les technologies de l’information à San Diego et a affirmé avec une grande détermination que les élèves américains bénéficieraient bientôt d’un « enseignement A1 ». Elle l’a répété à l’envi – « A1 » au lieu de « AI ». « Le système scolaire va commencer à faire en sorte que les élèves de première année, ou même de maternelle, bénéficient chaque année d’un enseignement A1. C’est merveilleux », a-t-elle assuré à la foule.

Ce moment est rapidement devenu viral. Les chroniqueurs de fin de soirée l’ont descendue en flammes. A.1. Steak Sauce a publié une fausse publicité : « Vous l’avez entendue. Chaque école devrait avoir accès à A.1. » [A.1 est le nom d’une sauce produite par la marque Kraft Heinz, NdT]

C’était drôle – mais pas longtemps. Parce que derrière cette gaffe se cache quelque chose de bien plus inquiétant : la personne qui dirige la politique fédérale en matière d’éducation souhaite remplacer le processus émotionnel et intellectuel de l’enseignement et de l’apprentissage par un processus mécanique de fourniture de contenu, d’extraction de données et de surveillance se faisant passer pour de l’éducation.

Cette démarche s’inscrit dans le cadre d’un programme plus vaste défendu par des milliardaires comme Bill Gates. « Les I.A. atteindront cette capacité, celle d’être un aussi bon enseignant que n’importe quel humain », a déclaré Gates lors d’une récente conférence destinée aux investisseurs dans le domaine des technologies éducatives. Comme l’a résumé un titre de presse : « Bill Gates affirme que l’IA remplacera les médecins et les enseignants d’ici 10 ans. »

Il ne s’agit pas seulement d’une prévision, mais d’un fantasme libidinal – un rêve capitaliste qui consiste à remplacer les relations humaines par du code et des logiciels évolutifs, tandis que les institutions publiques sont vidées de leur substance au nom de « l’innovation. »

Les logiciels ne sont pas intelligents

Il nous faut arrêter de prétendre que les algorithmes peuvent penser – et il nous faut arrêter de croire que les logiciels sont intelligents. Même si utiliser le terme « IA » sera parfois nécessaire pour être compris, nous devrions commencer à trouver et utiliser un langage plus exact.

Et non, je ne suis pas en train de dire que nous devons commencer à l’appeler « A1 » – sauf si nous parlons de la façon dont elle est étalée partout, que nous l’ayons demandée ou non. Ce que nous appelons IA serait mieux compris si nous l’appelions « mimétisme artificiel » : une reflet sans pensée, une articulation sans âme.

Le philosophe Raphaël Millière explique qu’en fait ce que ces systèmes font, ce n’est pas réfléchir ou comprendre, ils utilisent ce qu’il appelle le « mimétisme algorithmique » : une comparaison sophistiquée de modèles qui imite les performances humaines sans pour autant posséder la cognition humaine. Il écrit que les grands modèles pré-entraînés comme ChatGPT ou DALL-E 2 ressemblent davantage à des « caméléons aléatoires », qui ne se contentent pas de répéter des phrases mémorisées, mais se fondent dans le style, le ton et la logique d’une requête donnée avec une fluidité déconcertante. Cette capacité d’adaptation est impressionnante – et elle peut se révéler dangereuse – précisément parce que l’on peut facilement la confondre avec la compréhension.

Ce que l’on appelle l’IA peut être utile dans certains contextes. Mais ce que nous appelons aujourd’hui l’IA dans les écoles ne pense pas, ne raisonne pas, ne comprend pas. Elle devine. Elle copie. Elle manipule la syntaxe et les modèles en se basant sur la probabilité et non sur le sens. Elle n’enseigne pas – elle incite. Elle ne guide pas, elle gère.

En bref, elle imite l’intelligence. Mais le mimétisme n’est pas la sagesse. Ce n’est pas de la bienveillance. Ce n’est pas de la pédagogie.

Le véritable apprentissage, comme l’a montré le célèbre psychologue Lev Vygotsky, est un processus social. Il se fait par le dialogue, les relations et l’élaboration d’un sens commun. L’apprentissage se déroule dans ce que Vygotsky a appelé la zone de développement proximal – cet espace entre ce qu’un apprenant peut faire seul et ce qu’il peut réaliser avec les conseils d’un enseignant, d’un pair ou d’un mentor plus expérimenté – quelqu’un qui peut répondre avec bienveillance, poser la bonne question et accompagner l’étape suivante.

Ce que l’IA ne peut pas faire

Elle ne peut pas sentir si le silence d’un élève est synonyme de confusion ou de traumatisme. Elle ne peut pas remarquer l’étincelle dans les yeux d’un étudiant lorsqu’il relie un concept à son expérience vécue. Elle ne peut pas voir la brillance derrière une idée désordonnée, mais non encore complètement développée, ou le potentiel d’une voix non conventionnelle. Elle ne peut pas construire une communauté bienveillante.

Les entrepreneurs du secteur de l’éducation vantent les mérites de l’intelligence artificielle comme remède à tous les maux, depuis l’inégalité d’accès au soutien scolaire jusqu’au burn out des enseignants.

Elle peut produire des faits, poursuivre avec des questions, proposer des corrections, faire des résumés ou suggérer les prochaines étapes, mais elle ne peut pas reconnaître le poids émotionnel de la confusion ou la joie discrète d’une découverte intellectuelle.

Ce travail – la véritable tâche d’enseignement et d’apprentissage – ne peut être automatisé.

Les écoles ont besoin de plus d’assistants pédagogiques et de moins d’intelligence artificielle

Les outils d’IA tels que Magic School, Perplexity et School.ai sont pratiques : correction de la grammaire, reformulation des phrases, amélioration du ton. Mais ils poussent également les élèves vers des réponses stéréotypées qui leur permettront d’obtenir des notes élevées. L’IA incite les élèves à se conformer efficacement aux règles, et non à prendre des risques intellectuels ; ces outils enseignent le conformisme, et non l’originalité.

Récemment, mon fils a utilisé Raina, le chatbot de MagicSchool, pendant l’un de ses cours de Terminale, pour faire des recherches sur son exposé sur Porto Rico. Les avantages en étaient évidents : des réponses instantanées, pas besoin de passer au crible des textes denses ou de multiples sites web. Mais Raina n’a jamais posé les questions essentielles : pourquoi une nation qui s’autoproclame « terre de liberté » considère-t-elle toujours Porto Rico comme une colonie ? Comment les systèmes d’IA comme le sien contribuent-ils à la crise climatique qui menace l’avenir de l’île ? Raina a fourni des réponses bien policées. Mais soulever des questions plus complexes et aider les élèves à gérer le poids émotionnel des réponses est le travail d’un enseignant humain.

L’IA peut contribuer à simplifier les textes ou à faciliter l’écriture, mais elle peut aussi induire en erreur. Au fil du temps, elle entraîne les élèves à imiter ce que l’algorithme juge « efficace », plutôt qu’à développer leur propre style ou leurs propres idées. La lecture devient alors une simple extraction et non plus une mise en relation. L’âme de la littérature se perd lorsque la lecture devient une tâche mécanique et non un échange d’idées et d’émotions entre êtres humains.

De nombreux enseignants, sous-payés et débordés, se tournent vers l’IA par nécessité.

Cependant nous devons nous demander : pourquoi, dans le pays le plus riche de l’histoire du monde, les classes sont-elles si chargées – et les ressources si rares – que les enseignants sont obligés de faire appel à l’IA plutôt qu’à des assistants pédagogiques ? Pourquoi n’embauchons-nous pas davantage de documentalistes pour sélectionner des textes adaptés au niveau des élèves ou ne réduisons-nous pas la taille des classes afin que les enseignants puissent adapter eux-mêmes l’enseignement ?

L’IA ne se contente pas d’uniformiser l’apprentissage : elle peut désormais surveiller le comportement numérique des élèves de manière particulièrement invasive. Présentés comme des outils de sécurité, ces systèmes traquent ce que les élèves écrivent, recherchent ou publient, même lorsque les appareils sont fournis par l’école et emportés à la maison, étendant ainsi la surveillance à la vie privée des élèves. Au lieu de budgéter des conseillers, les écoles dépensent des milliers de dollars (comme les 58 000 dollars d’un district du New Jersey) pour des logiciels de surveillance. À Vancouver, dans l’État de Washington, une faille dans la sécurité des données a révélé l’ampleur des informations personnelles, notamment sur la santé mentale et l’identité LGBTQ+, qui étaient discrètement collectées. Une étude a révélé que près de 60 % des étudiants américains s’autocensurent lorsqu’ils sont sous contrôle. Comme l’expliquent Shreya Sampath et Marisa Syed, responsables d’Encode Justice, les élèves craignent que leurs « données soient collectées et commercialisées » et que leurs camarades « s’autocensurent dans des environnements d’apprentissage censés encourager l’exploration. »

Ursula Wolfe-Rocca, enseignante dans une école défavorisée de Portland, dans l’Oregon, a décrit l’utilisation actuelle de l’IA comme étant « ad hoc », certains enseignants de son école l’expérimentant et d’autres ne l’utilisant pas du tout. Alors que son école est encore en train d’élaborer une politique officielle, elle s’inquiète de l’enthousiasme de certains membres du personnel et de l’administration pour l’IA, motivé par « un battage médiatique non fondé sur la façon dont l’IA peut aider à combler le fossé en matière d’équité. »

La description de Wolfe-Rocca est à l’image d’une tendance nationale : L’utilisation de l’IA dans les écoles est inégale et très peu règlementée, et pourtant les districts encouragent de plus en plus son adoption. Même en l’absence d’un cadre réglementaire clair, le message que reçoivent de nombreux éducateurs est que l’IA arrive et qu’on attend d’eux qu’ils l’adoptent. Pourtant, cette pression s’accompagne souvent d’une absence de discussion sérieuse sur la pédagogie, l’éthique ou les inégalités structurelles que l’IA pourrait en fait aggraver, en particulier dans les écoles défavorisées comme la sienne.

Méfiez-vous de l’élixir numérique

Dans cette ruée vers l’or qu’est l’IA aujourd’hui, les entrepreneurs du secteur de l’éducation troquent les vieux scénarios de normalisation contre de belles promesses de personnalisation, vantant les mérites de l’intelligence artificielle comme remède à tous les maux, depuis l’inégalité d’accès au soutien scolaire jusqu’au burnout professionnel des enseignants. Prenons l’exemple de Salman Khan, fondateur de la Khan Academy, qui parle en termes élogieux du potentiel de l’IA. Khan a récemment créé Khanmigo un chatbot destiné à l’enseignement et l’a décrit comme un moyen de « démocratiser l’accès des étudiants au soutien individualisé », affirmant que celui-ci pourrait éventuellement offrir à « chaque étudiant aux États-Unis, et à terme dans le monde entier, un professeur particulier de classe mondiale ». Le nouveau livre de Khan, Brave New Words, se lit comme une lettre énamourée à l’IA – une machine dénuée de toute émotion qui, comme il se doit, ne l’aimera jamais en retour.Il est difficile d’ignorer l’ironie du titre choisi par Khan pour son livre, Brave New Words (Le meilleur des mots), qui fait écho au roman dystopique de Huxley, Brave New World (Le meilleur des mondes), où la personnalité individuelle est effacée, l’éducation est mécanisée et la conformité est imposée par la facilité technologique. Mais plutôt que de considérer la vision de Huxley comme un avertissement, Khan semble la prendre comme un modèle, et son livre se lit comme une étude de cas sur la façon de passer à côté de l’essentiel.

Dans un exemple, Khan vante la capacité de Khanmigo à générer un plan de cours complet sur la Seconde Guerre mondiale, assorti d’objectifs et d’un sondage à choix multiples en classe.

Les élèves sont invités à choisir la « cause la plus importante » de la guerre :

  • A) Traité de Versailles
  • B) Ascension d’Hitler
  • C) Politiques expansionnistes de l’Axe
  • D) Échec de la Société des Nations

Mais les vérités difficiles à accepter sont introuvables. Khanmigo, par exemple, n’incite pas les élèves à s’interroger sur le fait qu’Hitler a ouvertement fait l’éloge des États-Unis pour les lois de ségrégation Jim Crow, les programmes eugéniques et le génocide contre les Amérindiens.

Comme tant d’autres solutions miracles pour l’éducation avant lui, Khan arrive devant la porte de l’école avec un chariot rempli d’élixirs numériques. C’est le charlatanisme classique du domaine des technologies : un discours tape-à-l’œil, des promesses grandiloquentes de révolutionner l’éducation et des concepts comportementalistes éculés présentés comme des innovations. Le béhaviorisme, une théorie qui réduit l’apprentissage à des changements de comportement observables en réponse à des stimuli externes, traite les élèves moins comme des penseurs que comme des répondeurs programmables. La vision de Khan, qui consiste à remplacer les enseignants humains par des chatbots d’IA, n’est pas démocratisante, elle est déshumanisante.

« Ce dont nous avons besoin, ce n’est pas de davantage d’IA, mais de davantage d’enseignants, de personnel d’encadrement et d’une véritable formation, surtout après que la crise COVID a laissé tant d’éducateurs désarmés. »

Bien loin d’être passionnantes ou innovantes, ces « solutions » automatisées s’inscrivent dans une longue tradition de technologies d’enseignement comportementalistes. Comme le montre l’historienne Audrey Watters dans Teaching Machines, les efforts de personnalisation de l’apprentissage par l’automatisation ont commencé dans les années 1920 et ont pris de l’ampleur avec les machines à enseigner de B.F. Skinner dans les années 1950. Mais ces outils ont souvent échoué, car ils reposaient sur l’hypothèse erronée selon laquelle l’apprentissage n’est qu’une réponse programmée plutôt qu’un lien humain.

En dépit de ces échecs, les élites du monde la Tech d’aujourd’hui doublent la mise. Mais soyons clairs : ce n’est pas le type d’éducation qu’ils souhaitent pour leurs propres enfants. Les riches ont des classes à effectifs réduits, des professeurs de musique, de riches bibliothèques, des programmes de littérature et de débats et des mentors humains. Nos enfants se voient proposer des robots d’intelligence artificielle dans des classes surchargées. Il s’agit d’un schéma bien connu : l’apprentissage standardisé et scénarisé pour le plus grand nombre ; la créativité et l’attention pour le plus petit nombre. Les élites prétendent que l’IA va « uniformiser les règles du jeu », mais elles se déchargent sur le public des coûts environnementaux qu’elle engendre. La formation de grands modèles d’IA consomme d’énormes quantités d’énergie et d’eau et alimente la crise climatique. Les mêmes milliardaires qui encouragent l’IA construisent des complexes privés pour protéger leurs enfants des dommages causés par leurs industries – au lieu de réglementer la tech ou de réduire les émissions, ils protègent les leurs à la fois de la pédagogie et des retombées de leur cupidité.

Em Winokur, documentaliste scolaire dans l’Oregon, a rejoint la cohorte « Innovateurs de l’IA » du Multnomah Education Service District afin de faire entendre une voix critique dans un débat dominé par le battage médiatique et l’influence de l’industrie. Elle a pu constater les contradictions de première main : « Les entreprises Tech de l’éducation n’investissent pas dans les progrès de nos étudiants ou dans la construction d’un monde plus solidaire, a-t-elle déclaré à Truthout. Ce dont nous avons besoin, ce n’est pas de davantage d’IA – c’est de davantage d’enseignants, de personnel d’encadrement et d’une véritable formation, surtout après la crise COVID qui a laissé tant d’éducateurs désarmés. »

Bien entendu, les gestionnaires de fonds spéculatifs, les PDG et les politiciens qu’ils financent tourneront cette vision en dérision. Ils la qualifieront de peu pratique, de trop coûteuse, d’irréaliste. Ils soutiendront que l’économie ne peut pas financer l’augmentation du nombre d’éducateurs, de psychologues scolaires, de classes plus petites ou de bibliothèques scolaires dotées d’effectifs complets. Et puis, dans la foulée, ils proposeront l’IA comme solution : moins chère, plus rapide, plus facile. Leur vision est celle d’une imitation creuse et mécanisée de l’éducation.

Au-delà du robot : se réapproprier l’enseignement humain

Nombre d’éducateurs et d’étudiants n’acceptent pas passivement cet avenir dominé par l’IA. Des groupes dirigés par des jeunes, comme Encode Justice, sont à l’avant-garde de la lutte pour la régulation de l’IA. L’Algorithmic Justice League conteste la généralisation de la surveillance biométrique dans les écoles et met en garde contre les systèmes de reconnaissance faciale qui menacent la sécurité des élèves et le climat scolaire. Les efforts d’organisation tels que Black Lives Matter at School et le mouvement Teach Truth font s’inscrivent dans un mouvement grandissant qui refuse de laisser les milliardaires dicter les conditions de l’apprentissage.

Introduire l’IA dans les écoles n’est pas un progrès – c’est le signe de problèmes sous-jacents beaucoup plus profonds dans l’enseignement américain, qui montrent à quel point nous nous sommes éloignés de la finalité de l’éducation. Pendant des décennies, les décideurs politiques et les profiteurs ont troqué l’attention humaine contre des évaluations à enjeux élevés, des programmes scolaires préétablis et la surveillance. L’IA n’est pas la maladie, c’est le symptôme d’un modèle scolaire colonialiste qui est destructeur et déshumanisant, plutôt que libérateur. Cela veut dire que réguler l’IA ne suffit pas, il faut démonter la logique qui l’a introduite dans les écoles.

J’ai eu un jour un élève – je l’appellerai Marcus – qui était en dernière année de lycée et qui avait déjà été accepté dans une bonne université. Mais à la fin de l’année, ses notes ont fortement chuté et tout à coup, il risquait de ne pas obtenir son diplôme. Au fil du temps, Marcus et moi avions tissé des liens de confiance, notamment grâce à des cours sur l’histoire des Noirs et la résistance au racisme. En tant qu’élève noir à qui l’on avait longtemps caché cette histoire, il a fini par comprendre que je n’étais pas là pour lui donner des notes, le classer ou le punir, mais pour lutter contre l’injustice. Ce lien l’a aidé à s’ouvrir et à me confier qu’il était sans domicile. Une fois que j’ai compris ce qu’il vivait, je l’ai mis en contact avec des services d’aide sociale et j’ai convaincu ses autres enseignants de faire preuve de souplesse et de bienveillance. Il a finalement réussi ses examens, obtenu son diplôme et est entré à l’université.

Ce genre de sollicitude ne vient pas d’un code. Il est le fruit d’une relation humaine, ancrée dans la confiance, la justice et l’amour.

*

Jesse Hagopian est éducateur à Seattle, directeur de la campagne Teaching for Black Lives du Zinn Education Project, rédacteur pour Rethinking Schools et auteur du livre Teach Truth : The Struggle for Antiracist Education (Enseigner la vérité : la lutte pour une éducation antiraciste). On peut le suivre sur IAmAnEducator.com, Instagram, Bluesky ou Substack.

Source : Jesse Hagopian, Truthout, 06-07-2025

Traduit par les lecteurs du site Les-Crises

Commentaire recommandé

CdeB // 14.08.2025 à 13h06

Comme dans tous les domaines où la paupérisation est organisée afin de préparer la privatisation (terme insuffisant conceptuellement qu’il serait aussi plutôt préférable de présenter comme un accaparement élitiste plutôt qu’une opposition public/privé qui maintient les personnes se ressentant « à gauche » dans une stérilité conceptuelle et donc une impuissance à contrer), on a laissé les acteurs de l’éducation dériver dans la médiocrité intellectuelle : fausse bienveillance, niveau faible, stérilité des standards académiques stéréotypés afin de rendre le métier impossible…

Depuis 20 ans n’importe quel pédagogue qui s’intéresse un peu à son métier (et pas aux séries netflix ou à la normativité de son petit combat identitaire ou pour « sauver la planète ») sait intuitivement que la passivité est induite par le numérique et que l’externalisation des savoirs débouche sur celle des compétences.

Qu’ont proposé les ministres de l’éducation nationale ?
Plus de numérique…
Ont-ils seulement commandé des études sérieuses sur cela ?
Jamais.
Et chaque fois que les reproches étaient formulés sur les nouvelles méthodes (calculatrices trop tôt, tablettes omniprésentes, etc.), c’était parce qu’il n’y avait « pas assez de numérique »…

Donc nous voici dans la situation où enseigner devient une chose impossible si l’on se refuse inscrire sa pédagogie sans l’immédiateté de la gratification sachant le combat gagné d’avance par le monde numérique qui LUI a recruté des spécialistes et étudié les cerveaux de nos enfants !

25 réactions et commentaires

  • Déséducation Nationale // 14.08.2025 à 10h12

    Sans oublier de rendre l hommage obligatoire « aux enseignants » forcément « débordés ». L’ IA déjà partout du collège aux facs, dispensant à jamais les élèves d’apprendre à parler clairement, à rédiger en français…
     » C ‘est pas nous ! On y peut rien ! Manque de personnel, de crédit ! »

      +1

    Alerter
    • un citoyen // 14.08.2025 à 18h32

      Au collège, pas encore mais il y a une certaine ‘propagande’ qui a commencée. Par exemple, des demandes de volontaires pour expérimenter une IA pour corriger les copies afin de décharger les enseignants de ce fardeau afin de s’occuper d’autres choses.
      Je ne serais plus là pour le voir puisque je suis en cours d’une démission de l’EN, mais rien que le principe qu’un robot corrige des copies à notre place, nous révulse, moi et mes collègues. Les annotations écrites sur les copies sont des plus humainement authentiques et permettent mieux aux élèves d’avoir des conseils voire une boussole face à leurs erreurs et échecs, malgré que ces corrections soient une tâche répétitive, pénible et chronophage.

        +2

      Alerter
      • Catherine // 15.08.2025 à 11h25

        Il me semble aussi que le fait de corriger les copies, cela permet de connaître la manière de s’exprimer et des fautes faites de chaque élève. Ainsi mieux les connaître et que l’élève ne soit pas seulement un nom.

          +2

        Alerter
  • nulnestpropheteensonpays // 14.08.2025 à 10h36

    C’est fou , on a peur que les robots nous remplacent , c’est nous qui allons remplacer les robots . Une éducation standardisée a l »extreme , servant juste la machine et ses créateurs .Qui eux feront comme ils font déjà maintenant , éduqueront leurs enfants loin de la dé cerébration , en tenant leurs enfants éloignés des écrans . Un mélange de clones et de clowns tristes , sans vie . Et si toutefois nous voulions nous rebeller en tenant éloignés nos enfants à notre tour des écrans , nous ne le pourrons même pas , avec l’école obligatoire , la surveillance par les compteurs linkies , ou la police évoluant par drones autonomes se débarrassant des récalcitrants .Ils sont en train de faire de nous , avec notre complicité , des fourmis interchangeables , inutiles , ils vont nous voler , notre bonheur , notre souffrance , tout ce qui fait grandir un homme . Ils vont détruire l’humanité , quoiqu’il en soit .

      +11

    Alerter
  • Savonarole // 14.08.2025 à 12h20

    L’éducation n’a pas eut besoin de l’IA pour faire des consomateurs décérébrés ; pour la pluspart l’éducation a été vécue comme une punition, ceux là trouvent déjà leur dopamine en satisfaisant leur bas-instincs en scrollant du rien.
    Pour le reste de l’IA, la rentabilité du truc va décroitre à mesure que les coût energétiques vont augmnenter … il va falloir bien choisir les usages : y en aura pas pour tout le monde.

      +3

    Alerter
    • nulnestpropheteensonpays // 14.08.2025 à 13h05

      Vous présumez de la non compréhension de ce qu’est déjà à l’heure actuelle ce système . Dans mon cas , on m’a proposé l’école dans la perspective de ressembler à un modèle auquel je ne voulais absolument pas ressembler .
      Et malheureusement certains n’ont pas eu cet instinct , ou cette vista .Et c’est exactement la raison pour laquelle nous en sommes a ce point .C’est les plus soumis , les plus crapules , les plus peureux etc etc qui façonnent notre société , tout comme ce sont les plus débiles qui font encore des enfants , tout comme en israel ce sont les bonnes personnes qui fuient ce pays en laissant derrière eux les plus acharnées . Etc etc
      Hypothèse intéressante isn’t it ?

        +6

      Alerter
  • CdeB // 14.08.2025 à 13h06

    Comme dans tous les domaines où la paupérisation est organisée afin de préparer la privatisation (terme insuffisant conceptuellement qu’il serait aussi plutôt préférable de présenter comme un accaparement élitiste plutôt qu’une opposition public/privé qui maintient les personnes se ressentant « à gauche » dans une stérilité conceptuelle et donc une impuissance à contrer), on a laissé les acteurs de l’éducation dériver dans la médiocrité intellectuelle : fausse bienveillance, niveau faible, stérilité des standards académiques stéréotypés afin de rendre le métier impossible…

    Depuis 20 ans n’importe quel pédagogue qui s’intéresse un peu à son métier (et pas aux séries netflix ou à la normativité de son petit combat identitaire ou pour « sauver la planète ») sait intuitivement que la passivité est induite par le numérique et que l’externalisation des savoirs débouche sur celle des compétences.

    Qu’ont proposé les ministres de l’éducation nationale ?
    Plus de numérique…
    Ont-ils seulement commandé des études sérieuses sur cela ?
    Jamais.
    Et chaque fois que les reproches étaient formulés sur les nouvelles méthodes (calculatrices trop tôt, tablettes omniprésentes, etc.), c’était parce qu’il n’y avait « pas assez de numérique »…

    Donc nous voici dans la situation où enseigner devient une chose impossible si l’on se refuse inscrire sa pédagogie sans l’immédiateté de la gratification sachant le combat gagné d’avance par le monde numérique qui LUI a recruté des spécialistes et étudié les cerveaux de nos enfants !

      +13

    Alerter
    • CdeB // 14.08.2025 à 13h16

      Donc aujourd’hui refuser les escape games et autres ludifications c’est déjà se mettre à la marge de ses collègues et se faire mal voir de sa hiérarchie.

      Allez expliquer en salle des profs que le milieu des éditeurs de eLearning a publié un livre blanc et leur exposer ça à la pause et ils sont tellement fatigués que personne ne lira le fascicule que vous êtes allés jusqu’à imprimer en surligneur les passages clefs…

      Donc ils serait peut-être important voire prioritaire de redéfinir quelques concepts ou objectifs :
      – l’intelligence : « On mesure l’intelligence d’un individu à sa capacité à supporter la certitude » d’après Kant
      C’est à peu près l’inverse de la société numérique dans laquelle la collecte de données, confère au plus puissant, une prédictibilité des comportements humains
      – quel est le rôle de l’école dans un environnement où le continuum logique n’est plus compatible avec la nécessité de former des individus productifs sur la durée d’une vie ?

      Il y aurait tant à dire, je laisse ici un extrait de l’intervention de Laborit à l’invitation des inspecteurs généraux de l’EN en 1994 ce que j’avais mis dans un billet il y a qq années sur le site et qui prend tout son sens aujourd’hui :
      http://www.nouvellegrille.info/pdfrpe.html

        +3

      Alerter
      • Lt Briggs // 14.08.2025 à 17h15

         » l’intelligence : « On mesure l’intelligence d’un individu à sa capacité à supporter la certitude » d’après Kant  »

        Vous vouliez sans doute écrire : « L’intelligence d’un individu se mesure à la quantité d’incertitudes qu’il est capable de supporter »…

          +7

        Alerter
  • Rob Ducan Spencer // 14.08.2025 à 13h22

    Les résultats sont la pour qui veut les voir….une revue des travaux de fin de cycle universitaire dans les domaines scientifiques (mais pas seulement) menés récemment montre que plus de 60 % des élèves utilisemt plus ou moins l’IA pour démarrer, compléter les travaux à remettre.

    Un examen des travaux permet de les repérer car peut importe l’outil utilisée les réponses sont souvent très formatées et pointent vers la solution la plus choisie..et la plus efficace..un exemple…en informatique expliquez quelle est la meilleure manière de trouver une chaîne de caractères dans un texte en utilisant une expression de recherche irrégulière – (on veut trouver tout ce qui comprend xray peu importe sa position..à l’intérieur d’un mot, au début, a la fin, etc). et énoncer la solution la plus optimale…Un travail qui demande de nombreuses heures, il y a de nombreux algorithmes avec les preuves mathématiques de leurs solutions, calcul des temps de traitement, etc, qui peut-être terminé maintenant en 15 minutes…

    Les projets qui utilisent l’IA maintenant dans l’enseignement sont aussi intéressants et les premiers résultats montrent que l’aide est très importante pour la majorité des élèves, le temps dégagé pouvant-être utilisé pour soutenir les plus faibles en classe.

    On peut avoir une approche complotiste ou paranoiaque pour cette technologie et penser que les coûts énergétiques vont arrêter le bidule ignorant que les réductions de personnel dans certains secteurs vont-être massive…être programmeur maintenant n’est plus la relative sinécure du passé… paradoxalement la profession la plus touchée maintenant

    Pour ceux qui nous disent la France est foutue et en retard..l’IA est un domaine ou les meilleurs sont souvent des ingénieurs français ( X, ENS) et il sont présents soit dans les meilleures jeunes pousses (les startup) ou présent dans les directions de groupe (Google, Meta) dans ce domaine.

      +0

    Alerter
    • CdeB // 14.08.2025 à 14h13

      Qui a financé cette étude ?
      Un article récent de France Inter a montré que de nombreuses études vantant les mérites de l’IA dans l’éducation avaient été financés par les grands du numérique…

      C’est un des vrais problèmes du moment : on évoque la science en oubliant ses grands principes dont celui de la reproductibilité qui sous-tend le financement qu’on refuse à tout le équipé dont les résultats ne seraient pas financièrement ou politiquement intéressants…

      Autant dire qu’on est dans la technologie plus que dans la science.

        +9

      Alerter
  • CdeB // 14.08.2025 à 13h32

    Autre réflexion sur l’IA c’est que la qualité (précision, orientation et structure) des questions donne des réponses très différentes.
    Ne serait-ce pas au final un outil qui augmenterait les inégalités entre les utilisateurs en fonction de leur culture ?

    Sans compter les abonnements qui donneront accès à des services aussi très différents ?…

    Au final un système qui reproduira les hiérarchies de dominance existantes*…

    Mais sur ce point* elle ne se différencie pas de notre système éducatif actuel qui permet aux enfants d’enseignants d’obtenir les meilleurs résultats (signe d’un académisme pas franchement démocratique) et d’avoir accès aux « meilleures études ».

    *une constante qui n’interroge pas grand monde.
    La trivialité de l’existence me semble parfois difficile à supporter comme le faisait dire à un de ses personnages Makine dans « Au-delà des frontières » :
    « Les hommes ne cherchent pas une rupture, Gabriel ! Ils veulent juste consommer plus, placer leur progéniture plus près de la mangeoire et mourir plus tard ! »

      +3

    Alerter
  • grumly // 14.08.2025 à 14h05

    Gemini et ChatGPT ont maintenant un mode guidé pour étudier un sujet. Au lieu de cracher la réponse d’un bloc, dans ce mode l’IA va donner des indices ou poser des questions à l’utilisateur pour qu’il creuse lui-même le sujet et arrive à la réponse, ou au moins qu’il arrive à poser les bonnes questions à l’IA. C’est quand même un début d’effort pour apprendre à l’utilisateur des choses plutôt que le prendre pour un imbécile. Un peu comme aider un enfant à faire ses devoirs plutôt que les faire à sa place.

    Dans le genre réponses toutes faites par l’IA, cet article montre des schémas d’argumentation que l’IA utilise dans ses réponses, et qui permettent en théorie de reconnaître quand un texte a été écrit par une IA. L’argumentation est efficace puisque l’IA retombe dessus à force d’entraînement. C’est possible qu’avec le temps on adopte nous aussi ces formes d’argumentation, de la même manière qu’on a tendance à simplifier les mots qu’on utilise https://www.monde-diplomatique.fr/2025/07/KAPLAN/68530

      +0

    Alerter
  • CdeB // 14.08.2025 à 14h07

    Il ne faut pas être grand clerc pour comprendre les liens entre gratification et motivation, passivité…
    Les grands noms et grandes filières sont restés bien silencieux dans ce domaine…
    Il est vrai que faire carrière dans ce domaine signifie souvent taire ce qui n’est pas bankable auprès des hiérarchies, peut-être plus encore dans le public que dans le privé.

    Enseignez les maths et vous comprendrez que des enfants dont les cerveaux ont été habitués à des gratifications quasi immédiates ne sont plus aptes à faire des démonstrations à plusieurs étapes !

    Et tout ce qu’on nous propose va dans ce sens de l’immédiateté ou de la création d’un environnement rassurant en permanence.
    Je reviens à Kant et à l’incertitude…

      +5

    Alerter
  • julien // 14.08.2025 à 15h04

    « Il nous faut arrêter de prétendre que les algorithmes peuvent penser – et il nous faut arrêter de croire que les logiciels sont intelligents. Même si utiliser le terme « IA » sera parfois nécessaire pour être compris, nous devrions commencer à trouver et utiliser un langage plus exact. »
    Presenter les IA comme des logiciels prouve que cette personne ignore de quoi elle parle…
    Les IA ne sont pas programmée mais entrainée.

    Article pauvre sur un theme dont le sujet central reste la survie de l’humanité ou sa disparition face à une intelligence non vivante.

      +4

    Alerter
    • Catherine // 15.08.2025 à 11h57

      Comment elle peut savoir qu’il faut s’entraîner et de quel manière si ce n’est au préalable programmé par une personne ?
      Les « Algorithmes de data » décident elles-même de s’entrainer sans directive au préalable ? Sur quel base, quoi prendre en compte, quel pertinence etc ? Qui décide de cela si ce n’est par une personne via un programme ?

        +4

      Alerter
      • grumly // 15.08.2025 à 15h01

        L’IA fait des associations d’idées, voit ce qui se répète souvent. Toute l’avancée qui a été permise avec les modèles de langages comme ChatGPT, c’est qu’ils sont capables de trier eux-mêmes les données sans intervention humaine, ou minimale, et qu’ils s’entraînent dessus (ils affinent leur modèle) en voyant des concepts qui se répètent. Ça leur permet d’avoir des quantité énormes de données, bien plus que si un humain devait leur trier les données. Avant les modèles de langages il fallait trier les données à donner à une IA, maintenant elles le font toutes seules. La partie algorithme dans une IA est minuscule (la partie programmée est minime), par contre le modèle généré par l’IA est vraiment gigantesque. Les IA génératives ne sont pas vraiment des algorithmes. C’est le modèle qui contient tout le travail et dont découlent les instructions. https://fr.wikipedia.org/wiki/Grand_modèle_de_langage

          +0

        Alerter
        • Catherine // 21.08.2025 à 12h48

           » C’est qu’ils sont capables de trier eux-mêmes les données sans intervention humaine, ou minimale, et qu’ils s’entraînent dessus (ils affinent leur modèle) en voyant des concepts qui se répètent. »
          Vous dites « minime », oui par rapport à ce que les Grands Modèles de Langages (GML ou LLM en anglais) peuvent faire elle-même. Mais cela me semble tout de même énorme en interventions humaines. Merci pour votre lien qui explicite. Malgré cela, je trouve qu’en mots, cela ne rend pas compte de l’étendu des interventions humaines dans l’entrainement. Science Etonnante, dans une vidéo, montre les différents étapes pour « l’entrainement un LLM »(GML) et cela me semble plus éclairant. https://www.youtube.com/watch?v=YcIbZGTRMjI
          Il y a un entrainement par « modèle de récompense » selon les préférences humaines. Ce qui fait que le GML répondra de la manière que des humains en majorité (qui ont répondu aux questionnaires) le voudrait et non spécifiquement pour cette personne avec tous les paramètres qu’une personne répondrait. (à suivre)

            +1

          Alerter
        • Catherine // 21.08.2025 à 13h05

          (suite) Pour aller plus loin sur les réponses données par un chatbot utilisant ces GML, Monsieur Phi, dans une vidéo rappelle qu’ils ne répondent pas réellement, ils ne font que compléter les mots les plus probables selon les mots de la question posée. Et donc qu’ils font que du « baratin » (« répondre » selon ce que le demandeur « voudrait lire » et non la vérité obligatoirement). Il le démontre bien avec les questions orientées qui donnent des réponses différentes autour de l’écologie. C’est le fait des probabilités des mots énoncés par l’utilisateur ou l’utilisatrice. Il démontre aussi la mémoire à court terme du chatbot le plus célèbre : https://www.youtube.com/watch?v=JcFRbecX6bk
          C’est une vidéo qui apporte un plus dans compréhension de leur fonctionnement (même si certains passages concernant une personne n’apporte rien à ce sujet et pourraient être évités).

            +1

          Alerter
  • DVA // 15.08.2025 à 08h03

    L’IA n’est qu’un autre média ‘ nourri ‘ par des programmeurs aux ordres de leurs très riches commanditaires et la seule chose qui à nouveau ne sera fiable en son sein ne sera que la date afférant à une quelconque recherche !

      +2

    Alerter
  • Auguste Vannier // 15.08.2025 à 09h08

    A chaque nouvelle innovation technologique c’est le même enthousiasme et la même répulsion pour l’enseignement. J’ai connu la « révolution » de l’enseignement programmé, puis assisté par ordinateur, qui avant se s’y combiner ont été précédés par l’audiovisuel, puis par l’informatique (opération Giscardienne). Pourtant si vous rentrez dans une classe d’école, rien n’a changé; même disposition, le tableau noir a seulement été remplacé successivement par le vert, le blanc, le « paper board », la craie blanche par les craies de couleur, puis les feutres multicolores plus ou moins « odorant », puis les écrans en tout genre, le tout parfois sédimentés ensemble…
    Le seul changement qui aurait pu faire évoluer le système, une véritable formation professionnelle aux métiers de l’éducation et de l’enseignement, a été soigneusement sabotée avant de disparaître.
    Logique, comme la santé, il faut que l’éducation soit mise en « marché », que les services publics disparaissent avec les fainéants de fonctionnaires qui tentent de les faire « fonctionner »…C’est l’agenda de longue date, dont l’actuel pouvoir s’efforce de faire accélèrer la réalisation…Le « totalitarisme du marché » se met en place avec le totalitarisme politique. Que voulez-vous que fasse ce système de citoyens éduqués et critiques, intelligents en somme?
    Pas besoin, la compilation algorithmique des informations, savoirs, transformés en « data », suffit largement!
    Le règne de l’Inintelligence Artificielle, autre nom de la « bêtise » est sur le point d’arriver.

      +9

    Alerter
  • Gabriel // 15.08.2025 à 10h57

    Ce texte n’a pas pour sujet l’enseignement ni ce qu’il requiert, la simple remarque sur le béhaviorisme en est la preuve. Il ignore radicalement de quoi il parle. Charge cognitive( CLT), répétition, mémoire de travail… autant d’avancées scientifiques sur le cerveau et son fonctionnement au cours du 20e et 21e siècle, superbement ignorées. Il ressasse les vieux et poussiéreux cercles idéologiques de la pédagogie nouvelle et de la didactique. Ces mêmes cercles qui n’ont cessés d’échouer encore et encore.

    Ce texte n’a qu’un propos : le pouvoir. Le pouvoir idéologique et politique sur les esprits, pour y imposer ses idées. Il se dévoile : pour lui l’éducation n’est qu’une guerre cognitive, l’esprit des enfants est un champ de bataille. C’est la crainte du déclassement qui parle ici, un dinosaure aux méthodes obsolètes qui voit son pré-carré menacé qui se cache derrière quelques épouvantails et charlatans sans intérêt, qui bluff avec le name dropping de Vygotsky (cocasse, qui a pensé contre ces pédagogies stupide en cherchant a faire une science marxiste).

    Un texte équilibré et intelligent se serait appuyé sur la science mainte fois démontrées, sur un audit du sujet, mais aussi sur l’outil que sont les LLM, la possibilité qu’ils offrent pour améliorer les choses, sans en faire la panacée. Il aurait dénoncé les dérives mais aussi souhaité dépasser les vieilles lubies et les ignorances craintives qui nous paralyse. Bref, il aurait souhaité que l’enseignement s’améliore scientifiquement en laissant de côté l’idéologie plutôt que nous servir le pathos d’un exemple inventé.

      +0

    Alerter
  • Catherine // 15.08.2025 à 12h40

    « Mais ils poussent également les élèves vers des réponses stéréotypées qui leur permettront d’obtenir des notes élevées. L’IA incite les élèves à se conformer efficacement aux règles, et non à prendre des risques intellectuels ; ces outils enseignent le conformisme, et non l’originalité. »
    Les personnes qui enseignent aujourd’hui, ne suivent-elles pas un programme à faire apprendre à l’élève dans presque toutes les matières (à part la dissertation et la philosophie où chaqu’élève peut raisonner différemment) ? Un genre de « conformisme » pour avoir un même socle pour toute la population d’un pays.
    Est-ce qu’un élève ou une élève, aujourd’hui, apprend pour avoir la connaissance (plaisir d’apprendre) ou pour les notes ? Par exemple, savoir la date exacte d’un moment historique est-il toujours pertinent avec la data en ligne ? Là, les Algorithmes de data peuvent aider à le savoir rapidement et dans ce cas, les personnes qui enseignent peuvent apprendre à comment savoir la trouver.

    Si les élèves n’apprennent pas pour les notes, est-ce que les professeurs et professeuses pourront le plus objectivement « accepter » une copie qui sort de l’ordinaire, qui peuvent les choquer et ne pas metre une mauvaise note s’il y a un cheminement de la pensée ? Si oui, alors de plus en plus d’élèves pourront avoir la volonté de choisir de « réfléchir » à leur façon et non comme ce que l’enseignement attend. (à suivre)

      +0

    Alerter
    • Catherine // 15.08.2025 à 13h00

      (suite) « Pourquoi n’embauchons-nous pas davantage de documentalistes pour sélectionner des textes adaptés au niveau des élèves ou ne réduisons-nous pas la taille des classes afin que les enseignants puissent adapter eux-mêmes l’enseignement ? »
      Il semble aussi que nous sommes dans le cycle de rentabilité et de vitesse afin de permettre la croissance. Les Algorithmes de data peuvent effectuer des tâches beaucoup plus rapidement. Or, la pédagogie, la pensée, la réflexion prennent du temps et donc fait ralentir.
      Toutes les personnes qui travaillent dans les entreprises et autour permettent que cela arrive. Ce n’est pas seulement les « élites du monde de la Tech » qui en recueillent les fruits. Même dans d’autres domaines, des entreprises non multinationales s’engouffrent dans cette brêche comme au temps de l’émergence du domaine de l’informatique.

        +0

      Alerter
  • Tartampion-Duchmol // 16.08.2025 à 00h09

    Si je suis d’accord sur le fond, (ne pas introduire d’IA dans les écoles), je ne le suis pas du tout sur les arguments, en particulier celui-ci : « [L’IA] ne peut pas sentir si le silence d’un élève est synonyme de confusion ou de traumatisme » ==> un prof en est capable ? Non, évidemment, donc argument nullissime et risible. Dire aussi que l’IA n’est pas intelligente car elle ne fait qu’imiter l’intelligence, c’est aussi faux que de dire que les avions ne volent pas car ils ne font qu’imiter le vol des oiseaux. On a appris récemment qu’une IA d’OpenAI a démontré des problèmes de maths de haut niveau et inédits, cad jamais démontrés ==> elle n’a pas imité, elle a su le faire !

      +1

    Alerter
  • Afficher tous les commentaires

Les commentaires sont fermés.

Et recevez nos publications