L’intelligence artificielle : quelles ambitions pour quels résultats ?

Dans un article resté célèbre, le mathématicien, Alan M. Turing (1912-1954), a imaginé un dispositif pour une machine « de se faire passer pour un être humain ». Ce procédé, dénommé « computing machinery and intelligence[1] », est devenu, quelques décennies plus tard, l’intelligence artificielle.

Depuis lors, dans l’histoire des révolutions industrielles, jamais l’intelligence de l’homme n’a été à ce point à la portée des avancées technologiques ou techniques. Depuis le début du XXe siècle, « l’intelligence machine » est devenue une réalité avec l’apparition des premiers ordinateurs.

Loin de s’arrêter là, dans une soif de progrès inextinguible n’ayant pour autre visée que la création d’un cerveau artificiel – sorte de reflet dans lequel le narcissisme peut se complaire à loisir – de nombreux chercheurs « placent à l’horizon de leurs travaux, la réalisation d’une intelligence artificielle pleinement intelligente, c’est-à-dire intelligente au sens humain » (2023, Andler[2], p.199).

La chose semble plausible puisque « s’appuyant sur une grande puissance de calcul, des réseaux neuronaux artificiels et des grands modèles de langage, la technologie de l’IA réussit à imiter avec une impressionnante habileté, à défaut de l’acquérir réellement, le « pivot » de la civilisation humaine : le langage » (UNESCO, Giannini, 2023).

Qu’il s’agisse de ChatGPT d’Open AI, de Bard de Google, de Sydney de Microsoft, ou des récents modèles de l’entreprise française Mistral AI, ces machines dites « intelligentes » génèrent en un clin d’œil des textes et des images, au point « d’approcher, d’égaler, voire surpasser l’intelligence de l’humain » (2023, Andler, p. 200). Pour autant, dans la pratique, ces robots continuent d’être dirigés par l’homme, raison pour laquelle « l’intelligence au sens humain ne peut s’attacher qu’à un être humain. L’intelligence artificielle, sous quelque forme et à quelque degré de développement qu’elle soit, a pour vocation de résoudre des problèmes, ce qui n’est pour l’intelligence humaine qu’une mission secondaire » (ibid., p.17).

Au niveau sémiologique, les processus mis en place par les technologies d’intelligence artificielle (IA) sont souvent associés à l’image de milliards de neurones – soit l’« unité de travail de base du cerveau »[3] humain. En d’autres termes, les progrès technologiques d’intelligence artificielle s’inspirent donc de manière littérale des travaux scientifiques sur le fonctionnement du cerveau, en tant que support de l’intelligence humaine. Mais, pour autant, est-ce à dire que l’intelligence artificielle deviendra, dans un proche avenir, une reproduction fidèle de l’intelligence humaine ?

Partant de ces quelques considérations, le présent article se donne pour objectif de cerner les ambitions, mais aussi les dangers que représente l’IA dans le secteur spécifique de l’éducation. Nous verrons, en dépit de la récente adoption de l’Artifical Intelligence Act par l’ensemble des États membres de l’Europe, que l’IA est partout présente et que les dangers qu’elle présente pour l’éducation et, au-delà, pour l’intelligence humaine sont aussi réels que savamment déniés. Enfin, à quoi doit servir et à quoi doit se limiter l’IA, spécifiquement dans le domaine de l’éducation, un débat plus que jamais ouvert.

1. Des avancées et des dangers de l’IA

Des chercheurs d’horizons divers (sciences de l’éducation, philosophie, sociologies …) ont entrepris d’analyser les interactions homme-machine dans le cadre de l’intelligence artificielle. Le CNRS[4] (Centre national français de la recherche scientifique) estime qu’un « saut technologique » des plus saisissants a été rendu possible « par les grands modèles de langue dont ChatGPT est aujourd’hui le plus connu ». Et le CNRS ajoute que ces modèles :

« Permettent d’encoder toute la langue et, à travers la langue, des textes qui donnent beaucoup d’informations sur le monde (…). [Ce faisant, ils] ne sont pas seulement linguistiques : ils créent des textes cohérents parce qu’ils sont capables de faire le lien entre différents domaines. Ces modèles n’ont évidemment pas de rapport physique au monde, mais parce qu’ils sont mis au point à partir de milliards de textes, ils peuvent, par exemple, fournir des traductions très fines, tenant compte du contexte, ce qu’on ne savait pas faire il y a peu encore (CNRS, Poibeau, 2023 ).[5]

Composés d’algorithmes associés aux processus du machine learning[6], ces modèles, toujours selon le CNRS, reposent sur trois facteurs : une masse de données que ces machines peuvent ingurgiter ; une capacité de calcul qui a explosé ces dernières années grâce à de nouvelles puces (les GPU) ; des algorithmes dits d’apprentissage profond permettant de générer des textes.

En plus, ces technologies impliquent des conséquences allant au-delà du cadre de leur utilisation, autrement dit, au-delà du rapport de l’utilisateur à la machine. Concernant les avantages des technologies de l’IA, l’on peut citer leur dimension économique. En effet, tout comme ce fut le cas en 1992, lorsque nous avons assisté à la généralisation des réseaux numériques, le développement et l’impact transformateur de ces « merveilles automatiques » et leur utilisation suscitent un engouement économique et social majeur.

De même, « de l’intelligence collective peuvent émerger des configurations sociales inédites, adaptées aux conditions nouvelles, qu’aucun savant calcul ne pourrait produire » (2020, Andler). Au-delà, les retombées sociales posent un défi social majeur suscitant à la fois optimisme et scepticisme dans le monde de la recherche. Au point que certains chercheurs recommandent « de bannir la recherche en IA avancée, comme l’est la recherche sur les armes bactériologiques » (Andler, p. 331).

Pour autant, la réalité contre laquelle on ne peut aller, est que l’utilisation de ces systèmes dans notre vie quotidienne est d’ores et déjà largement acceptée comme en attestent les systèmes de déverrouillage de l’iPhone par reconnaissance faciale ou de navigation par GPS, pour ne citer que quelques exemples. Quant aux moteurs de recherche Internet, ces derniers ne peuvent désormais plus parcourir l’ensemble du Web à la recherche des termes de recherche saisis, sans être équipés de ces logiciels artificiels.

Même si nous sommes conscients des biais idéologiques, économiques, politiques, environnementaux[7] induits par ces technologies, même si nous doutons de la présence en leur sein de dangers potentiels, qu’ils soient visibles ou invisibles, force est de constater que la facilité d’utilisation de ces technologies les rend de plus en plus omniprésentes.

De là, se pose la question de savoir ce que l’homme a le plus à craindre de la mainmise de l’IA sur son activité numérique.

2. La législation européenne peut-elle encadrer le développement de l’IA ?

Sur le plan politique, le Parlement Européen s’est emparé de la question et a adopté le 13 mars dernier, en séance plénière, une législation portant sur l’intelligence artificielle. Le but de cet assentiment européen étant de « protéger les droits fondamentaux, la démocratie, l’État de droit et la durabilité environnementale contre les risques liés à l’intelligence artificielle (IA), tout en encourageant l’innovation et en faisant de l’Europe un acteur de premier plan dans ce domaine[8] ».

Cette législation pionnière en matière de réglementation de l’IA a pris la forme de l’Artifical Intelligence Act[9] dont l’application est d’ordre général à l’ensemble de l’Union européenne. Plus précisément, cet acte définit les obligations permettant une utilisation fiable des « systèmes d’IA », en fonction de leurs risques spécifiques et de leur ampleur respective. Pour ce faire, ont été attribués à ces systèmes, différentes catégories de risques. L’on trouve ainsi : les systèmes d’IA à usage général et les systèmes d’IA à haut risques, voire inacceptables « en raison de leur préjudice potentiel important pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit » (2024, Parlement européen).

Cet Artifical Intelligence Act qui se donne pour finalité de sécuriser l’avenir des interactions homme-machine et de protéger les citoyens, met en lumière les risques potentiels engendrés par ces systèmes artificiels. Or, ces risques ne sont pas neutres au point que certains systèmes d’IA sont désormais interdits.

En effet, il a été admis que

« ces applications fondées sur l’IA […] menacent les droits des citoyens, y compris les systèmes de catégorisation biométrique utilisant des caractéristiques sensibles et l’extraction non ciblée d’images faciales sur Internet ou par vidéosurveillance pour créer des bases de données de reconnaissance faciale. La reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement, la notation sociale, la police prédictive (lorsqu’elle est basée uniquement sur le profilage d’une personne ou sur l’évaluation de ses caractéristiques) et l’IA qui manipule le comportement humain ou exploite les vulnérabilités des personnes seront également interdites » (2024, Parlement européen).

Ces applications classées comme étant « à haut risque » doivent « atteindre un niveau approprié de précision, de robustesse et de cybersécurité. Les concepteurs devront aussi s’assurer qu’une intervention humaine est toujours possible afin d’éviter les dérives permises par l’automatisation » (2024, Touteleurope.eu).

Avec cette régulation, « l’Europe dispose d’une référence mondiale en matière d’IA », comme le souligne le commissaire européen au marché intérieur, Thierry Breton. Une déclaration qui n’est pas sans rappeler les annonces touchant la stratégie de Lisbonne[10]. Selon le discours politique tenu à l’époque, l’Union européenne devait « devenir l’économie de la connaissance la plus compétitive et la plus dynamique du monde, capable d’une croissance économique durable accompagnée d’une amélioration quantitative et qualitative de l’emploi et d’une plus grande cohésion sociale » (Journal officiel n° C 104 du 30/04/2004 p.0001–0019).

Aujourd’hui, il est aisé de reconnaître que le secteur de l’économie de la « connaissance » s’est fortement développé et qu’il possède une rhétorique d’adaptation particulièrement efficace aux exigences des puissances économiques mondiales.

Pour le dire autrement, nous pouvons penser que les entrepreneurs de l’IA n’auront cure des règlements européens, et cela pour deux raisons principales : la première est que l’Europe n’est pas le monde. Et que ce qui peut être réalisé dans d’autres continents finira forcément par se répandre et s’imposer en Europe par le biais d’autres moyens que la vente directe de logiciels. Concrètement, telle est d’ores et déjà la logique des entreprises de l’IA qui ont pour projet de développer leurs technologies à l’étranger, notamment aux États-Unis ou en Asie, loin de presque toute contrainte, puis de rendre ces dernières indispensables dans l’utilisation de certaines machines ou dans l’analyse de certaines données, rendant ainsi le recours à leur technologie incontournable.

La seconde raison pour laquelle la législation européenne risque de ne pas être en mesure de nous protéger contre les dangers de l’IA, est que cette dernière répond d’un désir. Un désir à la fois narcissique et prométhéen. Or, comme le rappelle Lacan, rien ne peut contraindre un désir, car son objet est fantasmatique. Or, comme la loi, pourrait-elle empêcher, limiter ou sanctionner un fantasme ?

Reste à déterminer si, concrètement, les technologies de l’IA sont, à ce jour, efficaces en matière d’amélioration de l’éducation. Manière de déterminer si l’attention actuellement portée à cet axe de recherche est ou non méritée.

3. Les limites de l’IA dans le secteur de l’éducation

Il convient de noter que le « programme ambitieux en vue de moderniser les systèmes de sécurité sociale et d’éducation » (Journal officiel n° C 104 du 30/04/2004 p.0001–0019) n’a pas atteint ses objectifs.

L’intelligence artificielle n’est certes pas une solution en kit, prête à résoudre toutes les questions en lien avec l’éducation et la formation. La question se pose de savoir si les attentes touchant les « marvels of machine learning » (soit les merveilles de l’apprentissage automatique) dans le secteur de l’éducation, ne risquent pas d’être profondément déçues, engendrant le risque de voir l’école plonger dans un « processus de désapprentissage et de « prolétarisation des esprits » comme le soulignait Bernard Stiegler dès 2012.

Pour saisir l’importance de cette interrogation, il convient de citer plus longuement ce philosophe pour qui : « cette économie n’est pas du tout virtuelle ni fumeuse : elle est bien réelle, c’est bien une économie de l’exploitation à la fois de l’information et de la connaissance, mais elle fonctionne au prix d’une destruction de la connaissance et des savoirs, car elle repose sur un processus de perte de savoir et de prolétarisation dans les plus hautes sphères de la décision, et donc de la pensée en tant qu’elle agit. Tel est le sens profond de la notion de « société de connaissance » (2012, Stiegler).

Dans cet état d’esprit, « l’immense processus de désapprentissage » (ibid.) a de quoi à nous inquiéter. D’autant que, dans le même temps, l’IA est utilisée et même imposée par ce fait même par les entreprises multinationales, sans que les États semblent réagir, si ce n’est avec l’Artifical Intelligence Act dont la portée est d’ores et déjà limitée.

Sommes-nous confrontés à un déni ou à dénégation de cet état de fait ? Et, dans l’un ou l’autre cas, que peut cacher ce type de réaction ?

Pour répondre à cette question, les chercheurs en linguistique, Noam Chomsky et Ian Roberts, accompagnés de Jeffrey Watumull, directeur d’une société dans le domaine de l’IA, ont analysé différents aspects de ChatGPT, dont certains peu connus du grand public.

Dans un article intitulé « The false promise of ChatGPT » (2023), ils montrent que, quelle que soit l’utilité de ces programmes dans certains domaines, ils sont fondamentalement différents de la manière dont les humains raisonnent et utilisent le langage au vu des principes de la linguistique et de la philosophie de la connaissance.

Pour étayer ce constat, les chercheurs ont comparé l’apprentissage automatique ChatGPT et de ses concurrents et mis en lumière le fait que ces programmes, de par leur conception, possèdent une mémorisation illimitée, mais qu’ils ne sont pas capables de faire la différence entre le possible et l’impossible. En cela, ces machines sont dénouées de raisonnement et abstraction. Elles donnent ainsi à l’utilisateur l’impression d’être capables de comprendre, mais recrachent à la fois que la terre est plate et qu’elle est ronde.

Partant de là, ces chercheurs mettent en garde contre l’omniprésence de ces processus qui pénètrent dans toutes les sphères de la société et qui touchent même les comportements les plus élémentaires, en prenant l’apparence de la science sans en respecter les principes scientifiques.

En effet, ces systèmes d’IA échangent simplement des probabilités qui évoluent avec le temps. Leurs prédictions sont donc, par essence, superficielles et douteuses. Ils donnent le sentiment de faire face à une science, qui, en réalité,  n’en est pas une puisque l’intelligence artificielle ne fournit aucun développement scientifique. De plus, ces systèmes ne possèdent pas la capacité de penser, d’expliquer ou de délimiter un ensemble de principes éthiques et moraux déterminant ce qui doit être et ce qui ne peut être.

Ainsi, le verdict de Chomsky et al. est-il sans appel : malgré la sophistication apparente de la pensée et du langage produit par ces modèles, l’indifférence morale qu’ils génèrent naît de l’inintelligence. Ce faisant, ChatGPT est un outil surévalué qui dévoile le recours au plagiat, génère l’apathie, l’éviction et l’irresponsabilité.

En effet, en résumant des textes issus de la littérature par une sorte de super-autocomplétion tout en refusant de prendre position sur quoi que ce soit, ChatGPT plaide non seulement pour l’ignorance, mais aussi le manque d’intelligence. En outre, ChatGPT repose sur une logique de défense qui consiste à dire : « je ne fais que suivre les ordres », manière de rejeter toute responsabilité sur ses créateurs du programme et aussi sur ses utilisateurs.

Au final, les auteurs dénoncent le fait que ChatGPT et d’autres programmes similaires produisent autant des vérités que des mensonges, approuvant des décisions éthiques et non éthiques, sans jamais s’engager dans aucune décision et sans jamais se montrer regardant quant aux conséquences. Compte tenu du caractère immoral de la fausse science ainsi étalée, et de l’incompétence linguistique qui caractérise ces systèmes, l’on ne sait pas s’il faut en rire ou pleurer de leur popularité (Chomsky & al, 2023).

Pour Andler (2020), c’est avant tout « la numérisphère qui place le désastre dans toute son étendue sous les yeux de tous, informant chacun à chaque instant et par mille canaux. Elle devient ainsi connaissance commune, par laquelle chacun sait que tous savent (tout en entretenant un doute permanent sur ce qui est confirmé, probable ou faux) ». De ce point de vue, on peut s’accorder pour dire que l’opinion de chacun ne retient seulement ce qui la flatte dans ses illusions.

La question est alors de comprendre pourquoi certaines personnes sont incapables ou ne sont plus en mesure de faire cette différence sur le plan moral ? En d’autres termes, le bon sens et la raison, choses que Descartes estimait les mieux partagées du monde, auraient-ils été sacrifiés sur l’autel de la technologie de l’économie mondiale ?

Pour notre part, nous aurions tendance à affirmer que nous ne sommes pas tant dans le cadre d’une immoralité (puisque la moralité semble n’avoir aucun sens, aucune place ici), mais bien dans ce que Chomsky et al (2023) nomment une forme d’amoralité. De même, nous ne sommes pas dans le cadre de l’insensé, donc de la folie puisqu’il n’y a pas de normalité au monde de l’intelligence artificielle. En réalité, nous cultivons avec l’IA le règne de l’amoralité et de ce qui fait sens, à un moment donné, en un lieu donné, dans un hic et nunc sans cesse renouvelé. En notant que ce constat permet de garder espoir au sens où il ne revient pas aux technosciences ou aux entreprises d’IA de dire ce qui est moral ou pas. C’est à l’humain, en activant son intelligence, de séparer le bon grain de l’ivraie et, ce faisant, de se démarquer de la machine.

C’est à cette réflexion qu’entend également contribuer l’UNESCO (2023) qui a lancé un appel à « la bonne gouvernance de l’Intelligence artificielle » à ses États membres. Un défi qu’elle qualifie comme étant « l’un des plus importants de notre époque » (UNESCO, 2023).

4. Quel doit être le rôle de l’IA dans le secteur de l’Éducation ?

Pour l’UNESCO, « s’agissant d’évaluer et de valider les applications nouvelles et complexes de l’IA en vue de leur utilisation formelle dans les établissements scolaires, l’UNESCO recommande aux ministères de l’Éducation de renforcer leurs capacités, en coordination avec d’autres services du gouvernement chargés de la réglementation, en particulier de la réglementation des technologies » (UNESCO, 2024).

Mais, que signifie « renforcer ses capacités » ? L’expression est si vague qu’elle peut vouloir tout et rien dire à la fois. D’une part, le droit de l’Union européen prime sur le droit national, ce qui veut dire qu’un État européen est soumis, quant aux lois qu’il adopte, au droit européen[11]. En cela, le renforcement des services d’un gouvernement ne peut aller que dans la limite de ce qui, en aval, a été adopté par l’Union européenne. D’autre part, légiférer au fur et à mesure que de nouvelles technologies sont mises sur le marché est une mesure capillotractée, car la force des entreprises de l’IA : leur réactivité, leur faculté à se glisser dans tous les secteurs sans oublier leur usage rendu nécessaire, voire obligatoire, dans maintes applications.

En somme, la lutte des États contre le développement de l’IA – que ce soit, comme ici, dans le secteur de l’éducation ou dans tout autre secteur – ressemble fort à la lutte du pot de terre contre le pot de fer. Ou pire encore, à la lutte contre une technologie qui se développe en contaminant tout et tout le monde sur son passage, soit à la façon d’un virus. Faut-il alors accepter tranquillement les grandes déficiences cognitives auxquelles tout le monde est exposé ? Ou poursuivre sans relâche les efforts de limitation ?

Dès lors, bien qu’il nous soit impossible, dans le cadre de la présente contribution, de traiter dans son entièreté de la question de l’école face au numérique, la « détermination de transmettre nos savoirs aux générations futurs pour leur émancipation » n’est pas une ambition démesurée. Il convient d’admettre que « ces nouvelles technologies créent les conditions d’une démocratisation inespérée de l’accès au savoir » (2012, Kambouchner & al.).

Allant plus loin, Kambouchner[12] et al. affirment que ces mêmes technologies sont « associées à un consumérisme effréné et à un marketing intrusif » auxquels il conviendrait de compléter qu’entre-temps, ces intelligences artificielles sont en même temps très énergivores et contribuent à émettre de grandes quantités de gaz à effet de serre. Et d’ajouter : « Elles apparaissent comme les vecteurs d’un système toujours plus perfectionné de captations des esprits » (ibid.)

Dans le même temps, cette remarque est très intéressante puisque le cerveau humain, cet objet vivant que l’on tente de créer de toute pièce, est ici remis au centre du débat. Ce faisant, en partant du principe qu’un cerveau artificiel et mécanique ne peut occuper pleinement l’espace du cerveau vivant et naturel, de la pensée humaine et du langage, la visée première de toute politique scolaire ne peut donc consister qu’à éviter toute forme de pauvreté éducative manifeste et qu’à garantir une visée émancipatrice de l’école.

En outre, attendu que « cette révolution technologique entraîne des nouveaux déséquilibres » sur le plan de l’éducation et de la formation (comme le précise la directrice générale de l’UNESCO, Audrey Azoulay), la question se pose de savoir comment protéger les élèves contre ces dérives qui affectent les mécanismes clés « d’abstraction réfléchissante » au sens où l’entendait Jean Piaget[13].

Allant plus loin, le professeur de l’éducation et de la pédagogie, Philippe Meirieu[14] (2012) affirme que :

« Le numérique est une question politique à construire comme telle : sert-il au contrôle technocratique d’individus assignés à l’individualisme ou pourrait-il servir à l’émancipation collective pour l’émergence possible d’une démocratie à hauteur d’homme ? Le numérique à l’école est, simultanément, une question pédagogique et, donc anthropologique : que transmettons-nous, à travers lui, de « l’humaine condition » ? Comment nous articulons-nous, à travers lui, à notre jeunesse et comment lui garantissons-nous les conditions de développement ? » (p.176).

5. Conclusion

À rebours d’une « Europe de la connaissance » considérant l’innovation, la recherche, l’éducation et la formation comme des axes fondamentaux du développement de l’Union européenne, la direction opposée est en train d’éclipser lentement « le plaisir d’apprendre » qui est tout sauf une démarche qui se fait de soi-même, même si « savoir sans apprendre », est un imaginaire de l’efficacité immédiate de l’IA.

Que ce mouvement soit devenu le quotidien dans notre société moderne semble, par essence, incontrôlé et incontrôlable. Pas sûr si ces vives inquiétudes dérangent outre mesure ceux qui développent les technologies, ni ceux qui encouragent l’accès aux financements pour les entreprises et autres organismes innovants en Europe.

Loin de s’alarmer, les politiques luxembourgeois semblent se féliciter de la situation : « l’économie luxembourgeoise reste une économie de la connaissance »[15]. Et d’ajouter avec fierté que les solutions politiques sont principalement axées sur les « technologies de pointe [qui] ont bénéficié d’un appui considérable ces dernières années, ce qui a donné naissance à un écosystème florissant d’entreprises, d’investisseurs et de parties prenantes publiques » (ibid).

Il est difficile de rester impassible devant cet indice le plus patent. Qu’en est-il alors de l’investissement scolaire dans cette configuration ?

Il importe certes de nous confronter à l’intelligence artificielle, à travailler sur ses usages, ses utilités, mais aussi ses risques et défaillances, afin d’être en mesure de transmettre correctement la portée de ces « intelligences artificielles » à nos enfants, à nos élèves, à nos étudiants condamnés aux dangers de ces « technologies de pointe ». Mais, tel discours impassible, et en dépit des études scientifiques en la matière, condamnent l’école à la superficialité et contribuent largement, de par son indifférence, que « la fabrique du crétin digitale » (2023, Desmurget[16]), continue à tourner à plein régime.

Malheureusement, proclamer aujourd’hui toutes ces mesures dissone fortement avec les résultats des études scientifiques. La pertinence sur la transmission du savoir, le plaisir d’apprendre, n’est guère discutée. Le sens à donner à l’éducation non plus.

Or, dans le champ de l’éducation, ce dernier est un axe pivot car il détermine, en partie, la base de réflexion sur laquelle « la génération qui vient sur le chemin des apprentissages » s’appuieront. Nous ne pouvons qu’approuver que :

« L’intelligence artificielle satisfait sans nul doute, le désir de savoir, ou du moins, le désir d’obtenir une réponse rapide. Ainsi le triomphe du « savoir sans apprendre » ne se traduit-il pas seulement par le culte de l’outil technique dernier cri : il encourage aussi, et simultanément, les croyances les plus irrationnelles, celles qui se donnent comme des évidences faciles, et renvoient au sentiment du tout maîtriser, sans avoir eu à travailler, sans avoir eu à comprendre » (Meirieu, 2014).

Disons donc très clairement que « dans un monde qui est destitué par le prêt-à-porter technologique » (Meirieu, 2014) l’intelligence artificielle nuit au désir et au plaisir d’apprendre. Partant de là, c’est à l’école d’enseigner une « culture lettrée » et de s’emparer activement de ces technologies numériques « pour en conjurer les effets toxiques » et les mettre au service du projet d’une « société savante ».

Pour le formuler autrement, nous devons faire un choix clair et délibéré entre une éducation de bas niveau (Niedrigbildung) et des réponses de remplacement générées par l’intelligence artificielle !

Or, pour ce faire, il convient de lutter résolument contre ce qui s’annonce, pour le moment, plutôt comme « le règne de la bêtise » (Gauthier & Vergne, 2012).

Bibliographie

Andler, D. (2020) Une pandémie à l’ère des technologies émergentes. https://academiesciencesmoralesetpolitiques.fr/wp-content/uploads/2020/05/DA_unepandemie_12052020.pdf

Andler, D. (2023). Intelligence artificielle, intelligence humaine : la double énigme. Gallimard. https://doi.org/10.3917/gall.andle.2023.01

Chomsky, N. ; Roberts I. & Watumull J. (2023). The false Promise of ChatGPT. Guest essay in The New York Times. https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html

CNRS Le Journal. (2023). La créativité peut-elle être artificielle ? https://lejournal.cnrs.fr/articles/la-creativite-peut-elle-etre-artificielle

Kambouchner, D., Meirieu, P. ;& Stiegler, B.  (2012). L’école, le numérique et la société qui vient. Éditions mille et une nuits.

L’intelligence artificielle en Europe : évolution technologique ou révolution humaine. https://www.forumeuropeendebioethique.eu/emissions/lintelligence-artificielle-en-europe-evolution-technologique-ou-revolution-humaine

Meirieu, P. (2016). Peut-on susciter le désir d’apprendre ?. Dans : Martine Fournier éd., Éduquer et Former: Connaissances et débats en Éducation et Formation (pp. 152-158). Auxerre: Éditions Sciences Humaines. https://doi.org/10.3917/sh.fourn.2016.01.0152

Parlement Européen. (2024). Communiqué de presse 20240308IPR19015. Intelligence artificielle: les députés adoptent une législation historique. https://www.touteleurope.eu/economie-et-social/les-deputes-europeens-adoptent-une-loi-historique-sur-l-intelligence-artificielle/

Parlement Européen. (2024). Intelligence artificielle: les députés adoptent une législation historique. https://www.europarl.europa.eu/news/fr/press-room/20240308IPR19015/intelligence-artificielle-les-deputes-adoptent-une-legislation-historique

Toute l’Europe. Comprendre l’Europe. https://www.touteleurope.eu/economie-et-social/les-deputes-europeens-adoptent-une-loi-historique-sur-l-intelligence-artificielle

UNESCO. (2018). Discours de la Directrice générale de l’UNESCO, Audrey Azoulay, à l’occasion du séminaire: Réflexion sur l’intelligence artificielle; https://unesdoc.unesco.org/ark:/48223/pf0000264365

UNESCO. (2023). Global AI Ethics and Governance Observatory. https://www.unesco.org/ethics-ai/en?hub=32618

UNESCO. (2024). L’IA générative et le futur de l’éducation https://unesdoc.unesco.org/ark:/48223/pf0000385877_fre


1. Turing, A. M. (1950). « Computing machinery and intelligence ». Mind, Oxford University Press, vol. 59, no 236,‎ octobre 1950 (DOI 10.1093/mind/LIX.236.433). Source : [En ligne], URL : https://redirect.cs.umbc.edu/courses/471/papers/turing.pdf (consulté le 3-06-2024).

2. Daniel Andler, mathématicien et philosophe, professeur émérite à Sorbonne-Université et membre de l’Académie des Sciences morales et politiques.

3. Fédération pour la recherche sur le cerveau : https://www.frcneurodon.org/comprendre-le-cerveau/a-la-decouverte-du-cerveau/le-neurone/

4. Source : [En ligne], URL : https://www.cnrs.fr/fr

5. Laboratoire de Langues, textes, traitements informatiques, cognition (Lattice), unité CNRS/ENS-PSL/Université Sorbonne Nouvelle.

6. Technologie permettant l’apprentissage automatique d’une tâche à accomplir par une machine, par le biais de l’IA et d’algorithmes découvrant des patterns (ou motifs récurrents) dans un ensemble de données.

7. Cette technologie promet d’être à haute intensité énergétique.

8. Source : [En ligne], URL : https://www.europarl.europa.eu année 2024 (consulté le 4-06-2024).

9. Résumé de la loi AI Act : https://artificialintelligenceact.eu/fr/high-level-summary/

10. Expression désignant l’axe de politique économique et de développement adopté en 2000 par l’ensemble des États membres de l’Union européenne d’alors, qui visait les évolutions à venir dans ces domaines.

11. Le traité sur le fonctionnement de l’Union européenne (TFUE). Source : [En ligne] : https://eur-lex.europa.eu/FR/legal-content/summary/treaty-on-the-functioning-of-the-european-union.html (consulté le 1-06-2024).

12. Denis Kambouchner est professeur d’histoire de la philosophie moderne à l’université Paris 1 Panthéon-Sorbonne.

13. Source : [En ligne] : Fondation Jean Piaget, https://www.fondationjeanpiaget.ch/fjp/site/oeuvre/index_notions_nuage.php?NOTIONID=11 (consulté le 4-06-2024). « L’abstraction réfléchissante comporte toujours deux aspects inséparables : d’une part un réfléchissement, c’est-à-dire la projection (comme pour un réflecteur) sur un palier supérieur de ce qui est tiré du palier inférieur (par exemple de l’action à la représentation), et d’autre part, une réflexion en tant qu’acte mental de reconstruction et réorganisation sur le palier supérieur de ce qui est ainsi transféré de l’inférieur » (EEG35, 303).

14. Professeur des sciences de l’éducation et de la pédagogie à l’université Lumière-Lyon 2.

15. Source : [En ligne] : Portail de l’économie du Luxembourg, https://luxembourg.public.lu/fr/investir/competitivite/portrait-economie.html (consulté le 4-06-2024). De manière générale, l’économie luxembourgeoise reste une économie de la connaissance. On observe ce constat dans les secteurs de la finance et de la recherche et développement, qui représentent la majeure partie de sa puissance économique. Toutefois, les secteurs mettant au point des technologies de pointe ont bénéficié d’un appui considérable ces dernières années, ce qui a donné naissance à un écosystème florissant d’entreprises, d’investisseurs et de parties prenantes publiques.

16. Docteur en neuroscience.