Comment l’enseignement supérieur français et notamment les établissements universitaires, peuvent-ils intégrer l’IA pour rester compétitifs sans sacrifier l’intégrité scientifique, la protection des données des étudiants et l’égalité des chances ?

Il est devenu clair pour tous que le monde d’aujourd’hui et plus encore de demain, se vivra avec l’IA et qu’il est ainsi impératif de préparer les nouvelles générations à s’en servir en respectant une vision éthique de la société. Comme tout changement technologique de rupture, celui de la vitesse inédite d’acquisition de l’intelligence artificielle générative, déclenche immédiatement alarmes et crise morale. Comment pouvons-nous faire face ? Allons-nous disparaître ?

Puis vient le temps où chacun comprend qu’il faudra bien faire avec et non tenter de survivre sans. Nous en sommes là. Il est trop tard pour y renoncer. À nous de définir une éthique de l’IA, si toutefois cela demeure possible, vu de la France, alors que ce sont davantage des puissances étrangères qui dictent les règles du jeu actuel.

L’intégrité académique et la révolution pédagogique

La majorité des acteurs du monde de l’enseignement supérieur, à commencer par le ministère, l’admettent, l’enjeu n’est plus d’interdire, mais de définir un cadre de confiance entre enseignants et étudiants. Dès lors, il n’y a plus d’obstacle moral à la propagation des usages, mais bien une volonté de leur donner un cadre éthique, partagé par l’ensemble des communautés impliquées. C’est précisément ce cadre éthique, qui fait bouger les lignes.

Par exemple, il y avait urgence à redéfinir le plagiat. Là où il était interdit de copier des extraits de textes issus de requêtes sur les moteurs de recherche, il s’agit désormais de s’obliger à une totale transparence en déclarant l’usage de l’IA dans les mémoires et les thèses. Dès l’instant qu’on le dit, tout serait-il toléré ?

Il en va de même pour l’évolution des évaluations. L’IA force, en quelque sorte, l’enseignant à passer du contrôle de connaissances mémorielles à l’évaluation du processus critique et même de la capacité à « prompter » de manière éthique. Autrement dit, nous migrons d’une économie de la connaissance, à celle de l’analyse critique.

Autre enjeu de ce nouveau cadre, le maintien de l’autonomie cognitive pose les questions les plus épineuses. En effet, on peut se demander comment éviter la dépendance algorithmique qui affaiblirait les capacités de raisonnement propres des étudiants ? Vaste champ d’interrogation que celui des capacités de raisonnement des étudiants, ou plus largement des individus dans nos sociétés occidentales. On le voit en ces temps troubles, les algorithmes des réseaux sociaux sont éminemment critiquables puisque fournisseurs de platitudes et de « deep fake », déjouant les régulations européennes ou nationales et provoquant le chaos dans les démocraties.

Ainsi le sociologue français Gérald Bronner, professeur de sociologie à Sorbonne Université, prévenait-il dans un ouvrage paru en 2021, Apocalypse sociologique,  « La libération du temps de cerveau disponible a été captée par des algorithmes qui flattent nos biais cognitifs plutôt que notre esprit critique. L’autonomie cognitive devient alors une résistance : c’est la capacité à ne pas céder à la pente naturelle de notre esprit face à la facilité algorithmique. »

Or, si l’étudiant accepte la synthèse sans vérifier les sources ou sans avoir fait l’effort intellectuel de confronter les idées par lui-même, il effectue une délégation de jugement. L’enjeu éthique, le risque est alors que l’étudiant ne « pense » plus la controverse scientifique ; il devient un simple éditeur de contenus générés par une machine. Son autonomie est érodée car ses conclusions ne sont plus le fruit d’une maturation intellectuelle personnelle, mais le résultat d’un calcul probabiliste qu’il est incapable d’expliquer.

Souveraineté numérique et protection des données

On ne saurait évoquer l’éthique dans les usages de l’IA sans remettre dans le contexte français, la protection des données (RGPD) et l’indépendance vis-à-vis des « Big Tech ». Si nous réagissons vivement à ce sentiment d’envahissement et de dépendance vis-à-vis des « géants de l’IA », c’est parce que notre culture, notre vision de l’éducation, exige la souveraineté. L’Europe et la France veulent continuer à diffuser un modèle d’enseignement respectueux de la science et des chercheurs, un modèle basé sur le respect des libertés individuelles à commencer par la liberté de parole et de critique. Or l’IA pose de nombreuses questions, tant sur les données personnelles que sur le respect de la propriété intellectuelle.

La protection des données personnelles est un risque majeur auquel sont confrontés tous les établissements d’enseignement supérieur, quel que soit leur statut. On citera, par exemple, les risques de profilage des étudiants par les plateformes d’IA privées. Mais aussi les opérations de hacking à l’échelle d’une université, mettant en péril toute une communauté, et la plongeant dans le chaos. Dès l’instant que l’IA provoque une immense course à la Data, on comprend que les data centers sont des cibles permanentes.

C’est pourquoi de nombreuses initiatives visent à installer une alternative souveraine. Il en est ainsi du développement et de l’usage de LLM (modèles de langage) français ou européens, hébergés sur des infrastructures de recherche nationales. Développer des outils « souverains » est une voie, tandis que d’autres s’engagent sur des actions de sensibilisation à la responsabilité numérique. L’Université de Lille, par exemple, a été l’une des premières à formaliser un cadre où l’usage de l’IA doit être transparent et où l’intégrité académique prévaut. Ces chartes insistent souvent sur l’utilisation de logiciels libres ou de solutions hébergées localement pour éviter les fuites de données vers l’étranger.

Reste que l’évolution de la notion de propriété intellectuelle est préoccupante. Comment déterminer à qui appartiennent les contenus générés ou co-créés avec une IA au sein de la recherche universitaire ? Comment attribuer avec certitude un papier de recherche, ou même un brevet ? Des questions qui perturbent la communauté scientifique, tout autant que les enseignants.

Sur cette question de souveraineté, une autre initiative récente va certainement impacter les établissements, puisqu’il sera désormais possible, voire recommandé de calculer un Indicateur de Résilience Numérique (IRN). Cet indicateur a été présenté le 26 janvier dernier par le Ministère de l’Économie et des Finances, comme un instrument de pilotage stratégique destiné à éclairer les décisions des directions générales, des DSI et des fonctions risques. Il sera très probablement adopté par les gouvernances des établissements du supérieur pour évaluer les axes de progrès dans les prochains plans stratégiques à mettre en œuvre.

Justice sociale et responsabilité environnementale

L’éthique de l’IA ne se limite pas au code, elle touche aussi aux ressources humaines et planétaires, deux enjeux majeurs sur lesquels le monde de l’ESR est traditionnellement très engagé.

Comment résoudre la « nouvelle » fracture numérique et garantir ainsi que l’accès aux versions « Pro » les plus performantes ne devienne pas un nouveau critère de sélection sociale ? C’est une question plutôt embarrassante alors que la plupart des outils proposés en SAS sont rapidement hors de prix pour des usages premium. Ces modèles économiques (pour la plupart nord-américains) sont construits sur des grilles tarifaires croissant avec l’accès aux fonctionnalités les plus puissantes. Ce qui laisse planer la crainte d’une production de contenus ou d’accès à des sources plus finement sélectionnées à ceux qui en ont les moyens. Une vision de l’accès à la connaissance totalement opposée à celle des universités, par exemple.

Autres sujets de préoccupation forte, l’inclusion et l’accessibilité. Ici l’IA serait à considérer comme une opportunité davantage que comme une menace. En effet, elle peut être un levier pour les étudiants en situation de handicap (transcription, simplification de textes), à la condition de surveiller étroitement les biais discriminatoires des algorithmes. Citons, l’Université de Montréal, via l’École de santé publique et le Centre de recherche en santé publique (CReSP), qui pilote actuellement le projet HAND‑IA « Intelligence artificielle sans barrières – Inclusion et équité pour la population en situation de handicap », afin de répondre à ces exigences éthiques [1]. L’équipe canadienne adopte une approche transdisciplinaire, en associant chercheurs, organisations de personnes handicapées et experts de l’éthique de l’IA, ce qui permet de travailler à la fois sur les usages (accessibilité, transcription, interfaces) et sur la réduction des biais discriminatoires.

Enfin, il ne saurait être question de responsabilité sans intégrer l’éthique environnementale. Il est ainsi urgent de sensibiliser les usagers au coût énergétique des requêtes IA. Un coût qu’il faut apprendre à maîtriser conformément aux objectifs de décarbonation des campus.

À l’échelle d’une université, quelques hypothèses simples (par exemple 20 000 usagers, 10 requêtes IA par jour à 2 Wh) peuvent conduire à plusieurs MWh par an uniquement pour l’“inférence” IA, auxquels s’ajoutent la formation des modèles, l’hébergement et le parc d’équipements locaux. Les chiffres récents montrent à ce sujet, qu’une requête de type ChatGPT consomme autour de 2 à 3 Wh d’électricité en moyenne, soit environ 5 à 10 fois plus qu’une recherche web classique.

Paradoxalement, les modèles d’IA permettent aussi d’optimiser la consommation énergétique des établissements. Tandis qu’un travail de recherche sera indispensable pour réduire la taille des modèles IA, minimisant ainsi leur consommation.

À nouveau les deux faces d’une même pièce, que nous imaginons tomber du bon côté, sans certitude mais avec l’espoir que la responsabilité l’emporte sur le temps long.

Gouvernance et cadres institutionnels en France

A l’instar de toutes les organisations et sans doute plus encore que les entreprises, l’université doit s’auto-organiser pour piloter cette transition. Trois dispositifs couramment observés se répondent et créent une vraie “écosystème éthique” de l’IA dans l’université : charte éthique locale, comité d’éthique de l’IA, et enfin, formation continue des personnels et littératie numérique ?

Chartes éthiques locales

Elles posent les principes (intégrité académique, transparence, non‑discrimination, protection des données, sobriété numérique) et déclinent les usages autorisés, encadrés ou interdits selon les situations pédagogiques. Elles servent de base aux règlements d’examens, aux consignes données aux étudiants et aux lignes de conduite pour les enseignants. Ainsi, à l’Université de Toulouse, la “Charte du bon usage des IA génératives” rappelle que l’IA doit rester un outil d’assistance et non de substitution aux démarches intellectuelles. Elle pose des principes comme la transparence (déclarer l’usage d’IA), l’intégrité académique (interdiction de présenter un texte généré comme un travail personnel) et la protection des données, et prévoit des sanctions en cas de fraude ou de non‑respect du cadre.

Formation continue et littératie numérique

L’éthique devient opérationnelle si les personnels comprennent comment fonctionnent les systèmes, leurs limites et leurs impacts. Des modules de formation (enseignants, BIATSS, encadrants) visent à sortir de la logique de “boîte noire”, à outiller les collègues pour rédiger des consignes claires, dialoguer avec les étudiants et participer aux choix d’outils plutôt que de les subir. À l’Université d’Angers, la charte sur l’IA générative insiste aussi sur le rôle des enseignants : ils doivent expliquer aux étudiants les limites des outils (résultats biaisés ou inexacts), les avertir de l’impact environnemental et les accompagner vers un usage critique. On voit bien ici le lien entre texte normatif et formation continue, l’éthique n’étant pas pensée sans une montée en compétence des personnels et des apprenants.

Comités d’éthique de l’IA

Insérés dans la gouvernance existante, ils examinent les projets IA (recherche, outils administratifs, dispositifs d’évaluation ou de proctoring), identifient les risques (biais, discrimination, atteinte à la vie privée) et peuvent conditionner ou refuser un déploiement. Ils jouent aussi un rôle de médiation quand la communauté s’inquiète d’un outil.

Allons-nous vers une « IA humaniste » à la française, capable de concurrencer les modèles anglo-saxons par sa rigueur éthique ? En sommes-nous capables ?

La réponse de la communauté est positive. Faut-il y voir une habitude à se voiler la face lorsque les périls frappent à notre porte ? Ou au contraire, cette confiance éternelle en la science et dans les chercheurs qui sont la marque d’excellence de notre système universitaire et d’enseignement supérieur.

Envie de découvrir d’autres articles sur l’enseignement supérieur et la EdTech ? Rendez-vous sur le Blog des Robots !