Rethinking Higher Education/fr/Chapter 1

From China Studies Wiki
Jump to navigation Jump to search

Langue : FR · EN · ZH · EN-ZH · DE · ← Livre

Cadres éthiques pour l'IA dans l'enseignement supérieur : entre régulation européenne et innovation chinoise

Martin Woesler

Université normale du Hunan

Résumé

L'intégration rapide de l'intelligence artificielle dans l'enseignement supérieur a devancé le développement des cadres éthiques et réglementaires destinés à l'encadrer. Cet article propose une comparaison systématique du Règlement européen sur l'intelligence artificielle (AI Act) — première législation globale sur l'IA au monde — et de l'approche sectorielle évolutive de la Chine en matière de gouvernance de l'IA dans l'éducation. Le AI Act de l'UE classe les applications éducatives de l'IA telles que la notation automatisée, la surveillance des examens et les décisions d'admission comme « à haut risque », interdit la reconnaissance des émotions dans les contextes éducatifs et impose une formation à la culture de l'IA pour tous les déployeurs. L'approche chinoise, en revanche, combine les Mesures provisoires de 2023 pour les services d'IA générative avec les directives du ministère de l'Éducation, l'enseignement obligatoire de l'IA à partir de septembre 2025 et les directives institutionnelles spécifiques telles que la politique de l'Université Fudan de janvier 2026. S'appuyant sur des données empiriques issues de l'étude EDUCAUSE 2024 sur le paysage de l'IA, de l'enquête HEPI 2025 auprès des étudiants britanniques et d'analyses juridiques comparatives, nous mettons en évidence un important « déficit de préparation » dans les deux systèmes : 80 pour cent des enseignants utilisent des outils d'IA, mais moins d'un sur quatre connaît la politique de son établissement en matière d'IA. Nous soutenons que ni l'approche horizontale fondée sur les droits de l'UE, ni le modèle centralisé et sectoriel de la Chine ne suffit à lui seul. Une synthèse combinant la rigueur éthique européenne et la rapidité de mise en œuvre chinoise offre la voie la plus prometteuse vers une intégration responsable de l'IA dans l'enseignement supérieur.

Mots-clés : éthique de l'IA, AI Act de l'UE, enseignement supérieur, gouvernance chinoise de l'IA, culture de l'IA, intégrité académique, surveillance des examens, effet Bruxelles, politique d'IA générative

1. Introduction

Le 1er août 2024, le Règlement sur l'intelligence artificielle de l'Union européenne est entré en vigueur — première législation globale au monde régissant l'intelligence artificielle. Parmi ses dispositions les plus importantes pour l'enseignement supérieur figurent la classification des systèmes éducatifs d'IA comme « à haut risque », l'interdiction de la reconnaissance des émotions dans les écoles et les universités, ainsi que l'obligation pour toutes les organisations déployant des systèmes d'IA de garantir un niveau suffisant de culture de l'IA parmi leur personnel. Ces dispositions, entrées en vigueur par étapes à partir de février 2025, établissent un cadre réglementaire sans précédent dans aucune autre juridiction.

Pendant ce temps, la Chine a emprunté une voie différente. Plutôt qu'une loi horizontale unique régissant toutes les applications de l'IA, la Chine a élaboré une série de réglementations sectorielles — les Mesures provisoires de 2023 pour la gestion des services d'IA générative, les directives du ministère de l'Éducation interdisant les travaux académiques soumis par IA, et le mandat de septembre 2025 pour l'enseignement de l'IA dans toutes les écoles primaires et secondaires — qui, collectivement, encadrent l'IA dans l'éducation par une combinaison de politique nationale, de directives institutionnelles et de normes techniques.

Cet article compare ces deux approches de la gouvernance de l'IA dans l'éducation, en examinant leurs fondements philosophiques, leurs implications pratiques et leur efficacité à relever les défis éthiques que l'IA pose à l'enseignement supérieur. Il contribue au projet d'anthologie plus large en reliant la dimension réglementaire aux chapitres compagnons sur l'IA dans l'apprentissage des langues, la protection des données et l'université du futur (Woesler, dans ce volume).

Trois questions structurent notre enquête. Premièrement, comment les cadres réglementaires de l'UE et de la Chine abordent-ils les défis éthiques spécifiques de l'IA dans l'éducation — intégrité académique, surveillance, équité et transparence ? Deuxièmement, quel est l'état actuel de la préparation institutionnelle à la gouvernance de l'IA dans les deux systèmes ? Troisièmement, que peut apprendre chaque système de l'autre ?

2. Le AI Act de l'UE et l'éducation

2.1 Classification à haut risque

Le AI Act de l'UE (Règlement 2024/1689) établit un cadre fondé sur les risques qui classe les systèmes d'IA en quatre niveaux : risque inacceptable (interdit), haut risque (réglementé), risque limité (obligations de transparence) et risque minimal (non réglementé). L'éducation figure en bonne place dans la catégorie à haut risque. L'annexe III, section 3, identifie quatre catégories d'IA éducative comme à haut risque : les systèmes d'IA utilisés pour déterminer l'accès aux établissements d'enseignement, les systèmes d'IA évaluant les résultats d'apprentissage y compris les systèmes utilisés pour orienter le processus d'apprentissage, les systèmes d'IA évaluant le niveau d'éducation approprié pour un individu, et les systèmes d'IA surveillant et détectant les comportements interdits des étudiants pendant les examens (Parlement européen et Conseil 2024).

Les conséquences pratiques sont significatives. Toute université déployant un système d'IA qui note des examens, recommande des parcours d'études, détermine les admissions ou surveille le comportement des étudiants lors des évaluations doit se conformer à des obligations étendues : réaliser des évaluations de conformité, tenir une documentation technique, mettre en œuvre des mécanismes de supervision humaine et garantir la qualité des données. Ces exigences s'appliquent que le système d'IA soit développé en interne ou acquis auprès d'un fournisseur commercial.

2.2 L'interdiction de la reconnaissance des émotions

L'article 5(1)(f) du AI Act interdit les systèmes d'IA qui infèrent les émotions de personnes physiques dans les domaines des lieux de travail et des établissements d'enseignement, sauf lorsque le système d'IA est destiné à être mis en service pour des raisons médicales ou de sécurité. Cette interdiction, entrée en vigueur le 2 février 2025, a des implications directes pour les systèmes de surveillance d'examens alimentés par l'IA qui surveillent les expressions faciales, les mouvements oculaires et d'autres indicateurs biométriques pour détecter la tricherie pendant les examens. Plusieurs plateformes commerciales de surveillance qui reposent sur l'inférence émotionnelle — interprétant la nervosité, la distraction ou le stress comme indicateurs de malhonnêteté académique — pourraient entrer dans le champ d'application de cette interdiction.

L'interdiction de la reconnaissance des émotions reflète une approche distinctement européenne de la relation entre technologie et dignité humaine. La position de l'UE est que la surveillance des états émotionnels dans les contextes éducatifs constitue une intrusion inacceptable dans l'intégrité psychologique des étudiants, indépendamment de la finalité déclarée. Cette position s'appuie sur la Charte des droits fondamentaux de l'Union européenne, qui garantit le droit à la dignité humaine (article 1) et le droit à la protection des données personnelles (article 8).

2.3 Le mandat de culture de l'IA

L'article 4 du AI Act exige que les fournisseurs et les déployeurs de systèmes d'IA s'assurent que leur personnel et les autres personnes intervenant dans le fonctionnement et l'utilisation des systèmes d'IA pour leur compte possèdent un niveau suffisant de culture de l'IA. Cette obligation est entrée en vigueur le 2 février 2025 — avant la plupart des autres dispositions du règlement — signalant la conviction de l'UE que la culture de l'IA est un prérequis à une gouvernance responsable de l'IA.

Pour les universités, ce mandat comporte deux dimensions. Premièrement, en tant que déployeurs de systèmes d'IA (systèmes de gestion de l'apprentissage, outils de notation automatisée, logiciels de détection du plagiat, plateformes de surveillance), les universités doivent s'assurer que le corps enseignant et le personnel administratif possèdent une culture suffisante de l'IA pour utiliser ces outils de manière responsable. Deuxièmement, en tant qu'établissements d'enseignement, les universités ont une mission plus large de développer la culture de l'IA parmi leurs étudiants — mission que le mandat de culture de l'IA du règlement renforce sans l'aborder explicitement.

Le défi de mise en œuvre est considérable. L'étude EDUCAUSE 2024 sur le paysage de l'IA a révélé que moins d'un enseignant et membre du personnel sur quatre avait connaissance de la politique formelle de son établissement en matière d'IA, alors même que 80 pour cent déclaraient utiliser des outils d'IA dans leur travail (EDUCAUSE 2024). Cet écart entre utilisation de l'IA et connaissance de l'IA représente un risque institutionnel significatif — et un défi direct au mandat de culture de l'IA du règlement.

3. La gouvernance chinoise de l'IA pour l'éducation

3.1 Les Mesures provisoires pour l'IA générative (2023)

L'approche chinoise de la gouvernance de l'IA dans l'éducation fonctionne à travers un système stratifié de réglementations nationales, de directives ministérielles et de politiques institutionnelles. La réglementation nationale fondamentale est constituée par les Mesures provisoires pour la gestion des services d'IA générative (生成式人工智能服务管理暂行办法), publiées conjointement par l'Administration du cyberespace de Chine et six autres agences dont le ministère de l'Éducation, en vigueur depuis le 15 août 2023. Les Mesures adoptent ce que les juristes chinois décrivent comme une approche de « prudence inclusive » (包容审慎), combinant promotion du développement et supervision classifiée (Migliorini 2024).

Pour l'éducation spécifiquement, les Mesures provisoires comprennent des dispositions exigeant que les fournisseurs de services d'IA générative empêchent les mineurs de développer une « dépendance excessive ou une addiction » à l'IA générative, et que les services destinés aux mineurs répondent à des exigences de sécurité supplémentaires. Fait notable, les Mesures comprennent une exemption pour la recherche qui permet aux universités et aux instituts de recherche de développer et de tester des systèmes d'IA générative sans les exigences complètes d'enregistrement et de conformité applicables aux fournisseurs commerciaux — une reconnaissance pragmatique qu'une réglementation trop restrictive pourrait entraver la recherche académique.

3.2 Directives du ministère de l'Éducation

Le ministère de l'Éducation a publié plusieurs directives traitant spécifiquement de l'IA dans l'éducation. De manière la plus significative, le ministère a interdit aux étudiants de soumettre du contenu généré par l'IA comme leur propre travail académique — une directive qui, bien que claire en principe, se heurte aux mêmes difficultés d'application rencontrées dans d'autres juridictions. Des universités individuelles ont complété cette directive par des politiques propres à chaque établissement.

L'Université Fudan est devenue l'une des premières grandes universités chinoises à publier des directives complètes sur l'IA en janvier 2026, établissant six interdictions spécifiques pour la rédaction de thèses : interdiction de l'utilisation de l'IA pour générer ou modifier des données originales, des résultats expérimentaux, des images ou le texte de la thèse ; interdiction des outils d'IA dans le processus d'évaluation des thèses ; et interdiction des outils d'IA pour le polissage linguistique et la traduction des thèses. Les sanctions pour les violations graves incluent la révocation du diplôme (China Daily 2026).

L'Université des sciences et technologies de Tianjin (天津科技大学) a adopté une approche différente en 2024, imposant que le contenu généré par l'IA dans les mémoires de licence ne dépasse pas 40 pour cent — un seuil quantitatif mesurable en principe mais difficile à appliquer en pratique, en particulier pour les textes substantiellement réécrits par leurs auteurs humains.

3.3 Enseignement obligatoire de l'IA à partir de septembre 2025

L'intervention politique la plus ambitieuse de la Chine est le mandat, en vigueur depuis le 1er septembre 2025, d'intégrer l'enseignement de l'IA dans tous les programmes d'études des écoles primaires et secondaires. La politique exige au moins huit heures d'enseignement de l'IA par an pour les élèves de tous les niveaux, y compris les enfants dès l'âge de six ans. Au niveau primaire, l'accent est mis sur la culture de l'IA et la sensibilisation ; au niveau du collège, sur la logique et la pensée critique ; et au niveau du lycée, sur l'innovation appliquée et la conception d'algorithmes (Asia Education Review 2025).

Ce mandat a des implications pour l'enseignement supérieur car il signifie que, d'ici quelques années, les étudiants universitaires arriveront avec une base de culture de l'IA — contrairement à la génération actuelle, dont la plupart découvrent les outils d'IA pour la première fois à l'université. Les universités chinoises doivent donc se préparer à construire sur ce socle plutôt qu'à partir de zéro, ce qui nécessitera une refonte fondamentale des programmes.

Simultanément, la politique interdit aux élèves des écoles primaires d'utiliser de manière autonome des outils de « génération de contenu ouvert » et interdit aux enseignants d'utiliser l'IA générative comme substitut aux activités pédagogiques fondamentales. Cette double approche — promouvoir la culture de l'IA tout en restreignant certains usages de l'IA — reflète une compréhension nuancée du fait que la compétence en IA et la dépendance à l'IA sont des phénomènes distincts qui appellent des réponses politiques distinctes.

4. Régulation horizontale vs. sectorielle

4.1 L'approche horizontale de l'UE

Le AI Act de l'UE représente une stratégie réglementaire horizontale : un cadre législatif unique régissant l'IA dans tous les secteurs, y compris l'éducation. Les avantages de cette approche incluent la cohérence (les mêmes principes s'appliquent à l'IA dans la santé, l'emploi, les forces de l'ordre et l'éducation), la sécurité juridique (les organisations n'ont besoin de comprendre qu'un seul cadre plutôt que plusieurs) et l'exhaustivité (aucun secteur n'échappe aux mailles du filet réglementaire).

Cependant, la régulation horizontale présente aussi des inconvénients. Les dispositions du AI Act sont nécessairement abstraites — les critères de classification « à haut risque » doivent s'appliquer à des systèmes d'IA aussi divers que des outils de diagnostic médical et des algorithmes d'admission universitaire. Cette abstraction peut rendre la conformité difficile pour des secteurs spécifiques. Les universités, habituées aux structures de gouvernance relativement informelles de la vie académique, peuvent éprouver des difficultés à mettre en œuvre les évaluations de conformité formelles, les exigences de documentation technique et les systèmes de gestion de la qualité que le AI Act impose aux déployeurs d'IA à haut risque.

4.2 L'approche sectorielle de la Chine

L'approche de la Chine, en revanche, est principalement sectorielle. Plutôt qu'une loi unique et globale sur l'IA, la Chine a élaboré une série de réglementations ciblées traitant de capacités spécifiques de l'IA : les Dispositions sur la synthèse profonde (2023) régissant les hypertrucages, les Mesures provisoires pour l'IA générative (2023), les Dispositions sur la gestion des recommandations algorithmiques (2022) et les directives sectorielles des ministères compétents, dont le ministère de l'Éducation.

Comme l'observent O'Shaughnessy et Sheehan (2023) dans leur analyse pour la Fondation Carnegie pour la paix internationale, « le AI Act de l'UE penche vers une approche horizontale (un cadre unique pour tous les secteurs), tandis que les réglementations algorithmiques de la Chine s'orientent verticalement (des lois sectorielles ciblant des capacités spécifiques de l'IA) ». Les deux approches comportent des compromis : la régulation horizontale assure la cohérence mais risque d'être trop vague ; la régulation verticale assure la spécificité mais risque de créer des lacunes et des chevauchements entre secteurs.

Pour l'éducation spécifiquement, l'approche sectorielle de la Chine a l'avantage de permettre au ministère de l'Éducation de publier des directives adaptées aux contextes éducatifs — distinguant, par exemple, entre l'utilisation de l'IA dans la recherche (largement autorisée) et l'utilisation de l'IA dans les examens (largement interdite). L'inconvénient est la fragmentation réglementaire : les administrateurs universitaires doivent naviguer entre de multiples réglementations qui se chevauchent sans disposer d'un cadre unique faisant autorité.

4.3 Évaluation comparative

Une analyse comparative exhaustive de la régulation mondiale de l'IA a conclu que « de nombreuses lois horizontales adoptent une approche fondée sur les risques imposant des obligations strictes aux systèmes les plus risqués, bien que les définitions du « haut risque » soient incohérentes d'une juridiction à l'autre » (Royal Society Open Science 2025). L'étude a confirmé que l'UE privilégie une approche horizontale fondée sur les risques tandis que la Chine a privilégié des lois sectorielles adaptées à des cas d'usage spécifiques, sans qu'aucune approche ne soit clairement supérieure.

Chun, Schroeder de Witt et Elkins (2024) caractérisent la différence fondamentale comme une question de valeurs : « L'approche de l'UE se caractérise par un engagement envers les droits fondamentaux, une catégorisation fondée sur les risques et une supervision éthique ; la Chine adopte une approche centralisée, dirigée par l'État, intégrant le développement de l'IA aux objectifs nationaux et à la gouvernance sociale. » Pour l'éducation, cela signifie que la régulation de l'UE donne la priorité à la protection des droits des étudiants (vie privée, non-discrimination, supervision humaine), tandis que la régulation chinoise donne la priorité à la fois à la protection des étudiants et au renforcement de la compétitivité nationale en matière d'IA — des objectifs qui peuvent converger mais aussi entrer en conflit.

5. Le déficit de préparation

5.1 Sensibilisation du corps enseignant et mise en œuvre des politiques

Le défi le plus important auquel sont confrontés les deux systèmes réglementaires n'est pas l'adéquation de la régulation elle-même, mais l'écart entre la régulation et la pratique. Les données empiriques provenant de multiples juridictions révèlent un schéma constant : les enseignants et les étudiants utilisent les outils d'IA bien plus rapidement que les établissements ne développent de politiques pour encadrer leur usage.

L'étude EDUCAUSE 2024 sur le paysage de l'IA, fondée sur une enquête auprès de plus de 900 professionnels des technologies de l'enseignement supérieur, a constaté que seuls 23 pour cent des établissements disposaient de politiques d'utilisation acceptable liées à l'IA. Près de la moitié (48 pour cent) des répondants étaient en désaccord avec l'idée que leur établissement dispose de politiques d'IA appropriées pour la prise de décision éthique, et 54 pour cent n'étaient pas d'accord avec l'affirmation selon laquelle leur établissement dispose d'un mécanisme de gouvernance de l'IA efficace (EDUCAUSE 2024). Pourtant, 80 pour cent des enseignants et du personnel déclaraient utiliser des outils d'IA, et moins d'un sur quatre avait connaissance d'une politique institutionnelle formelle en matière d'IA (EDUCAUSE 2024 Action Plan).

Cet écart n'est pas propre aux États-Unis. Au Royaume-Uni, l'enquête 2025 du Higher Education Policy Institute (HEPI) a révélé que 92 pour cent des étudiants de premier cycle utilisent désormais l'IA générative sous une forme ou une autre, contre 66 pour cent en 2024 — une augmentation annuelle spectaculaire démontrant la normalisation rapide de l'utilisation des outils d'IA (HEPI 2025). Pourtant, les politiques institutionnelles n'ont pas suivi le rythme de cette adoption.

5.2 Le paysage chinois de la préparation

En Chine, Liu et al. (2025) ont étudié les réglementations, les politiques technologiques et les attitudes des universités envers l'IA sur la base d'une analyse de documents politiques et de 33 entretiens avec des enseignants dans des universités de recherche chinoises. Ils ont constaté que, si les enseignants considèrent généralement l'IA comme un facteur d'amélioration de la personnalisation, de la productivité de la recherche et de l'efficacité administrative, ils soulèvent des préoccupations concernant l'intégrité académique, les biais algorithmiques et la dépendance excessive à la technologie. Fait crucial, le modèle de gouvernance dirigé par l'État chinois « est interprété et appliqué de manière inégale sur les campus universitaires » — même les directives centralisées sont mises en œuvre de façon incohérente au niveau institutionnel (Liu et al. 2025).

Une analyse comparative de la régulation de l'IA en Chine continentale, à Hong Kong et à Macao a révélé que même au sein d'un seul pays, « des structures de gouvernance variées produisent des approches divergentes de l'IA dans l'éducation » — démontrant que la fragmentation réglementaire existe non seulement entre l'UE et la Chine, mais au sein même de la Chine (Liu et al. 2025b).

5.3 Réponses institutionnelles émergentes

Malgré le déficit de préparation, certains établissements développent des réponses innovantes. En Autriche, le cadre HEAT-AI (Higher Education Act for AI), développé dans une Fachhochschule, classe les applications de l'IA dans l'enseignement supérieur en quatre niveaux de risque reflétant le AI Act de l'UE — inacceptable, élevé, limité et minimal — et fournit des orientations spécifiques à l'établissement pour chaque catégorie (Temper, Tjoa et David 2025). Le cadre est opérationnel depuis septembre 2024 et représente une tentative de traduire les dispositions abstraites du AI Act en pratique institutionnelle concrète.

Une étude mondiale sur les politiques émergentes en matière d'IA générative a constaté que « seule une courte majorité des établissements examinés disposaient de directives publiquement accessibles sur l'IA générative, la plupart ne disposant pas de politique formelle au niveau institutionnel » (Aristombayeva et al. 2025). Les politiques concernant les étudiants et les enseignants sont plus répandues que celles concernant les chercheurs — un écart particulièrement significatif pour les universités de recherche où l'IA est largement utilisée dans le processus de recherche.

6. Surveillance vs. accompagnement : le débat sur la surveillance des examens

6.1 La surveillance par IA dans le cadre de l'UE

La classification par le AI Act de l'UE des systèmes d'IA surveillant le comportement des étudiants pendant les examens comme « à haut risque », combinée à l'interdiction de la reconnaissance des émotions, crée un environnement réglementaire nettement plus restrictif que toute autre juridiction. Les systèmes de surveillance par IA qui reposent sur l'analyse des expressions faciales, le suivi du regard ou la dynamique des frappes au clavier pour inférer la tricherie doivent se conformer à l'ensemble des obligations du règlement applicables au haut risque — ou, s'ils impliquent l'inférence émotionnelle, peuvent être purement et simplement interdits.

Une revue systématique des systèmes de surveillance fondés sur l'IA a identifié les préoccupations relatives à la sécurité et à la vie privée, les préoccupations éthiques, la confiance dans la technologie fondée sur l'IA, le manque de formation des utilisateurs et le coût comme les principaux problèmes (Nigam et al. 2021). La revue notait que « les problèmes de sécurité associés aux systèmes de surveillance fondés sur l'IA se multiplient et constituent un sujet de préoccupation légitime ». Ces préoccupations sont en accord avec l'approche de précaution de l'UE.

6.2 La surveillance par IA dans l'éducation chinoise

En Chine, l'approche de la surveillance alimentée par l'IA dans l'éducation est sensiblement différente. Une analyse comparative des préoccupations relatives à la vie privée liées à l'IA dans l'enseignement supérieur a constaté que « les médias occidentaux mettent en avant les droits individuels à la vie privée et les controverses liées à la surveillance des examens à distance, tandis que la couverture chinoise aborde plus fréquemment l'innovation éducative portée par l'IA » (Xue et al. 2025). Les systèmes de surveillance alimentés par l'IA dans certaines universités chinoises — surveillant le comportement des étudiants, l'engagement en classe et même les expressions faciales — ont suscité un débat interne, mais le cadre réglementaire est plus permissif que dans l'UE.

Ce contraste reflète des traditions culturelles et juridiques fondamentalement différentes concernant la relation entre vie privée individuelle et bénéfice collectif. Dans le cadre de l'UE, la surveillance des étudiants est une intrusion qui doit être justifiée par une nécessité impérieuse et encadrée par le principe de proportionnalité. Dans le cadre chinois, la surveillance est plus facilement acceptée comme une composante de la gestion éducative, à condition qu'elle serve les objectifs institutionnels et nationaux.

6.3 La question pédagogique

Au-delà des dimensions juridiques et culturelles, le débat sur la surveillance des examens soulève une question pédagogique fondamentale : la surveillance du comportement des étudiants pendant les examens améliore-t-elle les résultats éducatifs, ou ne fait-elle qu'optimiser la conformité tout en sapant la confiance, la motivation intrinsèque et le développement de l'intégrité académique comme valeur personnelle ?

La réponse dépend probablement du contexte. Dans les évaluations standardisées à grande échelle où les conséquences de la tricherie sont significatives (examens professionnels, tests d'entrée à l'université), une certaine forme de surveillance peut être justifiable. Dans les évaluations formatives conçues pour soutenir l'apprentissage plutôt que pour certifier les compétences, la surveillance peut être contre-productive — remplaçant la relation éducative de confiance entre enseignant et étudiant par une relation de surveillance qui sape les valeurs mêmes qu'elle prétend protéger.

7. L'« effet Bruxelles » et la gouvernance mondiale de l'IA

7.1 L'effet Bruxelles dans la régulation de l'IA

Le concept d'« effet Bruxelles », théorisé par Anu Bradford (2020), décrit la capacité de l'UE à réguler unilatéralement les marchés mondiaux par une régulation intérieure stricte que les entreprises multinationales adoptent dans le monde entier par souci d'efficience des coûts. La question de savoir si le AI Act produira un effet Bruxelles fait l'objet d'un débat actif.

Siegmann et Anderljung (2022) soutiennent que « des effets Bruxelles à la fois de facto et de jure sont probables pour des parties du régime réglementaire de l'IA de l'UE », en particulier pour les grandes entreprises technologiques américaines dont les systèmes d'IA sont classés à haut risque. Pour l'éducation, cela signifie que les outils d'IA développés par les entreprises mondiales (Microsoft, Google, OpenAI) pour une utilisation dans les universités européennes seront probablement conçus pour se conformer aux exigences du AI Act — et que ces caractéristiques de conformité pourraient être exportées vers d'autres marchés, y compris la Chine.

Cependant, Almada et Radu (2024) avertissent que le AI Act pourrait également produire un « effet secondaire de Bruxelles » : d'autres juridictions pourraient adopter la forme réglementaire (classification fondée sur les risques, exigences de documentation) sans la substance fondée sur les droits qui confère au cadre de l'UE sa force éthique.

7.2 L'Initiative chinoise de gouvernance mondiale de l'IA

La Chine a répondu à l'activisme réglementaire de l'UE par sa propre vision de la gouvernance mondiale de l'IA. L'Initiative de gouvernance mondiale de l'IA (全球人工智能治理倡议), annoncée par le président Xi Jinping en octobre 2023, prône une « approche centrée sur l'être humain » de la gouvernance de l'IA et appelle au « respect mutuel, à l'égalité et au bénéfice mutuel » entre les nations dans le développement de l'IA. Comme le notent Racicot et Simpson (2024), l'Initiative « doit être vue dans le contexte des objectifs plus larges de la politique étrangère de la Chine : ses engagements en matière de gouvernance de l'IA servent les ambitions géopolitiques de la Chine, y compris son positionnement en tant que normalisateur pour les pays en développement ».

Pour l'enseignement supérieur, la concurrence entre l'effet Bruxelles de l'UE et l'Initiative chinoise de gouvernance mondiale de l'IA crée un paysage réglementaire complexe. Les universités internationales — en particulier celles qui proposent des programmes conjoints couvrant des établissements de l'UE et de Chine, comme celles du réseau du Centre d'excellence Jean Monnet — doivent naviguer simultanément dans les deux cadres. Le chapitre compagnon sur la protection des données (Woesler, dans ce volume) examine en détail les défis pratiques de la double conformité.

8. Vers une intégration responsable de l'IA : recommandations

Sur la base de l'analyse comparative présentée dans cet article, nous formulons les recommandations suivantes à l'intention des universités qui naviguent dans le paysage émergent de la gouvernance de l'IA.

Premièrement, développer des politiques d'IA spécifiques à chaque établissement qui traduisent les exigences réglementaires abstraites en orientations concrètes pour les enseignants et les étudiants. Le cadre HEAT-AI (Temper, Tjoa et David 2025) fournit un modèle utile pour les établissements cherchant à opérationnaliser la gouvernance de l'IA fondée sur les risques au niveau institutionnel.

Deuxièmement, investir dans la culture de l'IA comme compétence institutionnelle fondamentale — non seulement pour les étudiants mais aussi pour les enseignants et le personnel administratif. Le mandat de culture de l'IA du AI Act (article 4) fournit une impulsion réglementaire, mais l'impératif pédagogique existe indépendamment de la régulation : les enseignants qui ne comprennent pas les outils d'IA utilisés par leurs étudiants ne peuvent ni enseigner ni évaluer efficacement.

Troisièmement, distinguer entre la gouvernance de l'IA pour la recherche et la gouvernance de l'IA pour l'évaluation. L'approche chinoise, qui autorise largement l'utilisation de l'IA dans la recherche tout en la restreignant dans les examens et les thèses, fournit une distinction pragmatique dont les établissements européens gagneraient à s'inspirer. La recherche et l'évaluation servent des finalités différentes et comportent des risques différents ; une politique d'IA unique ne peut traiter adéquatement les deux.

Quatrièmement, concevoir des méthodes d'évaluation qui valorisent les contributions distinctement humaines — analyse critique, pensée originale, synthèse créative, raisonnement éthique — plutôt que de s'appuyer sur des outils de détection de l'IA dont la précision est contestée et dont l'utilisation peut saper la confiance entre enseignants et étudiants.

Cinquièmement, s'engager dans le dialogue transfrontalier. La comparaison UE-Chine révèle que chaque système a développé des perspectives que l'autre ne possède pas. Les établissements européens peuvent apprendre de la rapidité de mise en œuvre de la Chine et de son intégration des compétences en IA dans toutes les disciplines. Les établissements chinois peuvent apprendre de l'accent mis par l'UE sur les cadres éthiques, la gouvernance académique et la protection des droits des étudiants. Les programmes conjoints, les visites d'échange et la recherche collaborative — tels que ceux facilités par le programme du Centre d'excellence Jean Monnet — fournissent des mécanismes concrets pour ce dialogue.

9. Conclusion

La gouvernance de l'IA dans l'enseignement supérieur est un défi qu'aucun cadre réglementaire unique n'a encore adéquatement relevé. Le AI Act de l'UE fournit le cadre juridique le plus complet, mais ses dispositions abstraites nécessitent une traduction institutionnelle et sa mise en œuvre se heurte à un important déficit de préparation. L'approche sectorielle de la Chine fournit des orientations plus ciblées pour les contextes éducatifs, mais son efficacité dépend d'une mise en œuvre institutionnelle cohérente et risque la fragmentation entre les instruments réglementaires.

La voie la plus prometteuse combine des éléments des deux approches : l'engagement de l'UE en faveur des droits fondamentaux, la classification fondée sur les risques et la supervision éthique ; et la volonté de la Chine d'imposer la culture de l'IA à grande échelle, sa distinction pragmatique entre les contextes de recherche et d'évaluation, et sa rapidité d'adaptation institutionnelle. Aucun système ne peut tout apprendre de l'autre — les différences culturelles, politiques et juridiques sont trop profondes. Mais chacun peut apprendre quelque chose, et le dialogue entre eux constitue en soi une contribution précieuse au défi mondial de la gouvernance responsable de l'IA dans l'éducation.

Comme le rappelle le Guide de l'UNESCO sur l'IA générative dans l'éducation et la recherche (Miao et Holmes 2023), « l'absence de réglementations nationales sur l'IA générative dans la plupart des pays laisse la vie privée des utilisateurs sans protection et les établissements d'enseignement largement non préparés ». L'UE et la Chine font partie des rares juridictions à être passées de cette absence à des cadres de gouvernance substantiels. Leurs expériences — succès comme échecs — façonneront la manière dont le reste du monde abordera le défi de l'IA dans l'enseignement supérieur.

Remerciements

Cette recherche a été soutenue par le Centre d'excellence Jean Monnet « EU-Studies Centre: Digitalization in Europe and China » (EUSC-DEC), financé par l'Union européenne dans le cadre de la convention de subvention n° 101126782. Les opinions exprimées n'engagent que l'auteur et ne reflètent pas nécessairement celles de l'Union européenne.

Références

Almada, M., & Radu, A. (2024). The Brussels Side-Effect: How the AI Act can reduce the global reach of EU policy. German Law Journal, 25, 646–663.

Aristombayeva, M., Satybaldiyeva, R., Maung, B. M., & Lee, D. (2025). Guiding the uncharted: The emerging (and missing) policies on generative AI in higher education. Frontiers in Education, 10. DOI: 10.3389/feduc.2025.1644081.

Asia Education Review. (2025). China makes AI education mandatory in schools starting September 2025.

Bradford, A. (2020). The Brussels Effect: How the European Union Rules the World. Oxford University Press.

China Daily. (2026, January 12). Fudan University sets AI education guidelines.

Chun, J., Schroeder de Witt, C., & Elkins, K. (2024). Comparative global AI regulation: Policy perspectives from the EU, China, and the US. arXiv preprint, arXiv:2410.21279.

EDUCAUSE. (2024). 2024 EDUCAUSE AI Landscape Study. Robert, J., & McCormack, M.

EDUCAUSE. (2024). 2024 EDUCAUSE Action Plan: AI Policies and Guidelines.

European Parliament and Council of the European Union. (2024). Regulation (EU) 2024/1689 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union.

Freeman, J. (2025). Student Generative AI Survey 2025. HEPI Policy Note 61. Higher Education Policy Institute.

Liu, X., et al. (2025). Regulations, technology policies and universities' attitudes to artificial intelligence in China. Higher Education Quarterly, 79(4). DOI: 10.1111/hequ.70055.

Miao, F., & Holmes, W. (2023). Guidance for Generative AI in Education and Research. UNESCO: Paris.

Migliorini, S. (2024). China's Interim Measures on generative AI: Origin, content and significance. Computer Law and Security Review. 53, Article 105992.

Nigam, A., Pasricha, R., Singh, T., & Churi, P. (2021). A systematic review on AI-based proctoring systems. Education and Information Technologies, 26, 6421–6445.

O'Shaughnessy, M., & Sheehan, M. (2023). Lessons from the world's two experiments in AI governance. Carnegie Endowment for International Peace.

Racicot, R., & Simpson, K. H. (2024). China's AI Governance Initiative and its geopolitical ambitions. Centre for International Governance Innovation (CIGI).

Roberts, H., Cowls, J., Morley, J., Taddeo, M., Wang, V., & Floridi, L. (2021). The Chinese approach to artificial intelligence: An analysis of policy, ethics, and regulation. AI and Society, 36, 59–77.

Hilliard, A., Gulley, A., Kazim, E., & Koshiyama, A. (2026). Artificial intelligence policy worldwide: A comparative analysis. 13(2), 242234.

Siegmann, C., & Anderljung, M. (2022). The Brussels Effect and Artificial Intelligence. arXiv preprint, arXiv:2208.12645.

Temper, M., Tjoa, S., & David, L. (2025). Higher Education Act for AI (HEAT-AI): A framework to regulate the usage of AI in higher education institutions. Frontiers in Education, 10. DOI: 10.3389/feduc.2025.1505370.

Woesler, M. (dans ce volume). Apprendre une langue étrangère avec et sans IA : une étude empirique comparative.

Woesler, M. (dans ce volume). Protection des données étudiantes à l'université numérique : comparaison RGPD et PIPL chinoise.

Woesler, M. (dans ce volume). L'université du futur : l'enseignement supérieur augmenté par l'IA entre humanisme européen et innovation chinoise.

Xue, Y., Chinapah, V., & Zhu, C. (2025). A Comparative Analysis of AI Privacy Concerns in Higher Education: News Coverage in China and Western Countries. Education Sciences, 15(6), 650. DOI: 10.3390/educsci15060650