Rethinking Higher Education/it/Chapter 1
Quadri etici per l'IA nell'istruzione superiore: tra regolamentazione europea e innovazione cinese
Martin Woesler
Università Normale dello Hunan
Riassunto
La rapida integrazione dell'intelligenza artificiale nell'istruzione superiore ha superato lo sviluppo dei quadri etici e normativi preposti a governarla. Il presente articolo propone un confronto sistematico tra il Regolamento europeo sull'intelligenza artificiale (AI Act) — la prima legislazione organica sull'IA al mondo — e l'approccio settoriale in evoluzione adottato dalla Cina in materia di governance dell'IA nel campo dell'istruzione. L'AI Act dell'UE classifica le applicazioni educative dell'IA, quali la valutazione automatizzata, la sorveglianza durante gli esami e le decisioni di ammissione, come «ad alto rischio», vieta il riconoscimento delle emozioni nei contesti educativi e impone l'alfabetizzazione in materia di IA a tutti i soggetti che la utilizzano. L'approccio cinese, al contrario, combina le Misure provvisorie del 2023 per i servizi di IA generativa con le direttive del Ministero dell'Istruzione, l'insegnamento obbligatorio dell'IA a partire da settembre 2025 e le linee guida istituzionali specifiche, come la politica dell'Università Fudan del gennaio 2026. Basandoci su dati empirici tratti dallo studio EDUCAUSE 2024 sul panorama dell'IA, dall'indagine HEPI 2025 sugli studenti britannici e da analisi giuridiche comparative, documentiamo un significativo «divario di preparazione» in entrambi i sistemi: l'80 per cento dei docenti utilizza strumenti di IA, ma meno di uno su quattro è a conoscenza della politica del proprio istituto in materia di IA. Sosteniamo che né l'approccio orizzontale fondato sui diritti dell'UE, né il modello centralizzato e settoriale della Cina siano da soli sufficienti. Una sintesi che combini il rigore etico europeo con la rapidità di attuazione cinese offre la via più promettente verso un'integrazione responsabile dell'IA nell'istruzione superiore.
Parole chiave: etica dell'IA, AI Act dell'UE, istruzione superiore, governance cinese dell'IA, alfabetizzazione in materia di IA, integrità accademica, sorveglianza degli esami, effetto Bruxelles, politica sull'IA generativa
1. Introduzione
Il 1° agosto 2024, il Regolamento sull'intelligenza artificiale dell'Unione europea è entrato in vigore — la prima legislazione organica al mondo in materia di intelligenza artificiale. Tra le sue disposizioni più rilevanti per l'istruzione superiore figurano la classificazione dei sistemi educativi di IA come «ad alto rischio», il divieto di riconoscimento delle emozioni nelle scuole e nelle università, e l'obbligo per tutte le organizzazioni che impiegano sistemi di IA di garantire un livello adeguato di alfabetizzazione in materia di IA tra il proprio personale. Queste disposizioni, entrate in vigore per fasi a partire da febbraio 2025, stabiliscono un quadro normativo senza precedenti in nessun'altra giurisdizione.
Nel frattempo, la Cina ha intrapreso un percorso diverso. Anziché adottare un'unica legge orizzontale che disciplini tutte le applicazioni dell'IA, la Cina ha sviluppato una serie di regolamentazioni settoriali — le Misure provvisorie del 2023 per la gestione dei servizi di IA generativa, le direttive del Ministero dell'Istruzione che vietano la presentazione di lavori accademici generati dall'IA, e l'obbligo di insegnamento dell'IA in tutte le scuole primarie e secondarie a partire da settembre 2025 — che, nel loro insieme, regolano l'IA nell'istruzione attraverso una combinazione di politica nazionale, linee guida istituzionali e standard tecnici.
Il presente articolo confronta questi due approcci alla governance dell'IA nell'istruzione, esaminandone i fondamenti filosofici, le implicazioni pratiche e l'efficacia nell'affrontare le sfide etiche che l'IA pone all'istruzione superiore. Esso contribuisce al più ampio progetto antologico collegando la dimensione normativa ai capitoli complementari sull'IA nell'apprendimento linguistico, la protezione dei dati e l'università del futuro (Woesler, in questo volume).
Tre domande strutturano la nostra indagine. In primo luogo, come affrontano i quadri normativi dell'UE e della Cina le sfide etiche specifiche dell'IA nell'istruzione — integrità accademica, sorveglianza, equità e trasparenza? In secondo luogo, qual è lo stato attuale della preparazione istituzionale alla governance dell'IA in entrambi i sistemi? In terzo luogo, che cosa può apprendere ciascun sistema dall'altro?
2. L'AI Act dell'UE e l'istruzione
2.1 Classificazione ad alto rischio
L'AI Act dell'UE (Regolamento 2024/1689) stabilisce un quadro basato sul rischio che classifica i sistemi di IA in quattro livelli: rischio inaccettabile (vietato), alto rischio (regolamentato), rischio limitato (obblighi di trasparenza) e rischio minimo (non regolamentato). L'istruzione occupa un posto di rilievo nella categoria ad alto rischio. L'allegato III, sezione 3 identifica quattro categorie di IA educativa come ad alto rischio: i sistemi di IA utilizzati per determinare l'accesso agli istituti di istruzione, i sistemi di IA che valutano i risultati di apprendimento, compresi quelli utilizzati per orientare il processo di apprendimento, i sistemi di IA che valutano il livello di istruzione appropriato per un individuo e i sistemi di IA che monitorano e rilevano comportamenti vietati degli studenti durante gli esami (Parlamento europeo e Consiglio 2024).
Le conseguenze pratiche sono significative. Qualsiasi università che impieghi un sistema di IA per la valutazione degli esami, la raccomandazione di percorsi di studio, la determinazione delle ammissioni o il monitoraggio del comportamento degli studenti durante le prove deve conformarsi a obblighi estesi: effettuare valutazioni di conformità, mantenere documentazione tecnica, implementare meccanismi di supervisione umana e garantire la qualità dei dati. Questi requisiti si applicano indipendentemente dal fatto che il sistema di IA sia sviluppato internamente o acquisito da un fornitore commerciale.
2.2 Il divieto di riconoscimento delle emozioni
L'articolo 5, paragrafo 1, lettera f), dell'AI Act vieta i sistemi di IA che deducono le emozioni delle persone fisiche negli ambienti di lavoro e negli istituti di istruzione, salvo il caso in cui il sistema di IA sia destinato a essere messo in servizio per motivi medici o di sicurezza. Tale divieto, entrato in vigore il 2 febbraio 2025, ha implicazioni dirette per i sistemi di sorveglianza degli esami basati sull'IA che monitorano le espressioni facciali, i movimenti oculari e altri indicatori biometrici per rilevare comportamenti scorretti durante le prove. Diverse piattaforme commerciali di sorveglianza che si basano sull'inferenza emotiva — interpretando nervosismo, distrazione o stress come indicatori di disonestà accademica — possono rientrare nell'ambito di applicazione di tale divieto.
Il divieto di riconoscimento delle emozioni riflette un approccio tipicamente europeo al rapporto tra tecnologia e dignità umana. La posizione dell'UE è che il monitoraggio degli stati emotivi nei contesti educativi costituisce un'intrusione inaccettabile nell'integrità psicologica degli studenti, indipendentemente dalla finalità dichiarata. Questa posizione è informata dalla Carta dei diritti fondamentali dell'Unione europea, che garantisce il diritto alla dignità umana (articolo 1) e il diritto alla protezione dei dati personali (articolo 8).
2.3 L'obbligo di alfabetizzazione in materia di IA
L'articolo 4 dell'AI Act impone ai fornitori e agli utilizzatori di sistemi di IA di garantire che il personale e le altre persone coinvolte nel funzionamento e nell'uso dei sistemi di IA per loro conto possiedano un livello sufficiente di alfabetizzazione in materia di IA. Tale obbligo è entrato in vigore il 2 febbraio 2025 — prima della maggior parte delle altre disposizioni della legge — segnalando la convinzione dell'UE che l'alfabetizzazione in materia di IA sia un prerequisito per una governance responsabile dell'IA.
Per le università, questo obbligo ha due dimensioni. In primo luogo, in quanto utilizzatrici di sistemi di IA (sistemi di gestione dell'apprendimento, strumenti di valutazione automatizzata, software di rilevamento del plagio, piattaforme di sorveglianza), le università devono garantire che il personale docente e amministrativo possieda un'adeguata alfabetizzazione in materia di IA per utilizzare responsabilmente tali strumenti. In secondo luogo, in quanto istituzioni educative, le università hanno una missione più ampia: sviluppare l'alfabetizzazione in materia di IA tra i propri studenti — una missione che il mandato di alfabetizzazione dell'AI Act rafforza senza affrontare esplicitamente.
La sfida dell'attuazione è considerevole. Lo studio EDUCAUSE 2024 sul panorama dell'IA ha rilevato che meno di un docente o membro del personale su quattro era a conoscenza della politica formale del proprio istituto in materia di IA, nonostante l'80 per cento avesse dichiarato di utilizzare strumenti di IA nel proprio lavoro (EDUCAUSE 2024). Questo divario tra uso dell'IA e consapevolezza dell'IA rappresenta un rischio istituzionale significativo — e una sfida diretta al mandato di alfabetizzazione dell'AI Act.
3. La governance cinese dell'IA per l'istruzione
3.1 Le Misure provvisorie per l'IA generativa (2023)
L'approccio cinese alla governance dell'IA nell'istruzione opera attraverso un sistema stratificato di regolamentazioni nazionali, direttive ministeriali e politiche istituzionali. La regolamentazione nazionale fondamentale è costituita dalle Misure provvisorie per la gestione dei servizi di IA generativa (生成式人工智能服务管理暂行办法), emanate congiuntamente dall'Amministrazione cinese per il cyberspazio e da sei altre agenzie, tra cui il Ministero dell'Istruzione, in vigore dal 15 agosto 2023. Le Misure adottano quello che i giuristi cinesi descrivono come un approccio di «prudenza inclusiva» (包容审慎), che combina la promozione dello sviluppo con una supervisione classificata (Migliorini 2024).
Per l'istruzione in particolare, le Misure provvisorie includono disposizioni che impongono ai fornitori di servizi di IA generativa di prevenire che i minori sviluppino «un'eccessiva dipendenza da o dipendenza verso» l'IA generativa, e che i servizi destinati ai minori soddisfino requisiti di sicurezza aggiuntivi. È degno di nota il fatto che le Misure includano un'esenzione per la ricerca che consente alle università e agli istituti di ricerca di sviluppare e testare sistemi di IA generativa senza i requisiti completi di registrazione e conformità applicabili ai fornitori commerciali — un riconoscimento pragmatico del fatto che una regolamentazione eccessivamente restrittiva potrebbe ostacolare la ricerca accademica.
3.2 Le direttive del Ministero dell'Istruzione
Il Ministero dell'Istruzione ha emanato diverse direttive che affrontano specificamente la questione dell'IA nell'istruzione. In modo particolarmente significativo, il Ministero ha vietato agli studenti di presentare contenuti generati dall'IA come propri lavori accademici — una direttiva che, sebbene chiara nel principio, affronta le stesse sfide di applicazione riscontrate in altre giurisdizioni. Le singole università hanno integrato questa direttiva con politiche specifiche per ciascun istituto.
L'Università Fudan è stata tra le prime grandi università cinesi a emanare linee guida complete sull'IA nel gennaio 2026, stabilendo sei divieti specifici per la stesura delle tesi: il divieto di utilizzare l'IA per generare o alterare dati originali, risultati sperimentali, immagini o testi di tesi; il divieto di utilizzare strumenti di IA nel processo di revisione delle tesi; e il divieto di utilizzare strumenti di IA per la revisione linguistica e la traduzione delle tesi. Le sanzioni per le violazioni gravi includono la revoca del titolo di studio (China Daily 2026).
L'Università di Scienze e Tecnologia di Tianjin (天津科技大学) ha adottato un approccio diverso nel 2024, stabilendo che il contenuto generato dall'IA nelle tesi di laurea triennale non debba superare il 40 per cento — una soglia quantitativa misurabile in linea di principio, ma difficile da applicare nella pratica, in particolare per testi che siano stati sostanzialmente riscritti dai loro autori umani.
3.3 L'insegnamento obbligatorio dell'IA a partire da settembre 2025
L'intervento politico più radicale della Cina è l'obbligo, in vigore dal 1° settembre 2025, di incorporare l'insegnamento dell'IA in tutti i curricoli delle scuole primarie e secondarie. La politica prevede almeno otto ore annuali di insegnamento dell'IA per gli studenti di tutti i livelli scolastici, compresi i bambini a partire dai sei anni. A livello di scuola primaria, l'attenzione si concentra sull'alfabetizzazione e sulla familiarizzazione con l'IA; a livello di scuola media, sulla logica e il pensiero critico; a livello di scuola superiore, sull'innovazione applicata e sulla progettazione di algoritmi (Asia Education Review 2025).
Questo obbligo ha implicazioni per l'istruzione superiore poiché significa che, entro pochi anni, gli studenti universitari arriveranno con una base di alfabetizzazione in materia di IA — a differenza della generazione attuale, la maggior parte della quale incontra gli strumenti di IA per la prima volta all'università. Le università cinesi devono quindi prepararsi a costruire su questa base piuttosto che partire da zero, il che richiederà una riprogettazione fondamentale dei curricoli.
Contemporaneamente, la politica vieta agli studenti delle scuole primarie di utilizzare autonomamente strumenti di «generazione di contenuti a risposta aperta» e proibisce ai docenti di utilizzare l'IA generativa come sostituto delle attività didattiche fondamentali. Questo duplice approccio — promuovere l'alfabetizzazione in materia di IA limitando al contempo determinati usi dell'IA — riflette una comprensione articolata del fatto che competenza in materia di IA e dipendenza dall'IA sono fenomeni distinti che richiedono risposte politiche distinte.
4. Regolamentazione orizzontale contro regolamentazione settoriale
4.1 L'approccio orizzontale dell'UE
L'AI Act dell'UE rappresenta una strategia regolatoria orizzontale: un unico quadro legislativo che governa l'IA in tutti i settori, compresa l'istruzione. I vantaggi di questo approccio includono la coerenza (gli stessi principi si applicano all'IA nella sanità, nell'occupazione, nelle forze dell'ordine e nell'istruzione), la certezza giuridica (le organizzazioni devono comprendere un unico quadro anziché molti) e la completezza (nessun settore sfugge alle maglie della regolamentazione).
Tuttavia, la regolamentazione orizzontale presenta anche degli svantaggi. Le disposizioni dell'AI Act sono necessariamente astratte — i criteri di classificazione «ad alto rischio» devono essere applicabili a sistemi di IA tanto diversi quanto gli strumenti diagnostici medici e gli algoritmi di ammissione universitaria. Questa astrazione può rendere difficoltosa la conformità per settori specifici. Le università, abituate alle strutture di governance relativamente informali della vita accademica, possono avere difficoltà nell'attuare le valutazioni formali di conformità, i requisiti di documentazione tecnica e i sistemi di gestione della qualità che l'AI Act impone agli utilizzatori di IA ad alto rischio.
4.2 L'approccio settoriale della Cina
L'approccio della Cina, al contrario, è prevalentemente settoriale. Anziché un'unica legge organica sull'IA, la Cina ha sviluppato una serie di regolamentazioni mirate che affrontano specifiche capacità dell'IA: le Disposizioni sulla sintesi profonda (2023) che regolano i deepfake, le Misure provvisorie per l'IA generativa (2023), le Disposizioni sulla gestione delle raccomandazioni algoritmiche (2022) e le direttive settoriali dei ministeri competenti, tra cui il Ministero dell'Istruzione.
Come osservano O'Shaughnessy e Sheehan (2023) nella loro analisi per il Carnegie Endowment for International Peace, «l'AI Act dell'UE propende per un approccio orizzontale (un unico quadro per tutti i settori), mentre le regolamentazioni algoritmiche della Cina tendono verso la verticalità (leggi settoriali che mirano a specifiche capacità dell'IA)». Entrambi gli approcci comportano compromessi: la regolamentazione orizzontale garantisce coerenza ma rischia di essere troppo vaga; la regolamentazione verticale garantisce specificità ma rischia lacune e sovrapposizioni tra i settori.
Per l'istruzione in particolare, l'approccio settoriale della Cina ha il vantaggio di consentire al Ministero dell'Istruzione di emanare direttive su misura per i contesti educativi — distinguendo, ad esempio, tra l'uso dell'IA nella ricerca (ampiamente consentito) e l'uso dell'IA negli esami (ampiamente vietato). Lo svantaggio è la frammentazione normativa: gli amministratori universitari devono orientarsi tra molteplici regolamentazioni sovrapposte senza un unico quadro di riferimento autorevole.
4.3 Valutazione comparativa
Un'analisi comparativa globale della regolamentazione dell'IA ha rilevato che «molte leggi orizzontali adottano un approccio basato sul rischio che impone obblighi stringenti ai sistemi a più alto rischio, sebbene le definizioni di "alto rischio" siano incoerenti tra le giurisdizioni» (Royal Society Open Science 2025). Lo studio ha confermato che l'UE predilige un approccio orizzontale basato sul rischio mentre la Cina ha preferito leggi settoriali su misura per specifici casi d'uso, senza che nessuno dei due approcci risulti chiaramente superiore.
Chun, Schroeder de Witt ed Elkins (2024) caratterizzano la differenza fondamentale come una questione di valori: «L'approccio dell'UE è caratterizzato dall'impegno verso i diritti fondamentali, dalla categorizzazione basata sul rischio e dalla supervisione etica; la Cina adotta un approccio centralizzato e guidato dallo Stato che integra lo sviluppo dell'IA con gli obiettivi nazionali e la governance sociale». Per l'istruzione, ciò significa che la regolamentazione dell'UE privilegia la protezione dei diritti degli studenti (privacy, non discriminazione, supervisione umana), mentre la regolamentazione cinese privilegia sia la protezione degli studenti sia il progresso della competitività nazionale in materia di IA — obiettivi che possono convergere ma anche entrare in conflitto.
5. Il divario di preparazione
5.1 Consapevolezza del corpo docente e attuazione delle politiche
La sfida più significativa che entrambi i sistemi normativi devono affrontare non è l'adeguatezza della regolamentazione in sé, bensì il divario tra regolamentazione e prassi. I dati empirici provenienti da molteplici giurisdizioni rivelano uno schema ricorrente: docenti e studenti utilizzano gli strumenti di IA molto più rapidamente di quanto le istituzioni non sviluppino politiche per disciplinarne l'uso.
Lo studio EDUCAUSE 2024 sul panorama dell'IA, basato su un'indagine condotta su oltre 900 professionisti delle tecnologie dell'istruzione superiore, ha rilevato che solo il 23 per cento degli istituti disponeva di politiche di utilizzo accettabile relative all'IA. Quasi la metà (48 per cento) degli intervistati non concordava sul fatto che il proprio istituto disponesse di politiche adeguate in materia di IA per il processo decisionale etico, e il 54 per cento non concordava sul fatto che il proprio istituto disponesse di un meccanismo efficace di governance dell'IA (EDUCAUSE 2024). Eppure l'80 per cento dei docenti e del personale ha dichiarato di utilizzare strumenti di IA, e meno di uno su quattro era a conoscenza di una politica istituzionale formale sull'IA (EDUCAUSE 2024 Action Plan).
Questo divario non è un fenomeno esclusivamente statunitense. Nel Regno Unito, l'indagine 2025 del Higher Education Policy Institute (HEPI) ha rilevato che il 92 per cento degli studenti universitari utilizza ormai l'IA generativa in qualche forma, in aumento rispetto al 66 per cento del 2024 — un incremento annuale considerevole che dimostra la rapida normalizzazione dell'uso degli strumenti di IA (HEPI 2025). Tuttavia le politiche istituzionali non hanno tenuto il passo con questa adozione.
5.2 Il panorama della preparazione cinese
In Cina, Liu et al. (2025) hanno studiato le regolamentazioni, le politiche tecnologiche e le attitudini delle università nei confronti dell'IA sulla base dell'analisi di documenti programmatici e di 33 interviste a docenti presso università di ricerca cinesi. Hanno riscontrato che, mentre i docenti vedono generalmente l'IA come un fattore di miglioramento della personalizzazione, della produttività nella ricerca e dell'efficienza amministrativa, esprimono preoccupazioni riguardo all'integrità accademica, ai pregiudizi algoritmici e all'eccessiva dipendenza dalla tecnologia. Un aspetto cruciale è che il modello di governance guidato dallo Stato cinese «viene interpretato e attuato in modo disomogeneo nei campus universitari» — persino le direttive centralizzate vengono applicate in modo incoerente a livello istituzionale (Liu et al. 2025).
Un'analisi comparativa della regolamentazione dell'IA nella Cina continentale, a Hong Kong e a Macao ha rilevato che anche all'interno di un singolo Paese «strutture di governance diverse producono approcci divergenti all'IA nell'istruzione» — dimostrando che la frammentazione normativa esiste non solo tra l'UE e la Cina, ma anche all'interno della Cina stessa (Liu et al. 2025b).
5.3 Risposte istituzionali emergenti
Nonostante il divario di preparazione, alcune istituzioni stanno sviluppando risposte innovative. In Austria, il quadro HEAT-AI (Higher Education Act for AI), sviluppato presso un'Università di Scienze Applicate, classifica le applicazioni dell'IA nell'istruzione superiore in quattro livelli di rischio che rispecchiano l'AI Act dell'UE — inaccettabile, alto, limitato e minimo — e fornisce orientamenti specifici per ciascuna categoria a livello istituzionale (Temper, Tjoa e David 2025). Il quadro è entrato in funzione nel settembre 2024 e rappresenta un tentativo di tradurre le disposizioni astratte dell'AI Act in una prassi istituzionale concreta.
Uno studio globale sulle politiche emergenti in materia di IA generativa ha rilevato che «solo poco più della metà degli istituti esaminati disponeva di linee guida sull'IA generativa accessibili al pubblico, e la maggior parte era priva di politiche formali a livello istituzionale» (Aristombayeva et al. 2025). Le politiche che riguardano studenti e docenti sono più diffuse di quelle che riguardano i ricercatori — una lacuna particolarmente significativa per le università di ricerca, dove l'IA è ampiamente utilizzata nel processo di ricerca.
6. Sorveglianza contro supporto: il dibattito sulla vigilanza degli esami
6.1 La vigilanza degli esami basata sull'IA nel quadro dell'UE
La classificazione dell'AI Act dell'UE dei sistemi di IA che monitorano il comportamento degli studenti durante gli esami come «ad alto rischio», combinata con il divieto di riconoscimento delle emozioni, crea un contesto normativo significativamente più restrittivo rispetto a qualsiasi altra giurisdizione. I sistemi di sorveglianza degli esami basati sull'IA che si basano sull'analisi delle espressioni facciali, sul tracciamento dello sguardo o sulla dinamica della digitazione per dedurre comportamenti scorretti devono conformarsi all'intero set di obblighi previsti dall'AI Act per i sistemi ad alto rischio — oppure, se comportano inferenza emotiva, possono essere del tutto vietati.
Una revisione sistematica dei sistemi di sorveglianza degli esami basati sull'IA ha identificato preoccupazioni relative alla sicurezza e alla privacy, preoccupazioni etiche, la fiducia nella tecnologia basata sull'IA, la mancanza di formazione tra gli utenti e i costi come le principali problematiche (Nigam et al. 2021). La revisione ha osservato che «i problemi di sicurezza associati ai sistemi di sorveglianza basati sull'IA si stanno moltiplicando e costituiscono motivo di legittima preoccupazione». Queste preoccupazioni sono in linea con l'approccio precauzionale dell'UE.
6.2 La sorveglianza basata sull'IA nell'istruzione cinese
In Cina, l'approccio al monitoraggio basato sull'IA nell'istruzione è nettamente diverso. Un'analisi comparativa delle preoccupazioni relative alla privacy dell'IA nell'istruzione superiore ha rilevato che «i media occidentali evidenziano i diritti individuali alla privacy e le controversie nel monitoraggio degli esami a distanza, mentre la copertura mediatica cinese affronta più frequentemente l'innovazione educativa guidata dall'IA» (Xue et al. 2025). I sistemi di sorveglianza basati sull'IA in alcune università cinesi — che monitorano il comportamento degli studenti, il coinvolgimento in classe e persino le espressioni facciali — hanno generato un dibattito interno, ma il quadro normativo è più permissivo rispetto a quello dell'UE.
Il contrasto riflette tradizioni culturali e giuridiche fondamentalmente diverse riguardo al rapporto tra privacy individuale e beneficio collettivo. Nel quadro dell'UE, il monitoraggio degli studenti è un'intrusione che deve essere giustificata da una necessità impellente e limitata dal principio di proporzionalità. Nel quadro cinese, il monitoraggio è più facilmente accettato come componente della gestione educativa, a condizione che serva obiettivi istituzionali e nazionali.
6.3 La questione pedagogica
Al di là delle dimensioni giuridiche e culturali, il dibattito sulla sorveglianza degli esami solleva una questione pedagogica fondamentale: il monitoraggio del comportamento degli studenti durante gli esami migliora i risultati educativi, oppure si limita a ottimizzare la conformità minando al contempo la fiducia, la motivazione intrinseca e lo sviluppo dell'integrità accademica come valore personale?
La risposta dipende verosimilmente dal contesto. Nelle valutazioni standardizzate su larga scala in cui le conseguenze della frode sono significative (esami di abilitazione professionale, test di ammissione universitaria), una qualche forma di monitoraggio può essere giustificabile. Nelle valutazioni formative concepite per sostenere l'apprendimento piuttosto che certificare le competenze, il monitoraggio può risultare controproducente — sostituendo il rapporto educativo di fiducia tra docente e studente con un rapporto di sorveglianza che mina i valori stessi che intende proteggere.
7. L'«effetto Bruxelles» e la governance globale dell'IA
7.1 L'effetto Bruxelles nella regolamentazione dell'IA
Il concetto di «effetto Bruxelles», teorizzato da Anu Bradford (2020), descrive la capacità dell'UE di regolamentare unilateralmente i mercati globali attraverso una regolamentazione interna rigorosa che le multinazionali adottano in tutto il mondo per motivi di efficienza dei costi. La questione se l'AI Act produrrà un effetto Bruxelles è attivamente dibattuta.
Siegmann e Anderljung (2022) sostengono che «sia l'effetto Bruxelles de facto sia quello de jure sono probabili per parti del regime regolatorio dell'UE sull'IA», in particolare per le grandi aziende tecnologiche statunitensi i cui sistemi di IA sono classificati come ad alto rischio. Per l'istruzione, ciò significa che gli strumenti di IA sviluppati da aziende globali (Microsoft, Google, OpenAI) per l'utilizzo nelle università europee saranno probabilmente progettati per conformarsi ai requisiti dell'AI Act — e che queste caratteristiche di conformità potranno essere esportate in altri mercati, inclusa la Cina.
Tuttavia, Almada e Radu (2024) avvertono che l'AI Act potrebbe anche produrre un «effetto collaterale di Bruxelles»: altre giurisdizioni potrebbero adottare la forma regolatoria (classificazione basata sul rischio, requisiti di documentazione) senza la sostanza fondata sui diritti che conferisce al quadro dell'UE la sua forza etica.
7.2 L'iniziativa cinese per la governance globale dell'IA
La Cina ha risposto all'attivismo normativo dell'UE con la propria visione per la governance globale dell'IA. L'Iniziativa per la governance globale dell'IA (全球人工智能治理倡议), annunciata dal Presidente Xi Jinping nell'ottobre 2023, promuove un «approccio incentrato sulle persone» alla governance dell'IA e invita al «rispetto reciproco, all'uguaglianza e al beneficio reciproco» tra le nazioni nello sviluppo dell'IA. Come osservano Racicot e Simpson (2024), l'Iniziativa «deve essere vista nel contesto dei più ampi obiettivi di politica estera della Cina: i suoi impegni nella governance dell'IA servono le ambizioni geopolitiche della Cina, incluso il posizionamento come punto di riferimento normativo per i Paesi in via di sviluppo».
Per l'istruzione superiore, la competizione tra l'effetto Bruxelles dell'UE e l'Iniziativa cinese per la governance globale dell'IA crea un panorama normativo complesso. Le università internazionali — in particolare quelle con programmi congiunti che coinvolgono istituzioni dell'UE e cinesi, come quelle all'interno della rete del Centro d'eccellenza Jean Monnet — devono orientarsi contemporaneamente in entrambi i quadri. Il capitolo complementare sulla protezione dei dati (Woesler, in questo volume) esamina nel dettaglio le sfide pratiche della doppia conformità.
8. Verso un'integrazione responsabile dell'IA: raccomandazioni
Sulla base dell'analisi comparativa presentata in questo articolo, formuliamo le seguenti raccomandazioni per le università che devono orientarsi nel panorama emergente della governance dell'IA.
In primo luogo, sviluppare politiche istituzionali specifiche sull'IA che traducano i requisiti normativi astratti in orientamenti concreti per docenti e studenti. Il quadro HEAT-AI (Temper, Tjoa e David 2025) fornisce un modello utile per gli istituti che intendono operazionalizzare la governance dell'IA basata sul rischio a livello istituzionale.
In secondo luogo, investire nell'alfabetizzazione in materia di IA come competenza istituzionale fondamentale — non solo per gli studenti, ma anche per i docenti e il personale amministrativo. Il mandato di alfabetizzazione dell'AI Act dell'UE (articolo 4) fornisce un impulso normativo, ma l'imperativo pedagogico esiste indipendentemente dalla regolamentazione: i docenti che non comprendono gli strumenti di IA utilizzati dai propri studenti non possono insegnare né valutare in modo efficace.
In terzo luogo, distinguere tra governance dell'IA per la ricerca e governance dell'IA per la valutazione. L'approccio cinese, che consente ampiamente l'uso dell'IA nella ricerca limitandolo negli esami e nelle tesi, fornisce una distinzione pragmatica che le istituzioni europee trarrebbero beneficio dall'adottare. Ricerca e valutazione perseguono finalità diverse e comportano rischi diversi; un'unica politica sull'IA non può affrontare adeguatamente entrambe.
In quarto luogo, progettare metodi di valutazione che valutino i contributi distintamente umani — analisi critica, pensiero originale, sintesi creativa, ragionamento etico — piuttosto che fare affidamento su strumenti di rilevamento dell'IA la cui accuratezza è contestata e il cui utilizzo può minare la fiducia tra docenti e studenti.
In quinto luogo, impegnarsi nel dialogo transfrontaliero. Il confronto UE-Cina rivela che ciascun sistema ha sviluppato intuizioni che mancano all'altro. Le istituzioni europee possono apprendere dalla rapidità di attuazione della Cina e dalla sua integrazione delle competenze in materia di IA in tutte le discipline. Le istituzioni cinesi possono apprendere dall'enfasi dell'UE sui quadri etici, sulla governance del corpo docente e sulla protezione dei diritti degli studenti. Programmi congiunti, visite di scambio e ricerche collaborative — come quelle facilitate dal programma del Centro d'eccellenza Jean Monnet — forniscono meccanismi concreti per questo dialogo.
9. Conclusione
La governance dell'IA nell'istruzione superiore è una sfida che nessun singolo quadro normativo ha ancora affrontato in modo adeguato. L'AI Act dell'UE fornisce il quadro giuridico più completo, ma le sue disposizioni astratte richiedono una traduzione istituzionale e la sua attuazione si confronta con un significativo divario di preparazione. L'approccio settoriale della Cina fornisce orientamenti più mirati per i contesti educativi, ma la sua efficacia dipende da un'attuazione istituzionale coerente e rischia la frammentazione tra diversi strumenti normativi.
La via più promettente combina elementi di entrambi gli approcci: l'impegno dell'UE verso i diritti fondamentali, la classificazione basata sul rischio e la supervisione etica; e la volontà della Cina di imporre l'alfabetizzazione in materia di IA su larga scala, la sua distinzione pragmatica tra contesti di ricerca e di valutazione, e la sua rapidità di adattamento istituzionale. Nessun sistema può apprendere tutto dall'altro — le differenze culturali, politiche e giuridiche sono troppo profonde. Ma ciascuno può apprendere qualcosa, e il dialogo tra i due è di per sé un contributo prezioso alla sfida globale di governare responsabilmente l'IA nell'istruzione.
Come ricordano le Linee guida dell'UNESCO per l'IA generativa nell'istruzione e nella ricerca (Miao e Holmes 2023), «l'assenza di regolamentazioni nazionali sull'IA generativa nella maggior parte dei Paesi lascia la privacy dei dati degli utenti non protetta e le istituzioni educative in gran parte impreparate». L'UE e la Cina sono tra le poche giurisdizioni che hanno superato questa assenza verso quadri di governance sostanziali. Le loro esperienze — successi e fallimenti — plasmeranno il modo in cui il resto del mondo affronterà la sfida dell'IA nell'istruzione superiore.
Ringraziamenti
Questa ricerca è stata sostenuta dal Centro d'eccellenza Jean Monnet «EU-Studies Centre: Digitalization in Europe and China» (EUSC-DEC), finanziato dall'Unione europea nell'ambito dell'Accordo di sovvenzione n. 101126782. Le opinioni e i punti di vista espressi sono esclusivamente dell'autore e non riflettono necessariamente quelli dell'Unione europea.
Riferimenti bibliografici
Almada, M., & Radu, A. (2024). The Brussels Side-Effect: How the AI Act can reduce the global reach of EU policy. German Law Journal, 25, 646–663.
Aristombayeva, M., Satybaldiyeva, R., Maung, B. M., & Lee, D. (2025). Guiding the uncharted: The emerging (and missing) policies on generative AI in higher education. Frontiers in Education, 10. DOI: 10.3389/feduc.2025.1644081.
Asia Education Review. (2025). China makes AI education mandatory in schools starting September 2025.
Bradford, A. (2020). The Brussels Effect: How the European Union Rules the World. Oxford University Press.
China Daily. (2026, January 12). Fudan University sets AI education guidelines.
Chun, J., Schroeder de Witt, C., & Elkins, K. (2024). Comparative global AI regulation: Policy perspectives from the EU, China, and the US. arXiv preprint, arXiv:2410.21279.
EDUCAUSE. (2024). 2024 EDUCAUSE AI Landscape Study. Robert, J., & McCormack, M.
EDUCAUSE. (2024). 2024 EDUCAUSE Action Plan: AI Policies and Guidelines.
European Parliament and Council of the European Union. (2024). Regulation (EU) 2024/1689 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union.
Freeman, J. (2025). Student Generative AI Survey 2025. HEPI Policy Note 61. Higher Education Policy Institute.
Liu, X., et al. (2025). Regulations, technology policies and universities' attitudes to artificial intelligence in China. Higher Education Quarterly, 79(4). DOI: 10.1111/hequ.70055.
Miao, F., & Holmes, W. (2023). Guidance for Generative AI in Education and Research. UNESCO: Paris.
Migliorini, S. (2024). China's Interim Measures on generative AI: Origin, content and significance. Computer Law and Security Review. 53, Article 105992.
Nigam, A., Pasricha, R., Singh, T., & Churi, P. (2021). A systematic review on AI-based proctoring systems. Education and Information Technologies, 26, 6421–6445.
O'Shaughnessy, M., & Sheehan, M. (2023). Lessons from the world's two experiments in AI governance. Carnegie Endowment for International Peace.
Racicot, R., & Simpson, K. H. (2024). China's AI Governance Initiative and its geopolitical ambitions. Centre for International Governance Innovation (CIGI).
Roberts, H., Cowls, J., Morley, J., Taddeo, M., Wang, V., & Floridi, L. (2021). The Chinese approach to artificial intelligence: An analysis of policy, ethics, and regulation. AI and Society, 36, 59–77.
Hilliard, A., Gulley, A., Kazim, E., & Koshiyama, A. (2026). Artificial intelligence policy worldwide: A comparative analysis. 13(2), 242234.
Siegmann, C., & Anderljung, M. (2022). The Brussels Effect and Artificial Intelligence. arXiv preprint, arXiv:2208.12645.
Temper, M., Tjoa, S., & David, L. (2025). Higher Education Act for AI (HEAT-AI): A framework to regulate the usage of AI in higher education institutions. Frontiers in Education, 10. DOI: 10.3389/feduc.2025.1505370.
Woesler, M. (in questo volume). Learning a foreign language with and without AI: An empirical comparative study.
Woesler, M. (in questo volume). Student data protection in the digital university: GDPR and China's PIPL compared.
Woesler, M. (in questo volume). University of the future: AI-enhanced higher education between European humanism and Chinese innovation.
Xue, Y., Chinapah, V., & Zhu, C. (2025). A Comparative Analysis of AI Privacy Concerns in Higher Education: News Coverage in China and Western Countries. Education Sciences, 15(6), 650. DOI: 10.3390/educsci15060650