Rethinking Higher Education/es/Chapter 1
Marcos éticos para la IA en la educación superior: entre la regulación europea y la innovación china
Martin Woesler
Universidad Normal de Hunan
Resumen
La rápida integración de la inteligencia artificial en la educación superior ha superado el desarrollo de los marcos éticos y regulatorios destinados a gobernarla. Este artículo ofrece una comparación sistemática del Reglamento de Inteligencia Artificial de la Unión Europea (AI Act) —la primera legislación integral sobre IA del mundo— y el enfoque sectorial evolutivo de China en materia de gobernanza de la IA en la educación. El AI Act de la UE clasifica las aplicaciones educativas de la IA, como la calificación automatizada, la supervisión de exámenes y las decisiones de admisión, como «de alto riesgo», prohíbe el reconocimiento de emociones en entornos educativos e impone la alfabetización en IA para todos los implementadores. El enfoque chino, por el contrario, combina las Medidas Provisionales de 2023 para los Servicios de IA Generativa con directivas del Ministerio de Educación, la educación obligatoria en IA a partir de septiembre de 2025 y las directrices institucionales específicas como la política de la Universidad de Fudan de enero de 2026. Basándose en datos empíricos del Estudio EDUCAUSE 2024 sobre el Panorama de la IA, la encuesta HEPI 2025 a estudiantes del Reino Unido y análisis jurídicos comparativos, documentamos una significativa «brecha de preparación» en ambos sistemas: el 80 por ciento del profesorado utiliza herramientas de IA, pero menos de uno de cada cuatro conoce la política de IA de su institución. Sostenemos que ni el enfoque horizontal basado en derechos de la UE ni el modelo centralizado y sectorial de China es suficiente por sí solo. Una síntesis que combine el rigor ético europeo con la rapidez de implementación china ofrece el camino más prometedor hacia una integración responsable de la IA en la educación superior.
Palabras clave: ética de la IA, AI Act de la UE, educación superior, gobernanza china de la IA, alfabetización en IA, integridad académica, supervisión de exámenes, efecto Bruselas, política de IA generativa
1. Introducción
El 1 de agosto de 2024, el Reglamento de Inteligencia Artificial de la Unión Europea entró en vigor —la primera legislación integral del mundo que regula la inteligencia artificial—. Entre sus disposiciones más importantes para la educación superior se encuentran la clasificación de los sistemas educativos de IA como «de alto riesgo», la prohibición del reconocimiento de emociones en escuelas y universidades, y el mandato de que todas las organizaciones que despliegan sistemas de IA garanticen un nivel adecuado de alfabetización en IA entre su personal. Estas disposiciones, que entraron en vigor por fases a partir de febrero de 2025, establecen un marco regulatorio sin precedentes en ninguna otra jurisdicción.
Mientras tanto, China ha seguido un camino diferente. En lugar de una ley horizontal única que regule todas las aplicaciones de la IA, China ha desarrollado una serie de regulaciones sectoriales —las Medidas Provisionales de 2023 para la Gestión de los Servicios de IA Generativa, directivas del Ministerio de Educación que prohíben la presentación de trabajos académicos generados por IA, y el mandato de septiembre de 2025 para la educación en IA en todas las escuelas primarias y secundarias— que, de manera conjunta, gobiernan la IA en la educación mediante una combinación de política nacional, directrices institucionales y estándares técnicos.
Este artículo compara estos dos enfoques de la gobernanza de la IA en la educación, examinando sus fundamentos filosóficos, sus implicaciones prácticas y su eficacia para abordar los desafíos éticos que la IA plantea a la educación superior. Contribuye al proyecto de antología más amplio al conectar la dimensión regulatoria con los capítulos complementarios sobre la IA en el aprendizaje de lenguas, la protección de datos y la universidad del futuro (Woesler, en este volumen).
Tres preguntas estructuran nuestra investigación. En primer lugar, ¿cómo abordan los marcos regulatorios de la UE y de China los desafíos éticos específicos de la IA en la educación —integridad académica, vigilancia, equidad y transparencia—? En segundo lugar, ¿cuál es el estado actual de la preparación institucional para la gobernanza de la IA en ambos sistemas? En tercer lugar, ¿qué puede aprender cada sistema del otro?
2. El AI Act de la UE y la educación
2.1 Clasificación de alto riesgo
El AI Act de la UE (Reglamento 2024/1689) establece un marco basado en el riesgo que clasifica los sistemas de IA en cuatro niveles: riesgo inaceptable (prohibido), alto riesgo (regulado), riesgo limitado (obligaciones de transparencia) y riesgo mínimo (no regulado). La educación ocupa un lugar prominente en la categoría de alto riesgo. El Anexo III, Sección 3 identifica cuatro categorías de IA educativa como de alto riesgo: sistemas de IA utilizados para determinar el acceso a instituciones educativas, sistemas de IA que evalúan los resultados del aprendizaje incluidos los sistemas utilizados para orientar el proceso de aprendizaje, sistemas de IA que evalúan el nivel educativo apropiado para un individuo, y sistemas de IA que supervisan y detectan comportamientos prohibidos de los estudiantes durante los exámenes (Parlamento Europeo y Consejo 2024).
Las consecuencias prácticas son significativas. Cualquier universidad que despliegue un sistema de IA que califique exámenes, recomiende itinerarios de estudio, determine admisiones o supervise el comportamiento de los estudiantes durante las evaluaciones debe cumplir obligaciones extensas: realizar evaluaciones de conformidad, mantener documentación técnica, implementar mecanismos de supervisión humana y garantizar la calidad de los datos. Estos requisitos se aplican independientemente de que el sistema de IA sea desarrollado internamente o adquirido a un proveedor comercial.
2.2 La prohibición del reconocimiento de emociones
El artículo 5(1)(f) del AI Act prohíbe los sistemas de IA que infieran las emociones de las personas físicas en los ámbitos de los lugares de trabajo y las instituciones educativas, excepto cuando el sistema de IA esté destinado a ser puesto en servicio con fines médicos o de seguridad. Esta prohibición, que entró en vigor el 2 de febrero de 2025, tiene implicaciones directas para los sistemas de supervisión de exámenes basados en IA que monitorizan expresiones faciales, movimientos oculares y otros indicadores biométricos para detectar trampas durante los exámenes. Varias plataformas comerciales de supervisión que se basan en la inferencia emocional —interpretando el nerviosismo, la distracción o el estrés como indicadores de deshonestidad académica— pueden quedar dentro del ámbito de esta prohibición.
La prohibición del reconocimiento de emociones refleja un enfoque distintivamente europeo de la relación entre tecnología y dignidad humana. La posición de la UE es que la monitorización de estados emocionales en contextos educativos constituye una intrusión inaceptable en la integridad psicológica de los estudiantes, independientemente del propósito declarado. Esta posición se fundamenta en la Carta de los Derechos Fundamentales de la Unión Europea, que garantiza el derecho a la dignidad humana (artículo 1) y el derecho a la protección de datos personales (artículo 8).
2.3 El mandato de alfabetización en IA
El artículo 4 del AI Act exige que los proveedores y los implementadores de sistemas de IA garanticen que su personal y otras personas que se ocupen del funcionamiento y uso de los sistemas de IA en su nombre posean un nivel suficiente de alfabetización en IA. Esta obligación entró en vigor el 2 de febrero de 2025 —antes que la mayoría de las demás disposiciones del Reglamento—, lo que señala la opinión de la UE de que la alfabetización en IA es un requisito previo para una gobernanza responsable de la IA.
Para las universidades, este mandato tiene dos dimensiones. En primer lugar, como implementadoras de sistemas de IA (sistemas de gestión del aprendizaje, herramientas de calificación automatizada, software de detección de plagio, plataformas de supervisión), las universidades deben garantizar que el personal docente y administrativo posea una alfabetización en IA adecuada para utilizar estas herramientas de manera responsable. En segundo lugar, como instituciones educativas, las universidades tienen una misión más amplia de desarrollar la alfabetización en IA entre sus estudiantes —una misión que el mandato de alfabetización del AI Act refuerza sin abordar explícitamente—.
El desafío de implementación es sustancial. El Estudio EDUCAUSE 2024 sobre el Panorama de la IA encontró que menos de uno de cada cuatro miembros del profesorado y del personal conocía la política formal de IA de su institución, a pesar de que el 80 por ciento declaraba usar herramientas de IA en su trabajo (EDUCAUSE 2024). Esta brecha entre el uso de la IA y el conocimiento sobre la IA representa un riesgo institucional significativo —y un desafío directo al mandato de alfabetización del AI Act—.
3. La gobernanza china de la IA para la educación
3.1 Las Medidas Provisionales para la IA Generativa (2023)
El enfoque de China en la gobernanza de la IA en la educación opera a través de un sistema estratificado de regulaciones nacionales, directivas ministeriales y políticas institucionales. La regulación nacional fundacional es las Medidas Provisionales para la Gestión de los Servicios de IA Generativa (生成式人工智能服务管理暂行办法), emitidas conjuntamente por la Administración del Ciberespacio de China y otras seis agencias, incluido el Ministerio de Educación, con entrada en vigor el 15 de agosto de 2023. Las Medidas adoptan lo que los juristas chinos describen como un enfoque de «prudencia inclusiva» (包容审慎), que combina la promoción del desarrollo con una supervisión clasificada (Migliorini 2024).
Para la educación específicamente, las Medidas Provisionales incluyen disposiciones que exigen que los proveedores de servicios de IA generativa impidan que los menores desarrollen una «dependencia excesiva o adicción a» la IA generativa, y que los servicios dirigidos a menores cumplan requisitos de seguridad adicionales. Cabe destacar que las Medidas incluyen una exención para la investigación que permite a las universidades e institutos de investigación desarrollar y probar sistemas de IA generativa sin los requisitos completos de registro y cumplimiento aplicables a los proveedores comerciales —un reconocimiento pragmático de que una regulación excesivamente restrictiva podría obstaculizar la investigación académica—.
3.2 Directivas del Ministerio de Educación
El Ministerio de Educación ha emitido varias directivas que abordan específicamente la IA en la educación. La más significativa es la prohibición a los estudiantes de presentar contenido generado por IA como su propio trabajo académico —una directiva que, aunque clara en principio, enfrenta los mismos desafíos de aplicación encontrados en otras jurisdicciones—. Las universidades individuales han complementado esta directiva con políticas institucionales específicas.
La Universidad de Fudan se convirtió en una de las primeras grandes universidades chinas en emitir directrices integrales sobre IA en enero de 2026, estableciendo seis prohibiciones específicas para la redacción de tesis: prohibir el uso de IA para generar o alterar datos originales, resultados experimentales, imágenes o textos de tesis; prohibir herramientas de IA en el proceso de revisión de tesis; y prohibir herramientas de IA para el pulimiento lingüístico y la traducción de tesis. Las sanciones por infracciones graves incluyen la revocación del título (China Daily 2026).
La Universidad de Ciencia y Tecnología de Tianjin (天津科技大学) adoptó un enfoque diferente en 2024, estableciendo que el contenido generado por IA en las tesis de grado no debe superar el 40 por ciento —un umbral cuantitativo que es medible en principio pero difícil de hacer cumplir en la práctica, particularmente para textos que han sido sustancialmente reescritos por sus autores humanos—.
3.3 Educación obligatoria en IA a partir de septiembre de 2025
La intervención política más amplia de China es el mandato, vigente desde el 1 de septiembre de 2025, de que la educación en IA se incorpore a todos los currículos de educación primaria y secundaria. La política exige al menos ocho horas de educación en IA anualmente para estudiantes de todos los niveles, incluidos niños de tan solo seis años. En el nivel primario, el enfoque se centra en la alfabetización y exposición a la IA; en el nivel de secundaria inferior, en la lógica y el pensamiento crítico; y en el nivel de secundaria superior, en la innovación aplicada y el diseño de algoritmos (Asia Education Review 2025).
Este mandato tiene implicaciones para la educación superior porque significa que, en pocos años, los estudiantes universitarios llegarán con una base de alfabetización en IA —a diferencia de la generación actual, la mayoría de cuyos miembros encuentran las herramientas de IA por primera vez en la universidad—. Las universidades chinas deben, por tanto, prepararse para construir sobre esta base en lugar de empezar desde cero, lo que requerirá un rediseño curricular fundamental.
Simultáneamente, la política prohíbe que los alumnos de primaria utilicen de forma independiente herramientas de «generación de contenido abierto» y prohíbe a los docentes usar la IA generativa como sustituto de las actividades de enseñanza fundamentales. Este doble enfoque —promover la alfabetización en IA mientras se restringen ciertos usos de la IA— refleja una comprensión matizada de que la competencia en IA y la dependencia de la IA son fenómenos distintos que requieren respuestas políticas distintas.
4. Regulación horizontal frente a regulación sectorial
4.1 El enfoque horizontal de la UE
El AI Act de la UE representa una estrategia regulatoria horizontal: un marco legislativo único que regula la IA en todos los sectores, incluida la educación. Las ventajas de este enfoque incluyen la coherencia (los mismos principios se aplican a la IA en sanidad, empleo, fuerzas del orden y educación), la seguridad jurídica (las organizaciones necesitan comprender un solo marco en lugar de muchos) y la exhaustividad (ningún sector queda fuera del ámbito regulatorio).
Sin embargo, la regulación horizontal también tiene desventajas. Las disposiciones del AI Act son necesariamente abstractas —los criterios de clasificación de «alto riesgo» deben acomodar sistemas de IA tan diversos como herramientas de diagnóstico médico y algoritmos de admisión universitaria—. Esta abstracción puede dificultar el cumplimiento en sectores específicos. Las universidades, acostumbradas a las estructuras de gobernanza relativamente informales de la vida académica, pueden tener dificultades para implementar las evaluaciones de conformidad formales, los requisitos de documentación técnica y los sistemas de gestión de calidad que el AI Act exige a los implementadores de IA de alto riesgo.
4.2 El enfoque sectorial de China
El enfoque de China, por el contrario, es predominantemente sectorial. En lugar de una ley integral única sobre IA, China ha desarrollado una serie de regulaciones específicas que abordan capacidades específicas de la IA: las Disposiciones sobre Síntesis Profunda (2023) que regulan los deepfakes, las Medidas Provisionales para la IA Generativa (2023), las Disposiciones sobre la Gestión de Recomendaciones Algorítmicas (2022) y directivas sectoriales de los ministerios competentes, incluido el Ministerio de Educación.
Como observan O'Shaughnessy y Sheehan (2023) en su análisis para la Carnegie Endowment for International Peace, «el AI Act de la UE se inclina hacia un enfoque horizontal (un marco para todos los sectores), mientras que las regulaciones algorítmicas de China se inclinan verticalmente (leyes sectoriales dirigidas a capacidades específicas de la IA)». Ambos enfoques enfrentan compromisos: la regulación horizontal proporciona coherencia pero corre el riesgo de ser demasiado vaga; la regulación vertical proporciona especificidad pero corre el riesgo de lagunas y solapamientos entre sectores.
Para la educación específicamente, el enfoque sectorial de China tiene la ventaja de permitir al Ministerio de Educación emitir directivas adaptadas a los contextos educativos —distinguiendo, por ejemplo, entre el uso de IA en la investigación (ampliamente permitido) y el uso de IA en los exámenes (ampliamente prohibido)—. La desventaja es la fragmentación regulatoria: los administradores universitarios deben navegar entre múltiples regulaciones superpuestas sin un marco autoritativo único.
4.3 Evaluación comparativa
Un análisis comparativo integral de la regulación global de la IA encontró que «muchas leyes horizontales adoptan un enfoque basado en el riesgo que impone obligaciones estrictas a los sistemas de mayor riesgo, aunque las definiciones de "alto riesgo" son inconsistentes entre jurisdicciones» (Royal Society Open Science 2025). El estudio confirmó que la UE favorece un enfoque horizontal basado en el riesgo, mientras que China ha favorecido leyes sectoriales adaptadas a casos de uso específicos, sin que ninguno de los dos enfoques sea claramente superior.
Chun, Schroeder de Witt y Elkins (2024) caracterizan la diferencia fundamental como una cuestión de valores: «El enfoque de la UE se caracteriza por un compromiso con los derechos fundamentales, una categorización basada en el riesgo y una supervisión ética; China adopta un enfoque centralizado, dirigido por el Estado, que integra el desarrollo de la IA con los objetivos nacionales y la gobernanza social». Para la educación, esto significa que la regulación de la UE prioriza la protección de los derechos de los estudiantes (privacidad, no discriminación, supervisión humana), mientras que la regulación china prioriza tanto la protección de los estudiantes como el avance de la competitividad nacional en IA —objetivos que pueden converger pero también entrar en conflicto—.
5. La brecha de preparación
5.1 Conocimiento del profesorado e implementación de políticas
El desafío más significativo que enfrentan ambos sistemas regulatorios no es la adecuación de la regulación en sí, sino la brecha entre regulación y práctica. Los datos empíricos de múltiples jurisdicciones revelan un patrón consistente: el profesorado y los estudiantes están utilizando las herramientas de IA mucho más rápidamente de lo que las instituciones están desarrollando políticas para gobernar su uso.
El Estudio EDUCAUSE 2024 sobre el Panorama de la IA, basado en una encuesta a más de 900 profesionales de tecnología de la educación superior, encontró que solo el 23 por ciento de las instituciones tenían políticas de uso aceptable relacionadas con la IA vigentes. Casi la mitad (48 por ciento) de los encuestados no estaba de acuerdo con que su institución tuviera políticas de IA apropiadas para la toma de decisiones éticas, y el 54 por ciento no estaba de acuerdo con que su institución tuviera un mecanismo eficaz de gobernanza de la IA (EDUCAUSE 2024). Sin embargo, el 80 por ciento del profesorado y del personal declaró usar herramientas de IA, y menos de uno de cada cuatro conocía una política institucional formal de IA (EDUCAUSE 2024 Plan de Acción).
Esta brecha no es exclusiva de Estados Unidos. En el Reino Unido, la encuesta del Higher Education Policy Institute (HEPI) de 2025 encontró que el 92 por ciento de los estudiantes de grado utilizan ahora la IA generativa de alguna forma, frente al 66 por ciento en 2024 —un dramático aumento interanual que demuestra la rápida normalización del uso de herramientas de IA (HEPI 2025)—. Sin embargo, las políticas institucionales no han seguido el ritmo de esta adopción.
5.2 El panorama de preparación chino
En China, Liu et al. (2025) investigaron las regulaciones, las políticas tecnológicas y las actitudes universitarias hacia la IA basándose en el análisis de documentos de política y 33 entrevistas al profesorado de universidades de investigación chinas. Encontraron que, si bien el profesorado generalmente ve la IA como una herramienta que mejora la personalización, la productividad investigadora y la eficiencia administrativa, plantea preocupaciones sobre la integridad académica, el sesgo algorítmico y la dependencia excesiva de la tecnología. De manera crucial, el modelo de gobernanza dirigido por el Estado de China «se interpreta y se aplica de manera desigual en los campus universitarios» —incluso las directivas centralizadas se implementan de manera inconsistente a nivel institucional (Liu et al. 2025)—.
Un análisis comparativo de la regulación de la IA en China continental, Hong Kong y Macao encontró que, incluso dentro de un mismo país, «las estructuras de gobernanza variadas producen enfoques divergentes de la IA en la educación» —lo que demuestra que la fragmentación regulatoria existe no solo entre la UE y China, sino dentro de la propia China (Liu et al. 2025b)—.
5.3 Respuestas institucionales emergentes
A pesar de la brecha de preparación, algunas instituciones están desarrollando respuestas innovadoras. En Austria, el marco HEAT-AI (Higher Education Act for AI), desarrollado en una Universidad de Ciencias Aplicadas, clasifica las aplicaciones de IA en la educación superior en cuatro niveles de riesgo que reflejan el AI Act de la UE —inaceptable, alto, limitado y mínimo— y proporciona orientación específica para cada categoría (Temper, Tjoa y David 2025). El marco se puso en marcha en septiembre de 2024 y representa un intento de traducir las disposiciones abstractas del AI Act en una práctica institucional concreta.
Un estudio global de políticas emergentes de IA generativa encontró que «solo poco más de la mitad de las instituciones examinadas tenían directrices de IA generativa accesibles al público, y la mayoría carecía de una política formal a nivel institucional» (Aristombayeva et al. 2025). Las políticas que abordan a estudiantes y profesorado son más prevalentes que las que se dirigen a investigadores —una brecha particularmente significativa para las universidades de investigación donde la IA se utiliza extensamente en el proceso investigador—.
6. Vigilancia frente a apoyo: el debate sobre la supervisión
6.1 La supervisión por IA en el marco de la UE
La clasificación del AI Act de la UE de los sistemas de IA que supervisan el comportamiento de los estudiantes durante los exámenes como «de alto riesgo», combinada con la prohibición del reconocimiento de emociones, crea un entorno regulatorio significativamente más restrictivo que el de cualquier otra jurisdicción. Los sistemas de supervisión por IA que se basan en el análisis de expresiones faciales, el seguimiento de la mirada o la dinámica de las pulsaciones de teclas para inferir trampas deben cumplir con el conjunto completo de obligaciones de alto riesgo del Reglamento o, si implican inferencia emocional, pueden estar prohibidos por completo.
Una revisión sistemática de los sistemas de supervisión basados en IA identificó las preocupaciones de seguridad y privacidad, las preocupaciones éticas, la confianza en la tecnología basada en IA, la falta de formación entre los usuarios y el coste como las cuestiones principales (Nigam et al. 2021). La revisión señaló que «los problemas de seguridad asociados con los sistemas de supervisión basados en IA se están multiplicando y son motivo de preocupación legítima». Estas preocupaciones se alinean con el enfoque precautorio de la UE.
6.2 La vigilancia por IA en la educación china
En China, el enfoque de la monitorización potenciada por IA en la educación es marcadamente diferente. Un análisis comparativo de las preocupaciones sobre la privacidad de la IA en la educación superior encontró que «los medios occidentales destacan los derechos de privacidad individual y las controversias en la supervisión de exámenes a distancia, mientras que la cobertura china aborda con más frecuencia la innovación educativa impulsada por la IA» (Xue et al. 2025). Los sistemas de vigilancia potenciados por IA en algunas universidades chinas —que monitorizan el comportamiento estudiantil, la participación en el aula e incluso las expresiones faciales— han generado debate interno, pero el marco regulatorio es más permisivo que en la UE.
El contraste refleja tradiciones culturales y jurídicas fundamentalmente diferentes respecto a la relación entre la privacidad individual y el beneficio colectivo. En el marco de la UE, la monitorización de los estudiantes es una intrusión que debe justificarse por una necesidad imperiosa y limitarse por el principio de proporcionalidad. En el marco chino, la monitorización se acepta más fácilmente como un componente de la gestión educativa, siempre que sirva a los objetivos institucionales y nacionales.
6.3 La cuestión pedagógica
Más allá de las dimensiones jurídicas y culturales, el debate sobre la supervisión plantea una cuestión pedagógica fundamental: ¿mejora la monitorización del comportamiento de los estudiantes durante los exámenes los resultados educativos, o simplemente optimiza el cumplimiento mientras socava la confianza, la motivación intrínseca y el desarrollo de la integridad académica como valor personal?
La respuesta probablemente depende del contexto. En las evaluaciones estandarizadas a gran escala donde las consecuencias del fraude son significativas (exámenes de habilitación profesional, pruebas de acceso a la universidad), alguna forma de monitorización puede ser justificable. En las evaluaciones formativas diseñadas para apoyar el aprendizaje en lugar de certificar la competencia, la monitorización puede ser contraproducente —reemplazando la relación educativa de confianza entre profesor y estudiante por una relación de vigilancia que socava los mismos valores que pretende proteger—.
7. El «efecto Bruselas» y la gobernanza global de la IA
7.1 El efecto Bruselas en la regulación de la IA
El concepto del «efecto Bruselas», teorizado por Anu Bradford (2020), describe la capacidad de la UE para regular unilateralmente los mercados globales mediante una regulación nacional estricta que las empresas multinacionales adoptan en todo el mundo por eficiencia de costes. La cuestión de si el AI Act producirá un efecto Bruselas es objeto de debate activo.
Siegmann y Anderljung (2022) sostienen que «tanto los efectos Bruselas de facto como de iure son probables para partes del régimen regulatorio de la IA de la UE», particularmente para las grandes empresas tecnológicas estadounidenses cuyos sistemas de IA se clasifican como de alto riesgo. Para la educación, esto significa que las herramientas de IA desarrolladas por empresas globales (Microsoft, Google, OpenAI) para su uso en universidades europeas probablemente se diseñarán para cumplir con los requisitos del AI Act —y que estas funciones de cumplimiento pueden exportarse a otros mercados, incluida China—.
Sin embargo, Almada y Radu (2024) advierten de que el AI Act también puede producir un «efecto secundario de Bruselas»: otras jurisdicciones pueden adoptar la forma regulatoria (clasificación basada en el riesgo, requisitos de documentación) sin la sustancia basada en derechos subyacente que otorga al marco de la UE su fuerza ética.
7.2 La Iniciativa de Gobernanza Global de la IA de China
China ha respondido al activismo regulatorio de la UE con su propia visión de la gobernanza global de la IA. La Iniciativa de Gobernanza Global de la IA (全球人工智能治理倡议), anunciada por el presidente Xi Jinping en octubre de 2023, aboga por un «enfoque centrado en las personas» de la gobernanza de la IA y pide «respeto mutuo, igualdad y beneficio mutuo» entre las naciones en el desarrollo de la IA. Como señalan Racicot y Simpson (2024), la Iniciativa «debe verse en el contexto de los objetivos más amplios de política exterior de China: sus compromisos con la gobernanza de la IA sirven a las ambiciones geopolíticas de China, incluyendo su posicionamiento como referente normativo para las naciones en desarrollo».
Para la educación superior, la competencia entre el efecto Bruselas de la UE y la Iniciativa de Gobernanza Global de la IA de China crea un panorama regulatorio complejo. Las universidades internacionales —particularmente aquellas con programas conjuntos que abarcan instituciones de la UE y China, como las que participan en la red del Centro de Excelencia Jean Monnet— deben navegar simultáneamente ambos marcos. El capítulo complementario sobre protección de datos (Woesler, en este volumen) examina en detalle los desafíos prácticos del cumplimiento dual.
8. Hacia una integración responsable de la IA: recomendaciones
A partir del análisis comparativo presentado en este artículo, ofrecemos las siguientes recomendaciones para las universidades que navegan el emergente panorama de gobernanza de la IA.
En primer lugar, desarrollar políticas institucionales específicas de IA que traduzcan los requisitos regulatorios abstractos en orientaciones concretas para el profesorado y los estudiantes. El marco HEAT-AI (Temper, Tjoa y David 2025) proporciona un modelo útil para las instituciones que buscan operacionalizar la gobernanza de la IA basada en el riesgo a nivel institucional.
En segundo lugar, invertir en la alfabetización en IA como competencia institucional fundamental —no solo para los estudiantes, sino para el profesorado y el personal administrativo—. El mandato de alfabetización del AI Act de la UE (artículo 4) proporciona un impulso regulatorio, pero el imperativo pedagógico existe con independencia de la regulación: el profesorado que no comprende las herramientas de IA que utilizan sus estudiantes no puede enseñar ni evaluar eficazmente.
En tercer lugar, distinguir entre la gobernanza de la IA para la investigación y la gobernanza de la IA para la evaluación. El enfoque chino, que permite ampliamente el uso de la IA en la investigación mientras lo restringe en los exámenes y las tesis, proporciona una distinción pragmática que las instituciones europeas se beneficiarían de adoptar. La investigación y la evaluación sirven propósitos diferentes y enfrentan riesgos diferentes; una política única de IA no puede abordar adecuadamente ambos.
En cuarto lugar, diseñar métodos de evaluación que valoren las contribuciones distintivamente humanas —análisis crítico, pensamiento original, síntesis creativa, razonamiento ético— en lugar de depender de herramientas de detección de IA cuya precisión es discutida y cuyo uso puede socavar la confianza entre profesores y estudiantes.
En quinto lugar, participar en el diálogo transfronterizo. La comparación UE-China revela que cada sistema ha desarrollado conocimientos que el otro carece. Las instituciones europeas pueden aprender de la rapidez de implementación de China y de su integración de las competencias en IA en todas las disciplinas. Las instituciones chinas pueden aprender del énfasis de la UE en los marcos éticos, la gobernanza del profesorado y la protección de los derechos de los estudiantes. Los programas conjuntos, las visitas de intercambio y la investigación colaborativa —como los facilitados por el programa del Centro de Excelencia Jean Monnet— proporcionan mecanismos concretos para este diálogo.
9. Conclusión
La gobernanza de la IA en la educación superior es un desafío que ningún marco regulatorio ha abordado aún adecuadamente. El AI Act de la UE proporciona el marco jurídico más integral, pero sus disposiciones abstractas requieren una traducción institucional, y su implementación se enfrenta a una significativa brecha de preparación. El enfoque sectorial de China proporciona orientaciones más específicas para los contextos educativos, pero su eficacia depende de una implementación institucional coherente y corre el riesgo de fragmentación entre los instrumentos regulatorios.
El camino más prometedor hacia el futuro combina elementos de ambos enfoques: el compromiso de la UE con los derechos fundamentales, la clasificación basada en el riesgo y la supervisión ética; y la voluntad de China de imponer la alfabetización en IA a escala, su distinción pragmática entre contextos de investigación y evaluación, y su velocidad de adaptación institucional. Ningún sistema puede aprender todo del otro —las diferencias culturales, políticas y jurídicas son demasiado profundas—. Pero cada uno puede aprender algo, y el diálogo entre ellos es en sí mismo una contribución valiosa al desafío global de gobernar la IA en la educación de manera responsable.
Como nos recuerda la Orientación de la UNESCO para la IA Generativa en la Educación y la Investigación (Miao y Holmes 2023), «la ausencia de regulaciones nacionales de IA generativa en la mayoría de los países deja la privacidad de los datos de los usuarios desprotegida y las instituciones educativas ampliamente desprevenidas». La UE y China están entre las pocas jurisdicciones que han avanzado más allá de esta ausencia hacia marcos de gobernanza sustantivos. Sus experiencias —éxitos y fracasos por igual— darán forma a cómo el resto del mundo aborda el desafío de la IA en la educación superior.
Agradecimientos
Esta investigación fue financiada por el Centro de Excelencia Jean Monnet «EU-Studies Centre: Digitalization in Europe and China» (EUSC-DEC), con el apoyo de la Unión Europea en virtud del Acuerdo de Subvención n.º 101126782. Las opiniones y puntos de vista expresados son exclusivamente los del autor y no reflejan necesariamente los de la Unión Europea.
Referencias
Almada, M., & Radu, A. (2024). The Brussels Side-Effect: How the AI Act can reduce the global reach of EU policy. German Law Journal, 25, 646–663.
Aristombayeva, M., Satybaldiyeva, R., Maung, B. M., & Lee, D. (2025). Guiding the uncharted: The emerging (and missing) policies on generative AI in higher education. Frontiers in Education, 10. DOI: 10.3389/feduc.2025.1644081.
Asia Education Review. (2025). China makes AI education mandatory in schools starting September 2025.
Bradford, A. (2020). The Brussels Effect: How the European Union Rules the World. Oxford University Press.
China Daily. (2026, January 12). Fudan University sets AI education guidelines.
Chun, J., Schroeder de Witt, C., & Elkins, K. (2024). Comparative global AI regulation: Policy perspectives from the EU, China, and the US. arXiv preprint, arXiv:2410.21279.
EDUCAUSE. (2024). 2024 EDUCAUSE AI Landscape Study. Robert, J., & McCormack, M.
EDUCAUSE. (2024). 2024 EDUCAUSE Action Plan: AI Policies and Guidelines.
European Parliament and Council of the European Union. (2024). Regulation (EU) 2024/1689 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union.
Freeman, J. (2025). Student Generative AI Survey 2025. HEPI Policy Note 61. Higher Education Policy Institute.
Liu, X., et al. (2025). Regulations, technology policies and universities' attitudes to artificial intelligence in China. Higher Education Quarterly, 79(4). DOI: 10.1111/hequ.70055.
Miao, F., & Holmes, W. (2023). Guidance for Generative AI in Education and Research. UNESCO: Paris.
Migliorini, S. (2024). China's Interim Measures on generative AI: Origin, content and significance. Computer Law and Security Review. 53, Article 105992.
Nigam, A., Pasricha, R., Singh, T., & Churi, P. (2021). A systematic review on AI-based proctoring systems. Education and Information Technologies, 26, 6421–6445.
O'Shaughnessy, M., & Sheehan, M. (2023). Lessons from the world's two experiments in AI governance. Carnegie Endowment for International Peace.
Racicot, R., & Simpson, K. H. (2024). China's AI Governance Initiative and its geopolitical ambitions. Centre for International Governance Innovation (CIGI).
Roberts, H., Cowls, J., Morley, J., Taddeo, M., Wang, V., & Floridi, L. (2021). The Chinese approach to artificial intelligence: An analysis of policy, ethics, and regulation. AI and Society, 36, 59–77.
Hilliard, A., Gulley, A., Kazim, E., & Koshiyama, A. (2026). Artificial intelligence policy worldwide: A comparative analysis. 13(2), 242234.
Siegmann, C., & Anderljung, M. (2022). The Brussels Effect and Artificial Intelligence. arXiv preprint, arXiv:2208.12645.
Temper, M., Tjoa, S., & David, L. (2025). Higher Education Act for AI (HEAT-AI): A framework to regulate the usage of AI in higher education institutions. Frontiers in Education, 10. DOI: 10.3389/feduc.2025.1505370.
Woesler, M. (en este volumen). Learning a foreign language with and without AI: An empirical comparative study.
Woesler, M. (en este volumen). Student data protection in the digital university: GDPR and China's PIPL compared.
Woesler, M. (en este volumen). University of the future: AI-enhanced higher education between European humanism and Chinese innovation.
Xue, Y., Chinapah, V., & Zhu, C. (2025). A Comparative Analysis of AI Privacy Concerns in Higher Education: News Coverage in China and Western Countries. Education Sciences, 15(6), 650. DOI: 10.3390/educsci15060650