Rethinking Higher Education/ru/Chapter 1
Этические основы ИИ в высшем образовании: между европейским регулированием и китайскими инновациями
Мартин Вёслер
Хунаньский педагогический университет
Аннотация
Стремительная интеграция искусственного интеллекта в высшее образование опережает разработку этических и нормативных рамок для его регулирования. В данной статье проводится систематическое сравнение Закона ЕС об искусственном интеллекте (AI Act) — первого в мире всеобъемлющего законодательного акта в области ИИ — и развивающегося секторального подхода Китая к управлению ИИ в сфере образования. Закон ЕС об ИИ классифицирует образовательные ИИ-приложения, такие как автоматизированное выставление оценок, прокторинг и принятие решений о зачислении, как «высокорисковые», запрещает распознавание эмоций в образовательных учреждениях и обязывает всех пользователей ИИ-систем обеспечивать грамотность в области ИИ. Подход Китая, напротив, сочетает Временные меры по управлению генеративными ИИ-сервисами 2023 года с директивами Министерства образования, обязательным обучением ИИ с сентября 2025 года и институциональными руководствами, такими как политика Фуданьского университета от января 2026 года. Опираясь на эмпирические данные исследования EDUCAUSE 2024 года по ландшафту ИИ, опроса студентов Великобритании HEPI 2025 года и сравнительных правовых анализов, мы документируем значительный «разрыв готовности» в обеих системах: 80 процентов преподавателей используют ИИ-инструменты, однако менее четверти из них осведомлены о политике своего учебного заведения в области ИИ. Мы утверждаем, что ни горизонтальный правозащитный подход ЕС, ни централизованная секторальная модель Китая не являются достаточными сами по себе. Синтез, сочетающий европейскую этическую строгость со скоростью реализации китайских реформ, предлагает наиболее перспективный путь к ответственной интеграции ИИ в высшее образование.
Ключевые слова: этика ИИ, Закон ЕС об ИИ, высшее образование, управление ИИ в Китае, грамотность в области ИИ, академическая добросовестность, прокторинг, Брюссельский эффект, политика в области генеративного ИИ
1. Введение
1 августа 2024 года вступил в силу Закон Европейского союза об искусственном интеллекте — первый в мире всеобъемлющий законодательный акт, регулирующий искусственный интеллект. Среди наиболее значимых его положений для высшего образования — классификация образовательных ИИ-систем как «высокорисковых», запрет на распознавание эмоций в школах и университетах, а также требование о том, чтобы все организации, применяющие ИИ-системы, обеспечивали достаточный уровень грамотности в области ИИ среди своего персонала. Эти положения, вступавшие в силу поэтапно начиная с февраля 2025 года, устанавливают нормативные рамки, не имеющие прецедентов ни в одной другой юрисдикции.
Между тем Китай пошёл по иному пути. Вместо единого горизонтального закона, регулирующего все ИИ-приложения, Китай разработал серию секторальных нормативных актов — Временные меры по управлению генеративными ИИ-сервисами 2023 года, директивы Министерства образования, запрещающие подачу работ, выполненных ИИ, и обязательное обучение ИИ во всех начальных и средних школах с сентября 2025 года, — которые в совокупности регулируют ИИ в образовании посредством комбинации национальной политики, институциональных руководств и технических стандартов.
В данной статье проводится сравнение этих двух подходов к управлению ИИ в образовании с анализом их философских оснований, практических последствий и эффективности в решении этических проблем, которые ИИ создаёт для высшего образования. Статья вносит вклад в общий сборник, связывая нормативное измерение с сопутствующими главами об ИИ в изучении языков, защите данных и университете будущего (Вёслер, настоящий том).
Три вопроса структурируют наше исследование. Во-первых, каким образом нормативные рамки ЕС и Китая решают конкретные этические проблемы ИИ в образовании — академическую добросовестность, наблюдение, справедливость и прозрачность? Во-вторых, каково текущее состояние институциональной готовности к управлению ИИ в обеих системах? В-третьих, чему каждая система может научиться у другой?
2. Закон ЕС об ИИ и образование
2.1 Классификация высокого риска
Закон ЕС об ИИ (Регламент 2024/1689) устанавливает рамочную систему, основанную на оценке рисков, которая подразделяет ИИ-системы на четыре категории: недопустимый риск (запрещён), высокий риск (регулируется), ограниченный риск (обязательства по прозрачности) и минимальный риск (нерегулируемый). Образование занимает видное место в категории высокого риска. Приложение III, Раздел 3 определяет четыре категории образовательного ИИ как высокорисковые: ИИ-системы, используемые для определения доступа к образовательным учреждениям; ИИ-системы, оценивающие результаты обучения, включая системы управления учебным процессом; ИИ-системы, определяющие соответствующий уровень образования для конкретного лица; и ИИ-системы, осуществляющие мониторинг и обнаружение запрещённого поведения студентов во время экзаменов (Европейский парламент и Совет, 2024).
Практические последствия весьма значительны. Любой университет, применяющий ИИ-систему для оценки экзаменов, рекомендации учебных траекторий, принятия решений о зачислении или мониторинга поведения студентов во время аттестации, обязан соблюдать обширные требования: проводить оценку соответствия, вести техническую документацию, внедрять механизмы человеческого контроля и обеспечивать качество данных. Эти требования применяются вне зависимости от того, разработана ли ИИ-система внутри учреждения или приобретена у коммерческого поставщика.
2.2 Запрет на распознавание эмоций
Статья 5(1)(f) Закона об ИИ запрещает ИИ-системы, которые выводят эмоции физических лиц в сфере рабочих мест и образовательных учреждений, за исключением случаев, когда ИИ-система предназначена для ввода в эксплуатацию в медицинских целях или в целях безопасности. Этот запрет, вступивший в силу 2 февраля 2025 года, имеет прямые последствия для ИИ-систем прокторинга, которые отслеживают мимику, движения глаз и другие биометрические показатели для обнаружения списывания во время экзаменов. Ряд коммерческих прокторинговых платформ, полагающихся на анализ эмоций — интерпретирующих нервозность, отвлечённость или стресс как признаки академической нечестности, — могут подпадать под действие данного запрета.
Запрет на распознавание эмоций отражает характерный европейский подход к соотношению технологий и человеческого достоинства. Позиция ЕС состоит в том, что мониторинг эмоциональных состояний в образовательных контекстах представляет собой неприемлемое вмешательство в психологическую целостность студентов, вне зависимости от заявленной цели. Эта позиция основывается на Хартии основных прав Европейского союза, гарантирующей право на человеческое достоинство (Статья 1) и право на защиту персональных данных (Статья 8).
2.3 Требование грамотности в области ИИ
Статья 4 Закона об ИИ требует, чтобы поставщики и пользователи ИИ-систем обеспечивали достаточный уровень грамотности в области ИИ среди своего персонала и иных лиц, участвующих в эксплуатации и использовании ИИ-систем от их имени. Это обязательство вступило в силу 2 февраля 2025 года — раньше большинства других положений Закона, — что свидетельствует о позиции ЕС, согласно которой грамотность в области ИИ является предпосылкой ответственного управления ИИ.
Для университетов это требование имеет два измерения. Во-первых, как пользователи ИИ-систем (систем управления обучением, инструментов автоматизированного оценивания, программ обнаружения плагиата, прокторинговых платформ) университеты обязаны обеспечивать достаточную грамотность преподавательского и административного персонала в области ИИ для ответственного использования этих инструментов. Во-вторых, как образовательные учреждения университеты несут более широкую миссию по развитию грамотности в области ИИ среди своих студентов — миссию, которую требование Закона об ИИ подкрепляет, не затрагивая её напрямую.
Проблема внедрения весьма существенна. Исследование EDUCAUSE 2024 года по ландшафту ИИ выявило, что менее четверти преподавателей и сотрудников осведомлены о формальной политике своего учебного заведения в области ИИ, хотя 80 процентов из них сообщили об использовании ИИ-инструментов в своей работе (EDUCAUSE, 2024). Этот разрыв между использованием ИИ и осведомлённостью о нём представляет собой значительный институциональный риск — и прямой вызов требованию грамотности, закреплённому в Законе об ИИ.
3. Управление ИИ в образовании в Китае
3.1 Временные меры по управлению генеративным ИИ (2023)
Подход Китая к управлению ИИ в образовании осуществляется через многоуровневую систему национальных нормативных актов, министерских директив и институциональных политик. Основополагающим национальным нормативным актом являются Временные меры по управлению генеративными ИИ-сервисами (生成式人工智能服务管理暂行办法), изданные совместно Администрацией киберпространства Китая и шестью другими ведомствами, включая Министерство образования, вступившие в силу 15 августа 2023 года. Данные меры используют то, что китайские правоведы описывают как подход «инклюзивного благоразумия» (包容审慎), сочетающий содействие развитию с дифференцированным надзором (Migliorini, 2024).
Применительно к образованию Временные меры включают положения, требующие от поставщиков генеративных ИИ-сервисов предотвращать развитие у несовершеннолетних «чрезмерной зависимости или привыкания» к генеративному ИИ, а также обеспечивать выполнение дополнительных требований безопасности для сервисов, ориентированных на несовершеннолетних. Примечательно, что Меры включают исследовательское исключение, позволяющее университетам и научно-исследовательским институтам разрабатывать и тестировать генеративные ИИ-системы без полного выполнения требований по регистрации и соблюдению нормативов, применимых к коммерческим поставщикам, — прагматическое признание того, что чрезмерно ограничительное регулирование может препятствовать академическим исследованиям.
3.2 Директивы Министерства образования
Министерство образования издало ряд директив, непосредственно касающихся ИИ в образовании. Наиболее значимым является запрет для студентов подавать контент, сгенерированный ИИ, в качестве собственных академических работ — директива, которая, будучи ясной в принципе, сталкивается с теми же проблемами правоприменения, что и в других юрисдикциях. Отдельные университеты дополнили эту директиву собственными институциональными политиками.
Фуданьский университет стал одним из первых крупных китайских университетов, выпустивших комплексные руководства по ИИ в январе 2026 года, установив шесть конкретных запретов для написания диссертаций: запрет на использование ИИ для генерации или изменения исходных данных, экспериментальных результатов, изображений или текста диссертации; запрет ИИ-инструментов в процессе рецензирования диссертаций; и запрет ИИ-инструментов для языковой правки и перевода диссертаций. За серьёзные нарушения предусмотрен отзыв учёной степени (China Daily, 2026).
Тяньцзиньский университет науки и технологий (天津科技大学) избрал иной подход в 2024 году, установив, что содержание, сгенерированное ИИ, в бакалаврских дипломных работах не должно превышать 40 процентов — количественный порог, который в принципе измерим, но сложен в правоприменении, особенно для текстов, существенно переработанных их авторами-людьми.
3.3 Обязательное обучение ИИ с сентября 2025 года
Наиболее масштабным политическим вмешательством Китая является требование, вступающее в силу с 1 сентября 2025 года, о включении обучения ИИ в учебные программы всех начальных и средних школ. Политика предусматривает не менее восьми часов обучения ИИ ежегодно для учащихся всех ступеней, включая детей от шести лет. На уровне начальной школы акцент делается на грамотности в области ИИ и ознакомлении; на уровне неполной средней школы — на логике и критическом мышлении; на уровне полной средней школы — на прикладных инновациях и разработке алгоритмов (Asia Education Review, 2025).
Этот мандат имеет последствия для высшего образования, поскольку означает, что через несколько лет студенты будут поступать в университеты с базовым уровнем грамотности в области ИИ — в отличие от нынешнего поколения, большинство представителей которого впервые сталкиваются с ИИ-инструментами именно в университете. Китайские университеты, таким образом, должны подготовиться к развитию этого фундамента, а не начинать с нуля, что потребует кардинальной перестройки учебных программ.
Одновременно политика запрещает учащимся начальных школ самостоятельно использовать «инструменты открытой генерации контента» и запрещает учителям использовать генеративный ИИ в качестве замены ключевых педагогических видов деятельности. Этот двойной подход — продвижение грамотности в области ИИ при ограничении определённых способов его использования — отражает нюансированное понимание того, что компетентность в области ИИ и зависимость от ИИ являются различными явлениями, требующими различных политических мер.
4. Горизонтальное и секторальное регулирование
4.1 Горизонтальный подход ЕС
Закон ЕС об ИИ представляет собой стратегию горизонтального регулирования: единую законодательную основу, регулирующую ИИ во всех секторах, включая образование. Преимущества данного подхода включают последовательность (одни и те же принципы применяются к ИИ в здравоохранении, занятости, правоохранительной деятельности и образовании), правовую определённость (организациям необходимо разобраться в одной системе, а не во многих) и полноту охвата (ни один сектор не остаётся без нормативного регулирования).
Однако горизонтальное регулирование имеет и недостатки. Положения Закона об ИИ неизбежно абстрактны — критерии классификации «высокого риска» должны охватывать столь разнообразные ИИ-системы, как инструменты медицинской диагностики и алгоритмы приёма в университет. Эта абстрактность может затруднять соблюдение требований для конкретных секторов. Университеты, привыкшие к относительно неформальным управленческим структурам академической жизни, могут испытывать трудности с внедрением формальных оценок соответствия, требований к технической документации и систем управления качеством, которые Закон об ИИ предъявляет к пользователям высокорисковых ИИ-систем.
4.2 Секторальный подход Китая
Подход Китая, напротив, является преимущественно секторальным. Вместо единого всеобъемлющего закона об ИИ Китай разработал серию целевых нормативных актов, направленных на регулирование конкретных возможностей ИИ: Положения о глубоком синтезе (2023), регулирующие дипфейки, Временные меры по управлению генеративным ИИ (2023), Положения об управлении алгоритмическими рекомендациями (2022) и секторальные директивы соответствующих министерств, включая Министерство образования.
Как отмечают О'Шонесси и Шиэн (2023) в своём анализе для Фонда Карнеги за международный мир, «Закон ЕС об ИИ тяготеет к горизонтальному подходу (единые рамки для всех секторов), тогда как алгоритмическое регулирование Китая склоняется к вертикальному (секторальные законы, нацеленные на конкретные возможности ИИ)». Оба подхода сопряжены с компромиссами: горизонтальное регулирование обеспечивает последовательность, но рискует быть слишком расплывчатым; вертикальное регулирование обеспечивает конкретность, но чревато пробелами и пересечениями между секторами.
Применительно к образованию секторальный подход Китая имеет преимущество, позволяя Министерству образования издавать директивы, адаптированные к образовательным контекстам, — различая, например, использование ИИ в исследованиях (в целом разрешённое) и использование ИИ на экзаменах (в целом запрещённое). Недостатком является нормативная фрагментация: администраторам университетов приходится ориентироваться в множественных пересекающихся нормативных актах без единой авторитетной системы.
4.3 Сравнительная оценка
Всесторонний сравнительный анализ глобального регулирования ИИ показал, что «многие горизонтальные законы используют подход, основанный на оценке рисков, возлагая строгие обязательства на системы с наивысшим уровнем риска, хотя определения ‹высокого риска› непоследовательны в различных юрисдикциях» (Royal Society Open Science, 2025). Исследование подтвердило, что ЕС отдаёт предпочтение горизонтальному подходу на основе рисков, тогда как Китай предпочитает секторальные законы, адаптированные к конкретным вариантам использования, причём ни один из подходов не является явно превосходящим.
Чун, Шрёдер де Витт и Элкинс (2024) характеризуют фундаментальное различие как ценностное: «Подход ЕС характеризуется приверженностью основным правам, категоризацией на основе рисков и этическим контролем; Китай применяет централизованный, государственный подход, интегрирующий развитие ИИ с национальными целями и социальным управлением». Для образования это означает, что регулирование ЕС приоритизирует защиту прав студентов (конфиденциальность, недискриминация, человеческий контроль), тогда как регулирование Китая приоритизирует как защиту студентов, так и продвижение национальной конкурентоспособности в области ИИ — цели, которые могут совпадать, но могут и вступать в противоречие.
5. Разрыв готовности
5.1 Осведомлённость преподавателей и внедрение политик
Наиболее значительной проблемой, стоящей перед обеими нормативными системами, является не адекватность самого регулирования, а разрыв между регулированием и практикой. Эмпирические данные из нескольких юрисдикций выявляют устойчивую закономерность: преподаватели и студенты используют ИИ-инструменты значительно быстрее, чем учебные заведения разрабатывают политики для их регулирования.
Исследование EDUCAUSE 2024 года по ландшафту ИИ, основанное на опросе более 900 специалистов в области образовательных технологий, выявило, что только 23 процента учебных заведений имели политики допустимого использования ИИ. Почти половина (48 процентов) респондентов не согласились с тем, что их учебное заведение располагает надлежащими политиками ИИ для этического принятия решений, а 54 процента не согласились с тем, что в их учреждении существует эффективный механизм управления ИИ (EDUCAUSE, 2024). При этом 80 процентов преподавателей и сотрудников сообщили об использовании ИИ-инструментов, и менее четверти были осведомлены о наличии формальной институциональной политики в области ИИ (EDUCAUSE, 2024, План действий).
Этот разрыв не является уникальным для Соединённых Штатов. В Великобритании опрос Института политики высшего образования (HEPI) 2025 года показал, что 92 процента студентов бакалавриата в той или иной форме используют генеративный ИИ, по сравнению с 66 процентами в 2024 году — резкий годовой рост, демонстрирующий быструю нормализацию использования ИИ-инструментов (HEPI, 2025). Однако институциональные политики не успевают за этим внедрением.
5.2 Ландшафт готовности в Китае
В Китае Лю и др. (2025) исследовали нормативные акты, технологическую политику и отношение университетов к ИИ на основе анализа политических документов и 33 интервью с преподавателями китайских исследовательских университетов. Они обнаружили, что, хотя преподаватели в целом рассматривают ИИ как средство повышения персонализации, продуктивности исследований и административной эффективности, они выражают обеспокоенность по поводу академической добросовестности, алгоритмической предвзятости и чрезмерной зависимости от технологий. Принципиально важно, что государственная модель управления Китая «интерпретируется и реализуется неравномерно в кампусах университетов» — даже централизованные директивы воплощаются непоследовательно на институциональном уровне (Liu et al., 2025).
Сравнительный анализ регулирования ИИ в континентальном Китае, Гонконге и Макао показал, что даже внутри одной страны «различные управленческие структуры порождают расходящиеся подходы к ИИ в образовании» — демонстрируя, что нормативная фрагментация существует не только между ЕС и Китаем, но и внутри самого Китая (Liu et al., 2025b).
5.3 Формирующиеся институциональные ответы
Несмотря на разрыв готовности, некоторые учебные заведения разрабатывают инновационные ответы. В Австрии система HEAT-AI (Higher Education Act for AI), разработанная в Университете прикладных наук, классифицирует ИИ-приложения в высшем образовании по четырём уровням риска, отражающим Закон ЕС об ИИ — недопустимый, высокий, ограниченный и минимальный риск — и предоставляет институциональные руководства для каждой категории (Temper, Tjoa, and David, 2025). Система была запущена в сентябре 2024 года и представляет собой попытку перевести абстрактные положения Закона об ИИ в конкретную институциональную практику.
Глобальное исследование формирующихся политик в области генеративного ИИ показало, что «лишь чуть более половины обследованных учебных заведений имели публично доступные руководства по генеративному ИИ, причём в большинстве из них отсутствовала формальная политика на институциональном уровне» (Aristombayeva et al., 2025). Политики, адресованные студентам и преподавателям, распространены более широко, чем политики для исследователей — пробел, особенно значимый для исследовательских университетов, где ИИ широко применяется в научном процессе.
6. Наблюдение и поддержка: дебаты о прокторинге
6.1 ИИ-прокторинг в правовых рамках ЕС
Классификация ИИ-систем мониторинга поведения студентов на экзаменах как «высокорисковых» в Законе ЕС об ИИ в сочетании с запретом на распознавание эмоций создаёт нормативную среду, значительно более ограничительную, чем в любой другой юрисдикции. ИИ-прокторинговые системы, использующие анализ мимики, отслеживание взгляда или динамику нажатий клавиш для распознавания списывания, должны соответствовать полному набору обязательств для высокорисковых систем — или, если они связаны с распознаванием эмоций, могут быть полностью запрещены.
Систематический обзор ИИ-систем прокторинга выявил основные проблемы: безопасность и конфиденциальность, этические проблемы, доверие к ИИ-технологиям, недостаток подготовки пользователей и стоимость (Nigam et al., 2021). В обзоре отмечено, что «проблемы безопасности, связанные с ИИ-системами прокторинга, множатся и вызывают обоснованную озабоченность». Эти опасения согласуются с предупредительным подходом ЕС.
6.2 ИИ-наблюдение в образовании Китая
В Китае подход к мониторингу с использованием ИИ в образовании существенно отличается. Сравнительный анализ проблем конфиденциальности ИИ в высшем образовании показал, что «западные источники подчёркивают индивидуальные права на конфиденциальность и спорные вопросы дистанционного мониторинга экзаменов, тогда как китайские публикации чаще освещают инновации в образовании, основанные на ИИ» (Xue et al., 2025). ИИ-системы наблюдения в некоторых китайских университетах — отслеживающие поведение студентов, вовлечённость в аудитории и даже мимику — вызвали внутреннюю дискуссию, однако нормативные рамки более либеральны, чем в ЕС.
Этот контраст отражает принципиально различные культурные и правовые традиции в отношении соотношения индивидуальной приватности и коллективной пользы. В правовых рамках ЕС мониторинг студентов является вмешательством, которое должно быть обосновано насущной необходимостью и ограничено принципом пропорциональности. В китайских правовых рамках мониторинг более легко принимается как элемент управления образовательным процессом, при условии, что он служит институциональным и национальным целям.
6.3 Педагогический вопрос
За правовыми и культурными измерениями дебаты о прокторинге поднимают фундаментальный педагогический вопрос: улучшает ли мониторинг поведения студентов на экзаменах образовательные результаты, или он лишь оптимизирует соблюдение формальных правил, подрывая при этом доверие, внутреннюю мотивацию и формирование академической добросовестности как личностной ценности?
Ответ, вероятно, зависит от контекста. В масштабных стандартизированных аттестациях, где последствия списывания значительны (экзамены на профессиональную лицензию, вступительные экзамены в университет), определённая форма мониторинга может быть оправданной. В формативных оценках, направленных на поддержку обучения, а не на сертификацию компетенций, мониторинг может быть контрпродуктивным — заменяя образовательные отношения доверия между преподавателем и студентом отношениями наблюдения, которые подрывают те самые ценности, которые они призваны защищать.
7. «Брюссельский эффект» и глобальное управление ИИ
7.1 Брюссельский эффект в регулировании ИИ
Концепция «Брюссельского эффекта», теоретически обоснованная Ану Брэдфорд (2020), описывает способность ЕС в одностороннем порядке регулировать глобальные рынки посредством строгого внутреннего регулирования, которое транснациональные компании принимают повсеместно из соображений экономической эффективности. Вопрос о том, приведёт ли Закон об ИИ к Брюссельскому эффекту, активно обсуждается.
Зигман и Андерлунг (2022) утверждают, что «как де-факто, так и де-юре Брюссельские эффекты вероятны для отдельных элементов нормативного режима ЕС в области ИИ», особенно для крупных американских технологических компаний, чьи ИИ-системы классифицируются как высокорисковые. Для образования это означает, что ИИ-инструменты, разрабатываемые глобальными компаниями (Microsoft, Google, OpenAI) для использования в европейских университетах, вероятно, будут спроектированы в соответствии с требованиями Закона об ИИ — и что эти функции соответствия могут быть экспортированы на другие рынки, включая Китай.
Однако Альмада и Раду (2024) предостерегают, что Закон об ИИ может также вызвать «Брюссельский побочный эффект»: другие юрисдикции могут перенять нормативную форму (классификация рисков, требования к документации) без лежащего в основе правозащитного содержания, придающего рамкам ЕС их этическую силу.
7.2 Глобальная инициатива Китая по управлению ИИ
Китай ответил на нормативную активность ЕС собственным видением глобального управления ИИ. Глобальная инициатива по управлению ИИ (全球人工智能治理倡议), объявленная Председателем Си Цзиньпином в октябре 2023 года, выступает за «человекоцентричный подход» к управлению ИИ и призывает к «взаимному уважению, равенству и взаимной выгоде» между нациями в развитии ИИ. Как отмечают Расикот и Симпсон (2024), Инициатива «должна рассматриваться в контексте более широких внешнеполитических целей Китая: его обязательства в области управления ИИ служат геополитическим амбициям Китая, включая позиционирование себя как стандартосоздателя для развивающихся стран».
Для высшего образования конкуренция между Брюссельским эффектом ЕС и Глобальной инициативой Китая по управлению ИИ создаёт сложный нормативный ландшафт. Международные университеты — особенно те, которые реализуют совместные программы, охватывающие учебные заведения ЕС и Китая, например в рамках сети Центров передового опыта Жана Монне — должны ориентироваться в обеих системах одновременно. Сопутствующая глава по защите данных (Вёслер, настоящий том) подробно рассматривает практические трудности двойного соответствия.
8. На пути к ответственной интеграции ИИ: рекомендации
На основе сравнительного анализа, представленного в данной статье, мы предлагаем следующие рекомендации для университетов, ориентирующихся в формирующемся ландшафте управления ИИ.
Во-первых, разработать институциональные политики ИИ, переводящие абстрактные нормативные требования в конкретные руководства для преподавателей и студентов. Система HEAT-AI (Temper, Tjoa, and David, 2025) представляет собой полезную модель для учебных заведений, стремящихся операционализировать управление ИИ на основе рисков на институциональном уровне.
Во-вторых, инвестировать в грамотность в области ИИ как ключевую институциональную компетенцию — не только для студентов, но и для преподавателей и административного персонала. Требование грамотности, закреплённое в Статье 4 Закона ЕС об ИИ, создаёт нормативный стимул, но педагогический императив существует независимо от регулирования: преподаватели, не понимающие ИИ-инструменты, которые используют их студенты, не могут эффективно преподавать и оценивать.
В-третьих, различать управление ИИ для исследований и управление ИИ для аттестации. Китайский подход, который в целом разрешает использование ИИ в исследованиях, ограничивая его на экзаменах и в дипломных работах, предлагает прагматическое разграничение, которое европейским учреждениям было бы полезно перенять. Исследования и аттестация служат разным целям и сопряжены с разными рисками; единая политика ИИ не может адекватно охватить и то, и другое.
В-четвёртых, разработать методы оценивания, которые выявляют именно человеческий вклад — критический анализ, оригинальное мышление, творческий синтез, этическое суждение — а не полагаться на инструменты обнаружения ИИ, точность которых оспаривается и использование которых может подрывать доверие между преподавателями и студентами.
В-пятых, вести трансграничный диалог. Сравнение ЕС и Китая показывает, что каждая система выработала идеи, которых не хватает другой. Европейские учреждения могут перенять у Китая скорость внедрения и интеграцию компетенций ИИ во все дисциплины. Китайские учреждения могут перенять у ЕС акцент на этических рамках, академическом самоуправлении и защите прав студентов. Совместные программы, обмен визитами и совместные исследования — такие как те, что осуществляются в рамках программы Центров передового опыта Жана Монне — обеспечивают конкретные механизмы такого диалога.
9. Заключение
Управление ИИ в высшем образовании является задачей, которую ни одна нормативная система ещё не решила надлежащим образом. Закон ЕС об ИИ обеспечивает наиболее всеобъемлющие правовые рамки, однако его абстрактные положения требуют институциональной адаптации, а их внедрение сталкивается со значительным разрывом готовности. Секторальный подход Китая предоставляет более целенаправленные руководства для образовательных контекстов, но его эффективность зависит от последовательной институциональной реализации и чревата фрагментацией между нормативными инструментами.
Наиболее перспективный путь вперёд сочетает элементы обоих подходов: приверженность ЕС основным правам, классификации на основе рисков и этическому контролю; и готовность Китая к массовому внедрению грамотности в области ИИ, его прагматическое разграничение исследований и аттестации, а также скорость институциональной адаптации. Ни одна система не может полностью перенять опыт другой — культурные, политические и правовые различия слишком глубоки. Но каждая может чему-то научиться, и диалог между ними сам по себе является ценным вкладом в глобальную задачу ответственного управления ИИ в образовании.
Как напоминает Руководство ЮНЕСКО по генеративному ИИ в образовании и исследованиях (Miao and Holmes, 2023), «отсутствие национальных нормативных актов по генеративному ИИ в большинстве стран оставляет данные пользователей незащищёнными, а образовательные учреждения — в значительной степени неподготовленными». ЕС и Китай входят в число немногих юрисдикций, которые перешли от этого отсутствия к содержательным управленческим системам. Их опыт — как успехи, так и неудачи — определит то, как остальной мир подойдёт к проблеме ИИ в высшем образовании.
Благодарности
Данное исследование выполнено при поддержке Центра передового опыта Жана Монне «EU-Studies Centre: Digitalization in Europe and China» (EUSC-DEC), финансируемого Европейским союзом в рамках Соглашения о гранте № 101126782. Высказанные мнения и оценки принадлежат исключительно автору и не обязательно отражают позицию Европейского союза.
Литература
Almada, M., & Radu, A. (2024). The Brussels Side-Effect: How the AI Act can reduce the global reach of EU policy. German Law Journal, 25, 646–663.
Aristombayeva, M., Satybaldiyeva, R., Maung, B. M., & Lee, D. (2025). Guiding the uncharted: The emerging (and missing) policies on generative AI in higher education. Frontiers in Education, 10. DOI: 10.3389/feduc.2025.1644081.
Asia Education Review. (2025). China makes AI education mandatory in schools starting September 2025.
Bradford, A. (2020). The Brussels Effect: How the European Union Rules the World. Oxford University Press.
China Daily. (2026, January 12). Fudan University sets AI education guidelines.
Chun, J., Schroeder de Witt, C., & Elkins, K. (2024). Comparative global AI regulation: Policy perspectives from the EU, China, and the US. arXiv preprint, arXiv:2410.21279.
EDUCAUSE. (2024). 2024 EDUCAUSE AI Landscape Study. Robert, J., & McCormack, M.
EDUCAUSE. (2024). 2024 EDUCAUSE Action Plan: AI Policies and Guidelines.
European Parliament and Council of the European Union. (2024). Regulation (EU) 2024/1689 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union.
Freeman, J. (2025). Student Generative AI Survey 2025. HEPI Policy Note 61. Higher Education Policy Institute.
Hilliard, A., Gulley, A., Kazim, E., & Koshiyama, A. (2026). Artificial intelligence policy worldwide: A comparative analysis. Royal Society Open Science, 13(2), 242234.
Liu, X., et al. (2025). Regulations, technology policies and universities' attitudes to artificial intelligence in China. Higher Education Quarterly, 79(4). DOI: 10.1111/hequ.70055.
Miao, F., & Holmes, W. (2023). Guidance for Generative AI in Education and Research. UNESCO: Paris.
Migliorini, S. (2024). China's Interim Measures on generative AI: Origin, content and significance. Computer Law and Security Review, 53, Article 105992.
Nigam, A., Pasricha, R., Singh, T., & Churi, P. (2021). A systematic review on AI-based proctoring systems. Education and Information Technologies, 26, 6421–6445.
O'Shaughnessy, M., & Sheehan, M. (2023). Lessons from the world's two experiments in AI governance. Carnegie Endowment for International Peace.
Racicot, R., & Simpson, K. H. (2024). China's AI Governance Initiative and its geopolitical ambitions. Centre for International Governance Innovation (CIGI).
Roberts, H., Cowls, J., Morley, J., Taddeo, M., Wang, V., & Floridi, L. (2021). The Chinese approach to artificial intelligence: An analysis of policy, ethics, and regulation. AI and Society, 36, 59–77.
Siegmann, C., & Anderljung, M. (2022). The Brussels Effect and Artificial Intelligence. arXiv preprint, arXiv:2208.12645.
Temper, M., Tjoa, S., & David, L. (2025). Higher Education Act for AI (HEAT-AI): A framework to regulate the usage of AI in higher education institutions. Frontiers in Education, 10. DOI: 10.3389/feduc.2025.1505370.
Xue, Y., Chinapah, V., & Zhu, C. (2025). A Comparative Analysis of AI Privacy Concerns in Higher Education: News Coverage in China and Western Countries. Education Sciences, 15(6), 650. DOI: 10.3390/educsci15060650.