Difference between revisions of "Rethinking Higher Education/Chapter 1/zh"

From China Studies Wiki
Jump to navigation Jump to search
 
 
(2 intermediate revisions by the same user not shown)
Line 1: Line 1:
 +
<div style="background-color: #003399; color: white; padding: 12px 15px; margin: 0 0 20px 0; border-radius: 4px; font-size: 1.1em;">
 +
<span style="font-weight: bold;">语言:</span> [[Rethinking_Higher_Education/Chapter_1|<span style="color: #FFD700;">EN</span>]] · <span style="color: #FFD700; font-weight: bold;">ZH</span> · [[Rethinking_Higher_Education/Chapter_1/en-zh|<span style="color: #FFD700;">EN-ZH</span>]] · [[Rethinking_Higher_Education/zh|<span style="color: #FFD700;">← 目录</span>]]
 +
</div>
 +
 
= 第一章 =
 
= 第一章 =
  
Line 5: Line 9:
 
'''Martin Woesler'''
 
'''Martin Woesler'''
  
湖南师范大学
+
''湖南师范大学''
  
 
== 摘要 ==
 
== 摘要 ==
  
人工智能在高等教育中的快速融合已超越了相应伦理和监管框架的发展速度。本文系统比较了欧盟《人工智能法》——世界上首部综合性人工智能立法——与中国在教育领域不断发展的行业特定人工智能治理方法。欧盟《人工智能法》将自动评分、监考和招生决策等教育人工智能应用归类为"高风险",禁止在教育环境中使用情绪识别技术,并要求所有部署者具备人工智能素养。相比之下,中国的方法结合了2023年《生成式人工智能服务管理暂行办法》、教育部指令、2025年9月起的强制性人工智能教育,以及复旦大学2026年1月制定的政策等机构具体指南。基于EDUCAUSE 2024年人工智能状况研究、英国高等教育政策研究所(HEPI)2025年学生调查以及比较法律分析的实证数据,我们记录了两个体系中存在的显著"准备度差距":80%的教职人员使用人工智能工具,但不到四分之一的人了解其所在机构的人工智能政策。我们认为,无论是欧盟的横向权利导向方法还是中国的集中式行业特定模式,单独来看都不够充分。将欧洲的伦理严谨性与中国的实施速度相结合的综合方案,为高等教育中负责任的人工智能融合提供了最有前景的路径。
+
人工智能在高等教育中的快速融合已超越了相应伦理和监管框架的发展速度。本文系统比较了欧盟《人工智能法》——世界上首部综合性人工智能立法——与中国在教育领域不断演进的行业特定人工智能治理方法。欧盟《人工智能法》将自动评分、监考和招生决策等教育人工智能应用归类为"高风险",禁止在教育环境中使用情绪识别技术,并要求所有部署者具备人工智能素养。相比之下,中国的方法结合了2023年《生成式人工智能服务管理暂行办法》、教育部指令、2025年9月起的强制性人工智能教育,以及复旦大学2026年1月政策等机构具体指南。基于EDUCAUSE 2024年人工智能状况研究、英国高等教育政策研究所(HEPI)2025年学生调查以及比较法律分析的实证数据,我们记录了两个体系中存在的显著"准备度差距":80%的教职人员使用人工智能工具,但不到四分之一的人了解其所在机构的人工智能政策。我们认为,无论是欧盟的横向权利导向方法还是中国的集中式行业特定模式,单独来看都不够充分。将欧洲的伦理严谨性与中国的实施速度相结合的综合方案,为高等教育中负责任的人工智能融合提供了最有前景的路径。
  
关键词:人工智能伦理、欧盟人工智能法、高等教育、中国人工智能治理、人工智能素养、学术诚信、监考、布鲁塞尔效应、生成式人工智能政策
+
''关键词:人工智能伦理、欧盟《人工智能法》、高等教育、中国人工智能治理、人工智能素养、学术诚信、监考、布鲁塞尔效应、生成式人工智能政策''
  
 
== 1. 引言 ==
 
== 1. 引言 ==
Line 19: Line 23:
 
与此同时,中国走上了一条不同的道路。中国没有制定一部涵盖所有人工智能应用的横向法律,而是发展了一系列行业特定法规——2023年《生成式人工智能服务管理暂行办法》、教育部禁止提交人工智能生成学术作品的指令,以及2025年9月起在所有中小学课程中纳入人工智能教育的强制令——通过国家政策、机构指南和技术标准的结合来共同规范教育领域的人工智能应用。
 
与此同时,中国走上了一条不同的道路。中国没有制定一部涵盖所有人工智能应用的横向法律,而是发展了一系列行业特定法规——2023年《生成式人工智能服务管理暂行办法》、教育部禁止提交人工智能生成学术作品的指令,以及2025年9月起在所有中小学课程中纳入人工智能教育的强制令——通过国家政策、机构指南和技术标准的结合来共同规范教育领域的人工智能应用。
  
本文比较了这两种人工智能教育治理方法,审视其哲学基础、实践影响以及在应对人工智能给高等教育带来的伦理挑战方面的有效性。它通过将监管维度与人工智能语言学习、数据保护和未来大学等相关章节联系起来,为更广泛的论文集项目做出贡献(Woesler,本卷)。
+
本文比较了这两种人工智能教育治理方法,审视其哲学基础、实践影响以及在应对人工智能给高等教育带来的伦理挑战方面的有效性。本文通过将监管维度与人工智能语言学习、数据保护和未来大学等相关章节联系起来,为更广泛的论文集做出贡献(Woesler,本卷)。
  
 
三个问题构成了我们的研究框架。第一,欧盟和中国的监管框架如何应对人工智能在教育中的具体伦理挑战——学术诚信、监控、公平和透明度?第二,两个体系中机构准备度的现状如何?第三,每个体系能从另一个体系中学到什么?
 
三个问题构成了我们的研究框架。第一,欧盟和中国的监管框架如何应对人工智能在教育中的具体伦理挑战——学术诚信、监控、公平和透明度?第二,两个体系中机构准备度的现状如何?第三,每个体系能从另一个体系中学到什么?
  
== 2. 欧盟人工智能法与教育 ==
+
== 2. 欧盟《人工智能法》与教育 ==
  
== 2.1 高风险分类 ==
+
=== 2.1 高风险分类 ===
  
欧盟《人工智能法》(第2024/1689号条例)建立了一个基于风险的框架,将人工智能系统分为四个等级:不可接受风险(禁止)、高风险(受监管)、有限风险(透明度义务)和最低风险(不受监管)。教育在高风险类别中占据突出位置。附件三第三节确定了四类高风险教育人工智能:用于决定教育机构准入的人工智能系统、用于评估学习成果(包括用于引导学习过程的系统)的人工智能系统、用于评估个人适当教育水平的人工智能系统,以及在考试期间监控和检测学生违禁行为的人工智能系统(欧洲议会和欧盟理事会 2024)。
+
欧盟《人工智能法》(第2024/1689号条例)建立了一个基于风险的框架,将人工智能系统分为四个等级:不可接受风险(禁止)、高风险(受监管)、有限风险(透明度义务)和最低风险(不受监管)。教育在高风险类别中占据突出位置。附件三第三节确定了四类高风险教育人工智能:用于决定教育机构准入的人工智能系统、用于评估学习成果(包括用于引导学习过程的系统)的人工智能系统、用于评估个人适当教育水平的人工智能系统,以及在考试期间监控和检测学生违禁行为的人工智能系统(European Parliament and Council 2024)。
  
 
实际后果非常重大。任何部署人工智能系统进行考试评分、推荐学习路径、确定录取或在评估期间监控学生行为的大学,都必须遵守广泛的义务:进行合规评估、维护技术文档、实施人工监督机制并确保数据质量。这些要求无论人工智能系统是内部开发还是从商业供应商采购,均同样适用。
 
实际后果非常重大。任何部署人工智能系统进行考试评分、推荐学习路径、确定录取或在评估期间监控学生行为的大学,都必须遵守广泛的义务:进行合规评估、维护技术文档、实施人工监督机制并确保数据质量。这些要求无论人工智能系统是内部开发还是从商业供应商采购,均同样适用。
  
== 2.2 情绪识别禁令 ==
+
=== 2.2 情绪识别禁令 ===
  
 
《人工智能法》第5条第1款第(f)项禁止在工作场所和教育机构领域推断自然人情绪的人工智能系统,除非该人工智能系统出于医疗或安全目的而投入使用。这一于2025年2月2日生效的禁令,对依靠面部表情、眼球运动和其他生物特征指标来检测考试作弊的人工智能监考系统具有直接影响。一些依赖情绪推断的商业监考平台——将紧张、分心或压力解读为学术不端的指标——可能属于该禁令的适用范围。
 
《人工智能法》第5条第1款第(f)项禁止在工作场所和教育机构领域推断自然人情绪的人工智能系统,除非该人工智能系统出于医疗或安全目的而投入使用。这一于2025年2月2日生效的禁令,对依靠面部表情、眼球运动和其他生物特征指标来检测考试作弊的人工智能监考系统具有直接影响。一些依赖情绪推断的商业监考平台——将紧张、分心或压力解读为学术不端的指标——可能属于该禁令的适用范围。
Line 37: Line 41:
 
情绪识别禁令体现了一种独特的欧洲方法,反映了技术与人的尊严之间的关系。欧盟的立场是,无论声称的目的如何,在教育情境中监控情绪状态构成对学生心理完整性的不可接受的侵犯。这一立场源于《欧盟基本权利宪章》,该宪章保障人的尊严权(第1条)和个人数据保护权(第8条)。
 
情绪识别禁令体现了一种独特的欧洲方法,反映了技术与人的尊严之间的关系。欧盟的立场是,无论声称的目的如何,在教育情境中监控情绪状态构成对学生心理完整性的不可接受的侵犯。这一立场源于《欧盟基本权利宪章》,该宪章保障人的尊严权(第1条)和个人数据保护权(第8条)。
  
== 2.3 人工智能素养要求 ==
+
=== 2.3 人工智能素养要求 ===
  
《人工智能法》第4条要求人工智能系统的提供者和部署者确保其工作人员和代表其处理人工智能系统操作和使用的其他人员具有足够的人工智能素养水平。这一义务于2025年2月2日生效——早于该法案大多数其他条款——表明欧盟认为人工智能素养是负责任的人工智能治理的先决条件。
+
《人工智能法》第4条要求人工智能系统的提供者和部署者确保其工作人员以及代表其处理人工智能系统操作和使用的其他人员具有足够的人工智能素养水平。这一义务于2025年2月2日生效——早于该法案大多数其他条款——表明欧盟认为人工智能素养是负责任的人工智能治理的先决条件。
  
对于大学而言,这一要求具有双重维度。首先,作为人工智能系统的部署者(学习管理系统、自动评分工具、抄袭检测软件、监考平台),大学必须确保教职人员和行政人员具备足够的人工智能素养以负责任地使用这些工具。其次,作为教育机构,大学有更广泛的使命来培养学生的人工智能素养——这一使命虽未被《人工智能法》的素养要求明确涉及,却得到了加强。
+
对于大学而言,这一要求具有双重维度。首先,作为人工智能系统的部署者(学习管理系统、自动评分工具、抄袭检测软件、监考平台),大学必须确保教职人员和行政人员具备足够的人工智能素养以负责任地使用这些工具。其次,作为教育机构,大学有更广泛的使命来培养学生的人工智能素养——这一使命虽未被《人工智能法》的素养要求明确涉及,却因之得到了加强。
  
 
实施挑战是巨大的。EDUCAUSE 2024年人工智能状况研究发现,不到四分之一的教职人员了解其所在机构的正式人工智能政策,尽管80%的人报告在工作中使用人工智能工具(EDUCAUSE 2024)。人工智能使用与人工智能意识之间的差距代表着重大的机构风险——也是对《人工智能法》素养要求的直接挑战。
 
实施挑战是巨大的。EDUCAUSE 2024年人工智能状况研究发现,不到四分之一的教职人员了解其所在机构的正式人工智能政策,尽管80%的人报告在工作中使用人工智能工具(EDUCAUSE 2024)。人工智能使用与人工智能意识之间的差距代表着重大的机构风险——也是对《人工智能法》素养要求的直接挑战。
Line 47: Line 51:
 
== 3. 中国的教育人工智能治理 ==
 
== 3. 中国的教育人工智能治理 ==
  
== 3.1 生成式人工智能暂行办法(2023年) ==
+
=== 3.1 《生成式人工智能服务管理暂行办法》(2023年) ===
  
中国的教育人工智能治理通过国家法规、部委指令和机构政策的分层体系来运作。基础性的国家法规是《生成式人工智能服务管理暂行办法》(生成式人工智能服务管理暂行办法),由国家互联网信息办公室和包括教育部在内的其他六个部门联合发布,自2023年8月15日起施行。该办法采取中国法律学者所描述的"包容审慎"方法,将发展促进与分类监管相结合(Migliorini 2024)。
+
中国的教育人工智能治理通过国家法规、部委指令和机构政策的分层体系来运作。基础性的国家法规是《生成式人工智能服务管理暂行办法》,由国家互联网信息办公室和包括教育部在内的其他六个部门联合发布,自2023年8月15日起施行。该办法采取中国法律学者所描述的"包容审慎"方法,将发展促进与分类监管相结合(Migliorini 2024)。
  
 
在教育方面,该暂行办法包含要求生成式人工智能服务提供者防止未成年人对生成式人工智能产生"过度依赖或沉迷"的条款,并要求面向未成年人的服务满足额外的安全要求。值得注意的是,该办法包含研究豁免条款,允许高校和研究机构在不完全遵守适用于商业提供者的注册和合规要求的情况下,开发和测试生成式人工智能系统——这是对过度限制性监管可能阻碍学术研究的务实认识。
 
在教育方面,该暂行办法包含要求生成式人工智能服务提供者防止未成年人对生成式人工智能产生"过度依赖或沉迷"的条款,并要求面向未成年人的服务满足额外的安全要求。值得注意的是,该办法包含研究豁免条款,允许高校和研究机构在不完全遵守适用于商业提供者的注册和合规要求的情况下,开发和测试生成式人工智能系统——这是对过度限制性监管可能阻碍学术研究的务实认识。
  
== 3.2 教育部指令 ==
+
=== 3.2 教育部指令 ===
  
 
教育部已发布多项专门针对教育中人工智能应用的指令。最重要的是,教育部禁止学生将人工智能生成的内容作为自己的学术成果提交——这一指令虽然原则上明确,但面临着与其他管辖区相同的执行挑战。各高校以机构特定的政策补充了这一指令。
 
教育部已发布多项专门针对教育中人工智能应用的指令。最重要的是,教育部禁止学生将人工智能生成的内容作为自己的学术成果提交——这一指令虽然原则上明确,但面临着与其他管辖区相同的执行挑战。各高校以机构特定的政策补充了这一指令。
Line 59: Line 63:
 
复旦大学于2026年1月成为首批发布综合性人工智能指南的中国重点大学之一,为论文写作建立了六项具体禁令:禁止使用人工智能生成或篡改原始数据、实验结果、图像或论文文本;禁止在论文审查过程中使用人工智能工具;禁止使用人工智能工具进行语言润色和论文翻译。对严重违规行为的处罚包括撤销学位(China Daily 2026)。
 
复旦大学于2026年1月成为首批发布综合性人工智能指南的中国重点大学之一,为论文写作建立了六项具体禁令:禁止使用人工智能生成或篡改原始数据、实验结果、图像或论文文本;禁止在论文审查过程中使用人工智能工具;禁止使用人工智能工具进行语言润色和论文翻译。对严重违规行为的处罚包括撤销学位(China Daily 2026)。
  
天津科技大学(天津科技大学)在2024年采取了不同的方法,要求本科论文中人工智能生成的内容不得超过40%——这一定量门槛原则上可衡量,但在实践中难以执行,特别是对于已被人类作者进行实质性改写的文本。
+
天津科技大学在2024年采取了不同的方法,要求本科论文中人工智能生成的内容不得超过40%——这一定量门槛原则上可衡量,但在实践中难以执行,特别是对于已被人类作者进行实质性改写的文本。
  
== 3.3 2025年9月起的强制性人工智能教育 ==
+
=== 3.3 2025年9月起的强制性人工智能教育 ===
  
 
中国最具深远影响的政策干预是自2025年9月1日起生效的要求,即将人工智能教育纳入所有中小学课程。该政策要求各年级学生(包括年仅六岁的儿童)每年至少接受八小时的人工智能教育。在小学阶段,重点是人工智能素养和接触;在初中阶段,重点是逻辑和批判性思维;在高中阶段,重点是应用创新和算法设计(Asia Education Review 2025)。
 
中国最具深远影响的政策干预是自2025年9月1日起生效的要求,即将人工智能教育纳入所有中小学课程。该政策要求各年级学生(包括年仅六岁的儿童)每年至少接受八小时的人工智能教育。在小学阶段,重点是人工智能素养和接触;在初中阶段,重点是逻辑和批判性思维;在高中阶段,重点是应用创新和算法设计(Asia Education Review 2025)。
  
这一要求对高等教育具有深远影响,因为这意味着在几年之内,大学生将带着人工智能素养基础入学——不同于当前大多数在大学才首次接触人工智能工具的一代学生。因此,中国的大学必须准备在这一基础上继续发展,而不是从零开始,这将需要对课程进行根本性重新设计。
+
这一要求对高等教育具有深远影响,因为这意味着在数年之内,大学生将带着人工智能素养基础入学——不同于当前大多数在大学才首次接触人工智能工具的一代学生。因此,中国的大学必须准备在这一基础上继续发展,而不是从零开始,这将需要对课程进行根本性重新设计。
  
同时,该政策禁止小学生独立使用"开放式内容生成"工具,并禁止教师使用生成式人工智能替代核心教学活动。这种双重方法——推广人工智能素养同时限制某些人工智能用途——反映了对人工智能能力与人工智能依赖是需要不同政策应对的不同现象的细致理解。
+
同时,该政策禁止小学生独立使用"开放式内容生成"工具,并禁止教师使用生成式人工智能替代核心教学活动。这种双重方法——推广人工智能素养同时限制某些人工智能用途——反映了对人工智能能力与人工智能依赖是需要不同政策应对的不同现象这一认识的细致理解。
  
 
== 4. 横向监管与行业特定监管 ==
 
== 4. 横向监管与行业特定监管 ==
  
== 4.1 欧盟的横向方法 ==
+
=== 4.1 欧盟的横向方法 ===
  
 
欧盟《人工智能法》代表了一种横向监管策略:一个涵盖所有行业(包括教育)的单一立法框架。这种方法的优势包括一致性(相同的原则适用于医疗保健、就业、执法和教育领域的人工智能)、法律确定性(组织只需理解一个框架而非多个)和全面性(没有行业会漏网)。
 
欧盟《人工智能法》代表了一种横向监管策略:一个涵盖所有行业(包括教育)的单一立法框架。这种方法的优势包括一致性(相同的原则适用于医疗保健、就业、执法和教育领域的人工智能)、法律确定性(组织只需理解一个框架而非多个)和全面性(没有行业会漏网)。
  
然而,横向监管也有缺点。《人工智能法》的条款必然是抽象的——"高风险"分类标准必须容纳从医疗诊断工具到大学录取算法等各类不同的人工智能系统。这种抽象性可能使特定行业的合规变得困难。习惯于相对非正式学术生活治理结构的大学,可能在实施《人工智能法》对高风险人工智能部署者要求的正式合规评估、技术文档要求和质量管理体系方面遇到困难。
+
然而,横向监管也有缺点。《人工智能法》的条款必然是抽象的——"高风险"分类标准必须容纳从医疗诊断工具到大学录取算法等各类不同的人工智能系统。这种抽象性可能使特定行业的合规变得困难。习惯于相对非正式学术治理结构的大学,可能在实施《人工智能法》对高风险人工智能部署者要求的正式合规评估、技术文档要求和质量管理体系方面遇到困难。
  
== 4.2 中国的行业特定方法 ==
+
=== 4.2 中国的行业特定方法 ===
  
 
相比之下,中国的方法以行业特定为主。中国没有制定单一的综合性人工智能法,而是发展了一系列有针对性的法规,涵盖特定的人工智能能力:2023年《深度合成管理规定》规范深度伪造,2023年《生成式人工智能暂行办法》,2022年《互联网信息服务算法推荐管理规定》,以及包括教育部在内的相关部委的行业特定指令。
 
相比之下,中国的方法以行业特定为主。中国没有制定单一的综合性人工智能法,而是发展了一系列有针对性的法规,涵盖特定的人工智能能力:2023年《深度合成管理规定》规范深度伪造,2023年《生成式人工智能暂行办法》,2022年《互联网信息服务算法推荐管理规定》,以及包括教育部在内的相关部委的行业特定指令。
Line 85: Line 89:
 
对于教育而言,中国行业特定方法的优势在于允许教育部发布针对教育情境的指令——例如区分人工智能在研究中的使用(广泛允许)和在考试中的使用(广泛禁止)。缺点是监管碎片化:大学管理者必须在没有单一权威框架的情况下应对多个重叠的法规。
 
对于教育而言,中国行业特定方法的优势在于允许教育部发布针对教育情境的指令——例如区分人工智能在研究中的使用(广泛允许)和在考试中的使用(广泛禁止)。缺点是监管碎片化:大学管理者必须在没有单一权威框架的情况下应对多个重叠的法规。
  
== 4.3 比较评估 ==
+
=== 4.3 比较评估 ===
  
 
一项对全球人工智能监管的全面比较分析发现,"许多横向法律采取基于风险的方法,对最高风险系统施加严格义务,但各管辖区对'高风险'的定义不一致"(Royal Society Open Science 2025)。该研究确认欧盟倾向于横向的基于风险的方法,而中国倾向于针对特定用例量身定制的行业特定法律,两种方法都没有明显优势。
 
一项对全球人工智能监管的全面比较分析发现,"许多横向法律采取基于风险的方法,对最高风险系统施加严格义务,但各管辖区对'高风险'的定义不一致"(Royal Society Open Science 2025)。该研究确认欧盟倾向于横向的基于风险的方法,而中国倾向于针对特定用例量身定制的行业特定法律,两种方法都没有明显优势。
Line 93: Line 97:
 
== 5. 准备度差距 ==
 
== 5. 准备度差距 ==
  
== 5.1 教职人员意识与政策执行 ==
+
=== 5.1 教职人员意识与政策执行 ===
  
 
两个监管体系面临的最重大挑战不是监管本身是否充分,而是监管与实践之间的差距。来自多个管辖区的实证数据揭示了一个一致的模式:教职人员和学生使用人工智能工具的速度远超机构制定管理政策的速度。
 
两个监管体系面临的最重大挑战不是监管本身是否充分,而是监管与实践之间的差距。来自多个管辖区的实证数据揭示了一个一致的模式:教职人员和学生使用人工智能工具的速度远超机构制定管理政策的速度。
Line 101: Line 105:
 
这一差距并非美国独有。在英国,高等教育政策研究所(HEPI)2025年调查发现,92%的本科生现在以某种形式使用生成式人工智能,高于2024年的66%——年度增长幅度之大表明人工智能工具使用的快速常态化(HEPI 2025)。然而,机构政策尚未跟上这一采用速度。
 
这一差距并非美国独有。在英国,高等教育政策研究所(HEPI)2025年调查发现,92%的本科生现在以某种形式使用生成式人工智能,高于2024年的66%——年度增长幅度之大表明人工智能工具使用的快速常态化(HEPI 2025)。然而,机构政策尚未跟上这一采用速度。
  
== 5.2 中国的准备度状况 ==
+
=== 5.2 中国的准备度状况 ===
  
在中国,Liu等人(2025)基于政策文件分析和33名中国研究型大学教职人员的访谈,调查了人工智能的法规、技术政策和大学态度。他们发现,虽然教职人员普遍认为人工智能增强了个性化教学、研究生产力和行政效率,但他们对学术诚信、算法偏见和对技术的过度依赖表示担忧。关键的是,中国的国家主导治理模式"在大学校园中的解读和执行并不一致"——即使是集中式的指令在机构层面也执行得不一致(Liu et al. 2025)。
+
在中国,Liu等人(2025)基于政策文件分析和33名中国研究型大学教职人员的访谈,调查了人工智能的法规、技术政策和大学态度。他们发现,虽然教职人员普遍认为人工智能增强了个性化教学、研究生产力和行政效率,但他们对学术诚信、算法偏见和对技术的过度依赖表示担忧。关键的是,中国的国家主导治理模式"在大学校园中的解读和执行并不一致"——即使是集中式的指令在机构层面也执行不一(Liu et al. 2025)。
  
一项对中国大陆、香港和澳门人工智能监管的比较分析发现,即使在一个国家内,"不同的治理结构产生了不同的教育人工智能方法"——表明监管碎片化不仅存在于欧盟和中国之间,也存在于中国内部(Liu等人 2025)。
+
一项对中国大陆、香港和澳门人工智能监管的比较分析发现,即使在一个国家内,"不同的治理结构产生了不同的教育人工智能方法"——表明监管碎片化不仅存在于欧盟和中国之间,也存在于中国内部(Liu et al. 2025b)。
  
== 5.3 新兴的机构应对 ==
+
=== 5.3 新兴的机构应对 ===
  
 
尽管存在准备度差距,一些机构正在开发创新的应对措施。在奥地利,HEAT-AI(高等教育人工智能法案)框架由一所应用科技大学开发,将高等教育中的人工智能应用分为四个风险级别(与欧盟《人工智能法》相对应)——不可接受、高、有限和最低风险——并为每个类别提供机构特定的指导(Temper、Tjoa和David 2025)。该框架于2024年9月上线,代表了将《人工智能法》的抽象条款转化为具体机构实践的尝试。
 
尽管存在准备度差距,一些机构正在开发创新的应对措施。在奥地利,HEAT-AI(高等教育人工智能法案)框架由一所应用科技大学开发,将高等教育中的人工智能应用分为四个风险级别(与欧盟《人工智能法》相对应)——不可接受、高、有限和最低风险——并为每个类别提供机构特定的指导(Temper、Tjoa和David 2025)。该框架于2024年9月上线,代表了将《人工智能法》的抽象条款转化为具体机构实践的尝试。
  
一项对新兴生成式人工智能政策的全球研究发现,"只有略超过一半的被调查机构拥有可公开访问的生成式人工智能指南,大多数机构在机构层面缺乏正式政策"(Aristombayeva等人 2025)。针对学生和教职人员的政策比针对研究人员的政策更为普遍——这一差距对于人工智能在研究过程中被广泛使用的研究型大学尤为重要。
+
一项对新兴生成式人工智能政策的全球研究发现,"只有略超过一半的被调查机构拥有可公开访问的生成式人工智能指南,大多数机构在机构层面缺乏正式政策"(Aristombayeva et al. 2025)。针对学生和教职人员的政策比针对研究人员的政策更为普遍——这一差距对于人工智能在研究过程中被广泛使用的研究型大学尤为重要。
  
 
== 6. 监控与支持:监考辩论 ==
 
== 6. 监控与支持:监考辩论 ==
  
== 6.1 欧盟框架下的人工智能监考 ==
+
=== 6.1 欧盟框架下的人工智能监考 ===
  
 
欧盟《人工智能法》将在考试期间监控学生行为的人工智能系统归类为"高风险",加上情绪识别禁令,创造了一个比其他任何管辖区都更为严格的监管环境。依赖面部表情分析、视线追踪或按键动态来推断作弊行为的人工智能监考系统,必须遵守《人工智能法》对高风险系统的全部义务——如果涉及情绪推断,则可能被完全禁止。
 
欧盟《人工智能法》将在考试期间监控学生行为的人工智能系统归类为"高风险",加上情绪识别禁令,创造了一个比其他任何管辖区都更为严格的监管环境。依赖面部表情分析、视线追踪或按键动态来推断作弊行为的人工智能监考系统,必须遵守《人工智能法》对高风险系统的全部义务——如果涉及情绪推断,则可能被完全禁止。
  
一项对基于人工智能的监考系统的系统性综述确定了安全和隐私问题、伦理问题、对人工智能技术的信任、用户培训不足以及成本等主要问题(Nigam等人 2021)。该综述指出,"与基于人工智能的监考系统相关的安全问题正在成倍增加,这是一个令人合理担忧的问题。"这些担忧与欧盟的预防性方法相一致。
+
一项对基于人工智能的监考系统的系统性综述确定了安全和隐私问题、伦理问题、对人工智能技术的信任、用户培训不足以及成本等主要问题(Nigam et al. 2021)。该综述指出,"与基于人工智能的监考系统相关的安全问题正在成倍增加,这是一个合理的关切。"这些担忧与欧盟的预防性方法相一致。
  
== 6.2 中国教育中的人工智能监控 ==
+
=== 6.2 中国教育中的人工智能监控 ===
  
 
在中国,教育中人工智能监控的方法截然不同。一项对高等教育中人工智能隐私问题的比较分析发现,"西方媒体突出个人隐私权和远程考试监控中的争议,而中国的报道更多地涉及人工智能驱动的教育创新"(Xue et al. 2025)。中国一些大学的人工智能监控系统——监控学生行为、课堂参与度甚至面部表情——引发了国内辩论,但监管框架比欧盟更为宽松。
 
在中国,教育中人工智能监控的方法截然不同。一项对高等教育中人工智能隐私问题的比较分析发现,"西方媒体突出个人隐私权和远程考试监控中的争议,而中国的报道更多地涉及人工智能驱动的教育创新"(Xue et al. 2025)。中国一些大学的人工智能监控系统——监控学生行为、课堂参与度甚至面部表情——引发了国内辩论,但监管框架比欧盟更为宽松。
  
这种对比反映了关于个人隐私与集体利益之间关系的根本不同的文化和法律传统。在欧盟框架中,学生监控是一种必须以迫切必要性来证明其正当性并受比例原则约束的入侵行为。在中国框架中,只要监控服务于机构和国家目标,就更容易被接受为教育管理的一个组成部分。
+
这种对比反映了关于个人隐私与集体利益之间关系的根本不同的文化和法律传统。在欧盟框架中,学生监控是一种必须以迫切必要性来证明其正当性并受比例原则约束的侵入行为。在中国框架中,只要监控服务于机构和国家目标,就更容易被接受为教育管理的一个组成部分。
  
== 6.3 教育学问题 ==
+
=== 6.3 教育学问题 ===
  
除了法律和文化层面,监考辩论还提出了一个根本性的教育学问题:在考试期间监控学生行为是否改善了教育成果,还是仅仅优化了合规性,同时破坏了信任、内在动机以及学术诚信作为个人价值观的培养?
+
除了法律和文化层面,监考辩论还提出了一个根本性的教育学问题:在考试期间监控学生行为究竟是改善了教育成果,还是仅仅优化了合规性,同时破坏了信任、内在动机以及学术诚信作为个人价值观的培养?
  
答案可能取决于具体情境。在作弊后果严重的大规模标准化评估中(专业执照考试、大学入学考试),某种形式的监控可能是合理的。在旨在支持学习而非认证能力的形成性评估中,监控可能适得其反——将师生之间的教育信任关系替换为一种监控关系,从而破坏了它声称要保护的价值观。
+
答案可能取决于具体情境。在作弊后果严重的大规模标准化评估中(如专业执照考试、大学入学考试),某种形式的监控可能是合理的。在旨在支持学习而非认证能力的形成性评估中,监控可能适得其反——将师生之间的教育信任关系替换为一种监控关系,从而破坏了它声称要保护的价值观。
  
 
== 7. "布鲁塞尔效应"与全球人工智能治理 ==
 
== 7. "布鲁塞尔效应"与全球人工智能治理 ==
  
== 7.1 人工智能监管中的布鲁塞尔效应 ==
+
=== 7.1 人工智能监管中的布鲁塞尔效应 ===
  
"布鲁塞尔效应"的概念由Anu Bradford(2020)提出理论,描述了欧盟通过严格的国内监管单方面规范全球市场的能力——跨国公司出于成本效率而在全球范围内采用这些标准。《人工智能法》是否会产生布鲁塞尔效应是一个活跃的辩论话题。
+
"布鲁塞尔效应"的概念由Anu Bradford(2020)提出理论化阐释,描述了欧盟通过严格的国内监管单方面规范全球市场的能力——跨国公司出于成本效率而在全球范围内采用这些标准。《人工智能法》是否会产生布鲁塞尔效应是一个活跃的辩论话题。
  
Siegmann和Anderljung(2022)认为,"欧盟人工智能监管制度的部分内容很可能产生事实上和法律上的布鲁塞尔效应",特别是对于其人工智能系统被归类为高风险的美国大型科技公司。对教育而言,这意味着全球公司(微软、谷歌、OpenAI)为欧洲大学开发的人工智能工具可能被设计为符合《人工智能法》的要求——这些合规特性可能被出口到包括中国在内的其他市场。
+
Siegmann和Anderljung(2022)认为,"欧盟人工智能监管制度的部分内容很可能产生事实上和法律上的布鲁塞尔效应",特别是对于其人工智能系统被归类为高风险的美国大型科技公司。对教育而言,这意味着全球公司(Microsoft、Google、OpenAI)为欧洲大学开发的人工智能工具可能被设计为符合《人工智能法》的要求——这些合规特性可能被出口到包括中国在内的其他市场。
  
 
然而,Almada和Radu(2024)警告说,《人工智能法》也可能产生"布鲁塞尔副效应":其他管辖区可能采用监管形式(基于风险的分类、文档要求),但不采用赋予欧盟框架伦理力量的基于权利的实质内容。
 
然而,Almada和Radu(2024)警告说,《人工智能法》也可能产生"布鲁塞尔副效应":其他管辖区可能采用监管形式(基于风险的分类、文档要求),但不采用赋予欧盟框架伦理力量的基于权利的实质内容。
  
== 7.2 中国的全球人工智能治理倡议 ==
+
=== 7.2 中国的全球人工智能治理倡议 ===
  
中国以自己的全球人工智能治理愿景回应了欧盟的监管积极性。《全球人工智能治理倡议》(全球人工智能治理倡议)由习近平主席于2023年10月宣布,倡导"以人为本"的人工智能治理方法,并呼吁各国在人工智能发展中"相互尊重、平等互利"。正如Racicot和Simpson(2024)所指出的,该倡议"应该在中国更广泛外交政策目标的背景下来看待:中国对人工智能治理的承诺服务于其地缘政治雄心,包括将自己定位为发展中国家的标准制定者。"
+
中国以自己的全球人工智能治理愿景回应了欧盟的监管积极性。《全球人工智能治理倡议》由习近平主席于2023年10月宣布,倡导"以人为本"的人工智能治理方法,并呼吁各国在人工智能发展中"相互尊重、平等互利"。正如Racicot和Simpson(2024)所指出的,该倡议"应该在中国更广泛外交政策目标的背景下来看待:中国对人工智能治理的承诺服务于其地缘政治雄心,包括将自己定位为发展中国家的标准制定者。"
  
对于高等教育而言,欧盟布鲁塞尔效应与中国全球人工智能治理倡议之间的竞争创造了一个复杂的监管格局。国际性大学——特别是那些拥有跨越欧盟和中国机构的联合项目的大学,如让·莫内卓越中心网络内的大学——必须同时驾驭两个框架。关于数据保护的相关章节(Woesler,本卷)详细探讨了双重合规的实际挑战。
+
对于高等教育而言,欧盟布鲁塞尔效应与中国全球人工智能治理倡议之间的竞争创造了一个复杂的监管格局。国际性大学——特别是那些拥有跨越欧盟和中国机构联合项目的大学,如让·莫内卓越中心网络内的大学——必须同时驾驭两个框架。关于数据保护的相关章节(Woesler,本卷)详细探讨了双重合规的实际挑战。
  
 
== 8. 走向负责任的人工智能融合:建议 ==
 
== 8. 走向负责任的人工智能融合:建议 ==

Latest revision as of 08:06, 8 April 2026

语言: EN · ZH · EN-ZH · ← 目录

第一章

高等教育中人工智能的伦理框架:欧洲监管与中国创新之间

Martin Woesler

湖南师范大学

摘要

人工智能在高等教育中的快速融合已超越了相应伦理和监管框架的发展速度。本文系统比较了欧盟《人工智能法》——世界上首部综合性人工智能立法——与中国在教育领域不断演进的行业特定人工智能治理方法。欧盟《人工智能法》将自动评分、监考和招生决策等教育人工智能应用归类为"高风险",禁止在教育环境中使用情绪识别技术,并要求所有部署者具备人工智能素养。相比之下,中国的方法结合了2023年《生成式人工智能服务管理暂行办法》、教育部指令、2025年9月起的强制性人工智能教育,以及复旦大学2026年1月政策等机构具体指南。基于EDUCAUSE 2024年人工智能状况研究、英国高等教育政策研究所(HEPI)2025年学生调查以及比较法律分析的实证数据,我们记录了两个体系中存在的显著"准备度差距":80%的教职人员使用人工智能工具,但不到四分之一的人了解其所在机构的人工智能政策。我们认为,无论是欧盟的横向权利导向方法还是中国的集中式行业特定模式,单独来看都不够充分。将欧洲的伦理严谨性与中国的实施速度相结合的综合方案,为高等教育中负责任的人工智能融合提供了最有前景的路径。

关键词:人工智能伦理、欧盟《人工智能法》、高等教育、中国人工智能治理、人工智能素养、学术诚信、监考、布鲁塞尔效应、生成式人工智能政策

1. 引言

2024年8月1日,欧盟《人工智能法》正式生效——这是世界上首部全面规范人工智能的综合性法律。对高等教育影响最为深远的条款包括:将教育人工智能系统归类为"高风险"、禁止在学校和大学中使用情绪识别技术,以及要求所有部署人工智能系统的组织确保其工作人员具备充分的人工智能素养。这些从2025年2月开始分阶段生效的条款,建立了一个在其他任何管辖区都没有先例的监管框架。

与此同时,中国走上了一条不同的道路。中国没有制定一部涵盖所有人工智能应用的横向法律,而是发展了一系列行业特定法规——2023年《生成式人工智能服务管理暂行办法》、教育部禁止提交人工智能生成学术作品的指令,以及2025年9月起在所有中小学课程中纳入人工智能教育的强制令——通过国家政策、机构指南和技术标准的结合来共同规范教育领域的人工智能应用。

本文比较了这两种人工智能教育治理方法,审视其哲学基础、实践影响以及在应对人工智能给高等教育带来的伦理挑战方面的有效性。本文通过将监管维度与人工智能语言学习、数据保护和未来大学等相关章节联系起来,为更广泛的论文集做出贡献(Woesler,本卷)。

三个问题构成了我们的研究框架。第一,欧盟和中国的监管框架如何应对人工智能在教育中的具体伦理挑战——学术诚信、监控、公平和透明度?第二,两个体系中机构准备度的现状如何?第三,每个体系能从另一个体系中学到什么?

2. 欧盟《人工智能法》与教育

2.1 高风险分类

欧盟《人工智能法》(第2024/1689号条例)建立了一个基于风险的框架,将人工智能系统分为四个等级:不可接受风险(禁止)、高风险(受监管)、有限风险(透明度义务)和最低风险(不受监管)。教育在高风险类别中占据突出位置。附件三第三节确定了四类高风险教育人工智能:用于决定教育机构准入的人工智能系统、用于评估学习成果(包括用于引导学习过程的系统)的人工智能系统、用于评估个人适当教育水平的人工智能系统,以及在考试期间监控和检测学生违禁行为的人工智能系统(European Parliament and Council 2024)。

实际后果非常重大。任何部署人工智能系统进行考试评分、推荐学习路径、确定录取或在评估期间监控学生行为的大学,都必须遵守广泛的义务:进行合规评估、维护技术文档、实施人工监督机制并确保数据质量。这些要求无论人工智能系统是内部开发还是从商业供应商采购,均同样适用。

2.2 情绪识别禁令

《人工智能法》第5条第1款第(f)项禁止在工作场所和教育机构领域推断自然人情绪的人工智能系统,除非该人工智能系统出于医疗或安全目的而投入使用。这一于2025年2月2日生效的禁令,对依靠面部表情、眼球运动和其他生物特征指标来检测考试作弊的人工智能监考系统具有直接影响。一些依赖情绪推断的商业监考平台——将紧张、分心或压力解读为学术不端的指标——可能属于该禁令的适用范围。

情绪识别禁令体现了一种独特的欧洲方法,反映了技术与人的尊严之间的关系。欧盟的立场是,无论声称的目的如何,在教育情境中监控情绪状态构成对学生心理完整性的不可接受的侵犯。这一立场源于《欧盟基本权利宪章》,该宪章保障人的尊严权(第1条)和个人数据保护权(第8条)。

2.3 人工智能素养要求

《人工智能法》第4条要求人工智能系统的提供者和部署者确保其工作人员以及代表其处理人工智能系统操作和使用的其他人员具有足够的人工智能素养水平。这一义务于2025年2月2日生效——早于该法案大多数其他条款——表明欧盟认为人工智能素养是负责任的人工智能治理的先决条件。

对于大学而言,这一要求具有双重维度。首先,作为人工智能系统的部署者(学习管理系统、自动评分工具、抄袭检测软件、监考平台),大学必须确保教职人员和行政人员具备足够的人工智能素养以负责任地使用这些工具。其次,作为教育机构,大学有更广泛的使命来培养学生的人工智能素养——这一使命虽未被《人工智能法》的素养要求明确涉及,却因之得到了加强。

实施挑战是巨大的。EDUCAUSE 2024年人工智能状况研究发现,不到四分之一的教职人员了解其所在机构的正式人工智能政策,尽管80%的人报告在工作中使用人工智能工具(EDUCAUSE 2024)。人工智能使用与人工智能意识之间的差距代表着重大的机构风险——也是对《人工智能法》素养要求的直接挑战。

3. 中国的教育人工智能治理

3.1 《生成式人工智能服务管理暂行办法》(2023年)

中国的教育人工智能治理通过国家法规、部委指令和机构政策的分层体系来运作。基础性的国家法规是《生成式人工智能服务管理暂行办法》,由国家互联网信息办公室和包括教育部在内的其他六个部门联合发布,自2023年8月15日起施行。该办法采取中国法律学者所描述的"包容审慎"方法,将发展促进与分类监管相结合(Migliorini 2024)。

在教育方面,该暂行办法包含要求生成式人工智能服务提供者防止未成年人对生成式人工智能产生"过度依赖或沉迷"的条款,并要求面向未成年人的服务满足额外的安全要求。值得注意的是,该办法包含研究豁免条款,允许高校和研究机构在不完全遵守适用于商业提供者的注册和合规要求的情况下,开发和测试生成式人工智能系统——这是对过度限制性监管可能阻碍学术研究的务实认识。

3.2 教育部指令

教育部已发布多项专门针对教育中人工智能应用的指令。最重要的是,教育部禁止学生将人工智能生成的内容作为自己的学术成果提交——这一指令虽然原则上明确,但面临着与其他管辖区相同的执行挑战。各高校以机构特定的政策补充了这一指令。

复旦大学于2026年1月成为首批发布综合性人工智能指南的中国重点大学之一,为论文写作建立了六项具体禁令:禁止使用人工智能生成或篡改原始数据、实验结果、图像或论文文本;禁止在论文审查过程中使用人工智能工具;禁止使用人工智能工具进行语言润色和论文翻译。对严重违规行为的处罚包括撤销学位(China Daily 2026)。

天津科技大学在2024年采取了不同的方法,要求本科论文中人工智能生成的内容不得超过40%——这一定量门槛原则上可衡量,但在实践中难以执行,特别是对于已被人类作者进行实质性改写的文本。

3.3 2025年9月起的强制性人工智能教育

中国最具深远影响的政策干预是自2025年9月1日起生效的要求,即将人工智能教育纳入所有中小学课程。该政策要求各年级学生(包括年仅六岁的儿童)每年至少接受八小时的人工智能教育。在小学阶段,重点是人工智能素养和接触;在初中阶段,重点是逻辑和批判性思维;在高中阶段,重点是应用创新和算法设计(Asia Education Review 2025)。

这一要求对高等教育具有深远影响,因为这意味着在数年之内,大学生将带着人工智能素养基础入学——不同于当前大多数在大学才首次接触人工智能工具的一代学生。因此,中国的大学必须准备在这一基础上继续发展,而不是从零开始,这将需要对课程进行根本性重新设计。

同时,该政策禁止小学生独立使用"开放式内容生成"工具,并禁止教师使用生成式人工智能替代核心教学活动。这种双重方法——推广人工智能素养同时限制某些人工智能用途——反映了对人工智能能力与人工智能依赖是需要不同政策应对的不同现象这一认识的细致理解。

4. 横向监管与行业特定监管

4.1 欧盟的横向方法

欧盟《人工智能法》代表了一种横向监管策略:一个涵盖所有行业(包括教育)的单一立法框架。这种方法的优势包括一致性(相同的原则适用于医疗保健、就业、执法和教育领域的人工智能)、法律确定性(组织只需理解一个框架而非多个)和全面性(没有行业会漏网)。

然而,横向监管也有缺点。《人工智能法》的条款必然是抽象的——"高风险"分类标准必须容纳从医疗诊断工具到大学录取算法等各类不同的人工智能系统。这种抽象性可能使特定行业的合规变得困难。习惯于相对非正式学术治理结构的大学,可能在实施《人工智能法》对高风险人工智能部署者要求的正式合规评估、技术文档要求和质量管理体系方面遇到困难。

4.2 中国的行业特定方法

相比之下,中国的方法以行业特定为主。中国没有制定单一的综合性人工智能法,而是发展了一系列有针对性的法规,涵盖特定的人工智能能力:2023年《深度合成管理规定》规范深度伪造,2023年《生成式人工智能暂行办法》,2022年《互联网信息服务算法推荐管理规定》,以及包括教育部在内的相关部委的行业特定指令。

正如O'Shaughnessy和Sheehan(2023)在为卡内基国际和平基金会所作的分析中所指出的:"欧盟《人工智能法》倾向于横向方法(一个覆盖所有行业的框架),而中国的算法法规则倾向于纵向方法(针对特定人工智能能力的行业特定法律)。"两种方法都面临权衡:横向监管提供一致性但可能过于模糊;纵向监管提供针对性但面临行业间的空白和重叠风险。

对于教育而言,中国行业特定方法的优势在于允许教育部发布针对教育情境的指令——例如区分人工智能在研究中的使用(广泛允许)和在考试中的使用(广泛禁止)。缺点是监管碎片化:大学管理者必须在没有单一权威框架的情况下应对多个重叠的法规。

4.3 比较评估

一项对全球人工智能监管的全面比较分析发现,"许多横向法律采取基于风险的方法,对最高风险系统施加严格义务,但各管辖区对'高风险'的定义不一致"(Royal Society Open Science 2025)。该研究确认欧盟倾向于横向的基于风险的方法,而中国倾向于针对特定用例量身定制的行业特定法律,两种方法都没有明显优势。

Chun、Schroeder de Witt和Elkins(2024)将根本区别描述为价值观的差异:"欧盟的方法以对基本权利的承诺、基于风险的分类和伦理监督为特征;中国采取集中的、国家主导的方法,将人工智能发展与国家目标和社会治理相结合。"对教育而言,这意味着欧盟监管优先保护学生权利(隐私、非歧视、人工监督),而中国监管同时优先保护学生和推进国家人工智能竞争力——这些目标可以趋同但也可能冲突。

5. 准备度差距

5.1 教职人员意识与政策执行

两个监管体系面临的最重大挑战不是监管本身是否充分,而是监管与实践之间的差距。来自多个管辖区的实证数据揭示了一个一致的模式:教职人员和学生使用人工智能工具的速度远超机构制定管理政策的速度。

EDUCAUSE 2024年人工智能状况研究基于对900多名高等教育技术专业人员的调查发现,只有23%的机构制定了与人工智能相关的可接受使用政策。近一半(48%)的受访者不同意其所在机构具有适当的人工智能伦理决策政策,54%的人不同意其所在机构具有有效的人工智能治理机制(EDUCAUSE 2024)。然而,80%的教职人员报告使用人工智能工具,不到四分之一的人了解正式的机构人工智能政策(EDUCAUSE 2024 Action Plan)。

这一差距并非美国独有。在英国,高等教育政策研究所(HEPI)2025年调查发现,92%的本科生现在以某种形式使用生成式人工智能,高于2024年的66%——年度增长幅度之大表明人工智能工具使用的快速常态化(HEPI 2025)。然而,机构政策尚未跟上这一采用速度。

5.2 中国的准备度状况

在中国,Liu等人(2025)基于政策文件分析和33名中国研究型大学教职人员的访谈,调查了人工智能的法规、技术政策和大学态度。他们发现,虽然教职人员普遍认为人工智能增强了个性化教学、研究生产力和行政效率,但他们对学术诚信、算法偏见和对技术的过度依赖表示担忧。关键的是,中国的国家主导治理模式"在大学校园中的解读和执行并不一致"——即使是集中式的指令在机构层面也执行不一(Liu et al. 2025)。

一项对中国大陆、香港和澳门人工智能监管的比较分析发现,即使在一个国家内,"不同的治理结构产生了不同的教育人工智能方法"——表明监管碎片化不仅存在于欧盟和中国之间,也存在于中国内部(Liu et al. 2025b)。

5.3 新兴的机构应对

尽管存在准备度差距,一些机构正在开发创新的应对措施。在奥地利,HEAT-AI(高等教育人工智能法案)框架由一所应用科技大学开发,将高等教育中的人工智能应用分为四个风险级别(与欧盟《人工智能法》相对应)——不可接受、高、有限和最低风险——并为每个类别提供机构特定的指导(Temper、Tjoa和David 2025)。该框架于2024年9月上线,代表了将《人工智能法》的抽象条款转化为具体机构实践的尝试。

一项对新兴生成式人工智能政策的全球研究发现,"只有略超过一半的被调查机构拥有可公开访问的生成式人工智能指南,大多数机构在机构层面缺乏正式政策"(Aristombayeva et al. 2025)。针对学生和教职人员的政策比针对研究人员的政策更为普遍——这一差距对于人工智能在研究过程中被广泛使用的研究型大学尤为重要。

6. 监控与支持:监考辩论

6.1 欧盟框架下的人工智能监考

欧盟《人工智能法》将在考试期间监控学生行为的人工智能系统归类为"高风险",加上情绪识别禁令,创造了一个比其他任何管辖区都更为严格的监管环境。依赖面部表情分析、视线追踪或按键动态来推断作弊行为的人工智能监考系统,必须遵守《人工智能法》对高风险系统的全部义务——如果涉及情绪推断,则可能被完全禁止。

一项对基于人工智能的监考系统的系统性综述确定了安全和隐私问题、伦理问题、对人工智能技术的信任、用户培训不足以及成本等主要问题(Nigam et al. 2021)。该综述指出,"与基于人工智能的监考系统相关的安全问题正在成倍增加,这是一个合理的关切。"这些担忧与欧盟的预防性方法相一致。

6.2 中国教育中的人工智能监控

在中国,教育中人工智能监控的方法截然不同。一项对高等教育中人工智能隐私问题的比较分析发现,"西方媒体突出个人隐私权和远程考试监控中的争议,而中国的报道更多地涉及人工智能驱动的教育创新"(Xue et al. 2025)。中国一些大学的人工智能监控系统——监控学生行为、课堂参与度甚至面部表情——引发了国内辩论,但监管框架比欧盟更为宽松。

这种对比反映了关于个人隐私与集体利益之间关系的根本不同的文化和法律传统。在欧盟框架中,学生监控是一种必须以迫切必要性来证明其正当性并受比例原则约束的侵入行为。在中国框架中,只要监控服务于机构和国家目标,就更容易被接受为教育管理的一个组成部分。

6.3 教育学问题

除了法律和文化层面,监考辩论还提出了一个根本性的教育学问题:在考试期间监控学生行为究竟是改善了教育成果,还是仅仅优化了合规性,同时破坏了信任、内在动机以及学术诚信作为个人价值观的培养?

答案可能取决于具体情境。在作弊后果严重的大规模标准化评估中(如专业执照考试、大学入学考试),某种形式的监控可能是合理的。在旨在支持学习而非认证能力的形成性评估中,监控可能适得其反——将师生之间的教育信任关系替换为一种监控关系,从而破坏了它声称要保护的价值观。

7. "布鲁塞尔效应"与全球人工智能治理

7.1 人工智能监管中的布鲁塞尔效应

"布鲁塞尔效应"的概念由Anu Bradford(2020)提出理论化阐释,描述了欧盟通过严格的国内监管单方面规范全球市场的能力——跨国公司出于成本效率而在全球范围内采用这些标准。《人工智能法》是否会产生布鲁塞尔效应是一个活跃的辩论话题。

Siegmann和Anderljung(2022)认为,"欧盟人工智能监管制度的部分内容很可能产生事实上和法律上的布鲁塞尔效应",特别是对于其人工智能系统被归类为高风险的美国大型科技公司。对教育而言,这意味着全球公司(Microsoft、Google、OpenAI)为欧洲大学开发的人工智能工具可能被设计为符合《人工智能法》的要求——这些合规特性可能被出口到包括中国在内的其他市场。

然而,Almada和Radu(2024)警告说,《人工智能法》也可能产生"布鲁塞尔副效应":其他管辖区可能采用监管形式(基于风险的分类、文档要求),但不采用赋予欧盟框架伦理力量的基于权利的实质内容。

7.2 中国的全球人工智能治理倡议

中国以自己的全球人工智能治理愿景回应了欧盟的监管积极性。《全球人工智能治理倡议》由习近平主席于2023年10月宣布,倡导"以人为本"的人工智能治理方法,并呼吁各国在人工智能发展中"相互尊重、平等互利"。正如Racicot和Simpson(2024)所指出的,该倡议"应该在中国更广泛外交政策目标的背景下来看待:中国对人工智能治理的承诺服务于其地缘政治雄心,包括将自己定位为发展中国家的标准制定者。"

对于高等教育而言,欧盟布鲁塞尔效应与中国全球人工智能治理倡议之间的竞争创造了一个复杂的监管格局。国际性大学——特别是那些拥有跨越欧盟和中国机构联合项目的大学,如让·莫内卓越中心网络内的大学——必须同时驾驭两个框架。关于数据保护的相关章节(Woesler,本卷)详细探讨了双重合规的实际挑战。

8. 走向负责任的人工智能融合:建议

基于本文提出的比较分析,我们为正在驾驭新兴人工智能治理格局的大学提供以下建议。

第一,制定将抽象监管要求转化为教职人员和学生具体指导的机构特定人工智能政策。HEAT-AI框架(Temper、Tjoa和David 2025)为寻求在机构层面实施基于风险的人工智能治理的机构提供了有用的模式。

第二,将人工智能素养作为核心机构能力进行投资——不仅面向学生,也面向教职人员和行政人员。欧盟《人工智能法》的素养要求(第4条)提供了监管动力,但教育学上的紧迫性独立于监管之外:不了解学生使用的人工智能工具的教职人员无法有效地教学或评估。

第三,区分研究领域的人工智能治理和评估领域的人工智能治理。中国的方法广泛允许在研究中使用人工智能,同时在考试和论文中加以限制,提供了一种务实的区分方式,欧洲机构将从采纳中获益。研究和评估服务于不同的目的,面临不同的风险;单一的人工智能政策无法充分解决两者的问题。

第四,设计评估方法来评价人类独特的贡献——批判性分析、原创思维、创造性综合、伦理推理——而不是依赖准确性受到质疑且可能破坏师生信任的人工智能检测工具。

第五,参与跨境对话。欧盟-中国的比较揭示了每个体系都发展出了另一个体系所缺乏的洞见。欧洲机构可以从中国的实施速度以及将人工智能能力融入所有学科的做法中学习。中国机构可以从欧盟对伦理框架、教职人员治理和学生权利保护的强调中学习。联合项目、交流访问和合作研究——如让·莫内卓越中心项目所促进的——为这一对话提供了具体机制。

9. 结论

高等教育中人工智能的治理是一项尚未被任何单一监管框架充分应对的挑战。欧盟《人工智能法》提供了最全面的法律框架,但其抽象条款需要机构层面的转化,且其实施面临显著的准备度差距。中国的行业特定方法为教育情境提供了更有针对性的指导,但其有效性取决于一致的机构执行,且面临跨监管工具碎片化的风险。

最有前景的前进道路结合了两种方法的要素:欧盟对基本权利、基于风险的分类和伦理监督的承诺;以及中国大规模推行人工智能素养的意愿、在研究与评估情境之间的务实区分以及机构适应速度。两个体系都不可能从对方身上学到一切——文化、政治和法律差异太过深刻。但每个体系都可以学到一些东西,它们之间的对话本身就是对负责任地治理教育中人工智能这一全球挑战的宝贵贡献。

正如联合国教科文组织的《生成式人工智能在教育和研究中的指导》(Miao和Holmes 2023)提醒我们的:"大多数国家缺乏国家层面的生成式人工智能法规,使用户数据隐私得不到保护,教育机构在很大程度上缺乏准备。"欧盟和中国是少数已经从这种缺失走向实质性治理框架的管辖区。它们的经验——无论是成功还是失败——将塑造世界其他地区应对高等教育中人工智能挑战的方式。

致谢

本研究得到了让·莫内卓越中心"欧盟研究中心:中欧数字化"(EUSC-DEC)的支持,由欧盟资助协议编号101126782提供资金。所表达的观点和意见仅代表作者本人,不一定反映欧盟的立场。

[REF] 参考文献

[REF] Almada, M., & Radu, A. (2024). The Brussels Side-Effect: How the AI Act can reduce the global reach of EU policy. German Law Journal, 25, 646–663.

[REF] Aristombayeva, M., Satybaldiyeva, R., Maung, B. M., & Lee, D. (2025). Guiding the uncharted: The emerging (and missing) policies on generative AI in higher education. Frontiers in Education, 10. DOI: 10.3389/feduc.2025.1644081.

[REF] Asia Education Review. (2025). China makes AI education mandatory in schools starting September 2025.

[REF] Bradford, A. (2020). The Brussels Effect: How the European Union Rules the World. Oxford University Press.

[REF] China Daily. (2026, January 12). Fudan University sets AI education guidelines.

[REF] Chun, J., Schroeder de Witt, C., & Elkins, K. (2024). Comparative global AI regulation: Policy perspectives from the EU, China, and the US. arXiv preprint, arXiv:2410.21279.

[REF] Migliorini, S. (2024). China's Interim Measures on generative AI: Origin, content and significance. Computer Law and Security Review, 53, Article 105992.

[REF] Xue, Y., Chinapah, V., & Zhu, C. (2025). A Comparative Analysis of AI Privacy Concerns in Higher Education: News Coverage in China and Western Countries. Education Sciences, 15(6), 650. DOI: 10.3390/educsci15060650

[REF] Robert, J., & McCormack, M. (2024). 2024 EDUCAUSE AI Landscape Study. EDUCAUSE.

[REF] EDUCAUSE. (2024). 2024 EDUCAUSE Action Plan: AI Policies and Guidelines.

[REF] European Parliament and Council of the European Union. (2024). Regulation (EU) 2024/1689 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union.

[REF] Freeman, J. (2025). Student Generative AI Survey 2025. HEPI Policy Note 61. Higher Education Policy Institute.

[REF] Liu, X., et al. (2025). Regulations, technology policies and universities' attitudes to artificial intelligence in China. Higher Education Quarterly, 79(4). DOI: 10.1111/hequ.70055.

[REF] Miao, F., & Holmes, W. (2023). Guidance for Generative AI in Education and Research. UNESCO: Paris.

[REF] Nigam, A., Pasricha, R., Singh, T., & Churi, P. (2021). A systematic review on AI-based proctoring systems. Education and Information Technologies, 26, 6421–6445.

[REF] O'Shaughnessy, M., & Sheehan, M. (2023). Lessons from the world's two experiments in AI governance. Carnegie Endowment for International Peace.

[REF] Racicot, R., & Simpson, K. H. (2024). China's AI Governance Initiative and its geopolitical ambitions. Centre for International Governance Innovation (CIGI).

[REF] Roberts, H., Cowls, J., Morley, J., Taddeo, M., Wang, V., & Floridi, L. (2021). The Chinese approach to artificial intelligence: An analysis of policy, ethics, and regulation. AI and Society, 36, 59–77.

[REF] Hilliard, A., Gulley, A., Kazim, E., & Koshiyama, A. (2026). Artificial intelligence policy worldwide: A comparative analysis. Royal Society Open Science, 13(2), 242234. DOI: 10.1098/rsos.242234.

[REF] Siegmann, C., & Anderljung, M. (2022). The Brussels Effect and Artificial Intelligence. arXiv preprint, arXiv:2208.12645.

[REF] Temper, M., Tjoa, S., & David, L. (2025). Higher Education Act for AI (HEAT-AI): A framework to regulate the usage of AI in higher education institutions. Frontiers in Education, 10. DOI: 10.3389/feduc.2025.1505370.

[REF] Woesler, M. (this volume). Learning a foreign language with and without AI: An empirical comparative study.

[REF] Woesler, M. (this volume). Student data protection in the digital university: GDPR and China's PIPL compared.

[REF] Woesler, M. (this volume). University of the future: AI-enhanced higher education between European humanism and Chinese innovation.

第一部分:基础与框架(续)