Rethinking Higher Education/de/Chapter 1

From China Studies Wiki
Jump to navigation Jump to search

Sprache: DE · EN · ZH · ← Buch

Ethische Rahmenbedingungen für KI in der Hochschulbildung: Zwischen europäischer Regulierung und chinesischer Innovation

Martin Woesler

Hunan-Normaluniversität

Zusammenfassung

Die rasche Integration Künstlicher Intelligenz in die Hochschulbildung hat die Entwicklung ethischer und regulatorischer Rahmenwerke zu ihrer Steuerung überholt. Dieser Artikel bietet einen systematischen Vergleich der KI-Verordnung der Europäischen Union (EU AI Act) – der weltweit ersten umfassenden KI-Gesetzgebung – und Chinas sich entwickelndem sektorspezifischen Ansatz zur KI-Governance in der Bildung. Die EU-KI-Verordnung stuft KI-Anwendungen im Bildungsbereich wie automatisierte Benotung, Prüfungsüberwachung und Zulassungsentscheidungen als „hochriskant" ein, verbietet Emotionserkennung in Bildungseinrichtungen und schreibt KI-Kompetenz für alle Anwender vor. Chinas Ansatz hingegen kombiniert die Übergangsmaßnahmen für generative KI-Dienste von 2023 mit Richtlinien des Bildungsministeriums, obligatorischer KI-Bildung ab September 2025 und institutionsspezifischen Leitlinien wie der Richtlinie der Fudan-Universität vom Januar 2026. Auf der Grundlage empirischer Daten der EDUCAUSE 2024 AI Landscape Study, der HEPI 2025 UK-Studierendenbefragung und vergleichender Rechtsanalysen dokumentieren wir eine erhebliche „Bereitschaftslücke" in beiden Systemen: 80 Prozent der Lehrenden nutzen KI-Werkzeuge, doch weniger als einer von vier kennt die KI-Richtlinie seiner Einrichtung. Wir argumentieren, dass weder der horizontale, rechtebasierte Ansatz der EU noch Chinas zentralisiertes, sektorspezifisches Modell allein ausreichend ist. Eine Synthese, die europäische ethische Strenge mit chinesischer Umsetzungsgeschwindigkeit verbindet, bietet den vielversprechendsten Weg zu einer verantwortungsvollen KI-Integration in der Hochschulbildung.

Schlüsselwörter: KI-Ethik, EU-KI-Verordnung, Hochschulbildung, Chinas KI-Governance, KI-Kompetenz, akademische Integrität, Prüfungsüberwachung, Brüssel-Effekt, Generative-KI-Richtlinien

1. Einleitung

Am 1. August 2024 trat die Verordnung über Künstliche Intelligenz der Europäischen Union in Kraft – die weltweit erste umfassende Gesetzgebung zur Regulierung Künstlicher Intelligenz. Zu ihren folgenreichsten Bestimmungen für die Hochschulbildung gehören die Einstufung von KI-Systemen im Bildungsbereich als „hochriskant", das Verbot der Emotionserkennung an Schulen und Universitäten sowie die Vorgabe, dass alle Organisationen, die KI-Systeme einsetzen, eine angemessene KI-Kompetenz ihres Personals sicherstellen müssen. Diese Bestimmungen, die ab Februar 2025 stufenweise in Kraft traten, schaffen einen regulatorischen Rahmen ohne Vorbild in einer anderen Rechtsordnung.

Gleichzeitig hat China einen anderen Weg eingeschlagen. Anstatt eines einzigen horizontalen Gesetzes zur Regelung aller KI-Anwendungen hat China eine Reihe sektorspezifischer Verordnungen entwickelt – die Übergangsmaßnahmen zur Verwaltung generativer KI-Dienste von 2023, Richtlinien des Bildungsministeriums, die das Einreichen von KI-generierten akademischen Arbeiten untersagen, sowie das Mandat für KI-Bildung an allen Grund- und weiterführenden Schulen ab September 2025 –, die zusammen die KI in der Bildung durch eine Kombination aus nationaler Politik, institutionellen Leitlinien und technischen Standards regeln.

Dieser Artikel vergleicht diese beiden Ansätze der KI-Governance in der Bildung, untersucht ihre philosophischen Grundlagen, praktischen Implikationen und Wirksamkeit bei der Bewältigung der ethischen Herausforderungen, die KI für die Hochschulbildung darstellt. Er trägt zum umfassenderen Anthologieprojekt bei, indem er die regulatorische Dimension mit den begleitenden Kapiteln über KI im Sprachlernen, Datenschutz und die Universität der Zukunft verbindet (Woesler, in diesem Band).

Drei Fragen strukturieren unsere Untersuchung. Erstens: Wie gehen die regulatorischen Rahmenwerke der EU und Chinas mit den spezifischen ethischen Herausforderungen von KI in der Bildung um – akademische Integrität, Überwachung, Fairness und Transparenz? Zweitens: Wie steht es um die institutionelle Bereitschaft für KI-Governance in beiden Systemen? Drittens: Was kann jedes System vom anderen lernen?

2. Die EU-KI-Verordnung und Bildung

2.1 Hochrisiko-Einstufung

Die EU-KI-Verordnung (Verordnung 2024/1689) schafft ein risikobasiertes Rahmenwerk, das KI-Systeme in vier Stufen einteilt: inakzeptables Risiko (verboten), hohes Risiko (reguliert), begrenztes Risiko (Transparenzpflichten) und minimales Risiko (unreguliert). Bildung nimmt in der Hochrisiko-Kategorie eine herausragende Stellung ein. Anhang III, Abschnitt 3 identifiziert vier Kategorien von Bildungs-KI als hochriskant: KI-Systeme zur Bestimmung des Zugangs zu Bildungseinrichtungen, KI-Systeme zur Bewertung von Lernergebnissen einschließlich Systemen zur Steuerung des Lernprozesses, KI-Systeme zur Beurteilung des angemessenen Bildungsniveaus einer Person und KI-Systeme zur Überwachung und Erkennung von unerlaubtem Verhalten von Studierenden bei Prüfungen (Europäisches Parlament und Rat 2024).

Die praktischen Konsequenzen sind erheblich. Jede Universität, die ein KI-System einsetzt, das Prüfungen bewertet, Studienpfade empfiehlt, Zulassungsentscheidungen trifft oder das Verhalten von Studierenden bei Prüfungen überwacht, muss umfangreiche Pflichten erfüllen: Konformitätsbewertungen durchführen, technische Dokumentation erstellen, Mechanismen der menschlichen Aufsicht implementieren und Datenqualität sicherstellen. Diese Anforderungen gelten unabhängig davon, ob das KI-System hausintern entwickelt oder von einem kommerziellen Anbieter beschafft wurde.

2.2 Das Verbot der Emotionserkennung

Artikel 5 Absatz 1 Buchstabe f der KI-Verordnung verbietet KI-Systeme, die Emotionen natürlicher Personen in Arbeitsumgebungen und Bildungseinrichtungen ableiten, es sei denn, das KI-System ist für medizinische oder sicherheitsrelevante Zwecke bestimmt. Dieses Verbot, das am 2. Februar 2025 in Kraft trat, hat direkte Auswirkungen auf KI-gestützte Prüfungsüberwachungssysteme, die Gesichtsausdrücke, Augenbewegungen und andere biometrische Indikatoren überwachen, um Täuschungsversuche bei Prüfungen zu erkennen. Mehrere kommerzielle Prüfungsüberwachungsplattformen, die auf Emotionsinferenz angewiesen sind – also Nervosität, Ablenkung oder Stress als Indikatoren für akademisches Fehlverhalten interpretieren – könnten in den Anwendungsbereich dieses Verbots fallen.

Das Verbot der Emotionserkennung spiegelt einen spezifisch europäischen Ansatz in Bezug auf das Verhältnis von Technologie und menschlicher Würde wider. Die Position der EU besagt, dass die Überwachung emotionaler Zustände in Bildungskontexten einen inakzeptablen Eingriff in die psychische Integrität der Studierenden darstellt, ungeachtet des erklärten Zwecks. Diese Position wird durch die Charta der Grundrechte der Europäischen Union gestützt, die das Recht auf Menschenwürde (Artikel 1) und das Recht auf Schutz personenbezogener Daten (Artikel 8) garantiert.

2.3 Die KI-Kompetenzvorgabe

Artikel 4 der KI-Verordnung verlangt, dass Anbieter und Betreiber von KI-Systemen sicherstellen, dass ihr Personal und andere Personen, die mit dem Betrieb und der Nutzung von KI-Systemen in ihrem Auftrag befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen. Diese Verpflichtung trat am 2. Februar 2025 in Kraft – vor den meisten anderen Bestimmungen der Verordnung –, was die Auffassung der EU signalisiert, dass KI-Kompetenz eine Voraussetzung für verantwortungsvolle KI-Governance ist.

Für Universitäten hat dieses Mandat zwei Dimensionen. Erstens müssen Universitäten als Betreiber von KI-Systemen (Lernmanagementsysteme, automatisierte Bewertungstools, Plagiatserkennung, Prüfungsüberwachungsplattformen) sicherstellen, dass Lehrende und Verwaltungspersonal über angemessene KI-Kompetenz verfügen, um diese Werkzeuge verantwortungsvoll einzusetzen. Zweitens haben Universitäten als Bildungseinrichtungen eine weitergehende Aufgabe, KI-Kompetenz bei ihren Studierenden zu entwickeln – eine Aufgabe, die das KI-Kompetenzmandat der KI-Verordnung verstärkt, ohne sie ausdrücklich zu adressieren.

Die Umsetzungsherausforderung ist beträchtlich. Die EDUCAUSE 2024 AI Landscape Study ergab, dass weniger als einer von vier Lehrenden und Mitarbeitern die formelle KI-Richtlinie ihrer Einrichtung kannte, obwohl 80 Prozent angaben, KI-Werkzeuge bei ihrer Arbeit zu nutzen (EDUCAUSE 2024). Diese Kluft zwischen KI-Nutzung und KI-Bewusstsein stellt ein erhebliches institutionelles Risiko dar – und eine direkte Herausforderung für das KI-Kompetenzmandat der KI-Verordnung.

3. Chinas KI-Governance für die Bildung

3.1 Die Übergangsmaßnahmen für generative KI (2023)

Chinas Ansatz zur KI-Governance in der Bildung operiert durch ein geschichtetes System aus nationalen Verordnungen, ministeriellen Richtlinien und institutionellen Regelungen. Die grundlegende nationale Verordnung sind die Übergangsmaßnahmen zur Verwaltung generativer KI-Dienste (生成式人工智能服务管理暂行办法), die gemeinsam von der Cyberspace-Verwaltung Chinas und sechs weiteren Behörden einschließlich des Bildungsministeriums erlassen wurden und seit dem 15. August 2023 gelten. Die Maßnahmen verfolgen einen von chinesischen Rechtswissenschaftlern als „inklusive Vorsicht" (包容审慎) beschriebenen Ansatz, der Entwicklungsförderung mit differenzierter Aufsicht verbindet (Migliorini 2024).

Speziell für den Bildungsbereich enthalten die Übergangsmaßnahmen Bestimmungen, die Anbieter generativer KI-Dienste verpflichten, zu verhindern, dass Minderjährige eine „übermäßige Abhängigkeit von oder Sucht nach" generativer KI entwickeln, und dass Dienste, die sich an Minderjährige richten, zusätzliche Sicherheitsanforderungen erfüllen. Bemerkenswert ist, dass die Maßnahmen eine Forschungsausnahme enthalten, die es Universitäten und Forschungsinstituten erlaubt, generative KI-Systeme ohne die vollständigen Registrierungs- und Compliance-Anforderungen für kommerzielle Anbieter zu entwickeln und zu testen – eine pragmatische Anerkennung, dass eine übermäßig restriktive Regulierung die akademische Forschung behindern könnte.

3.2 Richtlinien des Bildungsministeriums

Das Bildungsministerium hat mehrere Richtlinien speziell zur KI in der Bildung erlassen. Am bedeutsamsten hat das Ministerium es Studierenden untersagt, KI-generierte Inhalte als eigene akademische Arbeit einzureichen – eine Richtlinie, die zwar im Prinzip klar, aber mit denselben Durchsetzungsproblemen konfrontiert ist wie in anderen Rechtsordnungen. Einzelne Universitäten haben diese Richtlinie durch institutionsspezifische Regelungen ergänzt.

Die Fudan-Universität wurde im Januar 2026 zu einer der ersten großen chinesischen Universitäten, die umfassende KI-Richtlinien herausgab und sechs spezifische Verbote für die Anfertigung von Abschlussarbeiten festlegte: das Verbot der Nutzung von KI zur Generierung oder Veränderung originaler Daten, experimenteller Ergebnisse, Abbildungen oder Abschlussarbeitstexte; das Verbot von KI-Werkzeugen im Begutachtungsprozess von Abschlussarbeiten; und das Verbot von KI-Werkzeugen für sprachliche Überarbeitung und Übersetzung von Abschlussarbeiten. Bei schwerwiegenden Verstößen droht die Aberkennung des akademischen Grades (China Daily 2026).

Die Tianjin-Universität für Wissenschaft und Technologie (天津科技大学) verfolgte 2024 einen anderen Ansatz und verfügte, dass der Anteil KI-generierter Inhalte in Bachelorarbeiten 40 Prozent nicht überschreiten darf – eine quantitative Schwelle, die im Prinzip messbar, aber in der Praxis schwer durchsetzbar ist, insbesondere bei Texten, die von ihren menschlichen Verfassern grundlegend überarbeitet wurden.

3.3 Obligatorische KI-Bildung ab September 2025

Chinas weitreichendste politische Intervention ist das Mandat, das ab 1. September 2025 KI-Bildung in allen Lehrplänen der Grund- und weiterführenden Schulen vorschreibt. Die Politik verlangt mindestens acht Stunden KI-Bildung jährlich für Schülerinnen und Schüler aller Jahrgangsstufen, einschließlich Kinder ab sechs Jahren. Auf der Primarstufenebene liegt der Schwerpunkt auf KI-Kompetenz und Einführung; auf der Sekundarstufenebene I auf Logik und kritischem Denken; und auf der Sekundarstufenebene II auf angewandter Innovation und Algorithmendesign (Asia Education Review 2025).

Dieses Mandat hat Implikationen für die Hochschulbildung, da es bedeutet, dass innerhalb weniger Jahre Studierende mit einer Grundlage in KI-Kompetenz an die Universitäten kommen werden – anders als die heutige Generation, die KI-Werkzeuge meist erstmals an der Universität kennenlernt. Chinesische Universitäten müssen sich daher darauf vorbereiten, auf dieser Grundlage aufzubauen, statt bei null zu beginnen, was eine grundlegende Neugestaltung der Curricula erfordern wird.

Gleichzeitig verbietet die Politik den Grundschülern die eigenständige Nutzung von „offenen Inhaltsgenerierungswerkzeugen" und untersagt Lehrkräften die Nutzung generativer KI als Ersatz für zentrale Lehraufgaben. Dieser duale Ansatz – Förderung der KI-Kompetenz bei gleichzeitiger Einschränkung bestimmter KI-Nutzungen – spiegelt ein differenziertes Verständnis wider, dass KI-Kompetenz und KI-Abhängigkeit unterschiedliche Phänomene sind, die unterschiedlicher politischer Antworten bedürfen.

4. Horizontale versus sektorspezifische Regulierung

4.1 Der horizontale Ansatz der EU

Die EU-KI-Verordnung repräsentiert eine horizontale Regulierungsstrategie: ein einziger gesetzlicher Rahmen für die Regelung von KI in allen Sektoren, einschließlich der Bildung. Die Vorteile dieses Ansatzes umfassen Konsistenz (dieselben Grundsätze gelten für KI im Gesundheitswesen, im Beschäftigungsbereich, bei der Strafverfolgung und in der Bildung), Rechtssicherheit (Organisationen müssen ein Rahmenwerk verstehen statt vieler) und Vollständigkeit (kein Sektor fällt durch die regulatorischen Maschen).

Allerdings hat die horizontale Regulierung auch Nachteile. Die Bestimmungen der KI-Verordnung sind notwendigerweise abstrakt – die Kriterien für die „Hochrisiko"-Einstufung müssen KI-Systeme von so unterschiedlicher Art wie medizinische Diagnosewerkzeuge und Universitätszulassungsalgorithmen erfassen. Diese Abstraktion kann die Compliance für bestimmte Sektoren erschweren. Universitäten, die an die relativ informellen Governance-Strukturen des akademischen Lebens gewöhnt sind, könnten Schwierigkeiten haben, die formellen Konformitätsbewertungen, technischen Dokumentationsanforderungen und Qualitätsmanagementsysteme umzusetzen, die die KI-Verordnung von Betreibern von Hochrisiko-KI verlangt.

4.2 Chinas sektorspezifischer Ansatz

Chinas Ansatz ist dagegen vorwiegend sektorspezifisch. Statt eines einzigen umfassenden KI-Gesetzes hat China eine Reihe zielgerichteter Verordnungen entwickelt, die spezifische KI-Fähigkeiten adressieren: die Deep-Synthesis-Bestimmungen (2023) zur Regulierung von Deepfakes, die Übergangsmaßnahmen für generative KI (2023), die Bestimmungen zur Verwaltung algorithmischer Empfehlungen (2022) und sektorspezifische Richtlinien der zuständigen Ministerien einschließlich des Bildungsministeriums.

Wie O'Shaughnessy und Sheehan (2023) in ihrer Analyse für die Carnegie-Stiftung für internationalen Frieden feststellen, „tendiert die KI-Verordnung der EU zu einem horizontalen Ansatz (ein Rahmenwerk für alle Sektoren), während Chinas Algorithmen-Regulierungen vertikal ausgerichtet sind (sektorspezifische Gesetze für spezifische KI-Fähigkeiten)." Beide Ansätze haben Vor- und Nachteile: Horizontale Regulierung bietet Konsistenz, läuft aber Gefahr, zu vage zu sein; vertikale Regulierung bietet Spezifität, riskiert aber Lücken und Überschneidungen zwischen Sektoren.

Für den Bildungsbereich speziell hat Chinas sektorspezifischer Ansatz den Vorteil, dass das Bildungsministerium auf Bildungskontexte zugeschnittene Richtlinien erlassen kann – die beispielsweise zwischen KI-Nutzung in der Forschung (weitgehend erlaubt) und KI-Nutzung bei Prüfungen (weitgehend verboten) unterscheiden. Der Nachteil ist regulatorische Fragmentierung: Universitätsverwaltungen müssen mehrere sich überschneidende Regulierungen navigieren, ohne ein einziges verbindliches Rahmenwerk.

4.3 Vergleichende Bewertung

Eine umfassende vergleichende Analyse globaler KI-Regulierung ergab, dass „viele horizontale Gesetze einen risikobasierten Ansatz mit strengen Verpflichtungen für Höchstrisikosysteme verfolgen, obwohl die Definitionen von ‚Hochrisiko' zwischen den Rechtsordnungen uneinheitlich sind" (Royal Society Open Science 2025). Die Studie bestätigte, dass die EU einen horizontalen risikobasierten Ansatz bevorzugt, während China sektorspezifische, auf spezifische Anwendungsfälle zugeschnittene Gesetze bevorzugt hat, wobei keiner der beiden Ansätze klar überlegen ist.

Chun, Schroeder de Witt und Elkins (2024) charakterisieren den grundlegenden Unterschied als einen der Werte: „Der Ansatz der EU zeichnet sich durch ein Bekenntnis zu Grundrechten, risikobasierter Kategorisierung und ethischer Aufsicht aus; China verfolgt einen zentralisierten, staatsgelenkten Ansatz, der KI-Entwicklung mit nationalen Zielen und gesellschaftlicher Steuerung integriert." Für die Bildung bedeutet dies, dass die EU-Regulierung den Schutz der Rechte der Studierenden priorisiert (Privatsphäre, Nichtdiskriminierung, menschliche Aufsicht), während die chinesische Regulierung sowohl den Schutz der Studierenden als auch die Förderung der nationalen KI-Wettbewerbsfähigkeit priorisiert – Ziele, die konvergieren, aber auch in Konflikt geraten können.

5. Die Bereitschaftslücke

5.1 Bewusstsein des Lehrpersonals und Umsetzung von Richtlinien

Die größte Herausforderung für beide Regulierungssysteme liegt nicht in der Angemessenheit der Regulierung selbst, sondern in der Kluft zwischen Regulierung und Praxis. Empirische Daten aus mehreren Rechtsordnungen zeigen ein konsistentes Muster: Lehrende und Studierende nutzen KI-Werkzeuge weit schneller, als Institutionen Richtlinien zu ihrer Steuerung entwickeln.

Die EDUCAUSE 2024 AI Landscape Study, basierend auf einer Befragung von über 900 Technologieexperten im Hochschulbereich, ergab, dass nur 23 Prozent der Einrichtungen KI-bezogene Nutzungsrichtlinien implementiert hatten. Fast die Hälfte (48 Prozent) der Befragten waren der Meinung, dass ihre Einrichtung keine angemessenen KI-Richtlinien für ethische Entscheidungsfindung hat, und 54 Prozent verneinten das Vorhandensein eines wirksamen KI-Governance-Mechanismus (EDUCAUSE 2024). Dennoch gaben 80 Prozent der Lehrenden und Mitarbeiter an, KI-Werkzeuge zu nutzen, und weniger als einer von vier kannte eine formelle institutionelle KI-Richtlinie (EDUCAUSE 2024 Action Plan).

Diese Lücke ist nicht auf die USA beschränkt. Im Vereinigten Königreich ergab die HEPI-Studie (Higher Education Policy Institute) 2025, dass 92 Prozent der Studierenden im Bachelorstudium inzwischen generative KI in irgendeiner Form nutzen, gegenüber 66 Prozent im Jahr 2024 – ein dramatischer Anstieg von Jahr zu Jahr, der die rasche Normalisierung der KI-Werkzeugnutzung belegt (HEPI 2025). Doch die institutionellen Richtlinien sind mit dieser Verbreitung nicht Schritt gehalten.

5.2 Die chinesische Bereitschaftslandschaft

In China untersuchten Liu et al. (2025) Vorschriften, Technologierichtlinien und universitäre Einstellungen zur KI auf der Grundlage von Politikdokumentanalysen und 33 Interviews mit Lehrenden an chinesischen Forschungsuniversitäten. Sie fanden heraus, dass Lehrende KI generell als Verbesserung von Personalisierung, Forschungsproduktivität und Verwaltungseffizienz betrachten, aber Bedenken hinsichtlich akademischer Integrität, algorithmischer Voreingenommenheit und übermäßiger Abhängigkeit von Technologie äußern. Entscheidend ist, dass Chinas staatlich gelenktes Governance-Modell „auf den Universitätscampus uneinheitlich interpretiert und umgesetzt wird" – selbst zentrale Richtlinien werden auf institutioneller Ebene inkonsistent implementiert (Liu et al. 2025).

Eine vergleichende Analyse der KI-Regulierung im Festland-China, Hongkong und Macau ergab, dass selbst innerhalb eines Landes „unterschiedliche Governance-Strukturen divergierende Ansätze für KI in der Bildung hervorbringen" – was zeigt, dass regulatorische Fragmentierung nicht nur zwischen EU und China, sondern auch innerhalb Chinas selbst besteht (Liu et al. 2025b).

5.3 Aufkommende institutionelle Antworten

Trotz der Bereitschaftslücke entwickeln einige Institutionen innovative Antworten. In Österreich kategorisiert das HEAT-AI-Rahmenwerk (Higher Education Act for AI), das an einer Fachhochschule entwickelt wurde, KI-Anwendungen in der Hochschulbildung in vier Risikostufen, die die EU-KI-Verordnung widerspiegeln – inakzeptabel, hoch, begrenzt und minimal –, und bietet institutionsspezifische Leitlinien für jede Kategorie (Temper, Tjoa und David 2025). Das Rahmenwerk ging im September 2024 an den Start und stellt einen Versuch dar, die abstrakten Bestimmungen der KI-Verordnung in konkrete institutionelle Praxis umzusetzen.

Eine globale Studie zu aufkommenden GenAI-Richtlinien ergab, dass „nur etwas mehr als die Hälfte der untersuchten Einrichtungen öffentlich zugängliche GenAI-Leitlinien hatte, wobei die meisten keine formelle Richtlinie auf institutioneller Ebene besaßen" (Aristombayeva et al. 2025). Richtlinien, die sich an Studierende und Lehrende richten, sind verbreiteter als solche für Forschende – eine Lücke, die für Forschungsuniversitäten, an denen KI extensiv im Forschungsprozess eingesetzt wird, besonders bedeutsam ist.

6. Überwachung versus Unterstützung: Die Debatte um die Prüfungsüberwachung

6.1 KI-Prüfungsüberwachung im EU-Rahmen

Die Einstufung von KI-Systemen, die das Verhalten von Studierenden bei Prüfungen überwachen, als „hochriskant" durch die EU-KI-Verordnung schafft in Kombination mit dem Verbot der Emotionserkennung ein regulatorisches Umfeld, das deutlich restriktiver ist als in jeder anderen Rechtsordnung. KI-Prüfungsüberwachungssysteme, die auf der Analyse von Gesichtsausdrücken, Blickverfolgung oder Tastendynamik basieren, um Betrug zu erkennen, müssen die gesamten Hochrisiko-Anforderungen der Verordnung erfüllen – oder, wenn sie Emotionsinferenz beinhalten, sind möglicherweise vollständig verboten.

Eine systematische Übersicht über KI-basierte Prüfungsüberwachungssysteme identifizierte Sicherheits- und Datenschutzbedenken, ethische Bedenken, Vertrauen in KI-basierte Technologie, mangelnde Schulung der Nutzer und Kosten als die Hauptprobleme (Nigam et al. 2021). Die Übersicht stellte fest, dass „die mit KI-basierten Prüfungsüberwachungssystemen verbundenen Sicherheitsprobleme sich vervielfachen und Anlass zu berechtigter Sorge geben." Diese Bedenken stehen im Einklang mit dem Vorsorgeprinzip der EU.

6.2 KI-Überwachung in der chinesischen Bildung

In China ist der Ansatz zur KI-gestützten Überwachung in der Bildung deutlich anders. Eine vergleichende Analyse von KI-Datenschutzbedenken in der Hochschulbildung ergab, dass „westliche Medien individuelle Datenschutzrechte und Kontroversen bei der Fernprüfungsüberwachung hervorheben, während die chinesische Berichterstattung häufiger KI-gesteuerte Bildungsinnovation thematisiert" (Xue et al. 2025). KI-gestützte Überwachungssysteme an einigen chinesischen Universitäten – die das Verhalten von Studierenden, das Engagement im Unterricht und sogar Gesichtsausdrücke überwachen – haben inländische Debatten ausgelöst, doch der regulatorische Rahmen ist permissiver als in der EU.

Der Kontrast spiegelt grundlegend unterschiedliche kulturelle und rechtliche Traditionen hinsichtlich des Verhältnisses zwischen individueller Privatsphäre und kollektivem Nutzen wider. Im EU-Rahmen ist die Überwachung von Studierenden ein Eingriff, der durch zwingende Notwendigkeit gerechtfertigt und durch Verhältnismäßigkeit begrenzt sein muss. Im chinesischen Rahmen wird Überwachung eher als Bestandteil des Bildungsmanagements akzeptiert, vorausgesetzt, sie dient institutionellen und nationalen Zielen.

6.3 Die pädagogische Frage

Jenseits der rechtlichen und kulturellen Dimensionen wirft die Debatte um die Prüfungsüberwachung eine grundlegende pädagogische Frage auf: Verbessert die Überwachung des Verhaltens von Studierenden bei Prüfungen die Bildungsergebnisse, oder optimiert sie lediglich die Konformität, während sie Vertrauen, intrinsische Motivation und die Entwicklung akademischer Integrität als persönlichen Wert untergräbt?

Die Antwort hängt wahrscheinlich vom Kontext ab. Bei großangelegten standardisierten Prüfungen, bei denen die Konsequenzen von Betrug erheblich sind (berufliche Zulassungsprüfungen, Hochschulaufnahmeprüfungen), kann eine Form der Überwachung gerechtfertigt sein. Bei formativen Prüfungen, die das Lernen unterstützen statt Kompetenzen zu zertifizieren, kann Überwachung kontraproduktiv sein – sie ersetzt die auf Vertrauen basierende Bildungsbeziehung zwischen Lehrenden und Studierenden durch eine Überwachungsbeziehung, die gerade die Werte untergräbt, die sie zu schützen vorgibt.

7. Der „Brüssel-Effekt" und die globale KI-Governance

7.1 Der Brüssel-Effekt in der KI-Regulierung

Das Konzept des „Brüssel-Effekts", theoretisiert von Anu Bradford (2020), beschreibt die Fähigkeit der EU, durch strenge Binnenregulierung globale Märkte einseitig zu regulieren, die multinationale Unternehmen aus Kosteneffizienzgründen weltweit übernehmen. Die Frage, ob die KI-Verordnung einen Brüssel-Effekt hervorbringen wird, wird aktiv diskutiert.

Siegmann und Anderljung (2022) argumentieren, dass „sowohl de-facto- als auch de-jure-Brüssel-Effekte für Teile des KI-Regulierungsregimes der EU wahrscheinlich sind", insbesondere für große US-Technologieunternehmen, deren KI-Systeme als hochriskant eingestuft werden. Für die Bildung bedeutet dies, dass KI-Werkzeuge, die von globalen Unternehmen (Microsoft, Google, OpenAI) für den Einsatz an europäischen Universitäten entwickelt werden, wahrscheinlich so gestaltet werden, dass sie die Anforderungen der KI-Verordnung erfüllen – und dass diese Compliance-Funktionen in andere Märkte, einschließlich China, exportiert werden könnten.

Allerdings warnen Almada und Radu (2024), dass die KI-Verordnung auch einen „Brüssel-Nebeneffekt" produzieren könnte: Andere Rechtsordnungen könnten die regulatorische Form (risikobasierte Klassifizierung, Dokumentationsanforderungen) übernehmen, ohne die zugrundeliegende rechtebasierte Substanz, die dem EU-Rahmenwerk seine ethische Kraft verleiht.

7.2 Chinas Globale KI-Governance-Initiative

China hat auf den Regulierungsaktivismus der EU mit einer eigenen Vision für globale KI-Governance geantwortet. Die Globale KI-Governance-Initiative (全球人工智能治理倡议), die von Staatspräsident Xi Jinping im Oktober 2023 angekündigt wurde, befürwortet einen „menschenzentrierten Ansatz" für die KI-Governance und ruft zu „gegenseitigem Respekt, Gleichheit und gegenseitigem Nutzen" zwischen den Nationen bei der KI-Entwicklung auf. Wie Racicot und Simpson (2024) feststellen, „sollte die Initiative im Kontext von Chinas weitergehenden außenpolitischen Zielen gesehen werden: Chinas Verpflichtungen zur KI-Governance dienen Chinas geopolitischen Ambitionen, einschließlich der Positionierung als Standardsetzer für Entwicklungsländer."

Für die Hochschulbildung schafft der Wettbewerb zwischen dem Brüssel-Effekt der EU und Chinas Globaler KI-Governance-Initiative eine komplexe regulatorische Landschaft. Internationale Universitäten – insbesondere solche mit gemeinsamen Programmen, die EU- und chinesische Institutionen umfassen, etwa innerhalb des Netzwerks des Jean-Monnet-Exzellenzzentrums – müssen beide Rahmenwerke gleichzeitig navigieren. Das begleitende Kapitel zum Datenschutz (Woesler, in diesem Band) untersucht die praktischen Herausforderungen der dualen Compliance im Detail.

8. Auf dem Weg zu einer verantwortungsvollen KI-Integration: Empfehlungen

Auf der Grundlage der in diesem Artikel vorgestellten vergleichenden Analyse bieten wir die folgenden Empfehlungen für Universitäten, die sich in der aufkommenden KI-Governance-Landschaft orientieren.

Erstens sollten institutionsspezifische KI-Richtlinien entwickelt werden, die abstrakte regulatorische Anforderungen in konkrete Leitlinien für Lehrende und Studierende übersetzen. Das HEAT-AI-Rahmenwerk (Temper, Tjoa und David 2025) bietet ein nützliches Modell für Einrichtungen, die eine risikobasierte KI-Governance auf institutioneller Ebene operationalisieren möchten.

Zweitens sollte in KI-Kompetenz als zentrale institutionelle Kompetenz investiert werden – nicht nur für Studierende, sondern auch für Lehrende und Verwaltungspersonal. Das KI-Kompetenzmandat der KI-Verordnung (Artikel 4) gibt einen regulatorischen Anstoß, doch der pädagogische Imperativ besteht unabhängig von der Regulierung: Lehrende, die die KI-Werkzeuge, die ihre Studierenden nutzen, nicht verstehen, können nicht effektiv lehren oder bewerten.

Drittens sollte zwischen KI-Governance für die Forschung und KI-Governance für die Leistungsbewertung unterschieden werden. Der chinesische Ansatz, der KI-Nutzung in der Forschung weitgehend erlaubt, während er sie bei Prüfungen und Abschlussarbeiten einschränkt, bietet eine pragmatische Unterscheidung, von der europäische Einrichtungen profitieren würden. Forschung und Prüfungen dienen unterschiedlichen Zwecken und sind mit unterschiedlichen Risiken behaftet; eine einzige KI-Richtlinie kann nicht beide angemessen adressieren.

Viertens sollten Bewertungsmethoden entworfen werden, die genuin menschliche Beiträge bewerten – kritische Analyse, originäres Denken, kreative Synthese, ethisches Urteilen – anstatt sich auf KI-Erkennungswerkzeuge zu verlassen, deren Genauigkeit umstritten ist und deren Einsatz das Vertrauen zwischen Lehrenden und Studierenden untergraben kann.

Fünftens sollte grenzüberschreitender Dialog geführt werden. Der Vergleich zwischen EU und China zeigt, dass jedes System Erkenntnisse entwickelt hat, die dem anderen fehlen. Europäische Einrichtungen können von Chinas Umsetzungsgeschwindigkeit und der Integration von KI-Kompetenzen in alle Fachrichtungen lernen. Chinesische Einrichtungen können vom Schwerpunkt der EU auf ethische Rahmenbedingungen, Mitbestimmung der Lehrenden und den Schutz der Rechte der Studierenden lernen. Gemeinsame Programme, Austauschbesuche und kooperative Forschung – wie sie durch das Programm der Jean-Monnet-Exzellenzzentren ermöglicht werden – bieten konkrete Mechanismen für diesen Dialog.

9. Schlussfolgerung

Die Governance von KI in der Hochschulbildung ist eine Herausforderung, die noch kein einzelnes regulatorisches Rahmenwerk adäquat bewältigt hat. Die EU-KI-Verordnung bietet den umfassendsten rechtlichen Rahmen, doch ihre abstrakten Bestimmungen erfordern institutionelle Übersetzung, und ihre Umsetzung sieht sich einer erheblichen Bereitschaftslücke gegenüber. Chinas sektorspezifischer Ansatz bietet gezieltere Orientierung für Bildungskontexte, doch seine Wirksamkeit hängt von einer konsistenten institutionellen Umsetzung ab und riskiert Fragmentierung über die verschiedenen Regulierungsinstrumente hinweg.

Der vielversprechendste Weg nach vorn verbindet Elemente beider Ansätze: das Bekenntnis der EU zu Grundrechten, risikobasierter Klassifizierung und ethischer Aufsicht; und Chinas Bereitschaft, KI-Kompetenz in großem Maßstab vorzuschreiben, seine pragmatische Unterscheidung zwischen Forschungs- und Prüfungskontexten sowie seine Geschwindigkeit bei der institutionellen Anpassung. Keines der beiden Systeme kann alles vom anderen lernen – die kulturellen, politischen und rechtlichen Unterschiede sind zu tiefgreifend. Aber jedes kann etwas lernen, und der Dialog zwischen ihnen ist selbst ein wertvoller Beitrag zur globalen Herausforderung, KI in der Bildung verantwortungsvoll zu steuern.

Wie der UNESCO-Leitfaden für generative KI in Bildung und Forschung (Miao und Holmes 2023) uns in Erinnerung ruft: „Das Fehlen nationaler GenAI-Regulierungen in den meisten Ländern lässt den Datenschutz der Nutzer ungeschützt und Bildungseinrichtungen weitgehend unvorbereitet." Die EU und China gehören zu den wenigen Rechtsordnungen, die über diese Abwesenheit hinaus zu substanziellen Governance-Rahmenwerken gelangt sind. Ihre Erfahrungen – Erfolge wie Misserfolge gleichermaßen – werden prägen, wie der Rest der Welt die Herausforderung der KI in der Hochschulbildung angeht.

Danksagung

Diese Forschung wurde durch das Jean-Monnet-Exzellenzzentrum „EU-Studies Centre: Digitalization in Europe and China" (EUSC-DEC) unterstützt, gefördert von der Europäischen Union unter Fördervertrag Nr. 101126782. Die geäußerten Ansichten und Meinungen sind ausschließlich die des Autors und spiegeln nicht notwendigerweise die der Europäischen Union wider.

Literaturverzeichnis

Almada, M., & Radu, A. (2024). The Brussels Side-Effect: How the AI Act can reduce the global reach of EU policy. German Law Journal, 25, 646–663.

Aristombayeva, M., Satybaldiyeva, R., Maung, B. M., & Lee, D. (2025). Guiding the uncharted: The emerging (and missing) policies on generative AI in higher education. Frontiers in Education, 10. DOI: 10.3389/feduc.2025.1644081.

Asia Education Review. (2025). China makes AI education mandatory in schools starting September 2025.

Bradford, A. (2020). The Brussels Effect: How the European Union Rules the World. Oxford University Press.

China Daily. (2026, January 12). Fudan University sets AI education guidelines.

Chun, J., Schroeder de Witt, C., & Elkins, K. (2024). Comparative global AI regulation: Policy perspectives from the EU, China, and the US. arXiv preprint, arXiv:2410.21279.

EDUCAUSE. (2024). 2024 EDUCAUSE AI Landscape Study. Robert, J., & McCormack, M.

EDUCAUSE. (2024). 2024 EDUCAUSE Action Plan: AI Policies and Guidelines.

European Parliament and Council of the European Union. (2024). Regulation (EU) 2024/1689 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union.

Freeman, J. (2025). Student Generative AI Survey 2025. HEPI Policy Note 61. Higher Education Policy Institute.

Liu, X., et al. (2025). Regulations, technology policies and universities' attitudes to artificial intelligence in China. Higher Education Quarterly, 79(4). DOI: 10.1111/hequ.70055.

Miao, F., & Holmes, W. (2023). Guidance for Generative AI in Education and Research. UNESCO: Paris.

Migliorini, S. (2024). China's Interim Measures on generative AI: Origin, content and significance. Computer Law and Security Review. 53, Article 105992.

Nigam, A., Pasricha, R., Singh, T., & Churi, P. (2021). A systematic review on AI-based proctoring systems. Education and Information Technologies, 26, 6421–6445.

O'Shaughnessy, M., & Sheehan, M. (2023). Lessons from the world's two experiments in AI governance. Carnegie Endowment for International Peace.

Racicot, R., & Simpson, K. H. (2024). China's AI Governance Initiative and its geopolitical ambitions. Centre for International Governance Innovation (CIGI).

Roberts, H., Cowls, J., Morley, J., Taddeo, M., Wang, V., & Floridi, L. (2021). The Chinese approach to artificial intelligence: An analysis of policy, ethics, and regulation. AI and Society, 36, 59–77.

Hilliard, A., Gulley, A., Kazim, E., & Koshiyama, A. (2026). Artificial intelligence policy worldwide: A comparative analysis. 13(2), 242234.

Siegmann, C., & Anderljung, M. (2022). The Brussels Effect and Artificial Intelligence. arXiv preprint, arXiv:2208.12645.

Temper, M., Tjoa, S., & David, L. (2025). Higher Education Act for AI (HEAT-AI): A framework to regulate the usage of AI in higher education institutions. Frontiers in Education, 10. DOI: 10.3389/feduc.2025.1505370.

Woesler, M. (in diesem Band). Fremdsprachenlernen mit und ohne KI: Eine empirische Vergleichsstudie.

Woesler, M. (in diesem Band). Studierendendatenschutz an der digitalen Universität: DSGVO und Chinas PIPL im Vergleich.

Woesler, M. (in diesem Band). Universität der Zukunft: KI-gestützte Hochschulbildung zwischen europäischem Humanismus und chinesischer Innovation.

Xue, Y., Chinapah, V., & Zhu, C. (2025). A Comparative Analysis of AI Privacy Concerns in Higher Education: News Coverage in China and Western Countries. Education Sciences, 15(6), 650. DOI: 10.3390/educsci15060650