← Zur Branchen-Übersicht

Branchen-Seite

AI Act für Bildung und Hochschulen: Was bei Student Assessment jetzt zählt.

KI in Zulassung, Prüfungsbewertung und Proctoring fällt nach Anhang III Nr. 3 der EU-VO 2024/1689 häufig in den Hochrisiko-Bereich. Art. 4 zur KI-Kompetenz gilt bereits seit dem 2. Februar 2025; öffentliche Hochschulen sollten Art. 27 deshalb vor dem 2. August 2026 organisatorisch vorbereiten.

Veröffentlicht: 22. Januar 2026Letzte Aktualisierung: 11. März 2026EU AI Act für Bildung und Hochschulen: Student Assessment richtig einstufen
AI Act HochschuleKI Prüfungsbewertung HochrisikoStudent Assessment AI ActProctoring AI ActKI Schulung Hochschule

Hochschulen und Bildungsträger müssen KI im Student Assessment seit dem 2. Februar 2025 kompetent einsetzen; ab dem 2. August 2026 werden Systeme für Zulassung, Bewertung von Lernergebnissen, Bestimmung des Bildungsniveaus oder Prüfungsüberwachung nach Anhang III Nr. 3 der EU-VO 2024/1689 regelmäßig zu Hochrisiko-KI. Maßgeblich sind vor allem Art. 4, Art. 27, Art. 50 und die Verbote aus Art. 5.

Student Assessment meint im AI-Act-Kontext mehr als nur automatische Notengebung. Relevant sind alle KI-Einsätze, die Studienzugang, Einstufung, Prüfungsbewertung oder die Überwachung von Studierenden in Prüfungen beeinflussen. Nicht jeder Tutor-Bot ist deshalb Hochrisiko, aber jedes System mit direkter Wirkung auf Bildungsweg, Note oder Prüfungsfairness gehört in eine saubere Rechts- und Governance-Prüfung.

Welche Student-Assessment-Systeme sind nach dem AI Act besonders kritisch?

Für Bildung und Hochschulen ist der Einsatzkontext entscheidend. Je näher ein System an Zulassung, Notenbildung oder Prüfungsaufsicht liegt, desto eher greift Anhang III Nr. 3 unmittelbar.

| KI-System im Bildungsbereich | Typische Nutzung | Einordnung nach der EU-VO 2024/1689 | | --- | --- | --- | | KI-gestützte Zulassungssysteme | Auswahl von Bewerbern, Ranking im NC- oder Auswahlverfahren | Hochrisiko nach Anhang III Nr. 3 für Zugang zu Bildung | | Automatische Bewertung offener Antworten, Essays oder Klausuren | Vorbewertung oder Endbewertung von Lernergebnissen | Hochrisiko nach Anhang III Nr. 3 für Bewertung von Lernergebnissen | | Adaptive Einstufungstests | Zuweisung zu Kursniveau, Förderpfad oder Vorsemester | Hochrisiko nach Anhang III Nr. 3 für Bestimmung des Bildungsniveaus | | Proctoring-KI bei Online-Prüfungen | Erkennen unerlaubten Verhaltens, Identitäts- und Umfeldchecks | Hochrisiko nach Anhang III Nr. 3 für Prüfungsüberwachung | | KI-Text- oder Plagiatserkennung | Hinweise auf Täuschung oder KI-Nutzung in Hausarbeiten | Kontextabhängig; bei bloßer Vorprüfung oft niedriger, bei direkter Auswirkung auf Note oder Täuschungsvorwurf nahe an Hochrisiko | | Studienberatungs- oder Tutor-Chatbots | FAQ, Orientierung, Lernbegleitung | Meist Transparenzpflicht nach Art. 50, aber nicht automatisch Hochrisiko |

Die kritische Grenze verläuft also nicht zwischen "Lernsoftware" und "Prüfungssoftware", sondern zwischen unterstützender Information und entscheidungsrelevantem Assessment. Wer Ergebnisse nur vorsortiert, kann in Einzelfällen von den Ausnahmen aus Art. 6 Abs. 3 profitieren; sobald KI jedoch über Zugang, Einstufung, Note oder Täuschung praktisch mitentscheidet, sollten Hochschulen von einem Hochrisiko-Szenario ausgehen.

Was ist an Hochschulen sogar verboten?

Emotionserkennung in Bildungseinrichtungen ist nach Art. 5 grundsätzlich verboten; nur medizinische oder sicherheitsrelevante Zwecke sind ausgenommen. Für Hochschulen ist das besonders wichtig, weil manche Proctoring- oder Classroom-Analytics-Tools mit "Aufmerksamkeit", "Stress", "Frustration" oder ähnlichen emotionalen Zuständen werben.

Praxisrelevant heißt das: Ein Tool, das Blickbewegungen, Mimik oder Stimme auswertet, ist nicht automatisch verboten. Verboten wird es dort, wo daraus Emotionen von Studierenden abgeleitet werden sollen. Hochschulen sollten bei Proctoring-Anbietern deshalb nicht nur nach Datenschutz fragen, sondern explizit prüfen, ob emotionale Zustände inferiert, angezeigt oder in Risikoscores übersetzt werden. Wenn ja, ist das kein bloßes Compliance-Risiko mehr, sondern eine rote Linie.

Welche Pflichten treffen Hochschulen und Bildungsträger schon jetzt?

Seit dem 2. Februar 2025 müssen Hochschulen gemäß Art. 4 nach besten Kräften ein ausreichendes Maß an KI-Kompetenz sicherstellen. Das betrifft nicht nur IT oder Digitalisierungsstellen, sondern alle Personen, die KI auswählen, konfigurieren, Ergebnisse fachlich bewerten oder Prüfungsentscheidungen darauf stützen.

  • Lehrende und Prüfende müssen verstehen, wann KI nur unterstützt und wann sie in die Bewertung von Lernergebnissen eingreift.
  • Prüfungsämter und Studienbüros müssen Student-Assessment-Prozesse entlang von Anhang III Nr. 3 klassifizieren und dokumentieren.
  • IT, Beschaffung und Datenschutz müssen Anbieterangaben, Zweckbestimmung, Logging, menschliche Aufsicht und Einsatzgrenzen früh prüfen.
  • Studierende müssen bei relevanten Hochrisiko-Systemen gemäß Art. 26 Abs. 11 darüber informiert werden, dass sie einem solchen System unterliegen.
  • Öffentliche Hochschulen sollten für potenzielle Hochrisiko-Systeme rechtzeitig die Grundrechte-Folgenabschätzung nach Art. 27 vorbereiten, statt erst kurz vor dem 2. August 2026 zu reagieren.

Hinzu kommt die Transparenzlogik aus Art. 50: Wenn Studierende direkt mit einem KI-System interagieren, etwa mit einem Beratungs- oder Tutor-Bot, muss die KI-Nutzung erkennbar sein. Gerade an Hochschulen laufen deshalb oft zwei Regime parallel: Hochrisiko für assessment-nahe Systeme und Transparenzpflichten für unterstützende Bots.

Wie sollten Hochschulen Student Assessment jetzt organisieren?

Hochschulen sollten Student Assessment als Governance-Thema vor dem nächsten Zulassungs- oder Prüfungszyklus strukturieren. Der schnellste Fortschritt entsteht, wenn Fachbereich, Prüfungsamt, CIO, Datenschutz und Hochschulleitung dieselbe KI-Landkarte nutzen.

  1. Assessment-Prozesse inventarisieren. Erfassen Sie getrennt Zulassung, Einstufung, Benotung, Proctoring, Plagiatserkennung und Tutor-Bots.
  2. Entscheidungsrelevante Systeme markieren. Prüfen Sie, welche Tools direkt Zugang, Note, Täuschungsvorwurf oder Prüfungszulassung beeinflussen.
  3. Menschliche Kontrolle festlegen. Dokumentieren Sie, wer KI-Ergebnisse prüfen, übersteuern und begründen darf, bevor studienrelevante Folgen ausgelöst werden.
  4. Art.-4-Schulung nach Rollen organisieren. Schulen Sie Lehrende, Prüfungsämter, IT und Beschaffung nicht gemeinsam abstrakt, sondern entlang ihrer realen Aufgaben.
  5. Interne Orientierung zentralisieren. Verweisen Sie Teams auf den Kurs, die FAQ und das Compliance-Quiz, damit AI-Act-Grundlagen nicht in Einzelmails und Tool-Demos verstreut bleiben.

Wer heute nur die Prüfungsordnung aktualisiert, aber weder Tool-Portfolio noch Schulungsstand prüft, verfehlt den eigentlichen Hebel des AI Act. Für Hochschulen ist die beste Sofortmaßnahme deshalb ein dokumentierter Überblick über alle assessment-nahen KI-Einsätze plus eine belastbare Art.-4-Basisschulung für alle beteiligten Rollen.

Häufige Fragen aus Hochschulen

Ist jede KI-Text- oder Plagiatserkennung automatisch Hochrisiko?

Nein. Ein reines Hinweissystem ohne automatische Rechts- oder Notenfolge kann unter Umständen unter den Ausnahmen aus Art. 6 Abs. 3 bleiben. Sobald das Tool aber praktisch über Täuschungsvorwürfe, Noten oder Prüfungszulassung mitentscheidet, spricht viel für eine Einordnung unter Anhang III Nr. 3.

Reicht eine allgemeine KI-Richtlinie für Lehrende aus?

Nein. Art. 4 verlangt keine bloße Richtlinie auf Papier, sondern Maßnahmen zur KI-Kompetenz der Personen, die mit dem Betrieb und der Nutzung von KI-Systemen befasst sind. Für Hochschulen heißt das: rollenspezifische Schulung, dokumentierte Zuständigkeiten und klare Grenzen für assessment-nahe Use Cases.

Nächster Schritt

Hochschulen sollten Student-Assessment-Prozesse vor dem nächsten Prüfungszyklus prüfen.

Unser 90-Minuten-Kurs schafft für Lehrende, Prüfungsämter und Governance-Teams die gemeinsame Art.-4-Grundlage, damit KI in Bewertung, Zulassung und Proctoring nicht ohne Rechtscheck eingeführt wird.