31. Juli 2025
Mit dem AI Act hat die EU eine umfassende Regulierung für künstliche Intelligenz auf den Weg gebracht: Seit Februar sind KI-Systeme kategorisch verboten, die zu Manipulationszwecken eingesetzt werden oder in anderer Form Grundrechte bedrohen. Anfang August zündet nun die nächste Stufe der Umsetzung des AI Acts. Welche KI-Systeme davon betroffen sind, welche Anforderungen sie erfüllen müssen und wie es anschließend mit dem AI Act weitergeht, erklärt Thora Markert, KI-Expertin bei TÜVIT.
#explore: Frau Markert, am 2. August geht die Umsetzung des AI Acts der EU in die nächste Phase. Was ändert sich?
Thora Markert: Ab diesem Datum treten die Anforderungen für sogenannte General-Purpose-AI-Systeme (kurz: GPAI) in Kraft. Für Systeme also, die einen allgemeinen Verwendungszweck haben, sehr viele Aufgaben auf einmal erfüllen können und damit einen sehr großen gesamtgesellschaftlichen Einfluss haben könnten. Das umfasst große Sprachmodelle wie ChatGPT, Gemini von Google oder Llama von Meta, aber auch KI-Systeme, die Bilder generieren können.
Welche Anforderungen müssen die Anbieter solcher Systeme künftig erfüllen?
Alle Anbieter solcher GPAI-Modelle müssen sich bei der EU registrieren, eine detaillierte technische Dokumentation des Modells erstellen und der Aufsichtsbehörde auf Anfrage zur Verfügung stellen. Das vordringliche Ziel der EU ist, dass diese Systeme für die Aufsichtsbehörden und die Nutzenden transparenter werden: Die Anbieter eines solchen KI-Systems müssen unter anderem die Herkunft der Trainingsdaten offenlegen, außerdem die genutzten Rechenressourcen und den Energieverbrauch – es geht also auch um die Nachhaltigkeit dieser Systeme. Die Nutzenden müssen in verständlicher Form über die Fähigkeiten und Grenzen des Systems informiert werden. Es muss also klar werden, welche Fehler diese KI produzieren könnte. Besonders wichtig: KI-generierte Bilder, Videos, Audios oder Texte müssen eindeutig als solche gekennzeichnet werden, etwa durch ein Wasserzeichen. Praktische Leitlinien zur Umsetzung der gesetzlichen Pflichten bietet der kürzlich veröffentlichte General-Purpose AI Code of Practice. Er enthält konkrete Erläuterungen, wie die Vorgaben für GPAI-Modelle in Bezug auf Transparenz, Urheberrecht und Safety & Security eingehalten werden können.
Der AI Act unterscheidet bei diesen Allzweck-KI eine weitere Stufe: GPAI-Modelle mit systemischem Risiko. Was steckt dahinter?
In diese Kategorie fallen Modelle, die eine bestimmte Schwelle an Rechenoperationen erreichen oder andere Kriterien erfüllen – die etwa von sehr vielen Nutzenden verwendet werden, einen sehr breiten Anwendungsbereich haben und so schädliche Auswirkungen auf die Gesellschaft, Demokratie, Wirtschaft oder grundlegende Rechte von EU-Bürgerinnen und -Bürgern haben können. Daher müssen sie noch weitere und strengere Auflagen erfüllen: Die Anbieter müssen ihr Modell intensiv testen und diese Tests gegenüber der EU nachweisen; sie müssen mögliche Systemrisiken ermitteln und mindern und außerdem ausreichende Cybersecurity-Maßnahmen implementieren. Denn wenn solche Systeme gehackt und manipuliert würden, könnte das großen gesamtgesellschaftlichen Schaden anrichten. Außerdem müssen die Anbieter eine umfassende Governance ihrer Systeme betreiben. Das heißt, sie müssen detailliert dokumentieren, wie die Entwicklung und das Training vonstattengegangen sind, welche Daten eingesetzt wurden und wie das System weiter trainiert und upgedatet wird.
Es ist noch etwas hin, aber ab August 2027 erfasst der AI Act auch Hochrisikosysteme, etwa vernetzte Maschinen für die Fabrik 4.0.
Und welche KI-Systeme fallen in diese Kategorie, haben also ein systemisches Risiko?
Das sind in jedem Fall die genannten großen Sprachmodelle wie ChatGPT und Gemini. Kleinere Sprachmodelle mit weniger Parametern und Fähigkeiten fallen nicht in diese Kategorie. Einige Aspekte des AI Acts werden sich erst durch die weitere Umsetzung und praktische Erfahrungen genauer herauskristallisieren. Man muss sich daher das jeweilige System ganz genau darauf anschauen, ob von ihm ein systemisches Risiko ausgeht und es die entsprechenden Auflagen zu erfüllen hat.
Was droht bei Verstößen?
Verstöße können mit bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes bestraft werden. Es geht hier also um erhebliche Summen. Wir unterstützen Unternehmen bei der Klärung der Frage, inwieweit sie vom AI Act betroffen sind und welche Anforderungen sie erfüllen müssen, wenn sie Anbietende oder Nutzende sind. Setzt man KI im Unternehmen ein, ist man etwa in der Pflicht, die Mitarbeitenden im Umgang mit diesen Systemen zu schulen.
Wie geht es mit der Umsetzung des AI Acts weiter?
Die nächste Stufe greift im kommenden Jahr: Ab dem 26. August 2026 werden auch Hochrisikosysteme vom AI Act erfasst. Allerdings sind das nur Systeme, die nicht bereits durch andere EU-Richtlinien reguliert werden: beispielsweise biometrische Systeme, KI-Systeme, die in kritischer Infrastruktur, zur Grenzkontrolle oder in Asylverfahren eingesetzt werden, und KI-Anwendungen, mit denen Bewerbungen automatisch gesichtet werden, da diese Menschen benachteiligen können. Aber auch Allzweck-KI-Systeme können als hochkritisch eingestuft werden und müssen dann zusätzlich die Anforderungen für diese KI-Klasse erfüllen: Die Anbieter müssen zum Beispiel ein KI-(Risiko-)Management implementieren, das die Anwendung über ihren kompletten Lebenszyklus erfasst, und die Robustheit und Sicherheit der Systeme gegebenenfalls von unabhängigen Dritten wie TÜVIT prüfen lassen. In der letzten Stufe ab August 2027 erfasst der AI Act schließlich auch Hochrisikosysteme, die bereits unter andere EU-Regularien fallen: beispielsweise Medizinprodukte, Anwendungen für die Luft-, Schiff- und Raumfahrt, Aufzüge, elektronische Spielzeuge und vernetzte Maschinen für die Fabrik 4.0.
Als mit ChatGPT ab Ende 2022 der rasante Siegeszug der Allzweck-KI begann, war die Entwicklung des AI Acts schon sehr weit vorangeschritten. Kann man sagen, dass die EU hier außerordentlich schnell auf die neue Entwicklung reagiert hat?
Auf jeden Fall! Die Paragrafen zu diesen GPAI-Modellen wurden in den letzten Entwürfen des AI Acts eingearbeitet. Die EU hat hier also schnell reagiert und auch in der Anlage des AI Acts der dynamischen technologischen Entwicklung in diesem Feld Rechnung getragen: Der AI Act ist bewusst nicht-statisch angelegt. Er soll mit der Entwicklung regulatorisch Schritt halten, bei Bedarf angepasst und erweitert werden, um auch mögliche neue KI-Systeme und -Entwicklungen zu erfassen. Die EU baut dazu aktuell ein großes Team aus unabhängigen KI-Fachleuten auf, das die Kommission sowohl bei der Umsetzung des AI Acts beraten wird als auch auf neue Risiken aufmerksam machen soll.
Zur Person
Thora Markert ist Leiterin des Bereichs KI-Forschung und -Governance bei TÜVIT. Die Informatikerin beschäftigt sich schwerpunktmäßig mit der Verlässlichkeit und IT-Sicherheit von KI, hat eine Testumgebung für künstliche Intelligenz entwickelt und fühlt dieser auch selbst in Prüfungen auf den Zahn.