MENU
Künstliche Intelligenz

Der KI die Zügel anlegen

25. Januar 2024

Künstliche Intelligenz spielt in unserem Leben eine immer größere Rolle – nicht erst seit dem Hype um ChatGPT. Aber neben vielen Chancen birgt KI auch diverse Risiken. Mit dem Artificial Intelligence Act (AIA) will die EU künstliche Intelligenz künftig regulieren. Im Dezember 2023 haben sich Europaparlament und EU-Mitgliedsstaaten auf eine vorläufige Fassung geeinigt. Anfang dieses Jahres soll die KI-Verordnung dann verabschiedet werden. Was sich mit dem AI Act ändert, erklärt TÜVIT-Experte Vasilios Danos.

 

Herr Danos, wie soll der AI Act künstliche Intelligenz in der EU künftig regulieren, also welche Änderungen bringt er mit sich?

Vasilios Danos: Für die Bürgerinnen und Bürger bringt der AI Act in erster Linie mehr Transparenz darüber, wo künstliche Intelligenz zum Einsatz kommt, und die Sicherheit, dass ihre Rechte durch sie nicht verletzt werden. Unternehmen, Anbieter, Behörden, die KI-Anwendungen einsetzen, in Verkehr bringen oder entwickeln, müssen sich künftig damit auseinandersetzen, welche Risiken und Auswirkungen diese Anwendungen haben können und wie sich diese Risiken minimieren lassen. Was dabei zu tun ist, richtet sich nach der Risikoklasse, in die ihre KI-Anwendung fällt.

 

Der AI Act unterscheidet hier zwischen vier Risikoklassen. Welche sind das konkret?

Die unterste Stufe bildet die Kategorie „Low Risk“, also minimales Risiko. Darunter fallen etwa Spam-Filter oder KI-Avatare in Videospielen. Es geht also um Anwendungen, bei denen keinerlei Risiko besteht, Menschen physisch zu gefährden, ihre Rechte zu verletzen oder ihnen finanziell zu schaden. Diese Anwendungen sind weitgehend von allen Anforderungen befreit. Die nächste Stufe nennt sich „Limited Risk“, also begrenztes Risiko. Darunter fallen zum Beispiel einfache Chatbots, also KI-Systeme, die mit den Nutzenden interagieren. Solche Anwendungen müssen den Nutzenden künftig eindeutig kenntlich machen, dass sie es gerade mit einer KI und nicht mit einem Menschen zu tun haben. Auch sogenannte Deepfakes – also etwa manipulierte Videos von Prominenten – und andere KI-generierte Inhalte müssen als solche gekennzeichnet werden. Als dritte Stufe folgt die „High Risk“-Kategorie. Darunter fallen biometrische Zugangssysteme, bei denen man sich etwa mittels Gesichtserkennung ausweist, oder KI-Anwendungen, mit denen Bewerbungen automatisch gesichtet werden. Hier muss entsprechend ausgeschlossen werden, dass Bewerberinnen und Bewerber etwa wegen ihres Namens diskriminiert und ausgeschlossen werden. Aber auch ein KI-gesteuerter Industrieroboter, der im Fehlerfall Menschen verletzen kann, und bestimmte kritische Infrastrukturen wie Telekommunikation, Wasser- und Stromversorgung fallen in diesen Hochrisikobereich. Für diese Risikostufe sieht der AI Act entsprechend viele und strenge Auflagen vor.

 

Und was steht hinter der vierten und letzten Risikoklasse?

Dabei handelt es sich um die Kategorie „Unacceptable Risk“, also unannehmbares Risiko. Das sind KI-Systeme, die als klare Bedrohung für die Grundrechte gelten, die also beispielsweise unser Verhalten automatisiert analysieren oder zu Manipulationszwecken eingesetzt werden. Diese KI-Anwendungen werden mit dem AI Act daher grundsätzlich verboten. Dazu gehören etwa Emotionserkennungssysteme am Arbeitsplatz oder sogenannte Social-Scoring-Systeme, die in anderen Ländern wie China verwendet werden, um Menschen massenhaft durch KI zu bewerten und zu überwachen.

 

Werden auch ChatGPT oder andere KI-basierte Chatbots von dem AI Act erfasst?

Als ChatGPT Ende 2022 veröffentlicht wurde, waren die Überlegungen zum AI Act schon relativ weit fortgeschritten. Die EU hat auf diese Entwicklung reagiert und eine eigene Kategorie für diese sogenannten Basismodelle geschaffen. Also für KI-Modelle, die für verschiedene

Zwecke eingesetzt werden können (auch „General Purpose AI“ oder kurz GPAI) und entsprechend auch einen großen Einfluss auf viele Menschen haben. Die Anbieter dieser Modelle müssen gemäß dem AI Act künftig weitreichende Transparenzforderungen umsetzen, etwa die Herkunft der Trainingsdaten offenlegen, und gegebenenfalls von unabhängigen Dritten auf ihre Sicherheit überprüfen lassen.

 

Wann soll der AI Act in Kraft treten?

Wenn alles nach Plan läuft und die endgültige Formulierung abgeschlossen ist, wird der AI Act in diesem Frühjahr verabschiedet. Dann gibt es eine Übergangsfrist, innerhalb der die Verordnung in die nationale Gesetzgebung gegossen wird. Die Verbote für unerlaubte KI sollen voraussichtlich bereits nach sechs Monaten greifen, die Anforderungen für ChatGPT und andere Basismodelle nach einem Jahr. Für die weiteren Risikoklassen ist eine Übergangszeit von zwei Jahren vorgesehen.

 

Wie müssen sich Unternehmen auf die neuen Auflagen vorbereiten?

Grundsätzlich gilt: Unternehmen bekommen keine Post von einer Behörde, die ihre KI-Anwendung in eine Risikoklasse einstuft. Sie sind vielmehr in der Pflicht, sich selbst korrekt einzustufen und entsprechende Maßnahmen zu ergreifen. Und zwar bevor die KI-Anwendung auf den Markt kommt oder verwendet wird. Fällt ein KI-System beispielsweise in den Hochrisikobereich, müssen umfangreiche Anforderungen erfüllt werden; dann müssen etwa die Robustheit und die Sicherheit der Systeme gegebenenfalls auch von unabhängigen Dritten wie TÜVIT geprüft werden. Außerdem müssen die Unternehmen ein KI-(Risiko-)Management implementieren, das die Anwendung über ihren kompletten Lebenszyklus erfasst: Wie wurde das KI-System entwickelt, welche Qualität hatten die Trainingsdaten, welche Risiken bringt es mit sich, wie wurde es validiert und geprüft? Für bestimmte Aspekte wie zum Beispiel ein KI-Managementsystem wurden bereits ISO-Standards veröffentlicht. (Prüf-)Standards für andere Aspekte wie Sicherheit oder Transparenz sind in Arbeit. Wir als TÜV NORD sind auch in den entsprechenden Gremien vertreten, wo die allgemeinen Anforderungen des AI Act für bestimmte Einsatzfelder konkretisiert werden. Für KI-Anwendungen im Maschinenbau, im Medizinbereich oder in der Telekommunikation gelten ja jeweils andere Gegebenheiten und Herausforderungen, was sich entsprechend auch in den Prüfungen niederschlagen muss.

 

Und was droht bei Verstößen gegen die Auflagen?

Verstöße werden mit empfindlichen Geldbußen geahndet. Verbotene KI-Anwendungen können mit bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes bestraft werden. Andere Verstöße können bis zu 15 Millionen Euro oder drei Prozent des Jahresumsatzes kosten. Eine korrekte Selbsteinstufung und die Implementierung der erforderlichen Maßnahmen sind für Unternehmen also essenziell. Das innerhalb der gesetzten Fristen ohne externe Unterstützung zu leisten dürfte für viele allerdings kaum zu stemmen sein. Zumal die Prüfung von KI, mit der ich und mein Team uns bereits seit einigen Jahren beschäftigen, für Unternehmen vielfach Neuland ist. Anders als bei herkömmlicher Software gibt es hier noch keine etablierten Test-Tools oder Best Practices, auf die man einfach zurückgreifen kann.

 

Erlaubt der AI Act eine umfassende Kontrolle von KI, oder bleiben noch Lücken, die künftig geschlossen werden sollten?

Nach aktuellem Stand sollte der AI Act tatsächlich alle verbreiteten KI-Anwendungen abdecken. Allerdings entwickelt sich das Feld der künstlichen Intelligenz rasend schnell weiter. Mit der Leistungsfähigkeit von ChatGPT haben viele KI-Forschende erst in etwa 30 Jahren gerechnet. Künftig könnten auch neue KI-Technologien entwickelt werden, die der AI Act noch nicht erfasst. Wir müssen also wach und schnell sein, um mit der rasanten Entwicklung Schritt zu halten und sie regulatorisch einzufangen.

 

Zur Person:

Vasilios Danos ist fachlicher Leiter für KI bei TÜVIT. Der diplomierte Elektrotechniker beschäftigte sich bereits im Studium mit den Möglichkeiten von künstlicher Intelligenz und neuronalen Netzen. Schon bei der Roboterfußball-WM 2006 in Dortmund konnte er erste Erfahrungen mit den Risiken künstlicher Intelligenz sammeln. Obwohl die KI-gesteuerten Roboter in der Lage waren, die meisten Tore zu erzielen, kam es häufig vor, dass sie das falsche Tor anvisierten.

Entdeckt, erklärt, erzählt: Der Podcast von #explore