Am 14. Juni diesen Jahres wurde der Gesetzesentwurf zum sogenannten AI Act vom Europäischen Parlament und dem Rat der Europäischen Union mehrheitlich angenommen. Hier erfährst du alles über das Gesetz, das den Einsatz von künstlichen Intelligenzen regulieren soll.
Was ist der AI Act?
„AI Act“ steht für „Artificial Intelligence Act“ — auf Deutsch: Gesetz über künstliche Intelligenz. Die Europäische Kommission legte den Vorschlag im April 2021 vor; am 14. Juni 2023 nahmen ihn das Europäische Parlament und der Rat der Europäischen Union an. Ziel ist ein einheitlicher Rechtsrahmen für die Entwicklung, Vermarktung und Verwendung von KI in der EU.
Was beinhaltet der Gesetzesentwurf?
Der AI Act folgt einem risikobasierten Ansatz: KI-Systeme werden nach ihrem potenziellen Risiko für Menschen, Gesellschaft oder Umwelt eingestuft. Systeme mit hohem Risiko — etwa solche, die diskriminieren oder die Privatsphäre verletzen könnten — werden strenger reguliert. Konkret bedeutet das: Vor dem Markteintritt ist eine Risikobewertung Pflicht.
Welche Risiken bergen KI-Systeme?
Als hochriskant gelten unter anderem:
- KI-Systeme zur biometrischen Gesichtserkennung im öffentlichen Raum
- KI-Systeme zur automatisierten Entscheidungsfindung in sensiblen Bereichen wie Arbeitsmarkt oder Bildung
- KI-Systeme zur Manipulation von Menschen
Für Systeme mit geringem oder mittlerem Risiko gelten weniger strenge Vorschriften — unter anderem eine Dokumentation, die die Funktionsweise des Systems erklärt. Mehr zu potenziellen Risiken von künstlichen Intelligenzen findest du in unserem Beitrag Künstliche Intelligenz Gefahren: Revolutionäre Technologie oder bedrohlicher Fortschritt?
Wo liegt der Nutzen des AI Acts?
Der AI Act soll Transparenz und Verantwortlichkeit bei der Entwicklung und dem Einsatz von KI erhöhen. Anbieter müssen offenlegen, wie ihre Systeme funktionieren, welche Risiken sie tragen und welche Auswirkungen sie haben können. Ausserdem müssen sie sicherstellen, dass ihre Systeme die Menschenrechte und Grundfreiheiten einhalten.
Ein wichtiger Schritt also — der Missbrauch von KI eingrenzen und das Vertrauen in diese Systeme stärken soll.
Worauf müssen sich KI-Anbieter und Entwickler vorbereiten?
Wenn der AI Act kommt, gelten für Anbieter und Entwickler drei zentrale Pflichten:
- Risikobewertung: Hochrisiko-Systeme müssen vor dem Markteintritt bewertet werden — mit Blick auf Risiken für Menschen, Gesellschaft und Umwelt.
- Transparenz: Informationen über Funktionsweise, Risiken und Auswirkungen müssen für Nutzerinnen und Nutzer leicht zugänglich sein.
- Verantwortlichkeit: Systeme müssen so entwickelt und eingesetzt werden, dass sie Menschenrechte und Grundfreiheiten einhalten.
Die Einhaltung überwachen die EU-Mitgliedstaaten. Bei Verstössen drohen Geldbussen oder das Verbot, Systeme überhaupt in den Verkehr zu bringen.
Was der AI Act für die Branche bedeutet
Der AI Act wird die Entwicklung und den Einsatz von KI-Systemen in der EU grundlegend verändern. Wer als Anbieter oder Entwickler jetzt anfängt, sich mit den neuen Vorschriften auseinanderzusetzen, ist besser aufgestellt — nicht nur rechtlich, sondern auch gegenüber Kunden, die auf Vertrauenswürdigkeit achten.
Die EU-Mitgliedstaaten haben 18 Monate Zeit, die Verordnung in nationales Recht umzusetzen. Die Verordnung über künstliche Intelligenz soll voraussichtlich ab dem 1. Januar 2024 in Kraft treten.