Die KI-Verordnung kommt – Risikoklassifizierung am Beispiel von KI-Systemen im Arbeitskontext

Dr.  Philipp  Knitter

Dr. Philipp Knitter

Am 21. Mai 2024 wurde die KI-Verordnung (KI-VO) verabschiedet. Da die ersten Verbote bereits Anfang 2025 greifen, müssen Anbieter und Betreiber schon jetzt evaluieren, ob ihre KI-Systeme unter eine der verbotenen Praktiken fallen oder sich so gestalten lassen, dass sie „nur“ Hochrisiko-KI-Systeme sind – vor dieser Aufgabe stehen insbesondere Arbeitgeber.

Die KI-Verordnung kommt – Risikoklassifizierung am Beispiel von KI-Systemen im Arbeitskontext
Die KI-Verordnung kommt – Risikoklassifizierung am Beispiel von KI-Systemen im Arbeitskontext

27.06.2024 | IT-Recht und Datenschutz

Die KI-VO verfolgt einen risikobasierten Ansatz. Je risikoreicher das konkrete Einsatzfeld ist, umso stärker reguliert ist es. Gleichzeitig sieht die KI-VO abgestufte Umsetzungsfristen vor, die maßgeblich bestimmen, was jetzt zu tun ist. Gerade einige Einsatzfelder im Arbeitskontext werden der KI-VO unterfallen.

Risikoklassifizierung nach der KI-VO

Die KI-VO nimmt vor allem Anbieter und Betreiber von KI-Systemen in die Pflicht. Das sind im Wesentlichen maschinengestützte Systeme, die für einen autonomen Betrieb ausgelegt sind.

Einsatzfelder von KI-Systemen, die der europäische Gesetzgeber als besonders risikoreich für Nutzer einschätzt, sind verboten. Die „verbotenen Praktiken“ in Artikel 5 KI-VO haben gemein, dass sie manipulativ und ausbeuterisch sind. Verboten sind im Arbeitskontext das Inverkehrbringen, die Inbetriebnahme und die Verwendung von KI-Systemen zur „Ableitung von Emotionen am Arbeitsplatz“ außer aus medizinischen oder Sicherheitsgründen.

KI-Systeme, die nicht schon verboten sind, müssen daraufhin geprüft werden, ob sie Hochrisiko-KI-Systeme sind (Artikel 6 KI-VO). Das sind entweder KI-Systeme, die durch die in Anhang I genannten EU-Vorschriften reguliert sind (z.B. KfZ oder Medizinprodukte) oder die in den in Anhang III aufgezählten Bereichen eingesetzt werden.

Anhang III Ziffer 4 nennt als Anwendungsfelder im Arbeitskontext (verkürzt):

Ausnahmsweise sind Systeme in diesen Anwendungsfeldern nicht hochriskant, wenn sie kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen darstellen, indem sie das Ergebnis der Entscheidungsfindung nicht wesentlich beeinflussen (Artikel 6 Absatz 3 KI-VO).

Umsetzungsfristen geben die nun nötigen Schritte vor

Anbieter und Betreiber von KI-Systemen können unmöglich alle Pflichten der KI-VO aus dem Stand erfüllen. Was zuerst zu tun ist, lässt sich aus den abgestuften Umsetzungsfristen herleiten:

Anbieter und Betreiber sollten zeitnah prüfen, ob ihr KI-System eine verbotene Praktik darstellt. Das Verbot gilt bereits 6 Monate nach Inkrafttreten (vsl. Anfang 2025). Die hohen Bußgelder von bis zu 35 Mio. EUR und 7% des gesamten weltweiten Jahresumsatzes bei Unternehmen (die höhere Summe ist maßgeblich) können frühestens 6 Monate später verhängt werden. Auch wenn noch keine staatlichen Sanktionen greifen, strahlt das Verbot von Anfang an in andere Regelungsbereiche aus, etwa in das Vertrags- und Lauterkeitsrecht.

Konkrete Einsatzfelder im Arbeitskontext

Zu den Betreibern von KI-Systemen zählen zunehmend auch Arbeitgeber:

Es gibt Tools am Markt, die durch Emotionsanalysen im Bewerbungsverfahren (darunter Auswertung von Mimik, Gestik in aufgezeichneten Interviews) eine gezielte Bewerberauswahl versprechen. Solche Systeme dürften keine verbotene Praktik sein, da sie nicht „am Arbeitsplatz“ eingesetzt werden (Wortlaut des Artikel 5 KI-VO). Sie fallen aber unter die Hochrisiko-KI-Systeme.

Die Ableitung von Emotionen der Arbeitnehmer im Rahmen von Bewertungen, Beförderungsinterviews und internen ACs fällt demgegenüber unter die verbotenen Praktiken.

KI-gestützte Weisungssysteme fallen in den Hochrisikobereich, sofern sie Aufgaben aufgrund des individuellen Verhaltens oder persönlicher Merkmale oder Eigenschaften des Arbeitnehmers zuweisen. Im Einzelfall ist zu prüfen, ob auch die am Markt verbreiteten Schicht- und Einsatzplanungstools Hochrisiko-KI-Systeme sind.

Was sollten Arbeitgeber jetzt tun?

Arbeitgeber, die KI-Systeme betreiben, sollten frühzeitig prüfen

Möglicherweise lassen sich verbotene Systeme so gestalten bzw. einsetzen, dass sie unter eine der erlaubten Risikoklassen fallen. Anderenfalls sollten sich Arbeitgeber nach Alternativen umsehen.