Recruiting: Mit KI gegen Unconscious Bias?

Recruiting: Mit KI gegen Unconscious Bias?

Recruiting: Mit KI gegen Unconscious Bias?

Unconscious Bias beeinflusst die Entscheidungen im Recruiting Prozess. KI kann helfen transparente und faktenbasierte Entscheidungen zu treffen, solange Mensch und Maschine zusammenarbeiten.
Schließen

Unconscious Bias ist die unbewusste Voreingenommenheit, die unsere Entscheidungen auch im Recruiting Prozess beeinflusst. Weit verbreitet ist das Vertrauen in besonders charismatische Menschen oder die Annahme, dass attraktive Menschen intelligenter und leistungsfähiger seien. Hier kann KI helfen transparente und faktenbasierte Entscheidungen zu treffen, um Schubladendenken zu vermeiden. Die Daten im Rahmen eines Bewerbungsprozesses werden von der Technologie analysiert, ausgewertet und aufbereitet. KI unterstützt da, wo wir Entscheidungen – ohne es zu wollen – gefühlsorientiert und basierend auf Erfahrungen, Neigungen und kulturellen Hintergrund fällen.

Recruiting 4.0

Die Anwendungsmöglichkeiten der KI im Bereich der Personalgewinnung werden unter dem Schlagwort Recruiting 4.0 diskutiert. Bereits im Bewerbungsprozess soll die Technologie selbstständig die Daten der Bewerber anhand eines Algorithmus analysieren und sie mit den persönlichen und fachlichen Anforderungen des Arbeitgebers abgleichen. Das Erfragen der Daten kann dabei zum Beispiel über so genannte Chatbots erfolgen.

Ein Chatbot ist ein smarter Assistent, der in einem vordefinierten Bereich aus Text- und Spracheingaben die Absicht des jeweiligen Anwenders erkennt. Im folgenden Bewerbungsgespräch kann die Technologie über Sprache, Mimik und Wortwahl feststellen, ob der Kandidat zum Unternehmen passt. (Un-)bewussten Vorurteilen und Wertvorstellungen der Personalverantwortlichen soll so von Anfang an der Boden entzogen werden.

Grenzen des Datenschutzrechts

In datenschutzrechtlicher Hinsicht ist insbesondere Art. 22 DSGVO zu beachten. Danach darf ein Algorithmus allein keine Entscheidung über die Einstellung oder Ablehnung einzelner Bewerber treffen – die Letztentscheidung muss bei einem Menschen verbleiben. Die Vorschrift verbietet zudem ausdrücklich Profiling, das zur Folge hat, dass betroffene Personen auf der Grundlage von besonderen Kategorien personenbezogener Daten diskriminiert werden.

Grenzen des AGG

In diskriminierungsrechtlicher Sicht ist zunächst zu bedenken, dass das Speisen der Systeme mit Daten und die Programmierung natürlich von einem Menschen vorgenommen wird. Es besteht also die Gefahr, dass das System Unconscious Bias der jeweiligen Programmierer übernimmt und diese so über Umwege doch Eingang in die Bewerber-Auswahl finden.

Hinzu kommt, dass die Datenanalyse durch Algorithmen gerade darüber funktioniert, dass Personen anhand bestimmter Merkmale und Eigenschaften in Gruppen aufgeteilt und danach bewertet werden. Dieses Vorgehen läuft gewissermaßen bereits dem grundlegenden Zweck des Antidiskriminierungsrechts entgegen: Das Allgemeine Gleichbehandlungsgesetz (AGG) will entsprechende Schlüsse gerade verhindern, wenn sich diese auf ein Merkmal des § 1 AGG beziehen.

Beim Einsatz der Technologie im Bewerbungsgespräch können unter Umständen unzulässige Fragen gestellt werden. Solche Fragen zu diskriminierungsrelevanten Eigenschaften stellen Indizien für eine Benachteiligung dar. Wird zum Beispiel im Bewerbungsgespräch eine Sprachanalyse durchgeführt, steht zu befürchten, dass dies vor allem Menschen mit Migrationshintergrund zum Nachteil gereicht.

Als Konsequenz eines Verstoßes gegen das AGG kommen regelmäßig Schadenersatz- und Entschädigungsansprüche nach § 15 AGG in Betracht. Interessant sind hier vor allem Zurechnungsfragen in Bezug auf die benachteiligende Handlung sowie das Verschulden.

Dabei stellt sich zunächst die Frage, ob die erfolgte Benachteiligung menschgemacht ist - mit der Folge, dass ein Anspruch nach § 15 AGG unproblematisch gegeben sein kann - oder ob die Benachteiligung auf einem Versagen der KI-Technologie selbst beruht, also ein technischer Fehler zugrunde liegt. (Nur) in letzterem Fall wird die Frage relevant, ob § 278 BGB analog auf Maschinen Anwendung finden soll.

Bejaht man dies, stellt sich die Folgefrage, unter welchen Voraussetzungen der Arbeitgeber Regress beim Hersteller bzw. Entwickler der Technologie nehmen kann. Lehnt man die Anwendung des § 278 BGB – mit durchaus vertretbaren Gründen - ab, bleibt als anspruchsbegründendes Verhalten nach überwiegender Ansicht aber noch eine Verletzung der Organisations- und Schutzpflichten des § 12 AGG durch den Arbeitgeber.

KI kann unterstützen – nicht übernehmen!

Zusammenfassend lässt sich sagen, dass die Anwendung von KI im HR-Bereich erhebliches Potenzial hat, Prozesse zu beschleunigen, zu automatisieren und vor allem bei administrativen Aufgaben zu entlasten. KI kann auch die Möglichkeit bieten, Unconscious Bias zu verhindern, Gleichberechtigung zu fördern und Recruiter abzusichern.

Die Technologie sollte aber in jedem Fall mit den strengen Anforderungen des Datenschutzrechts und des AGG übereinstimmen. Um dies zu gewährleisten, sind die Systeme mit fehler- und diskriminierungsfreien Daten zu „füttern“ und regelmäßig zu überprüfen. Auch sollten Mensch und Maschine zusammenarbeiten. Dann kann KI dabei unterstützen, einen großen Schritt Richtung Objektivität zu gehen.