Diskriminierung bei der Jobsuche? Warum KI die Lösung sein könnte:

28.08.2020

GastartikelInsightsKünstliche IntelligenzTech & DigitalisierungWissen(schaft)
Author: Redaktion
Autor*inRedaktion
Illustration menschliches Gehirn vernetzt mit der Umgebung

Gastbeitrag: Julian Bonitz von FAIR, ein Projekt von candidate select und der Universität Köln

Künstliche Intelligenz bestimmt in vielen Bereichen bereits unseren Alltag. Ob Content nach Maß auf Instagram oder bei TikTok durch Algorithmen. Chatbots im Kundensupport deines Internetproviders oder die Gesichtserkennung deines Smartphones. Die Liste der bereits komplett normal gewordenen Anwendungsfälle ist lang. Mehr und mehr Unternehmen setzen auf die neue Technologie, um Prozesse zu verbessern, Kosten zu senken und eine bessere Kundenerfahrung zu ermöglichen. Darüber hinaus aber bieten Algorithmen auch die Chance, Diskriminierung, vor allem im Recruiting, abzubauen.

Künstliche Intelligenz und Fairness – wie passt das überhaupt zusammen?

Science-Fiction hat es uns eigentlich anders beigebracht: KI wird oft als unkontrollierbare Macht dargestellt. Zunächst erscheint sie uns nützlich und danach wächst sie uns über den Kopf. Daher kommt der Irrglaube, dass künstlicher Intelligenz grundsätzlich Misstrauen entgegengebracht werden sollte. Uns beunruhigt der Gedanke, dass eine Maschine in manchen Bereichen intelligenter sein kann als wir. Genau an diesem Punkt liegt die Gefahr, denn Menschen neigen dazu, unterbewusste Fehlentscheidungen zu treffen, die auf sogenannten kognitiven Verzerrungen, z. B. Unconscious Biases oder Gender Biases (Geschlechtervorurteile/Stereotype), basieren.

Systeme, die mit künstlicher Intelligenz arbeiten, sind theoretisch gesehen frei von Diskriminierung und objektiv, sofern sie kontrolliert und richtig aufgesetzt sind. Aufgrund dieser Eigenschaft kann man also davon ausgehen, dass AI, unter den richtigen Bedingungen, fairer ist als der Mensch.

Kann KI auch diskriminieren?

Algorithmen, die eine Vorauswahl von Kandidatinnen und Kandidaten im Recruiting treffen sollen, müssen Informationen analysieren. Sie müssen Voraussagen treffen können, ohne bestimmte Gruppen dabei zu diskriminieren. Da Algorithmen auf Basis vergangener Daten trainiert werden, besteht aber die Gefahr, dass sie bereits vorhandene Diskriminierungen fortschreiben und so manifestieren. Doch wie kann man diesem Problem entgegenwirken?

Diese Frage hat sich auch das FAIR (Fair Artificial Intelligence Recruiting) Projekt gestellt, in dem Forscher der Universität zu Köln und der candidate select GmbH neue diskriminierungsfreie Recruiting-Algorithmen entwickeln. Als Antwort wurde der FAIR-Index geschaffen, der sowohl menschengemachte als auch auf Algorithmen verursachte Diskriminierung sichtbar machen kann. Der Index bildet ab, wer fälschlicherweise eingestellt und wer vielleicht übersehen wurde. Abweichungen sind natürlich nicht grundsätzlich ein Problem. Wenn diese jedoch immer zulasten bestimmter Personengruppen gehen, ist dies ein Indiz für eine systematische Benachteiligung. Algorithmen, die bestehende Diskriminierung fortschreiben, werden also durch diesen Index identifiziert und können anschließend angepasst werden. Durch diese Kontrolle kann der Algorithmus also sehr wohl die Fairness im Recruiting steigern und Diskriminierung abbauen.

Was bedeutet das für meine Jobsuche?

Auch Recruiterinnen und Recruiter bleiben von den oben beschriebenen kognitiven Verzerrungen nicht unbetroffen. Trotz oft speziellem Training und jahrelanger Erfahrung. Wir müssen uns im Klaren sein, dass vor allem das Beurteilen von Lebenslaufinformationen, in der heutigen Form nie ganz objektiv sein kann. Die Gefahr ist sehr groß, dass Indikatoren auf die Herkunft, das Geschlecht oder auch ein Bewerbungsfoto, die Einstellungsentscheidung beeinflussen. Würden mehr KI Systeme unterstützend zur Lebenslaufauswertung eingesetzt, könnte sichergestellt werden, dass weniger Profile vorschnell aussortiert würden. So bekämen mehr Bewerberinnen und Bewerber eine faire Chance auf den Job anstatt einer schnellen Absage.

Finde hier unseren spannenden jobvalley Expert Talk mit Larissa Fuchs zum Thema KI im Recruiting: https://www.youtube.com/watch?v=iNoAmUmvGxE

Über FAIR

FAIR ist ein vom Land NRW gefördertes Projekt mit dem Ziel Diskriminierungsfaktoren im Recruiting mit Hilfe von Algorithmen systematisch zu erkennen und zu beseitigen. Das Projekt wird im Zeitraum vom 01.01.2020 bis zum 31.12.2021 durchgeführt und von Fördermitteln der EU und des Landes NRW unterstützt.

Alle Informationen zum Projekt FAIR finden sich hier: www.fair.nrw

Wer Interesse am FAIR Index hat und mehr darüber erfahren möchte, kann sich jederzeit unter: info@fair.nrw melden, denn der FAIR Index ist bereits jetzt verfügbar.

jobvalley ist Assoziierter Projektpartner.