Algorithmus im Einstellungstest: Wie Anbieter über Vorurteile sprechen

Eine Mitarbeiterin sitzt vor einer Rechenmaschine.
Rechenmaschine
[Fotograf: Georg Pahl, Quelle: Bundesarchiv/ Wikimedia Commons, Lizenz: CC BY-SA 3.0 de, Kolorierung: Robert Züblin]
Robert Züblin – 22.11.2019, 23:59 Uhr

Eine Studie zeigt auf, dass die meisten der untersuchten Anbieter von Algorithmen, die bei Bewerbungen eingesetzt werden, öffentlich nur abstrakt auf die Frage der Vorurteile ihres Algorithmus eingingen.

Algorithmen bei der Bewerbung

Heutzutage werden Mitarbeiter nicht nur durch menschliche Auswahl eingestellt. Personalabteilungen bedienen sich teilweise auch externer Anbieter, die einen Einstellungstest bereitstellen, bei dem die Mitarbeiterauswahl über einen Algorithmus erfolgt.

Die Wissenschaftler der Studie „Mitigating Bias in Algorithmic Hiring: Evaluating Claims and Practices“ haben 19 verschiedene Anbieter von solchen Einstellungstests genauer betrachtet. Dabei hätten sich die Forscher auf die öffentlich berichteten Informationen beschränkt, die von den Bewerbungsalgorithmen-Unternehmen stammten, da bestimmte Modelle aus praktischen oder rechtlichen Gründen unzugänglich seien.

„Dennoch ist eine der wichtigsten Erkenntnisse unserer Arbeit, dass wir, selbst wenn wir keinen Zugang zu Modellen oder Daten haben, immer noch eine beträchtliche Menge lernen können, indem wir untersuchen, was Unternehmen über ihre Praktiken zur Entwicklung, Bewertung und Beseitigung von Vorurteilen in diesen Tools berichten“, schreiben die Forscher in ihrer Studie.

Wann ist ein Bewertungsalgorithmus „fair“?

Die Einstellungstests mit Hilfe von Algorithmen funktionierten über Fragen, Spiele und Video-Analysen, wie die Forscher herausfanden.

„Viele Anbieter erwähnen keine Bemühungen zur Bekämpfung von Vorurteilen, was insbesondere deswegen beunruhigend ist, da sie entweder gar nicht darüber nachdenken oder nicht transparent über ihre Praktiken informieren“, sagt Manish Raghavan, einer der Studienautoren.

Zwar hätten 16 der untersuchten Anbieter abstrakte Hinweise auf „Vorurteile“ gegeben. Aber nur sieben Anbieter hätten in Bezug auf ihre Bewertungsalgorithmen über die Einhaltung der Vorschriften oder negative Auswirkungen gesprochen.

Auf der Website der Cornell University heißt es, selbst in den Fällen, in denen die Anbieter von „Vorurteil“ und „Fairness“ sprechen, könne unklar sein, was genau mit diesen Begriffen gemeint sei. So könne ein Anbieter behaupten, der eingesetzte Bewertungsalgorithmus sei „fair“, während dieser nicht mitteile, wie er Fairness definiert.

„Wir wissen aus jahrelanger empirischer Forschung, dass Menschen eine Vielzahl von Vorurteilen haben, wenn es um die Bewertung von Bewerbern geht“, sagt Raghavan. „Die eigentliche Frage ist nicht, ob Algorithmen perfektioniert werden können; gezeigt werden müsse vielmehr, ob sie sich gegenüber alternativen Methoden oder in diesem Fall gegenüber dem menschlichen Status quo verbessern können.“

Algorithmus