Diskriminierende KI? Risiken algorithmischer Entscheidungen in der Personalauswahl
Ein WebTalk der Gesellschaft für Informatik e.V. (GI)
Diskriminierende Stereotypen in Bewerbungsverfahren, intransparente Auswahlkriterien oder der Umgang mit sensiblen persönlichen Daten aus Bewerbungsprozessen stellen erhebliche Herausforderungen für die Gestaltung von gerechten und insbesondere diskriminierungsfreien Personalauswahlprozessen dar. Der Wunsch von Arbeitgebenden, die idealen Mitarbeiter*innen zu finden und diese Prozesse gleichzeitig effizient, möglichst aufwandsfrei und rechtskonform für die eigene Organisation oder das eigene Unternehmen zu gestalten, macht diesen Bereich zudem zu einem interessanten Markt für innovative digitale Werkzeuge. Inzwischen versprechen eine ganze Reihe von Start-Ups, aber auch etablierte Unternehmen, die passgenaue Personalauswahl durch Einsatz Künstlicher Intelligenz bspw. bei der Sammlung und Bewertung von Daten aus Social-Media-Profilen (nicht nur auf Recruiting-Plattformen) oder mit automatischen psychometrischen Einstellungstests.
Demzufolge wird die Frage immer dringlicher, welche gesellschaftlichen Rahmenbedingungen es für algorithmische Systeme im Personalauswahlbereich geben muss, damit diese möglichst diskriminierungsfrei eingesetzt werden können.
Darüber diskutierten am 25. Mai 2021 beim abendlichen WebTalk der Gesellschaft für Informatik Elisa Lindinger (Superrr Lab, Mit-Autorin der Expertise "AI Powered Recruiting?"), Angela Tschech (Martin-Luther-Universität Halle-Wittenberg), Dr. Andreas Sesing (Universität des Saarlandes, ExamAI) und Dr. Andrea Knaut (Geschäftsstelle Dritter Gleichstellungsbericht).
Im Gutachten für den Dritten Gleichstellungsbericht ist dem Thema Personalauswahl und Algorithmen ein eigenes Kapitel gewidmet, das mit neun konkreten Handlungsempfehlungen abschließt – einige davon wurden im WebTalk vorgestellt. Die Referent*innen benannten konkrete Diskriminierungspotentiale und Beispiele, Probleme der Nachvollziehbarkeit und Überprüfbarkeit vermeintlich vorurteilsfreier algorithmischer Systeme. Sie diskutieren auch kurz den Entwurf des Artificial Intelligence Act der EU-Kommission. Dort werden Künstliche-Intelligenz-Systeme für die Personalauswahl zu den Hochrisikotechnologien gezählt, die besonders strenger Regulierung und Risikoprüfungen bedürfen; im Gutachten für den Dritten Gleichstellungsbericht wird aufgrund der gravierenden Diskriminierungspotentiale in einem gleichstellungspolitisch hochsensiblen Bereich sogar ein Verbot nicht ausgeschlossen.
Welcher Art und wie umfangreich die arbeits-, datenschutzrechtlichen Regulierungsanforderungen sowie mögliche Anpassungen des Allgemeinen Gleichbehandlungsgesetzes bei zunehmender Nutzung solcher Technologien sein müssten, lässt sich im WebTalk gut nachvollziehen. Deutlich wird vor allem, dass einem fortschreitenden Wildwuchs in diesem Bereich, so groß das wirtschaftliche Wachstumspotential hier auch erscheinen mag, Einhalt geboten werden muss.
Einen Mitschnitt der Veranstaltung gibt es auf dem YouTube-Kanal der GI.
Außderdem wurde die Veranstaltung in dem Arbeitspapier "Diskriminierende KI?
Risiken algorithmischer Entscheidungen in der Personalauswahl" dokumentiert.