Diskriminierende KI? Risiken algorithmischer Entscheidungen in der Personalauswahl
Ein WebTalk der Gesellschaft für Informatik e.V. (GI)
Diskriminierende Stereotypen in Bewerbungsverfahren, intransparente Auswahlkriterien oder der Umgang mit sensiblen persönlichen Daten aus Bewerbungsprozessen stellen erhebliche Herausforderungen für die Gestaltung von gerechten und insbesondere diskriminierungsfreien Personalauswahlprozessen dar. Der Wunsch von Arbeitgebenden, die idealen Mitarbeiter*innen zu finden und diese Prozesse gleichzeitig effizient, möglichst aufwandsfrei und rechtskonform für die eigene Organisation oder das eigene Unternehmen zu gestalten, macht diesen Bereich zudem zu einem interessanten Markt für innovative digitale Werkzeuge. Inzwischen versprechen eine ganze Reihe von Start-Ups, aber auch etablierte Unternehmen, die passgenaue Personalauswahl durch Einsatz Künstlicher Intelligenz bspw. bei der Sammlung und Bewertung von Daten aus Social-Media-Profilen (nicht nur auf Recruiting-Plattformen) oder mit automatischen psychometrischen Einstellungstests.
Demzufolge wird die Frage immer dringlicher, welche gesellschaftlichen Rahmenbedingungen es für algorithmische Systeme im Personalauswahlbereich geben muss, damit diese möglichst diskriminierungsfrei eingesetzt werden können.
Darüber diskutieren am 25. Mai 2021 beim abendlichen WebTalk der Gesellschaft für Informatik Elisa Lindinger (Superrr Lab, Mit-Autorin der Expertise "AI Powered Recruiting?"), Angela Tschech (Martin-Luther-Universität Halle-Wittenberg), Dr. Andreas Sesing (Universität des Saarlandes, ExamAI) und Dr. Andrea Knaut (Geschäftsstelle Dritter Gleichstellungsbericht).
Einen Mitschnitt der Veranstaltung gibt es auf dem YouTube-Kanal der GI.