KI als Kopf visualisiert

Diskriminierung bei der Jobsuche – ist KI die Lösung? 

Im Rahmen unseres Studitemps Campus Expert Talks haben wir uns der Frage gewidmet, inwiefern Künstliche Intelligenz (KI) ein probates Mittel gegen Diskriminierung bei der Jobsuche sein kann. Gesprächspartnerin von Carsten Dickmann ist Larissa Fuchs von FAIR. 

Künstliche Intelligenz ist im Alltag mittlerweile allgegenwärtig, verdeckt in Form von Social-Media-Algorithmen, die darüber entscheiden, welche Inhalte wir ausgespielt bekommen, offensichtlicher als Chatbots im Kundensupport oder tagtäglich bei der Gesichtserkennung mobiler Endgeräte. Hier steht die Effizienzsteigerung und Verbesserung der Kundenerfahrung im Vordergrund. Abgesehen davon bieten Algorithmen ebenfalls die Chance, Diskriminierungen einzudämmen.

Diskrimierung im Einstellungsverfahren der Status Quo

Nach wie vor sind Diskriminierungen bei der Jobsuche ein ernstzunehmendes Problem. So waren laut einer Befragung im Auftrag der Antidiskriminierungsstelle des Bundes von 4.000 Diskriminierungsfällen 23,9 Prozent dem Einstellungsverfahren zuzuordnen. Insgesamt 41 Prozent der Beratungsfälle, mit welchen sich die Antidiskriminierungsstelle befasst, beziehen sich auf das Arbeitsleben. Davon macht der Zugang zur Arbeit wiederum ein Drittel aus. Generell sind Vorurteile und Stereotype im Umgang miteinander üblich; die Jobsuche bildet hier keine Ausnahme. Nicht zuletzt bei den Unconscious Biases (unbewusste Vorurteile) oder Gender Biases (Geschlechtervorurteile/Stereotype) gibt es Verbesserungsbedarf. 

Schafft KI Abhilfe gegen Diskriminierung bei der Jobsuche? 

Die Künstliche Intelligenz befindet sich in vielen Bereichen noch in den Anfängen; auch, was das Recruiting anbetrifft, ist sie noch nicht komplett ausentwickelt. Gleichwohl ist anzunehmen, dass KI bei fortschreitender Entwicklung zu einem wichtigen Faktor bei der Stellenbesetzung werden kann. Wie in vielen Bereichen, so hat die Corona-Krise 2020 auch dort der Digitalisierung Vorschub geleistet und die Einführung neuer Methoden beschleunigt. Mögliche Anwendungsbereiche erstrecken sich mittlerweile bis hin zur Untersuchung von Kandidatenprofilen auf Handlungsweisen und Wertevorstellungen sowie deren Kompatibilität mit dem ausschreibenden Unternehmen – dem sogenannten Cultural Fit.

Studitemps Campus: Larissa Fuchs im Gespräch

Einen interessanten Ansatz für den Einsatz von KI gegen Diskriminierung und mehr Chanchengleichheit bei der Eignungsdiagnostik liefert das Projekt FAIR (Fair Artificial Intelligence Recruiting). Im Rahmen des Studitemps Campus Expert Talks hatte Carsten Dickmann, Team Manager Marketing bei Studitemps, Larissa Fuchs zu Gast. Larissa Fuchs ist Doktorandin an der Universität zu Köln und forscht zum Thema Diskriminierung am Arbeitsmarkt.

Was ist FAIR? 

FAIR ist ein Projekt von candidate select (CASE) sowie der Universität zu Köln, durchgeführt im Zeitraum vom 01. Januar 2020 bis zum 31. Dezember 2021. Die Zielsetzung von FAIR ist es, Diskriminierungsfaktoren im Recruiting durch den Einsatz von Algorithmen sowohl systematisch zu erkennen als auch zu beseitigen. Die EU sowie das Land NRW unterstützen das Projekt mit Fördermitteln. Studitemps ist assoziierter Projektpartner von FAIR. 

Wo setzt FAIR mit seiner KI an? 

FAIR hat sich zur Aufgabe gemacht, einen nachweislich fairen Algorithmus zu entwickeln und zu validieren, um den Status Quo rund um die Diskriminierung zu verbessern. Der FAIR-Algorithmus hilft bei der Vorselektion unbewusster Bias (Unconscious Biases) oder Geschlechtervorurteile (Gender Biases). Also ein KI-basiertes Recruitingtool, die nicht nur effizient, sondern darüber hinaus auch diskriminierungsfrei arbeitet.

Ist KI zu 100 % objektiv?

Künstlicher Intelligenz ist in der Theorie frei von Vorurteilen und somit objektiver als ein Mensch.  Jedoch sind Algorithmen, mithin auch solche für die Vorauswahl von Kandidatinnen und Kandidaten, auf Input bzw. Informationen angewiesen. Sie werden demnach auf Basis vorhandener Daten trainiert, sollen natürlich keinesfalls existierende Diskriminierungen übernehmen. FAIR möchte dem mit dem FAIR-Index entgegenwirken.

Dieser kann sowohl menschengemachte als auch algorithmenbasierte Diskriminierungen aufdecken, indem er abbildet, welche Personen “zu unrecht” eingestellt wurden und ob eventuell geeignete Kandidaten keine Beachtung fanden. Auch wenn Abweichungen nicht immer problematisch sind, ist eine kontinuierliche Benachteiligung spezifischer Personengruppen ein Hinweis auf systematische Benachteiligung. Algorithmen, welche derartige Diskriminierungen übernehmen, kann der FAIR-Index identifizieren. Sie lassen sich in der Folge angepassen, was zu einer Steigerung des Fairnessgrades im Recruiting führt. 

Studitemps Fazit

Recruiter sind Profis, aber auch Menschen. Als solche können sie sich auch trotz ihrer Erfahrung und spezieller Trainings nicht vollkommen von (unbewussten) Vorurteilen freisprechen. Indikatoren auf die Herkunft, das Geschlecht oder auch Foto können die Entscheidung beeinflussen; nicht ohne Grund wird in einigen Gesellschaften im Bewerbungsprozess kategorisch darauf verzichtet. KI kann Recruiter beim Lebenslaufscreening unterstützen, (besser) passende Profile vor dem vorschnellen Ausschluss bewahren und somit mehr Bewerberinnen und Bewerber zu fairen Einstellungschancen verhelfen.

Gleichzeitig eröffnen Systemlösungen dieser Art Unternehmen zu mehr Effizienz und Flexibilität, was insbesondere in Zeiten von Remote Work einen echter Pluspunkt darstellt. Auch wir setzen auf die Vorzüge moderner Technologie in Verbindung mit der Arbeit von Spezialisten auf ihrem Gebiet. Ein Beispiel dafür: das neue Studitemps Kundenportal.