Roboter-Recruiter: Können Vorurteile aus der KI-Einstellung verbannt werden? | Künstliche Intelligenz (KI)

Michael Scott, der Protagonist aus der US-Version von The Office, benutzt einen KI-Rekrutierer, um eine Empfangsdame einzustellen.

Guardian Australien gilt.

Das textbasierte System stellt den Bewerbern fünf Fragen, die sich damit befassen, wie sie auf frühere Arbeitssituationen reagiert haben, einschließlich des Umgangs mit schwierigen Kollegen und dem Jonglieren konkurrierender Arbeitsanforderungen.

Potenzielle Mitarbeiter geben ihre Antworten in ein chatähnliches Programm ein, das einem responsiven Helpdesk ähnelt. Dann setzt die wahre – und nervtötende – Kraft der KI ein, die ein Ergebnis- und Eigenschaftsprofil an den Arbeitgeber und einen Persönlichkeitsbericht an den Bewerber sendet. (Mehr zu unseren Ergebnissen später.)

Diese Demonstration des in Melbourne ansässigen Startups Sapia.ai ähnelt dem anfänglichen strukturierten Interviewprozess, der von seinen Kunden verwendet wird, zu denen einige der größten australischen Unternehmen wie Qantas, Medibank, Suncorp und Woolworths gehören.

Der Prozess würde normalerweise eine Auswahlliste erstellen, die ein Arbeitgeber weiterverfolgen kann, mit Einblicken in Persönlichkeitsmerkmale wie Demut, Extraversion und Gewissenhaftigkeit.

Wie ein KI-Sprachklon Centrelink täuschte – Video

Für Kundendienstrollen soll es einem Arbeitgeber helfen zu wissen, ob jemand liebenswürdig ist. Bei einer manuellen Position möchte ein Arbeitgeber möglicherweise wissen, ob ein Bewerber pünktlich erscheint.

„Sie interviewen im Grunde die Welt; Jeder bekommt ein Vorstellungsgespräch“, sagt Barb Hyman, Gründerin und Geschäftsführerin von Sapia.

Die Verkaufsargumente der KI-Einstellung sind klar: Sie können kostspielige und zeitaufwändige Prozesse für Unternehmen und Regierungsbehörden automatisieren, insbesondere für große Rekrutierungskampagnen für nicht leitende Positionen.

Sapias größte Behauptung könnte jedoch sein, dass dies der einzige Weg ist, jemandem ein faires Interview zu geben.

„Die einzige Möglichkeit, Vorurteile bei der Einstellung zu beseitigen, besteht darin, die Mitarbeiter nicht gleich beim ersten Gate einzustellen“, sagt Hyman. „Hier kommt unsere Technologie ins Spiel: Sie ist blind; Es ist ohne Zeitangabe, es verwendet keine Lebenslaufdaten oder Ihre Social-Media-Daten oder demografische Daten. Alles, was es verwendet, sind die Textergebnisse.“

Barb Hyman, Gründerin und Geschäftsführerin von Sapia, sagt, dass die Einstellung von KI die einzige Möglichkeit ist, jemandem ein faires Vorstellungsgespräch zu geben. Foto: Ellen Smith/The Guardian

Eine durchwachsene Erfolgsbilanz

Sapia ist nicht das einzige KI-Unternehmen, das behauptet, seine Technologie werde Vorurteile im Einstellungsprozess reduzieren. Eine Vielzahl von Unternehmen in ganz Australien bieten KI-erweiterte Rekrutierungstools an, darunter nicht nur chatbasierte Modelle, sondern auch einseitige Videointerviews, automatisierte Referenzprüfungen, Social-Media-Analysatoren und mehr.

Im Jahr 2022 ergab eine Umfrage unter australischen Behörden des öffentlichen Sektors, dass mindestens ein Viertel in diesem Jahr KI-gestützte Technologie bei der Personalbeschaffung eingesetzt hatte. Separate Untersuchungen des Diversity Council of Australia und der Monash University deuten darauf hin, dass ein Drittel der australischen Organisationen es irgendwann im Einstellungsprozess verwendet.

Bewerber wissen jedoch oft nicht, dass sie einem automatisierten Verfahren unterzogen werden und auf welcher Grundlage sie darin bewertet werden.

Das Büro des Merit Protection Commissioner weist öffentliche Stellen darauf hin, dass bei der Verwendung von KI-Tools für die Einstellung „ein klar nachgewiesener Zusammenhang zwischen den zu bewertenden Qualitäten des Kandidaten und den für die Erfüllung der Aufgaben der Stelle erforderlichen Qualitäten“ bestehen sollte.

Das Büro des Kommissars warnt auch davor, dass KI Kandidaten nach etwas anderem als dem Verdienst bewerten, ethische und rechtliche Bedenken hinsichtlich Transparenz und Datenverzerrung aufwerfen, voreingenommene Ergebnisse produzieren oder „statistische Verzerrungen“ verursachen kann, indem sozioökonomische Merkmale fälschlicherweise als Hinweis auf Erfolg interpretiert werden.

Es gibt gute Gründe für diese Warnung. Die Erfolgsbilanz von KI in Bezug auf Voreingenommenheit war besorgniserregend.

Im Jahr 2017 verschrottete Amazon stillschweigend ein experimentelles Kandidaten-Ranking-Tool, das mit Lebensläufen aus der überwiegend männlichen Tech-Branche trainiert worden war, und brachte sich effektiv selbst bei, dass männliche Kandidaten vorzuziehen seien. Das Tool hat die Lebensläufe von Frauen systematisch herabgestuftindem diejenigen bestraft wurden, die Ausdrücke wie „Frauenschachklubkapitän“ enthielten, und diejenigen, die Verben verwendeten, die häufiger in den Lebensläufen männlicher Ingenieure zu finden sind, wie z. B. „hingerichtet“ und „gefangen“.

Untersuchungen aus den USA im Jahr 2020 haben gezeigt, dass die Gesichtsanalysetechnologie, die unter anderem von Microsoft und IBM entwickelt wurde, schnitt bei hellhäutigen Probanden und Männern besser abmit dunkelhäutigen Frauen, die von den Programmen am häufigsten falsch geschlechtsspezifisch sind.

Letztes Jahr eine Studie von der Cambridge University gezeigt dass KI kein gutartiger Vermittler ist, sondern dass sie „indem sie Assoziationen zwischen Wörtern und Körpern von Menschen herstellt“ hilft, den „idealen Kandidaten“ zu produzieren, anstatt ihn nur zu beobachten oder zu identifizieren.

Natalie Sheard, Anwältin und Doktorandin an der La Trobe University, deren Doktorarbeit die Regulierung und Diskriminierung in KI-basierten Einstellungssystemen untersucht, sagt, dieser Mangel an Transparenz sei ein großes Problem für die Gerechtigkeit.

Mindestens ein Viertel der australischen Behörden des öffentlichen Sektors nutzte im Jahr 2022 KI-gestützte Technologie bei der Personalbeschaffung.
Mindestens ein Viertel der australischen Behörden des öffentlichen Sektors nutzte im Jahr 2022 KI-gestützte Technologie bei der Personalbeschaffung. Foto: JYPIX/Alamy

„Apps im Messenger-Stil basieren auf der Verarbeitung natürlicher Sprache, ähnlich wie ChatGPT, sodass die Trainingsdaten für diese Systeme in der Regel die Wörter oder Stimmlaute von Personen sind, die Standardenglisch sprechen“, sagt Sheard.

„Also, wenn Sie kein Muttersprachler sind, wie geht es mit Ihnen um? Es könnte bedeuten, dass Sie keine guten Kommunikationsfähigkeiten haben, wenn Sie keine englische Standardgrammatik verwenden, oder dass Sie andere kulturelle Merkmale haben, die das System möglicherweise nicht erkennt, weil es mit Muttersprachlern trainiert wurde.“

Ein weiteres Problem ist, wie körperliche Behinderungen in so etwas wie einem Chat- oder Videointerview berücksichtigt werden. Und angesichts der mangelnden Transparenz darüber, ob und auf welcher Grundlage Bewertungen mit KI vorgenommen werden, ist es für Kandidaten oft unmöglich zu wissen, dass sie möglicherweise angemessene Anpassungen benötigen, auf die sie einen gesetzlichen Anspruch haben.

„Es gibt gesetzliche Anforderungen für Organisationen, sich im Einstellungsprozess auf Behinderungen einzustellen. Aber das erfordert, dass Menschen ihre Behinderung direkt offenlegen, wenn sie diesem Arbeitgeber kein Vertrauen entgegenbringen. Und diese Systeme verändern traditionelle Rekrutierungspraktiken, sodass Sie nicht wissen, worum es bei der Bewertung geht, Sie wissen nicht, dass ein Algorithmus Sie bewerten wird oder wie. Sie wissen vielleicht nicht, dass Sie eine angemessene Anpassung benötigen“, sagt Sheard.

vergangene Newsletter-Aktion überspringen

Australien hat keine Gesetze, die speziell KI-Rekrutierungstools regeln. Während das Industrieministerium einen KI-Ethikrahmen entwickelt hat, der Prinzipien der Transparenz, Erklärbarkeit, Rechenschaftspflicht und Datenschutz enthält, ist der Kodex freiwillig.

„Das Verständnis in der Community für KI-Systeme ist gering, und weil Arbeitgeber sehr auf diese Anbieter angewiesen sind, setzen sie sie ein [the tools] ohne Governance-Systeme“, sagt Sheard.

„Arbeitgeber haben keine bösen Absichten, sie wollen die richtigen Dinge tun, aber sie haben keine Ahnung, was sie tun sollen. Es sind keine internen Aufsichtsmechanismen eingerichtet, keine unabhängigen Prüfungssysteme, um sicherzustellen, dass es keine Voreingenommenheit gibt.“

Eine Frage der Vielfalt

Laut Hyman zeigen Kundenfeedback und unabhängige Untersuchungen, dass die breitere Community mit Personalvermittlern, die KI verwenden, zufrieden ist.

„Sie brauchen ein Erlebnis, das einladend und integrativ ist und mehr Vielfalt anzieht“, sagt Hyman. Sie sagt, dass Sapias unzeitgesteuertes, stressarmes, textbasiertes System diese Kriterien erfüllt.

„Wenn Sie KI einsetzen, ist es doppelt so wahrscheinlich, Frauen einzustellen und Frauen im Einstellungsprozess zu halten. Es ist eine komplette Fiktion, dass die Leute es nicht wollen und ihm nicht vertrauen. In unseren Daten sehen wir das komplette Gegenteil.“

„Wenn Sie KI einsetzen, ist es doppelt so wahrscheinlich, Frauen zu bekommen und Frauen im Einstellungsprozess zu halten“, sagt Sapia-Gründerin Barb Hyman.
„Wenn Sie KI einsetzen, ist es doppelt so wahrscheinlich, Frauen zu bekommen und Frauen im Einstellungsprozess zu halten“, sagt Sapia-Gründerin Barb Hyman. Foto: Ellen Smith/The Guardian

Forschung des Diversity Council of Australia und der Monash University ist nicht ganz so begeistert, was zeigt, dass es eine „klare Kluft“ zwischen Arbeitgebern und Kandidaten gibt, die „bekehrt“ oder „vorsichtig“ gegenüber KI-Rekrutierungstools waren, wobei 50 % der Arbeitgeber auf die Technologie umgestiegen sind, aber nur ein Drittel der Stellenbewerber. Stellenbewerber der First Nations gehörten zu denjenigen, die sich am ehesten Sorgen machten.

DCA empfiehlt Personalvermittlern, transparent über die von ihnen eingerichteten Due-Diligence-Protokolle zu sein, um sicherzustellen, dass KI-gestützte Rekrutierungsinstrumente „vorurteilsfrei, inklusiv und zugänglich“ sind.

In der Sapia-Demonstration generiert die KI am Ende der Bewerbung schnell kurze Notizen mit Persönlichkeitsfeedback für den Interviewten.

Dies basiert darauf, wie jemand nach verschiedenen Markern bewertet, einschließlich Gewissenhaftigkeit und Verträglichkeit, die die KI mit vorgefertigten Sätzen abgleicht, die etwas ähneln, das ein Lebensberater sagen könnte.

Eine gründlichere Bewertung – für den Bewerber nicht sichtbar – würde an den Personalvermittler gesendet.

Sapia sagt, dass seine Chat-Interview-Software die Sprachkenntnisse analysiert hat, wobei auch ein Obszönitätsdetektor enthalten ist, wobei das Unternehmen sagt, dass dies wichtige Überlegungen für Rollen mit Kundenkontakt waren.

Laut Hyman basiert die Sprachanalyse auf „Milliarden Wörtern an Daten“, die in den Jahren seit der Gründung des Technologieunternehmens im Jahr 2013 aus Antworten gesammelt wurden. Die Daten selbst sind urheberrechtlich geschützt.

Du bist (nicht) angestellt!

Könnte Guardian Australian also für Michael Scott bei der fiktiven Papierfirma Dunder Mifflin arbeiten?

„Sie sind selbstbewusst, aber nicht übermäßig selbstbewusst“, heißt es im Persönlichkeitsfeedback als Antwort auf die Bewerbung von Guardian Australia bei der KI-Demonstration.

Es folgt ein subtiler Hinweis darauf, dass dieser Bewerber möglicherweise nicht gut für die Rolle des Rezeptionisten geeignet ist, die „Wiederholung, Routine und das Befolgen eines definierten Prozesses“ erfordert.

Aber es hat einige hilfreiche Ratschläge: „Gleichen Sie das möglicherweise mit Abwechslung außerhalb der Arbeit aus.“

Sieht so aus, als ob wir nicht gut für diesen Job geeignet sind.

source site-27