Interview mit Hilke Schellmann
Das kann alles schiefgehen, wenn KI Bewerber bewertet

Die Journalistin Hilke Schellmann hat recherchiert, wie Künstliche Intelligenz das Recruiting in den USA verändert. Im Interview erklärt sie, wieso Algorithmen bei Entscheidungen oft danebenliegen.

23. April 2024, 14:58 Uhr, von Wiebke Harms, Wirtschaftsredakteurin

Hilke Schellmann KI
© da-kuk / E+ / Getty Images

impulse: Haben Sie vor Ihren Recherchen selbst Erfahrungen mit KI in Bewerbungsprozessen gemacht?
Hilke Schellmann: Ich beobachte da ein Gefälle zwischen den Generationen: Von meinen Studierenden an der New York University ­hatten die meisten zum Beispiel schon Bewerbungsgespräche für Nebenjobs über HireVue. Das ist eine Software für automatisierte Gespräche, die zum Beispiel viel im Einzelhandel oder in der Gastronomie genutzt wird. Arbeitnehmer über 30 hingegen haben oft noch keine Erfahrungen. Oft wissen Beschäftigte gar nicht, dass ihre Bewerbung von KI bewertet oder analysiert wird.

Sie warnen vor Benachteiligung durch die Technologie.
Ein Problem ist, wie die KIs trainiert werden: mit den Lebensläufen der Menschen, die auf derselben Position arbeiten oder gearbeitet haben. Daraus soll der Algorithmus dann lernen, welche Kriterien in der Firma erfolgreich machen. Ein Algorithmus hat aber keine Erfahrungen in der Arbeitswelt und ob die Gemeinsamkeiten tatsächlich relevant dafür sind, den Job gut zu machen, oder ob sie nur statistisch relevant sind.

Können Sie ein Beispiel dafür ­nennen?
Ein Anwalt, mit dem ich für mein Buch gesprochen habe, hat zum Beispiel herausgefunden, dass ein KI-System, das Lebensläufe auswertet, mehr Punkte vergeben hat, wenn das Wort Baseball vorkam. Wer hingegen Softball als Sport angegeben hat, bekam weniger Punkte. In Deutschland kennen Sie das vielleicht nicht, aber in den USA ist das ganz klar eine Geschlechterdiskriminierung.

Weil Frauen eher Softball spielen und Männer eher Baseball?
Ja. Und das passiert leicht mit KI-­Systemen: Kriterien, die wie das Hobby erst mal neutral aussehen, haben einen ­diskriminierenden Effekt. Die Maschine reproduziert Biases, die in den Daten stecken.

Die Expertin
Hilke SchellmannDie Journalistin und Emmy-Preisträgerin Hilke Schellmann aus Deutschland recherchiert seit 2017 zum Einfluss von KI-Systemen in den USA. Anfang 2024 ist ihr Buch "The Algorithm. How AI Decides Who Gets Hired, Monitored, Promoted and Fired and Why We Need to Fight Back Now" erschienen (Hachette Books, 336 Seiten, 13,99 Euro).

Sollten Unternehmen lieber darauf verzichten?
Für Unternehmen ist so eine automatische Vorauswahl sehr angenehm. Kein Personaler möchte ungefiltert 200 Bewerbungen in den Posteingang be­kommen. Sondern sie wollen gern ein ­Ranking haben und sich nur die besten 50 Bewerbungen anschauen. Die Frage ist jedoch: Wie kommt dieses Ranking zustande? Aber die Kriterien, nach ­denen die KI das Ranking erstellt, sind
oft nicht transparent für die Personalerinnen und Personaler. Sie bekommen eine Prozentzahl oder einen Score ­angezeigt, aber wissen nicht, was die Werte aussagen.

Bewertungen und Rankings suggerieren Exaktheit.
Ich bin selbst darauf hereingefallen, obwohl ich wusste, dass wissenschaftlich nichts dahintersteckt: als ich eine Software getestet habe, die zum Beispiel für Callcenter die Englischkenntnisse von Bewerberinnen und Bewerbern bewertet. Ich musste dafür meine Antworten auf automatisiert gestellte Fragen aufnehmen, die das System dann analysierte. Ich habe eine Bewertung von 8,5 von 9 bekommen. Ich muss zugeben: Ich war ein bisschen stolz darauf. Schließlich ist Englisch nicht meine Muttersprache. Dann wollte ich das System ­herausfordern und habe die Fragen noch einmal auf Deutsch beantwortet.

Warum haben Sie das gemacht?
Ich habe mich gefragt: Wie gut versteht das System Menschen, die eine Sprachbehinderung oder einen starken Akzent haben? Statt die Fragen zu beantworten, habe ich den deutschen Wikipedia-Artikel zur Psychometrie vorgelesen. Das ist die Wissenschaft der Messung von Persönlichkeitsmerkmalen. Ich ­hatte erwartet, eine Fehlermeldung zu bekommen. Stattdessen bekam ich wie zuvor eine E-Mail mit einer Bewertung: 6 von 9 Punkten. In der Mail stand auch, ich sei kompetent in Englisch.

Obwohl Sie im Test kein Wort ­Englisch gesprochen haben.
Solche Tests zeigen: Das System funk­tioniert nicht so, wie die Hersteller versprechen – was aus meiner Sicht ein riesiges Problem ist.

Was raten Sie Firmen, die KI im ­Recruiting einsetzen möchten?
Zuerst sollte man sich noch einmal ­genau anschauen: Ist KI wirklich eine Lösung für das Problem meiner Firma? Es gibt momentan einen Hype, aber die Technologie kann eben nicht alles erledigen. Und Firmen müssen die Hersteller der Software genau befragen, wie die Ergebnisse zustande kommen und wie sie korrekt interpretiert werden. Stellen Sie unbedingt Fragen wie: Was gibt ein Wert wie 80 Prozent Genauigkeit an? Wie genau funktioniert der ­Algorithmus?