Predictive hiring

8 min. Lesung

Welche Lehre ziehen wir aus dem sexistischen Algorithmus von Amazon?

Vor 3 Jahren führte Amazon ein Experiment zur Automatisierung der CV-Vorauswahl durch! Lesen Sie jetzt den vollständigen Artikel.

Fassen Sie diesen Artikel zusammen mit:

Wenn Sie direkt oder indirekt in der HR-Abteilung arbeiten (und erst recht im Recruiting), haben Sie die Neuigkeit bestimmt mitbekommen...

⚠️ BREAKING NEWS ⚠️

Dutzende und Aberzehnte von Posts dieser Art wurden seit dem letzten Wochenende veröffentlicht (Nachrichtenseiten, LinkedIn…), um die Neuigkeit weiterzugeben...

#KurzZusammengefasst… worum geht es wirklich?

Vor 3 Jahren führte Amazon ein Experiment durch, um die CV-Vorauswahl zu automatisieren.

Die Idee: einen Algorithmus zu entwickeln, der 100 CVs analysieren, sie auf 5 Sterne bewerten und daraus die 5 besten Profile in Bezug auf die Erfolgswahrscheinlichkeit im Unternehmen herausfiltern kann.

Und dann… unglaublich!

Man stellt fest, dass es nicht funktioniert.

Schlimmer noch, der Algorithmus schloss fast systematisch die CVs von Frauen aus.

#NotFair #BalanceTonAlgorithme

Als HR-Fachkraft, welche Lehre ziehen Sie aus diesem „gescheiterten Experiment"?

Ein Algorithmus wird nicht „sexistisch" geboren… er wird es.

Ein Algorithmus ist niemals von Natur aus voreingenommen, sexistisch, rassistisch oder diskriminierend.

Er ist nur die Formalisierung eines von Menschen parametrierten Prozesses.

Im Fall von Amazon wurde die KI mit Daten aus den CVs von bereits im Unternehmen tätigen Personen trainiert.

Sie hat daher die Entscheidungen der HR-Teams über mehrere Jahre hinweg reproduziert.

1 — Zunächst die Frage des CVs

Wenn man eine KI mit CVs trainiert, liefert man ihr nur:

– akademische Werdegänge (Abschlüsse, Schulen)

– berufliche Werdegänge (Positionen, Dauer, Sektoren)

2 — Die Natur der Stichprobe

Zu diesem Zeitpunkt hatte Amazon mehr als 60 % Männer.

Eine KI, die auf einer hauptsächlich männlichen Stichprobe trainiert wird, lernt logischerweise männliche Regeln...

3 — Die menschlichen Vorurteile des HR-Teams

Menschen sind fehlbar und unterliegen zahlreichen Vorurteilen.

Der Algorithmus hat dieses System nur modelliert und daher diese Vorurteile reproduziert.

⚠️ Wichtig:

Wenn man dieselbe KI auf die CVs anderer Unternehmen anwenden würde, würde man wahrscheinlich Algorithmen erhalten, die diskriminieren gegen:

– Frauen

– Personen über 45 Jahre

– Menschen mit Behinderungen

– Personen mit fremd klingenden Namen

... und andere mehr.

Sollen wir deshalb mit Algorithmen im Recruiting Schluss machen?

Sich die Hälfte der Talente zu entziehen ist ein enormes Problem.

Aber zu dem Schluss zu kommen, dass Algorithmen „gefährlich" oder „unausgereift" sind, wäre ein Fehler, der vergleichbar wäre damit zu sagen, dass man Autos verbieten muss, weil ein betrunkener Fahrer einen Unfall hatte...

Wäre das eigentliche Problem nicht vielmehr... die Auswahl auf Basis von CVs?

Alle sind sich einig, dass das CV kein guter Prädiktor für den beruflichen Erfolg ist.

Dennoch verwenden praktisch alle Unternehmen es weiterhin als Hauptfilter.

Wenn man schwache Daten (CVs), aus einer männlichen Stichprobe stammend, in eine KI einspeist... ist es schwer, etwas anderes als Verzerrungen zu erwarten.

Außerdem bleiben HR auch in CAC40-Unternehmen mit Data Scientists oft das Stiefkind: viele Ressourcen für Marketing und Geschäft... aber selten für HR.

Und doch kann heute jedes Unternehmen eine wirklich bessere Vorauswahl treffen.

Vergleichen wir:

Auf der einen Seite:

das CV

(akademischer und beruflicher Werdegang)

Auf der anderen Seite:

wer die Person wirklich ist

(intellektuelle Agilität, Lernfähigkeit, Motivationen, Persönlichkeit, Verhaltensweisen bei der Arbeit)

Welche dieser beiden Kategorien sagt wirklich die Leistung, die Integration, die kulturelle Passung voraus?

Sie können Ihre Vorauswahl automatisieren… ohne den „Amazon-Effekt" zu reproduzieren

Recruiting-Tests allein reichen nicht aus.

Sie müssen mit einem prädiktiven Modell verknüpft werden, d. h. der Definition von:

– den erwarteten Kriterien

– und ihrer Verbindung zur Leistung in der Stelle

Wie erstellt man ein prädiktives Modell?

Schritt 1:

Mitarbeiter in der Stelle mit Fragebögen bewerten:

– Persönlichkeit

– Motivationen

– Denkstil

Schritt 2:

Ihr Leistungsniveau nach dem Kriterium bewerten, das man vorhersagen möchte.

"Wir wissen es nicht, wir haben die Daten nicht!"

⚠️ Wenn ein Unternehmen die Leistung nicht bewerten kann, kann kein Tool die Qualität seiner Einstellungen verbessern.

Es kann die Candidate Experience verbessern, Statistiken extrahieren... aber niemals den Erfolg vorhersagen.

Wenn ein „Experte" vorgibt, zu helfen, ohne diese Daten zu verlangen, sollten Sie das Weite suchen.

„Und wenn mein Unternehmen historisch gesehen hauptsächlich Männer eingestellt hat?"

Kein Risiko, einen „Amazon-artigen" Bias zu reproduzieren.

Psychologische und verhaltensbasierte Kriterien sind unabhängig von Geschlecht, Alter oder Herkunft in der Bevölkerung sehr gut verteilt.

Die Ergebnisse des prädiktiven Recruitings

Im Durchschnitt wählen Unternehmen, die prädiktives Recruiting einsetzen:

– Mitarbeiter, die 20 % leistungsfähiger sind

– beschleunigen ihre Prozesse um 30 %

– reduzieren ihre Kosten um etwa 20 %

– senken ihre Fluktuation um 50 % bei sensiblen Positionen

Ist das Magie? ✨🔮✨

Überhaupt nicht.

Sie haben einfach angefangen, Mitarbeiter einzustellen, indem sie sich dafür interessierten, wer die Menschen wirklich sind, anstatt nur auf ihren Lebenslauf zu schauen.

Und wissen Sie was?

Wenn man sich wirklich für die Menschen interessiert... erzielt man bessere Ergebnisse.

Erstaunlich, nicht wahr?

Ähnliche Artikel

Predictive hiring
Big Five vs MBTI: Warum Recruiter auf prädiktive Modelle setzen

Dec 22, 2025 · Verfasst von David Bernard

Predictive hiring
Hard Skills: Warum das 360-Grad-Feedback nicht ausreicht

Nov 20, 2025 · Verfasst von David Bernard