Der Fall Mobley gegen Workday
Im Februar 2023 bewirbt sich Derek Mobley auf mehr als hundert Stellen. Viele davon laufen über die weltweit verbreitete HR Plattform Workday. Die Plattform nutzt KI Systeme, um Bewerbungen vorzufiltern. Mobley wird jedes Mal abgelehnt. Die Antworten kommen oft nach wenigen Minuten. Einmal weniger als eine Stunde nach Eingang der Bewerbung. Zu diesem Zeitpunkt ist es 1:50 Uhr in der Nacht.
Mobley ist Afroamerikaner, über vierzig Jahre alt und lebt mit Angststörungen und Depressionen. Er erhebt Klage gegen Workday. Sein Vorwurf lautet: systematische Diskriminierung aufgrund von Alter, Herkunft und gesundheitlichen Einschränkungen.
Workday verteidigt sich mit dem Argument, nur Softwarebereiter zu sein. Entscheidungen würden die Arbeitgeber treffen. Das Gericht folgt dieser Argumentation nicht und lässt die Klage zu. Im Mai 2025 erfolgt die Zertifizierung als Sammelklage. Workday selbst hat nach eigenen Angaben im relevanten Zeitraum rund 1,1 Milliarden Bewerbungen automatisiert abgelehnt. Millionen Betroffene könnten sich der Klage anschließen.
Was Unternehmen aus Deutschland daraus lernen müssen
Der Fall betrifft ein Recruiting Tool. Es geht um Jobabsagen und um Bewerberinnen und Bewerber, die sich diskriminiert fühlen. Doch die eigentliche Frage richtet sich an jedes Unternehmen, das KI im Recruiting einsetzt.
Angenommen Sie verwenden ein KI System zur Vorauswahl. Sie verlassen sich darauf, dass die Technologie objektiv und fair bewertet. Einige Monate später wird intern analysiert, wie das System arbeitet. Die Auswertung zeigt, dass das Tool hauptsächlich Männer unter vierzig Jahren bevorzugt. Andere Bewerber fallen systematisch durchs Raster. Eine Bewerberin klagt wegen Altersdiskriminierung. Ihr Unternehmen argumentiert, die Entscheidung habe die KI getroffen.
Nach deutschem Recht wird dieses Argument nicht tragen. Viele Unternehmen nutzen KI Systeme ohne deren Funktionsweise zu prüfen. Es gibt keine klaren Prozesse zur Überwachung. Es fehlt an Sensibilisierung, Dokumentation und Verantwortlichkeiten. Sobald eine Klage erhoben wird, wird sich zeigen: Die Verantwortung bleibt beim Unternehmen. Der Hinweis, lediglich Software einzusetzen, wird nicht schützen.
Was jetzt zu tun ist
Deutsche Unternehmen sollten den Einsatz von KI im Bewerbungsprozess umgehend überprüfen. Dazu gehören unter anderem folgende Schritte:
- klare Verantwortlichkeiten im Unternehmen für KI Systeme
- regelmäßige Prüfungen der Entscheidungskriterien
- Dokumentation der Funktionsweise und der Risiken
- Sensibilisierung von HR Abteilungen
- Entwicklung interner Leitlinien zur fairen KI Nutzung
Die entscheidende Frage
Setzt Ihr Unternehmen KI Systeme im Recruiting ein? Und wurde geprüft, ob diese Systeme diskriminierungsfrei arbeiten?
Gerne unterstütze ich Sie dabei, Ihre Prozesse rechtssicher zu gestalten und Risiken frühzeitig zu erkennen.