Werbung

Algorithmen an die Leine

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on email
Algorithmen an die Leine
Algorithmen an die Leine

Assessments im traditionellen Stil sind personalintensiv. Prognosen einer jüngsten McKinsey-Studie (Nov 18) mit Daten von 607 deutschen Unternehmen geben an, dass jedes dritte Unternehmen in 5 Jahren Profile von Bewerbern auf Onlineplattformen analysiert und durchschnittlich jedes vierte Unternehmen digitale Auswahltests durchführen wird. Das klingt angesichts des derzeitigen Digitalisierungshypes nach einer eher mässigen Nutzung im Rekrutierungsverfahren. Warum eigentlich?

Während Recruiter deutscher Unternehmen digitale Auswahltests evaluieren, kommen negative Erfahrungsmeldungen aus den USA. Und zwar ausgerechnet vom umstrittenen Arbeitgeber Amazon, der einen Rekrutierungs-Algorithmus schon nach einem Monat wieder abschaffte, da er sich als Frauen-diskriminierend entpuppte. Der Fehler lag in für den Algorithmus unsauber programmierten Auswahlkriterien. Da zum Zeitpunkt der Programmierung mehr Männer bei Amazon tätig waren, spuckte das nach sturen Abläufen folgende Datensystem die Information aus, dass männliche Mitarbeitende zu bevorzugen seien. Und das nur, weil schlicht mehr Daten über Männer im System vorhanden waren.

Aber solche systemischen Fehler unterlaufen bekanntlich auch echten Experten im Human Ressource Management. Eine Studie der North-Western University in Illinois, USA, zu „Unconscious Bias“ (unbewusste Voreingenommenheit) im Recruiting zeigt dass, HR-Manager die beispielsweise Golf spielen sich unbewusst lieber den Bewerber ins Boot holen der auch Golfspieler ist. Heißt, auch Menschen folgen in Entscheidungen ihren persönlichen Algorithmen, und diese gesellschaftspsychologische Programmierung ist wahrscheinlich schwieriger auszutreiben als die sichtbar gewordenen schlecht programmierten Algorithmen einer Maschine. Erkennbare automatisierte Fehler sind eine große Chance für zukünftig mehr unvoreingenommene Entscheidungen. Das unterschreiben Befürworter der Digitalisierung im HRM mit der Einsicht, dass die Black Box Mensch nie fehlerfrei agieren wird.

Für die Zukunft gilt es jedoch eine entscheidende Schnittstelle in der Kommunikationskompetenz besonders intensiv zu beachten: Programmierer oder Data Scientists haben einen mit hoher Wahrscheinlichkeit anderen Sprachgebrauch als Fachrekrutierende, die ihre Kriterien an sie weitergeben. Programmierer übersetzen oder interpretieren mit hoher Wahrscheinlichkeit nach bestem Wissen und Gewissen unbewusst diese Inhalte und glauben diese verstanden zu haben oftmals ohne sie zu hinterfragen. Damit entsteht allzu leicht ein fehlerhafter Algorithmus. Wohlgemerkt: Es geht hier nicht um Schuldzuweisung, dafür aber umso mehr um den erforderlichen Kompetenzaufbau für HR-Experten, die eigenen IT-Systeme zu verstehen. Und umgekehrt ist ein Befassen der IT-Experten mit sozialpsychologischem, HR-spezifischem Wissen ebenso wichtig für die Reduzierung von potenziellen unerkannten Missverständnissen.

Und wo evolutionäre Entwicklungen wie die Digitalisierung im Geschäftsalltag Einzug halten, gewinnen auch kritische Stimmen an Boden. So erarbeitet die Bertelsmann Stiftung zusammen mit dem Think Tank iRights.Lab im Rahmen des Projekts #algorules an einer Ethik, die – vergleichbar mit dem Pressekodex für die Medien einen Gütekriterienkatalog enthält, der wie eine Art TÜV für Algorithmen fungieren könnte. Einige Aspekte für diesen Katalog sind zum Beispiel:

  • eine Informationspflicht gegenüber den Kandidaten über den Einsatz von Algorithmen.
  • Beschwerde-Management-Mechanismen, die den Einzelnen erlauben Beschwerde einzulegen wenn der Eindruck entsteht, dass gesellschaftliche Grundwerte oder Rechte des Individuums verletzt werden.
  • Verantwortliche müssen designiert werden um dem System ein Gesicht zu geben, welches dokumentiert und unter Umständen neu bewertet.

„Die derzeit entstehende Professionsethik soll einen Siegel für Beschwerde-Mechanismen erhalten, der durch externe wissenschaftliche Organisationen kontrolliert wird“, fordert Carla Hustedt, Projektmanagerin bei der Bertelsmann Stiftung für Ethik für Algorithmen. Es sei extrem wichtig, bereits jetzt an Folge-Einschätzungen zu denken und dementsprechend Vorsorge-Mechanismen einzusetzen, so Hustedt. Gerd Billen, Staatssekretär im Bundesministerium der Justiz und für Verbraucherschutz (BMJV) begrüßt #algorules besonders, weil die Zivilgesellschaft hier mitredet; an einer öffentlichen Umfrage zur Einschätzung der Gütekriterien beteiligten sich Dezember 2018 rund 300 Menschen aus den unterschiedlichsten Berufsgruppen. Im Sommer 2019 wird nach Auswertung der Umfrage eine Veranstaltung zur möglichen Umsetzung der Algo-Regeln stattfinden.

Die Frage nach dem Bedarf einer Ethik in der HR-Branche scheint auch den Bundesverband der Personalmanager BPM zu beschäftigen. Im Dezember traf sich eine Mitgliedergruppe für ein erstes Kick-Off-Treffen, um sich offenen Fragen zu widmen, die ethische Richtlinien in People Analytics betreffen. Ein HR-Ethik-Beirat des BPM gründet sich derzeit neu für eine Erstellung von Ethik-Guidelines.

Auch Diversität liegt unserer Gesellschaft am Herzen und ist im Zuge des Fachkräftemangels auch nicht umgehbar. Wenn Diversität in der Rekrutierung weiterhin Priorität hat, dann sind stetige Kontrollen der algorithmischen Systeme durch den Menschen notwendig, um die Beherrschbarkeit sicherzustellen und kontinuierlich die gewünschten Variablen anzureichern, damit sich Pannen wie im Fall Amazon nicht wiederholen.

Autorin: Connie Voigt

Laut einer Studie von November 2018 des Stifterverbands und McKinsey & Company mit dem Titel „Wie Future Skills die Personalarbeit verändern“ werden neue digitale Technologien auch die Arbeit von Personalabteilungen in den Unternehmen massiv verändern. Digitale Auswahltests, Planspiele oder automatisierte Analysen von Bewerberprofilen auf Online-Plattformen werden für die Personalgewinnung und -entwicklung bis 2023 eine immer stärkere Rolle spielen. Die Personalabteilungen reagieren damit auf die Notwendigkeit, ausreichend Fachkräfte mit technologischen Fähigkeiten zu finden und die bestehende Belegschaft in neuen Schlüsselqualifikationen weiterzubilden. Für die Studie wurden mehr als 600 Großkonzerne, mittlere und kleine Unternehmen sowie Startups in Deutschland befragt.

Bildquellen

  • Algorithmen an die Leine: Ruslan Solntsev AdobeStock + 3dkombinat AdobeStock

Unternehmen der Autoren

Unternehmen aus dieser Kategorie

Ähnliche Artikel

ANZEIGE
Werbung
Kommende Events
Juni 2021
Juli 2021
Keine Veranstaltung gefunden
Weitere anzeigen
Finden

Melde dich jetzt zum HRM Newsletter an