corporate007 © 2016 JaninaLaszlo

00:00:00
Alexander Petsch: Glückauf und herzlich willkommen zu den heutigen HRM Hacks. Mein Name ist Alexander Petsch, ich bin der Gründer des HRM Institutes, euer Gastgeber. In unserer heutigen HRM Hacks Folge spreche ich mit Daniel Mühlbauer zu Hacks, um KI im HR sinnvoll zu nutzen. Daniel Mühlbauer ist absoluter Experte zum Thema KI People Analytics. Ich kann euch übrigens seinen Blog HR Datenliebe ans Herz legen. Für alle die, die da noch mehr und tiefer einsteigen wollen, bestimmt eine gute Quelle. Daniel hat eine Reihe von Funktionen im HR schon innegehabt, auch übrigens Co-Founder von functionHR, einem Münchner jetzt nicht mehr ganz so Start-up. Das gibt es, glaube ich, schon seit 2016. Und ist jetzt Experte für HR IT bei Siemens. Und ja, wir haben schon einen Podcast zusammen gemacht vor einer Weile und ich freue mich, dass du wieder bei uns bist, Daniel. Herzlich willkommen!

00:01:04
Dr. Daniel Mühlbauer: Herzlichen Dank für die erneute Einladung und die Möglichkeit, zu meinem zweiten Lieblingsthema zu sprechen.

00:01:10
Alexander Petsch: Ja, was ist das eigentlich, wenn alle immer von künstlicher Intelligenz reden? Wie siehst du das denn?

00:01:18
Dr. Daniel Mühlbauer: Ja, Vision und Wirklichkeit klaffen hier sehr stark auseinander. Künstliche Intelligenz ist ein Sammelbegriff. Ein Sammelbegriff für eine ganze Reihe von Verfahren der modernen angewandten Statistik, insbesondere das sogenannte maschinelle Lernen. Und ohne hier zu technisch werden zu wollen, kann man sich eigentlich merken, dass es zwei Dinge gibt. Das eine ist die Vision einer künstlichen Intelligenz. Also wirklich einer intelligenten Maschine, sehr adaptiv, lernfähig und in der Lage, Probleme zu lösen eigenständig, autonom und das auch noch besser als jeder Mensch. Oder bei der Superintelligenz sogar besser als alle Menschen zusammen. Das ist so das, was man häufig aus den Filmen kennt. Wenn dann irgendwie der meistens böse KI-basierte Roboter sich entscheidet, dass die Menschheit vielleicht gar nicht so ein wertvoller Bestandteil dieser Erde ist. Das ist so das, was man kennt in den ganzen Terminator-Szenarien oder auch in den positiv besetzten Szenarien, wo KI irgendwie zum Einsatz kommt. Die Realität ist häufig eine ganz andere, nämlich dass Systeme künstlicher Intelligenz auf sogenannter schwacher KI aufbauen. Das heißt, das sind Maschinen, die durch Unmengen von Daten in einem sehr gut abgrenzbaren Bereich exzellent trainiert wurden. Beispiel: Die können super gut Schachspielen spielen. Die sind mit allen Daten der Welt, die es übers Schach gibt, trainiert worden, um alle möglichen Züge im Schach zu kennen, die eben ein Mensch sich nie komplett merken kann. Egal wie gut diese Person Schach spielen kann, der hat oder die hat wahrscheinlich nie alle möglichen Züge direkt im Kopf und bereit. Und das war eben auch der Grund dafür, warum KI-basierte Systeme es geschafft haben, eben selbst die besten menschlichen Spieler im Schach zu schlagen. Und dasselbe ist dann eben in komplexeren Spielwelten wie dem Go im koreanischen Brettspiel auch passiert. Aber es ist eben dennoch alles… Alle Anwendungen, die wir heute haben, auch in den HR-Tools übrigens, die sich KI schimpfen, da handelt es sich eigentlich um sehr speziell trainierte Verfahren maschinellen Lernens, sogenannte schwache KI.

00:03:37
Alexander Petsch: Jetzt bin ich ein bisschen enttäuscht.

00:03:39
Dr. Daniel Mühlbauer: Ich auch.

00:03:42
Alexander Petsch: Okay, Minute vier, Podcast zu Ende. Doesn’t rock. Nein, ich hoffe, so ist es nicht. Unser Thema ist ja Hacks für schwache KI im HR sinnvoll nutzen, wenn ich so ergänze.

00:03:57
Dr. Daniel Mühlbauer: Ja, ich muss auch ehrlich sagen, dass ich den deutschen Begriff der schwachen KI als Übersetzung des amerikanischen oder US-amerikanischen Begriffs der Narrow AI sehr schlecht finde. Im Englischen spricht man tatsächlich von Narrow AI, also enger KI, die im Grunde sehr begrenzt ist mit Blick auf ihr Fähigkeitsportfolio. Das heißt, da ist eben eine KI, um das vielleicht mal in den Kontext von HR zu holen, die kann basierend auf allen Daten, die dazu existieren, Aussagen darüber machen, welcher Bewerber, welche Bewerberin wahrscheinlich ganz gut zu der ausgeschriebenen Stelle passt. Diese selbe KI wird ohne sehr aufwendige weitere Rechenoperationen aber jetzt nicht in der Lage sein, eine virtuelle Tour durch den Standort anzubieten, sondern das ist eine völlig andere Form von Algorithmus, eine völlig andere Form von Frontend auch. Das ist nicht nur eine Maschine, die dir irgendeine Prozentzahl der Passung von Menschen zu einer Stelle ausgibt, sondern das muss dann irgendwie eine Chatbot- und virtuelle Assistenzoberfläche auch noch haben und so weiter und so fort und braucht völlig andere Algorithmen der natürlichen Sprachverarbeitung zum Beispiel. Und das kann man nicht einfach so switchen. Und wenn man das jetzt mal mit der menschlichen Intelligenz vergleicht, dann könnte man sagen, dass das eben auch hier ein Entwicklungsprozess ist. So wie Menschen ihre Intelligenz auch nicht nur über den Selektionsprozess in der Biologie entwickelt haben, sondern auch in jedem Leben ja ein Kleinkind, ein Baby erst bestimmte Dinge erlernt über die Zeit. Über ganz viel Trial and Error und ganz viel Dateninput lernt ein Kind zu sprechen, lernt ein Kind zu laufen, lernt ein Kind zur Schule zu gehen und sich sozial zu verhalten in größeren Gruppen. Und dann eben auf dem Weg ins Erwachsenenwerden verlernt es auch ganz viele tolle Dinge wieder. Aber im Grunde ist das die Imitation dieses Prozesses. Das ist das, auf dessen Weg wir uns befinden. Warum ist das weniger ernüchternd, als es sich gerade anhörte? Diese Entwicklung geht unheimlich schnell und es ist durchaus wahrscheinlich, dass wir dann immer mal wieder Sprünge erleben in den Fähigkeiten solcher Systeme. Ein gutes Beispiel sind die ganzen Systeme zur Sprachverarbeitung. Also dass man heute nicht nur mit virtuellen Assistenzsystemen schon ganz gut kommunizieren kann, sondern dass man heute mit KI-basierten Systemen, wo man nur ein paar Schlüsselbegriffe eingeben muss und dann werden ganze Social Media Posts… Oder wenn man an GPT-3 denkt. Das ist eine Technologie, die ich hier mal nennen will. Da werden ganze Blogbeiträge oder sogar Buchkapitel auf einem Niveau geschrieben, wo man sagt, oh, interessant, dass das aus einer Maschine kommt. Da gibt es tatsächlich Studien, die jetzt ganz kürzlich veröffentlicht wurden im Marketingbereich. Da wurden Social Media Texte einmal von der Maschine und einmal von Menschen entworfen und dann wurde das an Menschen verschickt. Und die sollten raten, was von der Maschine kommt und was von Menschen kommt. Und es war eine Studie, die zu dem Ergebnis kam, dass die Menschen das nicht mehr unterscheiden konnten, was da jetzt von der Maschine geschrieben wurde und was von Menschen geschrieben wurde. Und sie fanden teilweise signifikant häufiger den maschinellen Text sogar persönlicher. Das fand ich sehr interessant und zeigt einfach, auf welchem Niveau das schon ist. Aber es ist eben sehr eng. Sehr narrow, zweckbezogen.

00:07:12
Alexander Petsch: Jetzt müsst ihr ganz hart sein, ihr Fußballfaninnen und -fans da draußen. Ein Großteil der Fußballberichterstattung ist maschinell erstellt und ihr merkt das auch nicht.

00:07:23
Dr. Daniel Mühlbauer: Sonst wären die nicht so schnell.

00:07:26
Alexander Petsch: Ja, mit Kachelmann Wetterdaten aggregiert und all solchen Späßen. Ja, spannende Entwicklung. Ja, aber noch mal zurück zu HR. Wie kann ich denn KI im HR sinnvoll nutzen oder wie kann ich sie sinnvoller nutzen?

00:07:42
Dr. Daniel Mühlbauer: Die Betonung liegt wirklich auf diesem sinnvoll. Das ist mir sehr wichtig und es ist echt eine Herzensangelegenheit. Ich glaube, der allererste Schritt – und das ist schon so ein Hack – liegt tatsächlich nicht auf der maschinellen Seite. Der erste Hack liegt darin, diese Systeme vernünftig verstehen zu können. Eine Kompetenz sich aufzubauen im HR, die ausreichend in der Lage ist, verschiedene Lösungen zu systematisieren und damit besser zu verstehen, was sinnvolle Einsatzgebiete sind. Und ich kann ein sehr konkretes Beispiel geben, wo das nicht so gut im Moment funktioniert. Aus meiner ganz persönlichen Sicht. Ich will da niemandem zu nahe treten, aber aus meiner ganz persönlichen Sicht gibt es da draußen deutlich zu viele HR-Tools, die versuchen, aus irgendwelchen Gesichtszügen oder Gesichtsregungen plus Gestiken und Stimmlagen die Persönlichkeit von Menschen abzuleiten. Das ist nach allem, was mir bewusst ist über die wissenschaftliche Seite dessen bestenfalls eine Scheinkorrelation und eigentlich aus meiner persönlichen Sicht nicht für die breite Masse sinnvoll zu diesem Zeitpunkt einsetzbar. Das gehört in das Reich der Wissenschaft. Dazu sollte weiter geforscht werden. Ich finde das ganz spannend, diese Applikationen. Aber es ist eben nichts, was aus meiner Sicht in den Verkauf gehört, wo ja Menschen dann ja auch unter diesen Entscheidungen, die da getroffen werden – dass man als so oder so Persönlichkeit gilt, ja auch im Recruiting oder so – vielleicht leiden können. Und das ist so ein klassisches Beispiel. Ein wohl aufgeklärter HR Professional kann zumindest die Grenze der aktuellen technischen Entwicklung mit Blick auf „Wo überschreiten wir die Grenze zum Snake Oil, zum Schlangenöl? Wo überschreiten wir die?“… Der kann das einschätzen. Dieser wohl aufgeklärte HR Professional kann diese Grenze einschätzen und kann sagen, da lasse ich heute noch die Finger von. Ich nehme erst mal die Sachen, die heute schon gut gehen und die auch technisch sauber aufsetzbar sind. Und dann schaue ich mir die anderen Sachen in der wissenschaftlichen Entwicklung an und dann setze ich die ein, wenn die so weit sind.

00:09:46
Alexander Petsch: Was geht denn heute gut im HR KI-Umfeld?

00:09:51
Dr. Daniel Mühlbauer: Ja, ich denke, so Recommendation Engines zum Beispiel, die wir von Netflix kennen oder von Amazon. Leute, die das kauften, kauften auch. Oder Leute, die diesen Film schön fanden, fanden auch diesen Film schön. Wenn man das zum Beispiel auf die Daten im HR loslässt und sich dann ganz konkret mal in einem Trainingskatalog einer E-Learning-Plattform zum Beispiel weitere Trainings vorschlagen lässt auf Basis seiner eigenen, bisher durchlaufenden Trainings. Also ein bisschen wie das Netflix für Trainings halt. Das ist, glaube ich, etwas, das ist sehr gut erprobt. Da sind auch die Algorithmen dahinter schon nicht mehr ganz so jung. Und vor allem… Und das ist ja das, was bei der Kritik gerade so durchdringt, sind halt auch die theoretischen Zusammenhänge dahinter nicht so vage, sondern das ist was sehr enges, was sehr gut Trainierbares. Das ist so ein Beispiel. Matching kennt man ja nun auch aus dem privaten Bereich, aus den entsprechenden Apps, die dafür sorgen, dass Menschen miteinander gematcht werden. Ich denke, solche Matching-Algorithmen, wo Personen auf Jobs gematcht werden, wo Personen auf Trainingsmöglichkeiten gematcht werden, wo vielleicht auch Projekte besetzt werden, basierend auf Fähigkeitsmatches, sind zumindest technisch sehr gut möglich. Ob die Daten dahinter im eigenen Unternehmen schon so sind, dass man damit auch sinnvoll trainieren kann, also den Algorithmus so weit trainieren kann, dass der auch wirklich recht zuverlässige Entscheidungen trifft, das ist eine wirklich noch mal davon zu trennende Fragestellung. Da muss man dann in seine eigene Datenlandschaft gucken, ob das so ist. Aber technisch sind diese Dinge möglich. Im Grunde, um hier vielleicht noch ein bisschen etwas zu addieren oder noch etwas zu liefern an der Stelle, Ausreißer-Analysen, sogenannte Anomalie-Entdeckung, Anomaly Detection ist etwas, wofür Algorithmen schon sehr lange eingesetzt werden. Zwar eher im Bereich des Betrugs und der Kreditvergabe usw., aber das ist etwas, wofür Algorithmen sehr gut gemacht sind. Aber eben auch Clusteranalysen. Also wenn man verschiedene… Wenn man in einer großen Menge von Daten nach Mustern suchen möchte. Das könnte zum Beispiel für Karriereanalysen sehr gut eingesetzt werden. Wenn man in einer riesigen Menge aus ständigen Karrierebewegungen in einem großen Unternehmen schauen möchte, gibt es typische Karrierepfade? Das ist etwas, was man mit KI, also maschinellem Lernen genau genommen… Jetzt muss ich da ja auch selber ein bisschen genauer sein, wenn ich das schon so hart einführe am Anfang. Das ist etwas, was man wahrscheinlich schon sehr gut machen kann. Diese Recommendations kann man wahrscheinlich auch sehr gut machen heute schon.

00:12:31
Alexander Petsch: In Amerika ist dieses ganze Business Background Check ein unfassbar großes Business. Also im Vergleich zu dem, was wir hier machen oder alles nicht machen. Also das wäre aus deiner Sicht auch so ein Einsatzfeld Anomalien? Ich sage mal, es gibt ja auch bei Arbeiten Literatur, wird ja auch viel ausgewertet, aber so in die Richtung denkend, es ist…

00:13:02
Dr. Daniel Mühlbauer: Absolut. Mit dem Disclaimer, dass es natürlich auf die Daten ankommt dahinter. Das heißt, man kann das sehr gut für deterministische Bereiche oder determinierbare, strukturierbare Bereiche einsetzen. Also in deinem Beispiel Background Checks. Wenn die Kriterien für einen Background Check das, was am Ende darüber entscheidet, ob du den schaffst oder nicht schaffst… Wenn die sehr gut explizierbar sind und sehr gut strukturierbar sind und sich nicht zu sehr auf Guess Work in irgendwelchen sozialen Medien oder so durch die Äußerungen von Menschen, die dann vielleicht so klassifiziert werden oder so, füttern, dann ist es sehr gut einsetzbar. Wir alle wissen, dass es auch schon sehr starke Fehlentscheidungen gegeben hat. Menschen zum Beispiel auf die No Fly Liste zu setzen aufgrund von irgendwelchen Problemen, die eigentlich keine waren, dann… Ja, das ist natürlich ein Datenqualitätsproblem. Da kann der Algorithmus nichts für. Der ist ja erst mal stumpf und leidenschaftslos als solches.

00:14:06
Alexander Petsch: Ja, du hast es ein paar Mal erwähnt. Also wahrscheinlich der sinnvolle Einsatz von KI ist immer nur auch dann möglich, wenn man halt wahnsinnig viele Daten hat.

00:14:16
Dr. Daniel Mühlbauer: Ja. Also ein sehr gutes Beispiel ist das Recruiting. Das Recruiting hat in vielen Unternehmen eine… Also die Recruiting-Daten sind um ein vielfaches größer als die Unternehmensdaten. Einfach auch in Zeiten des Fachkräftemangels, der überall besprochen wird, ist es dann doch noch häufig so, dass sich im Schnitt mehr als eine Person bewirbt pro Stelle. Und dadurch wächst natürlich dieser Datensatz überproportional schnell an. Je nachdem, wie viele Stellen man ausschreibt übers Jahr, wie viele Leute gehen und so weiter und so fort, ist dieser Datensatz häufig sehr groß. Wenn man es geschafft hat, im Hintergrund eben auch entsprechende Einwilligungen von den Bewerbenden einzuholen, dann kann man diese Daten ja auch ein Stück weit vorhalten im Rahmen der gesetzlich erlaubten Löschfristen und damit natürlich dann auch Algorithmen trainieren. Man darf jetzt nicht vergessen, dass natürlich Anbieter da auch eine Stärke haben, dass ja ihre Software, ihre Recruiting-Software nicht nur in einem Unternehmen eingesetzt ist, sondern vielleicht in ganz vielen Unternehmen zum Einsatz kommt. Und dann können die prinzipiell ihre Algorithmen ja auch mit den Daten von all diesen Unternehmen trainieren und nicht nur von einem Unternehmen. Das heißt, da kann natürlich schon mal ein Training der Algorithmen stattfinden, gerade wenn der Anbieter sehr weite Verbreitung gefunden hat, die sehr robust ist. Viel robuster als im Einzelunternehmen. Und das ist häufig ein Trugschluss, den ich vielleicht als Hack noch so mitliefern kann. Anders als bei unserer anderen Folge, wo wir über Analytics gesprochen haben, KI im Kontext des HR kann auch von kleineren Unternehmen eingesetzt werden, wenn sie vor allem zur intelligenten Automatisierung genutzt wird. Weil ich diese KI ja nicht zwingend mit meinen eigenen Daten trainiert haben muss. Sondern wenn die Daten repräsentativ waren, dann kann das ja auf Anbieterseite schon erfolgt sein und kann bei mir ganz gut funktionieren. Klassisches Beispiel ist dieser… Ich weiß nicht mehr genau, wie das heißt. Diese A1 Bescheinigung, glaube ich, für Reisen innerhalb der EU oder so. Das ist ja ein komplett deterministischer Raum, wo es nur darum geht, einen administrativen Prozess zu erfüllen. Und dazu kann ich ein sehr kleines Unternehmen sein und trotzdem eine gut trainierte KI einsetzen, die quasi dieses Formular immer automatisch befüllt, wann immer einer in seinem Outlook einträgt, dass er jetzt eine Dienstreise macht.

00:16:26
Alexander Petsch: Spannend. Kannte ich noch gar nicht als Lösung.

00:16:29
Dr. Daniel Mühlbauer: A1 glaube ich. Ja, ich weiß nicht genau…

00:16:30
Alexander Petsch: Aber haben wir auch immer wieder natürlich Themen. Ja, da muss ich doch direkt mal forschen, was es da für Lösungen zu gibt.

00:16:38
Dr. Daniel Mühlbauer: Ja, ich glaube, dass dieser Punkt des sinnvollen Einsatzes ist auch noch… Ein Element, das ich da gerne noch reinbringen will, ist, wir selbst entscheiden natürlich auch über den sinnvollen Einsatz. Das ist ein Werkzeug und mag es auch noch so intelligent werden über die nächsten Jahrzehnte bleibt es bestenfalls ein Werkzeug. Und das heißt, wir als Menschen müssen uns so weiterbilden, dass wir den sinnvollen Einsatz vorher entscheiden. Dinge, die mit unseren ethischen und moralischen Grundsätzen entweder in dem jeweiligen Unternehmen oder auch als Individuum nicht vereinbar sind, dort sollten wir eben auch nicht, nur weil es eine coole Lösung gibt oder ein fancy Tool, dieses Tool einsetzen. Das heißt, die Sinnhaftigkeit, die entsteht nicht nur aus der Funktionalität, also dass ein Tool gut funktioniert, sondern auch, ob dieser Bereich ein Ort ist, wo ich das einsetzen möchte oder nicht.

00:17:32
Alexander Petsch: Ja, das hattest du ja auch anfangs schon gesagt. Also dieses Thema verstehen und auch, ich sage mal, ethisch verstehen. Ist ja eine der Komponenten des Verstehens. Also nicht nur zu verstehen, was passiert hinten dran, zumindest in den groben Strukturen, sondern das halt auch ethisch bewerten zu können.

00:17:52
Dr. Daniel Mühlbauer: Wir haben da auch an der Stelle, glaube ich, einfach eine große Verantwortung. Wir sind ja auch selbst ernannt häufig die People Champions. Und da ist es natürlich auch wichtig, dass die Tools, die wir einsetzen als HRlerinnen und HRler auch diesem Anspruch mehr als nur genügen. Und das ist dann die nächste Entwicklungsstufe davon. Das ist eigentlich… Und das ist für mich ein weiterer Hack beim sinnvollen Einsatz von KI. Selbst wenn das Tool gut funktioniert und es ethisch moralisch vertretbar ist, es an einer Stelle einzusetzen, kann ich aufgrund bestimmter Faktoren immer noch entscheiden, hier keine KI einzusetzen. Und einer dieser Gründe kann sein, dass ich in meinem HR-Prozess X an bestimmten Stellen bewusst humane Touchpoints, zwischenmenschliche Touchpoints auf ewig erhalten möchte. Weil ich für mich als Unternehmen entscheide, dass zum Beispiel ein Exit-Interview niemals von einer Maschine geführt wird. Man kann auch genauso gute Argumente finden, dass es von einer Maschine geführt wird. Aber vielleicht gehört es zur Kultur des Unternehmens X, dass dieser Zeitpunkt, an dem ein Beschäftigungsverhältnis zum Ende kommt, unter guten oder schlechten Vorzeichen, trotzdem ein Zeitpunkt ist, wo man sich Mensch zu Mensch trifft und offen über die Probleme oder die guten Dinge redet, die es in der gemeinsamen Beschäftigung zu bereden gab rückwirkend. Und da kann es eben ein bewusstes Setzen sein, dass ich sage, hier werde ich nie einen maschinellen Touchpoint installieren. Und das muss man sich quasi über den gesamten Prozess von HR fragen, von Prehire bis Retire. Wo setze ich bewusst auf zwischenmenschliche und humane Touchpoints und wo setze ich auf technische Touchpoints? Ganz bewusst. Und das kann sogar zielgruppenspezifisch sehr unterschiedlich sein, je nachdem, mit wem ich es da zu tun habe.

00:19:40
Alexander Petsch: Ja, leuchtet mir total ein. Richtige Überlegung. Gibt es noch mehr Hacks, die du uns mitgebracht hast zum Thema?

00:19:52
Dr. Daniel Mühlbauer: Ja, es wird natürlich jetzt mit jedem Hack noch mal deutlich komplexer. Die Hacks, die ich bisher geäußert habe, die führen so ein bisschen zu einem der wichtigsten Standpunkte hin. Es könnte wirklich sehr sinnvoll sein, an bestimmten Stellen maschinelles Lernen eher nach dem Marke-Eigenbau-Prinzip einzusetzen und nicht so sehr einzukaufen. Man muss als HR-Professional oder als HR-Bereich eines Unternehmens, finde ich, sehr genau schauen, ob ich eine externe Lösung einsetze, bei der ich wahrscheinlich über die Dokumentation hinaus nie wirklich tief in den Algorithmus schauen darf, weil das dann zum Geschäftsgeheimnis gehört und da darf man nicht reingucken meistens. Oder ob ich selber eine Lösung für das Problem, das ich habe, baue. Stichwort Reisebescheinigungen, die wir gerade besprochen haben. Um dann aber sehr genau im Algorithmus auch Bescheid zu wissen, was diese Maschine da eigentlich macht. Disclaimer: Es gibt natürlich komplexe algorithmische Verfahren, wo man nie so richtig… Zum Stand der heutigen Technik nicht so richtig weiß… Wenn man da wirklich komplexe neuronale Netze verwendet, dann ist das einfach per Definition dieser Statistik oder dieser Anwendung von maschinellem Lernen… Ist das einfach sehr schwer zu verstehen, was da in den einzelnen Layern wirklich statistisch passiert. Aber jetzt mal diesseits dieser ganz komplexen Verfahren. Wenn es einem nur um etwas smarte Automatisierung geht, dann könnte es Sinn machen, in bestimmten Verfahren auf die Marke Eigenbau zu setzen. Dass man also wirklich die Menschen zusammen holt, die so was können und dann maschinelles Lernen einsetzt, um bestimmte Prozesse abzuwickeln, damit man wenigstens weiß, was da passiert.

00:21:39
Alexander Petsch: Braucht es natürlich auch ein gewisses Know-how, um nicht zu sagen ganz viel Expertise, die man dann für den Eigenbau entweder vorhalten oder einkaufen muss.

00:21:48
Dr. Daniel Mühlbauer: Absolut. Also das ist… Da muss man dann wirklich einen Business Case dran setzen auch und muss wirklich diese Make-or-Buy-Entscheidung als Trade-off sehen und dann wirklich für sich entscheiden, inwieweit man den Eigenbau forcieren möchte oder inwieweit man auf den Zukauf setzt. Aber es kommt eben… Wenn man es zukauft, dann sollte man zumindest eine gewisse Grundskepsis aufweisen. Und das kommt wieder zum ersten Hack, dass man eben auch in der Lage sein muss, das zu reflektieren. Man sollte schon die richtigen Fragen stellen. Also mit welchen Daten ist das System trainiert worden zum Beispiel. Und sich dann vielleicht auch mal Verteilungen zeigen lassen aus den Datensätzen, dass man so ein bisschen sehen kann, hey, das KI-basierte Beförderungstool ist tatsächlich mit ziemlich repräsentativen Daten trainiert worden und nicht übermäßig viel mit Männern. Weil sonst muss einen das nicht wundern, dass so ein Tool natürlich häufig Männer vorschlägt bei der Beförderung. Weil das hat ja gelernt, dass ganz viele Männer in der Vergangenheit befördert wurden in den Daten, mit denen es trainiert wurde. Also noch mal, die Algorithmen, die sind da nicht völlig, aber fast leidenschaftslos. Und wenn die halt gelernt haben, dass in den vergangenen 35 Jahren überwiegend Männer befördert wurden, dann muss man sich nicht wundern, wenn die das in den nächsten 35 Jahren auch noch vorschlagen. Und da kann es natürlich dann dazu führen, dass das zu einer Verfestigung von existierenden Stereotypen in der Vergangenheit kommt, wo man doch eigentlich häufig auf den Sales Pitches von solchen Lösungen liest, Bias-frei und vorurteilsfrei und Verbesserung der Diversität durch den Einsatz von künstlicher Intelligenz, weil es ja objektiver sei. Aber es steht und fällt mit der Qualität der Daten. Und da wirklich nachzufragen und unnachgiebig zu sein und auch eine Evaluation auf die Beine zu stellen intern, die bei der Auswahl auch wirklich standhält.

00:23:45
Alexander Petsch: Ja, hast du noch einen Tipp zum Thema Daten? Also zum Thema Trainingsdaten? Wo du da Wert drauf legen würdest oder was da aus deiner Sicht die wichtigsten Aspekte sind?

00:24:02
Dr. Daniel Mühlbauer: Ja, also es gibt tatsächlich da… Das würde zu sehr ins Detail führen, wenn ich da jetzt wirklich ganz tief drauf eingehe. Aber was man sagen kann, ist, es gibt gängige Kennzahlen-Systeme, möchte ich mal sagen, die die Qualität von Daten einschätzen, anhand derer man die Qualität von Daten relativ gut einschätzen kann. Ein typisches, sehr einfach verständliches Beispiel ist die Missing Analyse. Also zu gucken, wie unvollständig ist der Datensatz? Wie viele leere Felder gibt es in einem Datensatz zu einem gewissen Kontext? Also wenn ich Recruiting-Daten habe und ich möchte eigentlich so was haben wie, dass mir eine Maschine sagt, wer ist der am besten geeignetste Kandidat oder so oder Kandidatin. Und in den Daten, mit denen ich das trainieren will, ist gar nicht so häufig die Eignung angegeben, weil man vielleicht im Eifer des Gefechts vergisst, A-, B- und C- Candidate zu dokumentieren im Recruiting-System. Dann hat man da vielleicht ziemlich viele Missing. Und sich da auch anzuschauen, wie kommen diese Daten zustande? Werden die rückwirkend befüllt, nachdem das Hiring erfolgt ist? Macht man den, den man gehiret hat, auch im Recruiting-System zum A-Kandidaten oder ist das tatsächlich im Prozess erfolgt? Also wirklich ein Verständnis für diese Daten aufzubauen. Also eine Missing Analyse, dann klassische statistische Verfahren wie Verteilungen und Mittelwerte und Lagemaße. Mittelwert ist nur eins davon. Sich mal anzuschauen und zu gucken, streuen die Daten über alle Gruppen, die ich repräsentieren möchte? Da gibt es also wirklich eine ganze Reihe von klassischen Verfahren. Und selbst wenn man dann selber auch KI baut, also maschinelles Lernen einsetzt auf Basis dieser Daten, dann haben natürlich diese trainierten Modelle auch wieder Kennzahlen, anhand derer man die Modellgüte, also die Qualität des Modells und Vorhersagefähigkeit dieses Modells dann auch beurteilen kann. Und das ist schon der große Trick. Weil, ob man die immer sieht, wenn man etwas von extern einkauft, diese Gütekriterien immer wirklich sehen darf, sehen kann. Also das kann ich wirklich als Hack sagen, wenn ihr es mit Anbietern zu tun habt, die euch proaktiv ohne Nachfrage die Gütekriterien ihrer Algorithmen ausweisen, das ist ein großer Vertrauensvorschuss, würde ich sagen. Da würde ich schon mal sagen, da habt ihr es mit einem sehr, sehr seriösen Anbieter zu tun, weil das machen, ohne nachzufragen die wenigsten würde ich schätzen.

00:26:24
Alexander Petsch: Gibt es sonst noch einen Hack zum Thema Auswahl von KI, wo du sagen würdest, darauf sollte man achten oder…? Also zum Anbieter? Also nicht jetzt im Sinne von Prozess wo richtig einsetzen, sondern woran erkenne ich sozusagen, dass der oder diejenige es drauf hat?

00:26:44
Dr. Daniel Mühlbauer: Transparenz. Transparenz ist wirklich das A und O. Wenn ein Anbieter mutig genug ist, transparent Einblick in die Vielseitigkeit der Daten zu geben und auch des Tools und die Fähigkeiten des Tools und auch offen anspricht, was das Tool heute noch nicht kann. Das ist ein großer Vertrauenspunkt, würde ich sagen. Es ist damit auch ein Hack. Ein wirklich seriöser Anbieter würde auch zu jedem Zeitpunkt sagen, dass man es hier mit… Maschinelles Lernen ist angewendete Statistik und damit ist es immer in irgendeiner Weise fehlerbehaftet. Es gibt keine oder kaum statistische Gleichungen auf der mathematisch statistischen Ebene, die nicht auch einen sogenannten Fehlerterm haben. Hier geht es immer um Wahrscheinlichkeiten, nie um 100 %. Und ein Anbieter, der das offen sagt, der sagt, wir werden euch die wahrscheinlich besten Kandidaten empfehlen und nicht wir werden euch Bias-frei die absolut besten Leute liefern. Das wäre für mich immer schon so eine rote Glocke, wo ich zumindest mal skeptisch werde. Da halte ich es mit Ockhams Razor aus der Wissenschaft. Wenn es sich irgendwie zu gut anhört, dann ist es meistens auch nicht wahr. Und das ist wirklich so ein vielleicht sehr, sehr, sehr wenig technischer Rat oder Hack am Ende noch mal. Aber wenn es sich wirklich zu gut anhört, dann ist wahrscheinlich eine ganze Reihe Wunschdenken mit dabei. Und das würde ich sofort kritisch prüfen, wenn ich es nicht glauben kann.

00:28:16
Alexander Petsch: Daniel, vielen Dank. Das war doch noch mal ein schönes Schlussstatement. Danke, dass du heute bei uns warst.

00:28:23
Dr. Daniel Mühlbauer: Danke. Danke für die Einladung.

00:28:25
Alexander Petsch: Ja, und wenn ihr es noch mal nachhören oder -lesen wollt oder auch die Zusammenfassung der Hacks noch mal, einfach auf HRM.de gehen und dann werdet ihr mithilfe von künstlicher Intelligenz im Suchschlitz sicher fündig werden. Glückauf und bleibt gesund und denkt dran, der Mensch ist der wichtigste Erfolgsfaktor für euer Unternehmen.