Neue Studie von AlgorithmWatch

Damit KI-Systeme in der Personalpolitik von Unternehmen kein Unheil anrichten, sollten Beschäftigte und Betriebsräte am gesamten Entwicklungs-, Einführungs- und Anwendungsprozess beteiligt werden. Das ergibt eine neue Studie von AlgorithmWatch. In ihrer von der Hans-Böckler-Stiftung geförderten Untersuchung zeigen Forschende der Nichtregierungsorganisation, in welchen Phasen Mitsprache der Belegschaft besonders wichtig ist, wenn "Maschinelles Lernen" im Personalbereich angewandt wird. Erleichtert würde das durch neue gesetzliche Regelungen, etwa umfassende Transparenz-Anforderungen für KI-Systeme, analysieren Dr. Anne Mollen und Lukas Hondrich von AlgorithmWatch*.

Die Notwendigkeit von Gesetzesreformen auf der Höhe der Zeit sieht auch Dr. Johanna Wenckebach: Stärkere gesetzliche Mitbestimmungsrechte beim betrieblichen Datenschutz und bei der Prävention von Diskriminierungen sind ein wichtiger Baustein, um Fehlentwicklungen zu verhindern, betont die wissenschaftliche Direktorin des Hugo Sinzheimer Instituts (HSI) für Arbeits- und Sozialrecht der Hans-Böckler-Stiftung.

Sogenannte Künstliche Intelligenz (KI) ist mittlerweile in der Lage, Kunstwerke zu generieren, Unterhaltungen zu führen oder Jura-Prüfungen zu bestehen. Dass man ihr auch in der Arbeitswelt zunehmend Aufgaben anvertraut, dürfte da kaum überraschen. Tatsächlich nutzen manche Unternehmen bereits Programme "automatisierter Entscheidungsfindung", die Lebensläufe von Bewerberinnen und Bewerbern auswerten, die Schichtplanung übernehmen, Beschäftigte für Weiterbildungen, Beförderungen oder Entlassungen auswählen.

KI in Form von "Maschinellem Lernen", wie sie bereits im Personalbereich zum Einsatz kommt, laufe darauf hinaus, komplexe Muster in existierenden Daten zu identifizieren und auf dieser Basis Prognosen zu stellen, erklären Mollen und Hondrich von AlgorithmWatch. Wenn aus diesen automatisierten Prognosen Personalentscheidungen abgeleitet werden, habe das weitreichende Konsequenzen für die Beschäftigten: Die Intransparenz der Entscheidungsfindung mache es ihnen schwer, sich zum Beispiel gegen Fehlentscheidungen oder Diskriminierung zu wehren, und vergrößere das Machtungleichgewicht zwischen Management und Belegschaft. Die Beschäftigten hätten keine Möglichkeit nachzuvollziehen, ob die Entscheidungen ihre Interessen angemessen berücksichtigen.

Tatsächlich habe die Politik dieses Problem erkannt, heißt es in dem Papier. Im Entwurf der EU-Kommission für eine KI-Richtlinie werden Anwendungen, die sich auf Personalentscheidungen beziehen, als Hochrisiko-Systeme eingestuft. Das heißt: Die Anbieter solcher Programme sind verpflichtet, gewisse Transparenzvorgaben einzuhalten. Diese Vorschriften beschränken sich allerdings auf die Markteinführung und gelten nur für die Anbieter, aber nicht für die Unternehmen, die diese Systeme dann nutzen, kritisieren die Expertin und der Experte. Daher seien solche risikobasierten Ansätze zwar ein erster Schritt in die richtige Richtung. In einem zweiten Schritt müssten aber die Risiken in der betrieblichen Praxis fallweise kontrolliert und im Idealfall auch die Interessen der Beschäftigten berücksichtigt werden. Und das gehe nicht ohne Mitbestimmung der Beschäftigten.

Mollen und Hondrich beschreiben in ihrer Analyse fünf Phasen, in denen es sinnvoll ist, dass sich Beschäftigte und ihre Betriebsräte jeweils einbringen.

Bei der Problemdefinition geht es zunächst darum, Aufgaben und Ziele einer KI-Anwendung zu definieren. Dabei mitzureden sei besonders wichtig, weil hier fundamentale Fragen verhandelt werden, die weitreichende Folgen für die innerbetrieblichen Machtverhältnisse haben können. Wenn beispielsweise der interne Jobmarkt automatisiert werden soll, werde Wissen über Einstellungs- und Beförderungspraktiken in einem Unternehmen zentralisiert, das vorher über viele verschiedene Beteiligte verteilt war, und ein Informationsungleichgewicht geschaffen, das die Verhandlungsposition der Arbeitnehmerinnen und Arbeitnehmer schwächt. In dieser Phase sollten die Anwendung und insbesondere ihre Grenzen sehr klar definiert werden, um zu vermeiden, dass die Systeme später für Zwecke eingesetzt werden, für die sie nicht ausgelegt sind. So wäre denkbar, dass ein System, das nur statistische Zusammenhänge zwischen bestimmten Datenpunkten identifizieren soll, später auch genutzt wird, um Kausalitäten abzuleiten. Dass in der Vergangenheit vor allem Männer in einem IT-Unternehmen zu Einstellungsgesprächen eingeladen wurden, könnte dann dazu führen, dass nur Männer in die engere Personalauswahl einbezogen werden.

In der Daten-Phase steht die Datensammlung für Trainingszwecke an. Hier stellen sich der Studie zufolge Fragen vor allem zu Datenschutz und Überwachung. Existierende Kommunikationsdaten wie Mails oder Chat-Protokolle auszuwerten könne die Privatsphäre verletzen und zudem zu Verzerrungen führen, weil nicht alle diese Kanäle gleichermaßen nutzen. Ein Grundproblem bestehe darin, dass KI-Anwendungen zu verzerrten Ergebnissen neigen, wenn die Trainingsdaten selbst verzerrt sind, etwa durch diskriminierende Personalentscheidungen und ungleiche Verhältnisse in der Vergangenheit. Hier brauche es ein tiefes technisches Verständnis und unter Umständen Beratung durch Expertinnen und Experten.

Im Rahmen des Modell-Trainings ermittelt die KI die mathematische Funktion, die am besten dem definierten Zweck entspricht. Während dieser Phase zeige sich, ob etwaige Verzerrungen aus den Datensätzen und der Programmierung auf die Ergebnisse abfärben, so Mollen und Hondrich. Das sollte die Beschäftigtenseite genau im Auge behalten. Zudem sei es technisch möglich, die Interessen der Beschäftigten gezielt in den KI-Algorithmus einzuspeisen. Die Zielfunktion lasse sich beispielsweise so kalibrieren, dass bei Stellenbesetzungen neben der Eignung auch die persönlichen Interessen und Karriereziele von Beschäftigten berücksichtigt werden.

Auch nach dem Training, bei der Anwendung in der Praxis und dem Retraining, brauche es Vorkehrungen gegen Fehlentwicklungen, so die Fachleute von AlgorithmWatch. Zentraler Ansatz dafür sei die regelmäßige Kontrolle, ob sich schädliche Muster bei den Resultaten abzeichnen. Ein weiteres Einfallstor für Willkür ergebe sich dadurch, wenn die Umsetzung der Empfehlungen der KI in der Hand von Menschen liegt. Hier seien klare Regeln nötig, wann Personalverantwortliche von diesen Empfehlungen abweichen können oder sollen.

Damit Beschäftigte und Betriebsräte in der Lage sind, den nötigen Einfluss zu nehmen, wäre laut der Analyse von AlgorithmWatch auch der Gesetzgeber gefragt. Nötig wären demnach umfassende Transparenz-Anforderungen für KI-Systeme sowie die Förderung von KI-Weiterbildungen für Betriebsräte.

"Transparenzanforderungen alleine reichen nicht aus, sie müssen auch genutzt werden", erläutert Dr. Stefan Lücking, Referatsleiter für den Förderbereich "Mitbestimmung und Wandel der Arbeitswelt" der Hans-Böckler-Stiftung. "Die Anwendung von ,maschinellem Lernen‘ im Personalbereich ist ein komplexer Prozess, bei dem sich viele Fragen stellen, zu denen eine Mitbestimmung der Beschäftigten erforderlich ist."

Dass die Gesetzgebung rasch auf die technische Entwicklung reagieren und dabei auch die Mitbestimmung stärken muss, unterstreicht Johanna Wenckebach. "Die Bundesregierung hat das wichtige Vorhaben, den Beschäftigtendatenschutz zu verbessern. Das ist überfällig. Damit der Schutz von Persönlichkeitsrechten in der Praxis durchgesetzt wird, ist Mitbestimmung entscheidend", sagt die HSI-Direktorin, die auch an einem Gesetzentwurf für ein zeitgemäßes Betriebsverfassungsgesetz mitgearbeitet hat.** "Der Reformvorschlag sieht deshalb unter anderem mehr Mitbestimmungsmöglichkeiten beim betrieblichen Datenschutz vor. Wichtig ist auch, mehr Instrumente für Betriebsräte zu schaffen, um gegen Diskriminierungen vorzugehen", sagt Wenckebach.

*Anne Mollen, Lukas Hondrich: From risk mitigation to employee action along the Machine Learning Pipeline, Working Paper der HBS-Forschungsförderung Nr. 278, März 2023. Download: https://www.boeckler.de/…

**Weitere Informationen zum Reformentwurf für ein zeitgemäßes Betriebsverfassungsgesetz: https://www.boeckler.de/…

Firmenkontakt und Herausgeber der Meldung:

Hans-Böckler-Stiftung
Hans-Böckler-Straße 39
40476 Düsseldorf
Telefon: +49 (211) 7778-0
Telefax: +49 (211) 7778-120
http://www.boeckler.de

Für die oben stehende Pressemitteilung ist allein der jeweils angegebene Herausgeber (siehe Firmenkontakt oben) verantwortlich. Dieser ist in der Regel auch Urheber des Pressetextes, sowie der angehängten Bild-, Ton-, Video-, Medien- und Informationsmaterialien. Die United News Network GmbH übernimmt keine Haftung für die Korrektheit oder Vollständigkeit der dargestellten Meldung. Auch bei Übertragungsfehlern oder anderen Störungen haftet sie nur im Fall von Vorsatz oder grober Fahrlässigkeit. Die Nutzung von hier archivierten Informationen zur Eigeninformation und redaktionellen Weiterverarbeitung ist in der Regel kostenfrei. Bitte klären Sie vor einer Weiterverwendung urheberrechtliche Fragen mit dem angegebenen Herausgeber. Eine systematische Speicherung dieser Daten sowie die Verwendung auch von Teilen dieses Datenbankwerks sind nur mit schriftlicher Genehmigung durch die United News Network GmbH gestattet.

counterpixel