Automatisiertes Personalmanagement und Mitbestimmung

Automatisiertes Personalmanagement und Mitbestimmung

Unternehmen, die im Personalmanagement Systeme mit so genannter Künstlicher Intelligenz verwenden,

handeln möglicherweise rechtswidrig. Oft, ohne sich darüber im Klaren zu sein.

Publikation zeigen

Automatisiertes Personalmanagement und Mitbestimmung KI-basierte Systeme für das Personalmanagement - was ist fair, was ist erlaubt? Unternehmen, die im Personalmanagement Systeme mit so genannter Künstlicher Intelligenz verwenden, handeln möglicherweise rechtswid rig - oft, ohne sich darüber im Klaren zu sein. Denn People-Analytics Verfahren dürfen nicht eingesetzt werden, ohne dass Beschäftigte indi viduell eingewilligt haben oder eine Betriebsvereinbarung vorliegt. Das wird in der Praxis oft nicht der Fall sein. Zudem erfüllen Black-Box Systeme, deren Funktionsweise dem Betriebsrat auf Anfrage nicht erläu tert werden kann, nicht die Auskunftsanforderungen des Betriebsverfas sungsgesetzes. Autonomie und Mitsprache der Beschäftigten müssen auch dann gewährleistet sein, wenn algorithmische Systeme zum Per sonalmanagement eingesetzt werden, es ist ethisch nicht zu rechtferti gen, Arbeitnehmer innen zu reinen Objekten derartiger Verfahren zu machen. Doch sie müssen sich auch selber angemessene Kompeten zen erarbeiten, um diese Verfahren zu verstehen. Das ist das Ergebnis des Forschungsprojekts Automatisiertes Personalmanagement und Mitbestimmung, das AlgorithmWatch in den vergangenen zwei Jahren mit Mitteln der Hans-Böckler-Stiftung durchgeführt hat. Beschäftigte müssen einzeln und freiwillig zustimmen, wenn soge nannte People-Analytics-Verfahren eingesetzt werden. Es ist jedoch da von auszugehen, dass diese Einwilligung sehr oft nicht vorliegt. Alterna tiv könnte eine Verarbeitung von Beschäftigtendaten im Rahmen von People Analytics auch durch Betriebsvereinbarungen legitimiert werden. Sie sind allerdings nicht erzwingbar, weil ein einschlägiges Mitbestim mungsrecht fehlt. Betriebsräte und Unternehmen müssen prüfen, ob der Einsatz von KI-Systemen rechtskonform erfolgt. Es ist zu erwarten, dass Arbeitgeber in vielen Fällen den Beschäftigten und ihren gewählten Interessenvertre tungen nicht in dem Maß Informationen zur Verfügung stellen können, wie es das Gesetz verlangt, weil die KI-Anbieter diese Informationen nicht herausgeben. Die Bundesregierung muss gesetzlich klarstellen, dass Arbeitgeber auch dann Transparenz über die verwendeten Methoden gewährleisten müssen, wenn die Hersteller der Software keine Auskünfte erteilen wol len. Hersteller müssen aktiv Möglichkeiten dafür entwickeln und anbieten, um sowohl den Beschäftigten als auch ihren Betriebsräten angemessen Auskunft über die Funktionsweise KI-basierter Systeme geben zu kön nen. Betriebsräte müssen ihre Auskunftsrechte gegenüber Arbeitgebern bereits in der Planungsphase von KI-Systemen aktiv durchsetzen, da sich die praktische Wirksamkeit und Durchsetzbarkeit ihrer Mitbestim mungsrechte verringert, sobald Systeme eingeführt sind. Unternehmen und Betriebsräte müssen dafür sorgen, dass auf Seiten der Beschäftigten und des Personalmanagements angemessene Kom petenz vorhanden ist, aus diesen Informationen die richtigen Schlüsse zu ziehen. Gewerkschaften sollten hierbei sowohl auf der betrieblichen, als auch der politischen Ebene unterstützen. Um Beschäftigte vor den Möglichkeiten und insbesondere vor dem immanenten hohen Kontrollpotenzial zu schützen, das sich mit KI Software und mit selbstlernenden Algorithmen verbindet, ist ein Ausbau bestehender Mitwirkungs- und Mitbestimmungsrechte durch den Ge setzgeber unumgänglich. So fasst der Spezialist für Arbeitsrecht und Digitalisierung, Peter Wedde, die aktuelle Situation in seinem Gutachten Automatisierung im Personalmanagement - arbeitsrechtliche Aspekte und Beschäftigtendatenschutz zusammen, das im Rahmen des Pro jekts entstanden ist. Von solchen wünschenswerten Änderungen abge sehen, stellt sich aber bereits die geltende Rechtslage so dar, dass Ar beitgeber schon mit Beginn der Planung von KI-basierter Personalsoft ware Betriebsräten weitreichende Auskünfte über deren Funktionsweise geben müssen. In vielen Fällen verfügen sie aber gar nicht über diese Informationen, da die Anbieterfirmen sie nicht Preis geben. Zudem müs sen Beschäftigte einzeln und freiwillig zustimmen, dass ihre personen bezogenen Daten mit People-Analytics-Verfahren verarbeitet werden, es sei denn, diese Verarbeitung ist durch einschlägige Betriebsvereinba rungen datenschutzrechtlich legitimiert. Es ist jedoch davon auszuge hen, dass sehr oft weder individuelle Einwilligungen vorliegen, noch Be triebsräte bereit dazu sind, entsprechende Betriebsvereinbarungen ab zuschließen. Damit befinden sich Firmen, die derartige Systeme einset zen, zumindest in einer rechtlichen Grauzone, oft wird der Einsatz der Systeme sogar rechtswidrig sein. Um zu analysieren und vorherzusagen, wie Individuen oder Teams arbeiten oder ob sie ihre Ziele erreichen werden, setzen die Anbieter der Systeme statistische Methoden der Mustererkennung und Wahrschein lichkeitsrechnung ein, etwa Maschinelles Lernen oder Deep Neural Networks. Auf Basis welcher Modelle und Annahmen diese Prognosen getroffe

n werden und mit welchen Daten die Systeme trainiert wurden, halten die Anbieter üblicherweise geheim - meist mit der Begründung, dass sie sich zum einen vor Nachahmern schützen müssen, zum ande ren Beschäftigte Aussagen der Systeme manipulieren könnten, wenn ihnen ihre Funktionsweise bekannt wäre. Aus ethischer Perspektive sind diese Bedenken zwar durchaus be gründet, lassen in dieser Einseitigkeit jedoch gerechtfertigte Ansprüche der Beschäftigten außer Acht und sind daher so nicht akzeptabel. Wie Michele Loi, Experte für ethische Aspekte des Einsatzes von Methoden Künstlicher Intelligenz der Universität Zürich, in seiner Studie People Analytics must benefit the people. An ethical analysis of data-driven al gorithmic systems in human resources management darlegt, haben Be schäftigte einen Anspruch darauf, die Logik derartiger Systeme verste hen zu können. Denn das ist eine notwendige - wenn auch keine hinrei chende - Voraussetzung dafür, dass die Autonomie der Beschäftigten gewahrt bleibt, sie dürfen keine passiven Objekte einer von Algorithmen getriebenen Steuerung (algorithmic governance) werden. Vielmehr müssen sie aktiv dazu beitragen können, die Leistung der Organisation zu verbessern, indem sie Erkenntnisse nutzen, die durch den Einsatz dieser algorithmischen Systeme entstehen. Letztendlich müssen die Systeme so gestaltet und eingesetzt werden, dass immer auch die Be schäftigten davon profitieren, nicht ausschließlich der Arbeitgeber. Es kann also nicht davon ausgegangen werden, dass Anbieter in der Lage sind, ethische Algorithmen zu entwickeln, die Arbeitgeber dann per se unproblematisch einsetzen können. Im Gegenteil, es müssen alle beteiligten Akteure - die Anbieter algorithmischer Systeme, die Unter nehmen, die sie einsetzen, und die Beschäftigten, die davon betroffen sind - bereit sein, gemeinsam Lösungen zu erarbeiten, die die verschie denen Interessen berücksichtigen. Zu diesem Zweck müssen die Anbie ter Informationen zur Verfügung stellen, die es Arbeitgebern und Be schäftigten erlauben zu verstehen, wie die Systeme funktionieren. Zu gleich kann es in vielen Fällen gerechtfertigt sein, dass Firmen ihre In vestitionen auch mithilfe von Betriebs- und Geschäftsgeheimnissen schützen. Um hier eine angemessene Balance zu erreichen, hat Algorithm Watch in Zusammenarbeit mit Sebastian Stiller, Professor für Mathema tische Optimierung der Technischen Universität Braunschweig, einen Prüfkatalog entwickelt: Automatisierte Entscheidungen und Künstliche Intelligenz im Personalmanagement. Ein Leitfaden zur Überprüfung es senzieller Eigenschaften KI-basierter Systeme für Betriebsräte und an dere Personalvertretungen. Er ermöglicht es Betriebsräten und Perso nalmanager innen, von Anbieterfirmen Informationen zu erfragen, die essentiell dafür sind, die Funktionsweise, Qualitäts- und Zuverlässig keitskriterien algorithmischer Systeme zu verstehen, ohne aber bei spielsweise zu verlangen, dass Programmiercode oder die Datenbasis offengelegt werden müssen. Angesichts der Komplexität der Verfahren wäre allerdings die Forde rung verfehlt, sie Laien gegenüber auf einfache Art erklär- oder nach vollziehbar zu machen. Stattdessen müssen alle Akteure - Anbieter von Personalmanagementprodukten, Anwender (Personalabteilungen) und Betroffene (Beschäftigtenvertreter innen) - aktiv daran mitarbeiten, Sys teme angemessen zu entwickeln und einzusetzen. Das bedeutet für die Vertreter innen der Beschäftigten, dass sie sich ein Grundverständnis von Methoden und Verfahren der KI-basierten Systeme aneignen oder Möglichkeiten schaffen müssen, auf diese Expertise zuzugreifen, etwa durch externe Sachverständige

Info an Freunde und Bekannte

Gefällt Ihnen diese Publikation? Möchten Sie Freunde und Bekannte über diese Publikation informieren?

Bitte empfehlen bzw. teilen Sie diese Seite bei Facebook, X, LinkedIn und/oder XING.

Für einen entsprechenden Hinweis auf dem elektronischen Weg nutzen Sie bitte die Weiterempfehlung per E-Mail.

Weitere Publikationen zeigen

Info zum ServiceImpressumAGBDatenschutzRechtshinweiseJobadu.de in den sozialen NetzwerkenServiceportal für Arbeitgeber