IT-BUSINESS Aktion:

#ITfightsCorona

Grauzone Personal Analytics Software

Personalanalyse – wie weit darf der Arbeitgeber gehen?

| Autor: Sarah Gandorfer

Analyse-Software bietet einerseits neue Chancen, andererseits birgt sie auch Konfliktpotenzial im Betrieb.
Analyse-Software bietet einerseits neue Chancen, andererseits birgt sie auch Konfliktpotenzial im Betrieb. (Bild: H_Ko - stock.adobe.com)

Bei der Personalanalyse reicht die Spannbreite der berührten Rechtsgebiete vom Datenschutzrecht, über das Arbeitsrecht bis zum Allgemeinen Gleichbehandlungsgesetz. Es kann also eine Menge falsch gemacht werden. Die Forscher der Organisation Algorithmwatch haben sich in zweijähriger Arbeit angesehen, wie solche Softwareanalysen vom Beschäftigen zu bewerten sind. Das Fazit: Viele Unternehmen handeln diesbezüglich womöglich rechtswidrig.

Ende vergangenen Jahres ist der Online-Modehändler Zalando in die negativen Schlagzeilen geraten, nachdem er mit der selbst entwickelte Personalsoftware Zonar seine Mitarbeiter ins Visier genommen hat. Diese sollten dort gegenseitig ihre Stärken und Schwächen bewerten. Das führt zu einem Gefühl der Überwachung, Leistungsdruck und Stress, denn die Angestellten fürchten sowohl um Arbeitsplätze wie auch, dass Löhne gedrückt werden könnten.

Unterschied Personalmanagementsysteme und Personal Analytics Software

Personalanalyse-Programme sind vielfach in einer rechtlichen Grauzone. Oft weiß der Arbeitnehmer gar nicht, dass sie genutzt werden und wie die Auswertung zustande kommt.

Zunächst bedarf es der Klärung zwischen dem Unterschied klassischer Personalmanagementsysteme zu den modernen Varianten mit dem Zusatz „Analytics“. Bisherige Systeme können Auskunft geben über direkt vorliegende Daten wie Fortbildungstage von Angestellten oder Abschlussnoten von Personen im Bewerbungsverfahren. Dabei werden klar definierte Aussagen aus den Daten abgeleitet.

Neue Systeme treffen zusätzlich Aussagen, deren Zusammenhang mit den zugrunde liegenden Daten nicht unmittelbar ersichtlich ist. Diese Aussagen reichen von Bewertungen und Empfehlungen, wie passgenaue Vorschläge für Fortbildungen oder die Vorauswahl von Bewerbungen, bis hin zu automatischen oder automatisch stark vorgeprägten Entscheidungen.

Zu dieser Analyse beitragen können unter anderem Programme wie Microsofts Office 365 Workplace Analytics, IBMs Watson Talent Insights oder SAP Success Factors People Analytics. Die Produktivität von Arbeitnehmern kann durch den Einsatz dieser Büro-Software sehr detailliert erfasst werden.

Gerade bei Microsoft Office wird das Dilemma deutlich, da kaum ein Unternehmen ohne dieses auskommt. Dabei kann Microsoft-„Graph“, im Hintergrund der meisten Anwendungen Daten sammeln, analysieren und aufbereiten. Mithilfe des Office-365-Programms „Workplace Analytics“ können Vorgesetzte so Auswertungen des Arbeitsverhaltens ihrer Mitarbeiter erstellen und zum Beispiel sehen, wer wann welche Aktionen in den Office-Programmen ausführte, wer wann welche E-Mails las, woher die jeweilige Nachricht kam und vieles mehr. Natürlich können auf diese Weise auch Mitarbeiter miteinander in ihrer Produktivität verglichen werden.

In einigen Bundesländern wird bereits an einem Arbeitnehmerschutz bezüglich solcher Programmen getüftelt. So ist unter anderem die Bremer Landesdatenschutzbeauftragte Imke Sommer diese Art der Analyse-Software ein Dorn im Auge und sie will Missbrauch einen Riegel vorschieben.

Problem KI und Geheimnisse der Software-Hersteller

„Um Beschäftigte vor den Möglichkeiten und insbesondere vor dem immanent hohen Kontrollpotenzial zu schützen, das sich mit KI-Software und mit selbstlernenden Algorithmen verbindet, ist ein Ausbau bestehender Mitwirkungs- und Mitbestimmungsrechte durch den Gesetzgeber unumgänglich“, findet ebenfalls der Spezialist für Arbeitsrecht und Digitalisierung, Peter Wedde.

Kommt nun in einer solchen Analyse-Software auch noch Künstliche Intelligenz zum Einsatz, gibt es weitere Probleme. Denn um zu analysieren und vorherzusagen, wie Individuen oder Teams arbeiten oder ob sie ihre Ziele erreichen werden, setzen die Anbieter der Systeme statistische Methoden der Mustererkennung und Wahrscheinlichkeitsrechnung ein, etwa Maschinelles Lernen oder „Deep Neural Networks“. Auf Basis welcher Modelle und Annahmen diese Prognosen getroffen werden und mit welchen Daten die Systeme trainiert wurden, halten die Anbieter üblicherweise geheim – meist mit der Begründung, dass sie sich zum einen vor Nachahmern schützen müssen, zum anderen Beschäftigte Aussagen der Systeme manipulieren könnten, wenn ihnen ihre Funktionsweise bekannt wäre.

Was ist also erlaubt?

In der Studie „Automatisiertes Personalmanagement und Mitbestimmung“, welche mit Mitteln der gewerkschaftsnahen Hans-Böckler-Stiftung finanziert wurde, kommt Algorithmwatch beim Punkt der Legalität zu folgenden Ergebnissen:

  • Beschäftigte müssen einzeln und freiwillig zustimmen, wenn so genannte People-Analytics-Verfahren eingesetzt werden. Es ist jedoch davon auszugehen, dass diese Einwilligung sehr oft nicht vorliegt. Alternativ könnte eine Verarbeitung von Beschäftigtendaten im Rahmen von People Analytics auch durch Betriebsvereinbarungen legitimiert werden. Sie sind allerdings nicht erzwingbar, weil ein einschlägiges Mitbestimmungsrecht fehlt.
  • Betriebsräte und Unternehmen müssen prüfen, ob der Einsatz von KI-Systemen rechtskonform erfolgt. Es ist zu erwarten, dass Arbeitgeber in vielen Fällen den Beschäftigten und ihren gewählten Interessenvertretungen nicht in dem Maß Informationen zur Verfügung stellen können, wie es das Gesetz verlangt, weil die KI-Anbieter diese Informationen nicht herausgeben.
  • Die Bundesregierung muss gesetzlich klarstellen, dass Arbeitgeber auch dann Transparenz über die verwendeten Methoden gewährleisten müssen, wenn die Hersteller der Software keine Auskünfte erteilen wollen.
  • Hersteller müssen aktiv Möglichkeiten dafür entwickeln und anbieten, um sowohl den Beschäftigten als auch ihren Betriebsräten angemessen Auskunft über die Funktionsweise KI-basierter Systeme geben zu können.
  • Betriebsräte müssen ihre Auskunftsrechte gegenüber Arbeitgebern bereits in der Planungsphase von KI-Systemen aktiv durchsetzen, da sich die praktische Wirksamkeit und Durchsetzbarkeit ihrer Mitbestimmungsrechte verringert, sobald Systeme eingeführt sind.
  • Unternehmen und Betriebsräte müssen dafür sorgen, dass auf Seiten der Beschäftigten und des Personalmanagements angemessene Kompetenz vorhanden ist, aus diesen Informationen die richtigen Schlüsse zu ziehen. Gewerkschaften sollten hierbei sowohl auf der betrieblichen, als auch der politischen Ebene unterstützen.

Algorithmwatch hat zusammen mit Vertretern der TU Braunschweig einen „Leitfaden zur Überprüfung essenzieller Eigenschaften KI-basierter Systeme für Betriebsräte und andere Personalvertretungen“ veröffentlicht, in dem genau auf die Rechtslage eingegangen wird. Dieser Leitfaden kann kostenlos als pdf heruntergeladen werden.

Kommentare werden geladen....

Sie wollen diesen Beitrag kommentieren? Schreiben Sie uns hier

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46389130 / Recht)