‘Bossware kommt für fast jeden Arbeiter’: Die Software, von der Sie vielleicht nicht wissen, dass sie Sie beobachtet | Technologie

WAls der Job eines jungen Analysten an der Ostküste – wir nennen ihn James – mit der Pandemie verschwand, sah er keine Probleme. Das Unternehmen, ein großer US-Einzelhändler, für den er seit mehr als einem halben Jahrzehnt angestellt ist, stellte ihm einen Laptop zur Verfügung, und sein Zuhause wurde sein neues Büro. Als Teil eines Teams, das sich mit Lieferkettenproblemen befasste, war die Arbeit sehr arbeitsintensiv, aber er wurde nie dafür gerügt, dass er nicht hart genug gearbeitet hatte.

Daher war es ein Schock, als sein Team eines Tages Ende letzten Jahres zu einem Online-Meeting geschleppt wurde, um zu erfahren, dass es Lücken in seiner Arbeit gibt: insbesondere Zeiten, in denen Menschen – einschließlich James selbst, wie er später informiert wurde – keine Informationen eingaben die Datenbank des Unternehmens.

Soweit die Teammitglieder wussten, hatte ihnen niemand bei der Arbeit zugesehen. Aber als klar wurde, was passiert war, wurde James wütend.

Kann ein Unternehmen wirklich Computerüberwachungstools – von Kritikern als „Bossware“ bezeichnet – verwenden, um festzustellen, ob Sie bei der Arbeit produktiv sind? Oder wenn Sie mit proprietärem Wissen zu einem Konkurrenten davonlaufen? Oder einfach nur, wenn Sie glücklich sind?

Viele Unternehmen in den USA und Europa scheinen es jetzt – kontrovers – versuchen zu wollen, angespornt durch die enormen Veränderungen der Arbeitsgewohnheiten während der Pandemie, in der viele Bürojobs nach Hause verlegt wurden und entweder dort bleiben oder hybrid werden. Dies kollidiert mit einem anderen Trend bei Arbeitgebern zur Quantifizierung der Arbeit – ob physisch oder digital – in der Hoffnung, die Effizienz zu steigern.

„Der Aufstieg von Überwachungssoftware ist eine der unerzählten Geschichten der Covid-Pandemie“, sagt Andrew Pakes, stellvertretender Generalsekretär von Prospect, einer britischen Gewerkschaft.

„Dies kommt für fast alle Arten von Arbeitnehmern“, sagt Wilneida Negrón, Direktorin für Forschung und Politik bei Coworker, einer in den USA ansässigen gemeinnützigen Organisation, die Arbeitnehmern hilft, sich zu organisieren. Wissensorientierte Jobs, die während der Pandemie aus der Ferne verlagert wurden, sind ein besonderer Wachstumsbereich.

Eine Umfrage Letzten September stellte die Bewertungsseite Digital.com von 1.250 US-amerikanischen Arbeitgebern fest, dass 60 % der Remote-Mitarbeiter irgendeine Art von Arbeitsüberwachungssoftware verwenden, am häufigsten, um das Surfen im Internet und die Nutzung von Anwendungen zu verfolgen. Und Fast neun von zehn Unternehmen gaben an, dass sie nach der Implementierung von Überwachungssoftware Arbeitnehmern gekündigt hätten.

Das Anzahl und Reihe von Werkzeugen das Angebot, die digitalen Aktivitäten der Mitarbeiter kontinuierlich zu überwachen und Führungskräften Feedback zu geben, ist bemerkenswert. Die Tracking-Technologie kann auch Tastenanschläge protokollieren, Screenshots machen, Mausbewegungen aufzeichnen, Webcams und Mikrofone aktivieren oder regelmäßig Fotos machen, ohne dass die Mitarbeiter es wissen. Und eine wachsende Teilmenge integriert künstliche Intelligenz (KI) und komplexe Algorithmen, um die gesammelten Daten zu verstehen.

Eine KI-Überwachungstechnologie, Veriato, gibt Arbeitnehmern eine tägliche „Risikobewertung“, die die Wahrscheinlichkeit angibt, dass sie eine Sicherheitsbedrohung für ihren Arbeitgeber darstellen. Dies könnte daran liegen, dass sie versehentlich etwas preisgeben oder beabsichtigen, Daten oder geistiges Eigentum zu stehlen.

Die Punktzahl setzt sich aus vielen Komponenten zusammen, aber sie beinhaltet, was eine KI sieht, wenn sie den Text der E-Mails und Chats eines Mitarbeiters untersucht, um angeblich ihre Stimmung oder Veränderungen darin zu bestimmen, die auf Verstimmung hindeuten können. Das Unternehmen kann diese Personen dann einer genaueren Prüfung unterziehen.

„Hier geht es wirklich darum, Verbraucher und Investoren sowie Mitarbeiter vor versehentlichen Fehlern zu schützen“, sagt Elizabeth Harz, CEO.

Foto: Mit freundlicher Genehmigung von Veriato

Ein anderes Unternehmen, das KI nutzt, RemoteDesk, hat ein Produkt für Remote-Mitarbeiter, deren Arbeit eine sichere Umgebung erfordert, weil sie beispielsweise mit Kreditkartendaten oder Gesundheitsinformationen zu tun haben. Es überwacht die Arbeiter über ihre Webcams mit Echtzeit-Gesichtserkennung und Objekterkennungstechnologie, um sicherzustellen, dass niemand sonst auf ihren Bildschirm schaut und dass kein Aufnahmegerät wie ein Telefon in Sicht kommt. Es kann sogar Warnungen auslösen, wenn ein Arbeiter bei der Arbeit isst oder trinkt, wenn ein Unternehmen dies verbietet.

RemoteDesks eigene Beschreibung seiner Technologie für „Work-from-Home-Gehorsam“ verursacht Bestürzung auf Twitter im vergangenen Jahr. (Diese Sprache hat die Absicht des Unternehmens nicht erfasst und wurde geändert, sagte sein CEO, Rajinish Kumar, gegenüber dem Guardian.)

Aber Tools, die behaupten, die Produktivität eines Arbeitnehmers zu bewerten, scheinen bereit zu sein, die allgegenwärtigsten zu werden. Ende 2020 führte Microsoft eine neues Produkt namens Productivity Score das die Mitarbeiteraktivitäten in seiner App-Suite bewertete, einschließlich der Häufigkeit, mit der sie an Videokonferenzen teilnahmen und E-Mails verschickten. Es folgte eine weit verbreitete Gegenreaktion, und Microsoft entschuldigte sich und überarbeitete das Produkt, sodass die Arbeiter nicht identifiziert werden konnten. Aber einige kleinere jüngere Unternehmen gehen gerne an die Grenzen.

Prodoscore, gegründet 2016, ist einer davon. Seine Software wird zur Überwachung von etwa 5000 Arbeitnehmern in verschiedenen Unternehmen eingesetzt. Jeder Mitarbeiter erhält eine tägliche „Produktivitätspunktzahl“ von 100, die an den Manager eines Teams und den Arbeiter gesendet wird, die auch ihren Rang unter ihren Kollegen sehen können. Die Punktzahl wird von einem proprietären Algorithmus berechnet, der das Volumen der Eingaben eines Mitarbeiters über alle Geschäftsanwendungen des Unternehmens hinweg gewichtet und aggregiert – E-Mail, Telefone, Messaging-Apps, Datenbanken.

Nur etwa die Hälfte der Kunden von Prodoscore teilt ihren Mitarbeitern mit, dass sie mit der Software überwacht werden (dasselbe gilt für Veriato). Das Tool ist „mitarbeiterfreundlich“, betont CEO Sam Naficy, da es den Mitarbeitern eine klare Möglichkeit gibt, zu zeigen, dass sie es tatsächlich sind Arbeiten zu Hause. „[Just] Halten Sie Ihren Prodoscore über 70“, sagt Naficy. Und weil es einen Mitarbeiter nur auf der Grundlage seiner Aktivität bewertet, hat es nicht die gleichen geschlechtsspezifischen, rassischen oder anderen Vorurteile wie menschliche Manager, argumentiert das Unternehmen.

Prodoscore schlägt nicht vor, dass Unternehmen auf der Grundlage seiner Ergebnisse Folgeentscheidungen für Arbeitnehmer treffen – beispielsweise über Prämien, Beförderungen oder Entlassungen. Aber „am Ende des Tages ist es ihr Ermessen“, sagt Naficy. Vielmehr ist es als „ergänzendes Maß“ zu den tatsächlichen Leistungen eines Arbeitnehmers gedacht, was hilfreich sein kann Unternehmen sehen, wie die Menschen ihre Zeit verbringen, oder zügeln Überarbeitung.

Naficy listet Rechts- und Technologiefirmen als seine Kunden auf, aber diejenigen, die vom Guardian angesprochen wurden, lehnten es ab, darüber zu sprechen, was sie mit dem Produkt machen. Einer, der große US-Zeitungsverlag Gannett, antwortete, dass er nur von einer kleinen Vertriebsabteilung mit etwa 20 Mitarbeitern genutzt werde. Ein Videoüberwachungsunternehmen namens DTiQ wird auf der Website von Prodoscore mit der Aussage zitiert, dass sinkende Punktzahlen genau vorhersagten, welche Mitarbeiter das Unternehmen verlassen würden.

Prodoscore plant in Kürze die Einführung eines separaten „Zufriedenheits-/Wohlbefindensindex“, der die Chats und andere Kommunikationen eines Teams durchsuchen wird, um herauszufinden, wie sich die Mitarbeiter fühlen. Es wäre beispielsweise in der Lage, einen unzufriedenen Mitarbeiter vorzuwarnen, der möglicherweise eine Pause braucht, behauptet Naficy.

Aber was denken die Arbeiter selbst darüber, so überwacht zu werden?

James und der Rest seines Teams bei dem US-Einzelhändler erfuhren, dass das Unternehmen, ohne dass sie es wussten, ihre Tastenanschläge in der Datenbank überwacht hatte.

In dem Moment, als er zurechtgewiesen wurde, erkannte James, dass einige der Lücken tatsächlich Pausen waren – die Mitarbeiter mussten essen. Später dachte er intensiv über das Geschehene nach. Es war sicherlich beunruhigend, dass seine Tastenanschläge heimlich verfolgt wurden, aber es war nicht das, was ihn wirklich schmerzte. „Ärgerlich“, „seelenzerreißend“ und „ein Tritt ins Gesicht“ war vielmehr, dass die Vorgesetzten nicht begriffen hatten, dass die Eingabe von Daten nur ein kleiner Teil seiner Arbeit und damit ein schlechter Maßstab für seine Leistung war . Die Kommunikation mit Verkäufern und Kurieren beanspruchte eigentlich die meiste Zeit.

„Es war der Mangel an menschlicher Aufsicht“, sagt er. „Es war ‚Ihre Zahlen stimmen nicht mit unseren Vorstellungen überein, obwohl Sie bewiesen haben, dass Ihre Leistung gut ist‘… Sie haben die einzelnen Analysten fast so angeschaut, als wären wir Roboter.“

Für Kritiker ist dies in der Tat eine erschreckende Landschaft. „Viele dieser Technologien sind weitgehend ungetestet“, sagt Lisa Kresge, wissenschaftliche und politische Mitarbeiterin an der University of California, Berkeley Labor Center und Mitautorin des jüngsten Berichts Daten und Algorithmen bei der Arbeit.

Produktivitätswerte erwecken den Eindruck, dass sie objektiv und unparteiisch sind und denen man vertrauen kann, weil sie technologisch abgeleitet sind – aber sind sie das? Viele nutzen die Aktivität als Indikator für die Produktivität, aber mehr E-Mails oder Telefonanrufe bedeuten nicht unbedingt, dass sie produktiver sind oder eine bessere Leistung erbringen. Und wie die proprietären Systeme zu ihren Werten kommen, sei Managern oft ebenso unklar wie den Mitarbeitern, sagt Kresge.

Darüber hinaus treffen Systeme, die die Zeit eines Arbeiters automatisch in „leer“ und „produktiv“ einteilen, Werturteile darüber, was produktiv ist und was nicht, bemerkt Merve Hickok, Forschungsdirektorin am Center for AI and Digital Policy und Gründerin von AIethicist.org. Ein Arbeitnehmer, der sich Zeit nimmt, um ein College zu schulen oder zu coachen, könnte als unproduktiv eingestuft werden, weil weniger Datenverkehr von seinem Computer ausgeht, sagt sie. Und Produktivitätswerte, die Arbeitnehmer zum Wettbewerb zwingen, können dazu führen, dass sie versuchen, das System auszutricksen, anstatt tatsächlich produktive Arbeit zu leisten.

KI-Modelle, die oft auf Datenbanken mit dem Verhalten früherer Probanden trainiert werden, können auch ungenau sein und voreingenommen bleiben. Probleme mit geschlechtsspezifischen und rassistischen Vorurteilen sind in der Gesichtserkennungstechnologie gut dokumentiert. Und es gibt Datenschutzprobleme. Fernüberwachungsprodukte, die eine Webcam beinhalten, können besonders problematisch sein: Es könnte einen Hinweis darauf geben, dass eine Arbeiterin schwanger ist (ein Kinderbett im Hintergrund), eine bestimmte sexuelle Orientierung hat oder in einer Großfamilie lebt. „Arbeitgeber erhalten so eine andere Informationsebene als sonst“, sagt Hickok.

Es gibt auch einen psychologischen Tribut. Überwacht zu werden verringert das Gefühl der wahrgenommenen Autonomie, erklärt Nathanael Fast, außerordentlicher Professor für Management an der University of Southern California, der das Psychology of Technology Institute mitleitet. Und das kann Stress und Angst verstärken. Forschung zu Arbeitnehmern in der Call-Center-Branche – das ein Pionier der elektronischen Überwachung war – hebt die direkte Beziehung zwischen umfassender Überwachung und Stress hervor.

Computerprogrammierer und Verfechter der Fernarbeit David HeinemeierHansson hat eine Ein-Unternehmens-Kampagne gegen die Anbieter der Technologie geführt. Früh in der Pandemie er kündigte an dass das von ihm mitbegründete Unternehmen Basecamp, das Projektmanagementsoftware für die Fernarbeit anbietet, Anbietern der Technologie die Integration verbieten würde.

Die Unternehmen versuchten zurückzudrängen, sagt Hansson – „sehr wenige von ihnen sehen sich als Lieferanten von Überwachungstechnologie“ – aber Basecamp könne sich nicht an der Unterstützung von Technologien mitschuldig machen, die dazu führten, dass Arbeiter einer solchen „unmenschlichen Behandlung“ ausgesetzt würden, sagt er. Hansson ist nicht naiv genug zu glauben, dass seine Haltung die Dinge ändern wird. Selbst wenn andere Unternehmen dem Beispiel von Basecamp folgen würden, würde dies nicht ausreichen, um den Markt zu stillen.

Was wirklich gebraucht wird, argumentieren Hansson und andere Kritiker, sind bessere Gesetze, die regeln, wie Arbeitgeber Algorithmen einsetzen und die psychische Gesundheit der Arbeitnehmer schützen können. In den USA sind die Arbeitgeber, außer in einigen Bundesstaaten, die Gesetze eingeführt haben, nicht einmal verpflichtet, die Überwachung gegenüber den Arbeitnehmern ausdrücklich offenzulegen. (Die Situation ist in Großbritannien und Europa besser, wo allgemeine Rechte in Bezug auf Datenschutz und Privatsphäre bestehen, das System jedoch unter mangelnder Durchsetzung leidet.)

Hansson fordert die Manager außerdem dringend auf, über ihren Wunsch nach einer Überwachung der Arbeitnehmer nachzudenken. Tracking kann diesen „einen von 100 Dummköpfen“ erwischen, sagt er. „Aber was ist mit den anderen 99, deren Umgebung Sie völlig unerträglich gemacht haben?“

Was James betrifft, so sucht er nach einem anderen Job, in dem „giftige“ Überwachungsgewohnheiten kein Merkmal des Arbeitslebens sind.


source site-27