Welcome to your source of quality news, articles, analysis and latest data.

Facebook zahlt Millionen-Entschädigung an erkrankte Prüfer

Um Gewaltinhalte oder Pornos auf Facebook herauszufiltern, prüfen Menschen Beiträge. Viele werden davon krank. Nun zahlt das Netzwerk 52 Millionen Dollar Entschädigung.

Facebook zahlt den Menschen, die für das Netzwerk Inhalte überprüfen und dadurch krank werden, eine Entschädigung. Darauf haben sich der Konzern und mehrere Kläger in einem Gerichtsverfahren in den USA geeinigt. Die betroffenen Beschäftigten sollen bei einer Diagnose wie einer posttraumatischen Belastungsstörung bis zu 50.000 Dollar für ihre Behandlungskosten bekommen, wie die Anwälte der Kläger mitteilten. Insgesamt will Facebook 52 Millionen US-Dollar zahlen.

Die Menschen, die Inhalte bei dem Online-Netzwerk prüfen, müssen sich  regelmäßig Szenen von Gewalt und Misshandlungen ansehen, bevor sie die Inhalte bewerten und löschen. Sie sind oft nicht direkt bei Facebook, sondern bei Dienstleistern angestellt. Im Herbst 2018 verklagte eine frühere Prüferin Facebook mit dem Vorwurf, sie habe durch die gesehenen Inhalte nach neun Monaten eine posttraumatische Belastungsstörung davongetragen.

Die nun erzielte Einigung, die noch vom zuständigen Richter gebilligt werden muss, gilt für mehr als 10.000 Menschen aus Kalifornien, Texas, Arizona und Florida, die seit 2015 für Facebook gearbeitet haben. Der Mindestbetrag liegt bei 1.000 Dollar.

Facebook verspricht mehr Schutz

Facebook kündigte in der Einigung auch weitere Vorkehrungen zum Schutz der geistigen Gesundheit der Inhalte-Prüfer an. So soll bei Videos standardmäßig der Ton ausgeschaltet bleiben und sie in schwarz-weiß abgespielt werden. Bewerber für die Jobs sollen speziell auf mentale Widerstandsfähigkeit geprüft werden, hieß es weiter. Man sei den Inhalte-Prüfern dankbar und werde sie auch über die jetzt vereinbarten Maßnahmen hinaus unterstützen, erklärte das Online-Netzwerk.

Facebook setzt immer stärker Software ein, um Beiträge mit Gewalt, Kinderpornografie oder terroristischer Propaganda zu finden und zu löschen. Inzwischen würden rund 90 Prozent der verbotenen Inhalte entdeckt, noch bevor sie ein Nutzer zu sehen bekomme, betonte Facebook-Chef Mark Zuckerberg am Dienstag. Vor zwei Jahren lag der Wert erst bei 24 Prozent. Bei Instagram, das ebenfalls zu Facebook gehört, würden 90 Prozent der Beiträge mit Bezug zu Selbstmord oder Menschen, die sich selbst Schaden zufügen, automatisch herausgefiltert.

Allerdings müssen oft auch noch menschliche Prüfer auf die Inhalte begutachten, zum Beispiel um den Kontext von Äußerungen einzuschätzen, die Hassrede oder Beleidigungen enthalten könnten. Die Arbeitsbedingungen dieser Menschen vor allem in großen Zentren in Asien wurden immer wieder kritisiert.

Post Tags
Share Post
Written by
No comments

Sorry, the comment form is closed at this time.