Un nouveau procès pourrait forcer YouTube à assumer les conséquences sur la santé mentale de la modération du contenu

Pour les grandes plates-formes technologiques, l’une des questions les plus urgentes à se poser au cours des premiers mois de la pandémie était de savoir comment la fermeture forcée des bureaux changerait leur approche de la modération du contenu. Facebook, YouTube et Twitter s’appuient tous sur un grand nombre de contractuels tiers pour surveiller leurs réseaux, et traditionnellement, ces travailleurs ont travaillé côte à côte dans de grands bureaux. Lorsque les entreprises de technologie ont fermé leurs bureaux, elles ont également fermé la plupart de leurs installations de modération de contenu.

Heureusement, ils ont continué à payer leurs modérateurs – même ceux qui ne pouvaient plus travailler, car leur travail les obligeait à utiliser des installations sécurisées. Mais avec la montée en flèche de l’utilisation des réseaux sociaux et une élection à l’horizon, le besoin de modération n’a jamais été aussi grand. Ainsi, la Silicon Valley a largement transféré les tâches de modération aux systèmes automatisés.

La question était de savoir si cela fonctionnerait – et cette semaine, nous avons commencé à obtenir des détails. Facebook et YouTube avaient averti que les systèmes automatisés feraient plus d’erreurs que les êtres humains. Et ils avaient raison. Voici James Vincent dans Le bord:

Environ 11 millions de vidéos ont été supprimées de YouTube entre avril et juin, selon le FT, ou à propos le double du tarif habituel. Environ 320 000 de ces retraits ont fait l’objet d’un appel, et la moitié des vidéos en appel ont été rétablies. Encore une fois, le FT dit que c’est à peu près le double du chiffre habituel: un signe que les systèmes d’IA étaient trop zélés dans leurs tentatives de repérer les contenus préjudiciables.

Comme l’a déclaré Neal Mohan, directeur des produits de YouTube, FT: «L’une des décisions que nous avons prises [at the beginning of the pandemic] quand il s’agissait de machines qui ne pouvaient pas être aussi précises que les humains, nous allions faire erreur en nous assurant que nos utilisateurs étaient protégés, même si cela aurait pu entraîner [a] un nombre légèrement plus élevé de vidéos à venir. « 

Il s’avère que les systèmes automatisés n’ont pas supprimé un nombre légèrement plus élevé de vidéos – ils ont supprimé double le nombre de vidéos. Cela vaut la peine de réfléchir pour nous tous, mais surtout pour ceux qui se plaignent que les entreprises technologiques censurent trop de contenu. Pour de nombreuses raisons – dont certaines sur lesquelles j’aborderai dans une minute – des entreprises comme YouTube subissent une pression croissante pour à la fois supprimer davantage de mauvais messages et le faire automatiquement. Ces systèmes s’amélioreront certainement avec le temps, mais les derniers mois nous ont montré les limites de cette approche. Ils ont également montré que lorsque vous faites pression sur les entreprises technologiques pour qu’elles suppriment davantage de publications nuisibles – pour de bonnes raisons – le compromis est une augmentation de la censure.

Nous ne parlons presque jamais de ces deux pressions en tandem, et pourtant c’est essentiel pour élaborer des solutions avec lesquelles nous pouvons tous vivre.

Il existe un autre compromis, plus urgent, dans la modération du contenu: l’utilisation de systèmes automatisés sujets aux erreurs mais invincibles, par rapport à l’utilisation d’êtres humains beaucoup plus qualifiés mais vulnérables aux effets du travail.

L’année dernière, je me suis rendu à Austin et à Washington, DC pour présenter les modérateurs actuels et anciens de YouTube et Google. J’ai passé la plupart de mon temps avec des personnes qui travaillent sur la file d’attente terroriste de YouTube – celles qui examinent chaque jour des vidéos sur l’extrémisme violent pour les retirer des services de l’entreprise. Cela faisait partie d’une série d’un an sur les modérateurs de contenu qui tentaient de documenter les conséquences à long terme de ce travail. Et sur YouTube, tout comme sur Facebook, de nombreux modérateurs à qui j’ai parlé souffrent de troubles de stress post-traumatique.

Un de ces modérateurs, que j’ai appelé Peter dans l’histoire, m’a décrit sa vie quotidienne de cette façon:

Depuis qu’il a commencé à travailler dans la file d’attente de l’extrémisme violent, Peter a noté qu’il a perdu des cheveux et pris du poids. Son tempérament est plus court. Lorsqu’il passe devant le bâtiment où il travaille, même les jours de repos, une veine se met à palpiter dans sa poitrine.

«Chaque jour, vous regardez quelqu’un décapiter quelqu’un, ou quelqu’un tirer sur sa petite amie», me dit Peter. «Après cela, vous vous sentez comme wow, ce monde est vraiment fou. Cela vous fait vous sentir mal. Vous sentez qu’il n’ya rien qui vaille la peine de vivre. Pourquoi nous faisons-nous cela les uns aux autres? »

J’ai pensé à Peter cette semaine en lisant un nouveau procès proposé au nom de travailleurs comme lui. Voici Queenie Wong à CNET:

Une ancienne modératrice de contenu poursuit YouTube, propriété de Google, après avoir prétendument développé une dépression et des symptômes associés au trouble de stress post-traumatique en regardant à plusieurs reprises des vidéos de décapitations, d’abus d’enfants et d’autres contenus dérangeants.

«Elle a du mal à dormir et quand elle dort, elle fait des cauchemars horribles. Elle reste souvent éveillée la nuit en essayant de s’endormir, en rejouant des vidéos qu’elle a vues dans son esprit », indique le procès, qui a été déposé devant une cour supérieure de Californie lundi. L’ancienne modératrice ne peut pas non plus être dans des endroits bondés car elle a peur des fusillades de masse, souffre de crises de panique et a perdu des amis à cause de son anxiété. Elle a également du mal à être avec des enfants et a maintenant peur d’avoir des enfants, selon le procès.

Le cabinet d’avocats impliqué dans la poursuite faisait également partie d’une poursuite similaire contre Facebook, a rapporté Wong. C’est un détail important dans une grande partie de ce que Facebook a fait dans ce cas: accepter de le régler, pour 52 millions de dollars. Ce règlement, qui nécessite toujours l’approbation finale d’un juge, ne s’applique qu’aux modérateurs américains de Facebook. Et avec des poursuites similaires en cours dans le monde entier, le coût final pour Facebook sera probablement beaucoup plus élevé.

Après avoir parlé à plus de 100 modérateurs de contenu dans des services de toutes tailles, il semble clair que le travail peut avoir un impact similaire, peu importe où ils ont pu travailler. Seule une fraction des employés peut développer un SSPT à part entière en regardant quotidiennement un contenu dérangeant, mais d’autres développeront d’autres problèmes de santé mentale graves. Et comme les entreprises de technologie ont en grande partie externalisé ce travail à des fournisseurs, ce coût leur a été largement caché.

J’ai demandé à YouTube ce que cela faisait du nouveau procès.

«Nous ne pouvons pas commenter les litiges en cours, mais nous comptons sur une combinaison d’humains et de technologie pour supprimer le contenu qui enfreint notre règlement de la communauté, et nous nous engageons à soutenir les personnes qui effectuent ce travail vital et nécessaire», a déclaré un porte-parole. «Nous choisissons soigneusement les entreprises avec lesquelles nous collaborons et travaillons avec elles pour fournir des ressources complètes pour soutenir le bien-être et la santé mentale des modérateurs, notamment en limitant le temps passé chaque jour à examiner le contenu.»

Facebook m’a dit toutes les mêmes choses, avant d’accepter de débourser 52 millions de dollars.

Quoi qu’il en soit, j’écris sur ces histoires en tandem aujourd’hui pour souligner à quel point les compromis sont difficiles ici. Fiez-vous trop aux machines et elles supprimeront beaucoup de bons discours. Trop compter sur les êtres humains et ils se retrouveront avec des problèmes de santé mentale débilitants. Jusqu’à présent, aucune entreprise technologique d’envergure mondiale n’a réussi à trouver cet équilibre. En fait, nous ne sommes toujours pas vraiment d’accord sur ce à quoi cela ressemblerait.

Nous savons cependant que les employeurs sont responsables de la protection de la santé de leurs modérateurs. Il a fallu une action en justice de la part des entrepreneurs pour que Facebook reconnaisse les méfaits de la modération de contenu extrémiste. Et lorsque ce nouveau procès sera finalement résolu, je serais surpris si YouTube n’était pas obligé de le reconnaître également.

Le rapport

Aujourd’hui dans l’actualité qui pourrait affecter la perception du public des grandes plateformes technologiques.

Tendance à la hausse: Facebook supprimé les réseaux de comptes gérés en Chine qui promouvaient et critiquaient les deux Président Trump et Joe Biden. C’est le premier démantèlement de comptes chinois visant la politique américaine. (Craig Timberg / Le Washington Post)

Tendance à la hausse: Twitter a déployé son plus grand effort pour encourager les Américains à voter. La société invite chaque personne aux États-Unis à s’inscrire pour voter mardi, qui était la journée nationale d’inscription des électeurs. (Jessica Guynn / États-Unis aujourd’hui)

Gouvernant

⭐ Président russe Vladimir Poutine «dirige probablement» une opération d’influence étrangère pour s’immiscer dans l’élection présidentielle de 2020 contre Joe Biden, selon une évaluation de la CIA. L’évaluation décrit comment le législateur ukrainien Andriy Derkach diffuse des informations négatives sur Biden aux États-Unis. Josh Rogin à Le Washington Post a l’histoire:

L’évaluation de la CIA a décrit en détail les efforts de Derkach et a déclaré que ses activités consistaient à travailler avec des lobbyistes, des membres du Congrès et des organisations médiatiques américaines pour diffuser et amplifier ses informations anti-Biden. Bien qu’elle fasse référence aux interactions de Derkach avec une personne «éminente» liée à la campagne Trump, l’analyse n’identifie pas la personne. Giuliani, qui travaille publiquement avec Derkach depuis plusieurs mois, n’est pas nommé dans l’évaluation. […]

Le 10 septembre, à la suite d’appels de législateurs démocrates, le département du Trésor a sanctionné Derkach, alléguant qu’il «était un agent russe actif depuis plus d’une décennie, entretenant des liens étroits avec les services de renseignement russes». Le secrétaire au Trésor Steven Mnuchin a déclaré dans un communiqué du 10 septembre que «Derkach et d’autres agents russes utilisent la manipulation et la tromperie pour tenter d’influencer les élections aux États-Unis et ailleurs dans le monde. Le département du Trésor a déclaré que Derkach «  avait mené une campagne d’influence secrète centrée sur la culture de récits faux et non fondés concernant les responsables américains lors de la prochaine élection présidentielle de 2020  », ce qu’il a fait en publiant des bandes audio éditées et d’autres informations non soutenues qui ont ensuite été diffusées dans les médias occidentaux.

«  Le ministère de la Justice devrait informer les procureurs généraux des États cette semaine de son intention de déposer une plainte antitrust contre Google. L’enquête s’est initialement concentrée sur les activités publicitaires de la société, mais elle a depuis fini par englober sa position dominante dans la recherche en ligne. Voici Tony Romm à Le Washington Post:

Le département lorgnait sur une poursuite en septembre contre Google. Le procureur général des États-Unis, William P. Barr, a cherché cet été à accélérer le travail de l’agence, annulant les dizaines d’agents fédéraux qui ont déclaré qu’ils avaient besoin de plus de temps avant de pouvoir déposer une plainte contre Google, a précédemment rapporté le Washington Post.

Un groupe de défense conservateur diffuse des publicités trompeuses sur Google sur la fraude électorale en Floride. Alors que le titre se lit comme suit: «Les responsables électoraux de Floride ont été démolis pour fraude électorale massive», le corps de l’annonce parle d’initiatives en matière d’éducation. (Partenariat pour l’intégrité électorale)

Facebook a déclaré qu’il «restreindrait la circulation du contenu» sur sa plate-forme si l’élection présidentielle américaine sombrait dans le chaos ou de violents troubles civiques. (Reuters)

Les grandes entreprises technologiques pourraient faire plus pour protéger les élections, soutient cet article. Ils pourraient faire du jour du scrutin un jour férié dans l’entreprise, payer l’équipement de protection individuelle des agents électoraux et offrir des trajets à prix réduit pour se rendre aux bureaux de vote, pour n’en nommer que quelques-uns. (Charlie Warzel / Le New York Times)

La famille qui a organisé la pro-Atout Le rassemblement à Portland qui a abouti à une fusillade mortelle n’avait pratiquement aucun profil politique avant l’événement. Ils ont rallié les partisans de Trump en utilisant des comptes en ligne, notamment sur Facebook, cela n’a pas révélé leurs noms complets. (Isaac Stanley-Becker, Joshua Partlow et Carissa Wolf / Le Washington Post)

TIC Tac a supprimé 104,5 millions de vidéos au cours du premier semestre de cette année pour avoir enfreint le règlement de la communauté ou ses conditions d’utilisation, selon le dernier rapport sur la transparence. La société a également reçu près de 1 800 demandes juridiques et 10 600 avis de retrait de droits d’auteur. (Ingrid Lunden / TechCrunch)

Youtube déploie des outils basés sur l’IA pour capturer plus de vidéos pouvant nécessiter des restrictions d’âge. Cette décision signifiera probablement que davantage de téléspectateurs seront invités à se connecter à leur compte pour vérifier leur âge avant de regarder. (Julia Alexander / Le bord)

La prop. 24 était censée combler les lacunes de la California Consumer Privacy Act. Mais les défenseurs de la vie privée ne sont pas d’accord sur la question de savoir si cela élargirait la vie privée des consommateurs ou la restreindrait. (Gilad Edelman / Filaire)

Le service de police de Los Angeles a utilisé un logiciel de reconnaissance faciale près de 30 000 fois depuis 2009, bien qu’il ait nié à plusieurs reprises qu’il l’utilise. Les défenseurs des libertés civiles disent que les dénégations font partie d’un modèle de tromperie du ministère. (Kevin Rector et Richard Winton / Los Angeles Times)

Un tribunal australien ordonne à un théoricien du complot de payer près d’un million de dollars à un politicien qu’elle a diffamé Facebook. Le théoricien du complot a déclaré, sans aucune preuve, que le politicien faisait partie d’un réseau pédophile, une idée alignée sur QAnon. (Cam Wilson / Gizmodo)

Industrie

Instagram co-fondateurs Kevin Systrom et Mike Krieger construit un traqueur COVID-19 appelé rt.live pour aider les gens à comprendre comment le virus se propage. C’est devenu un moyen crucial de comprendre comment l’assouplissement des restrictions d’abris sur place a un impact sur la pandémie. Voici un extrait de leur entretien avec Filaire Steven Levy:

RT.live est intéressant car parfois il ne semble pas synchronisé avec le nombre de cas que vous voyez dans d’autres endroits. Il y a quelques mois, par exemple, New York était au-dessus de 4 sur votre graphique et visiblement en difficulté. Maintenant, tout le monde dit que c’est l’un des endroits les plus sûrs. Pourtant, j’ai vérifié aujourd’hui et le R était supérieur à 1,07. C’est mauvais! Cela signifie-t-il que les chiffres vont augmenter?

Systrom: Oui, et en fait, ils augmentent. Considérez-le comme un feu de forêt – ce à quoi nous sommes confrontés en Californie actuellement. Si vous avez un énorme bloc de terre en feu et qu’il se développe rapidement, c’est vraiment mauvais. Si vous avez un petit lopin de terre en feu qui croît au même rythme que le grand, c’est aussi vraiment mauvais, mais c’est moins mauvais parce que vous partez d’une base plus petite. Donc quatre, c’est vraiment, vraiment mauvais – cela correspond à ce que vous avez ressenti en mars, New York étant un endroit qui rapportait au maximum plus de 10 000 tests positifs par jour. Mais ensuite, le refuge a commencé, et très rapidement vous avez vu les infections commencer à baisser. Donc R est passé en dessous de 1,0, ce qui est bien. Cela signifie que le virus est sous contrôle. Ce que vous vivez à New York en ce moment [with a 1.07 R] est qu’il s’agit d’un petit feu qui s’accroît, mais pas au même rythme qu’en mars. Rappelles toi. J’ai dit que 1.0 est le niveau qui brûle.

Morgan Beller, qui a dirigé Facebook Libra Strategy, rejoint la société de capital-risque NFX en tant que quatrième associé général. Beller est connu pour être la personne qui a convaincu Facebook de lancer sa propre monnaie. Le fait qu’elle parte avant son lancement ne semble pas de bon augure. (Melia Russell / Business Insider)

Les entreprises capitalisent sur la tendance du «lien en bio» pour permettre aux créateurs de concevoir des sites Web simples. Le besoin de se connecter à d’autres domaines du Web s’est accru pendant la pandémie, lorsque les gens font la promotion des ressources et se bousculent. (Ashley Carman / Le bord)

Ruth Porat, directrice financière de Alphabet et Google, dirige la petite entreprise de 800 millions de dollars de l’organisation et l’effort de secours contre le COVID-19. «Il est si clair que les petites entreprises sont la pierre angulaire de l’économie américaine», dit-elle. (Maneet Ahuja / Forbes)

Et enfin…

Parle-nous

Envoyez-nous des conseils, des commentaires, des questions et des vidéos YouTube non violentes: [email protected] et [email protected]

  • Eyeslipsface "Préparation 4 Forces de la ruche -BALLOT FLURIN (03109080) 10"
    "Usages recommandés :Force & vitalité, résistance physique et mentale : prépare à l'activité physique et intellectuelle. Stimule la mémoire et agit subtilement sur la sphère émotionnelle. Bienfaisant pour les changements de saison, périodes d'examen. Convient à toute la famille, personnes fatiguées, stressées
    18,69 €
  • Alternative Santé - Abonnement 12 mois
    Alternative Santé est un magazine d'information et de défense de la médecine alternative et naturelle. Il a pour objectif d'aborder la santé naturelle avec un ton nouveau... Et de combattre les idées toutes faites sur la santé que nous rabâchent les grands médias.En plus de votre abonnement, vous bénéficiez
    39,00 €
  • CHATTANOOGA Cefar TENS
    Cefar TENS , le nouveau stimulateur 2 canaux pour les professionnels de santé et les patients dans le cadre de leur rééducation à domicile. Le meilleur traitement non médicamenteux disponible sur le marché ! Dispositif Médical CE 0473
    199,00 €

Written by SasukE

Epic Games taquine Blade the «Daywalker» pour rejoindre Fortnite

Sarah French sur ses nouveaux films Poolboy Nightmare and Automation