Ce que la débâcle raciste des GIF nous apprend sur le discours de haine en ligne

Giphy a fait son retour sur Snapchat et Instagram après sa suppression rapide et sans cérémonie le mois dernier lors de la découverte d'un GIF explicitement raciste qui dépeignait un compteur croissant de «mort de crime à N mots» lancé par un gorille.





Selon Le bord , Giphy a déclaré que le GIF avait échappé à cause d'un 'bogue dans nos filtres de modération de contenu affectant spécifiquement les autocollants GIF', lui permettant de contourner les règles de la plate-forme qui interdisent aux utilisateurs de publier un tel contenu. Giphy a corrigé le bogue, et Instagram et Snapchat l'ont rajouté.

Bien que cet incident ait été résolu lorsque le public l'a attrapé, il est sensiblement différent des faux pas du passé. Instagram et Snapchat ont retiré l'application immédiatement et publiquement. Il n'y a pas eu de rationalisation, pas d'invocation du premier amendement - juste des excuses fermes et concisesetcorrection.



Tous les médias sociaux - de Facebook à Twitter en passant par Reddit - ont été confrontés à la question inévitable de savoir comment gérer les contenus toxiques et nuisibles, principalement après le tollé public. Facebook a été confronté à une série de problèmes de confidentialité ces derniers temps, mais n'a pas encore fait face au racisme et aux discours de haine sur ses plates-formes. Facebook a récemment laissé entendre que c'était aux utilisateurs de décider de condamner la pédophilie via une enquête, tout en permettant discrètement aux annonceurs de cible les 'haineux juifs' et autres groupes haineux en Amérique et dans le monde, selon les récentes découvertes de ProPublica. le New York Times rapporte que cette politique a même attisé les tensions au Myanmar, où Facebook a accepté des publicités attaquant la population minoritaire Rohingya. Dans le contexte, Facebook a interdit aux femmes de parler de leurs expériences personnelles, selon Étourdi .



Facebook fera-t-il quelque chose contre les discours de haine sur sa plateforme? L'intelligence artificielle appropriée n'est pas «encore là», déclare le PDG Mark Zuckerberg. Il a dit que cela pourrait prendre de cinq à dix ans pour réparer le logiciel censé identifier les discours de haine, selon son témoignage avant le Congrès américain le 10 avril. Mais alors que Zuckerberg cite des nuances linguistiques comme raison de l'échec de l'IA, Facebook aurait également surpris la liberté d'expression en aidant le gouvernement vietnamien à supprimer le contenu dissident. Et comme Slate expliqué l'année dernière , «Cinq à 10 ans» a tendance à être la phrase fourre-tout des organisations liées à la technologie qui promettent tout, de l'élimination de la chimiothérapie aux voitures volantes.



le turpin 13: secrets de famille dévoilés

Facebook fait face questions inconfortables en ce moment, mais ce n’est pas le seul. Reddit, une partie sans doute plus ombragée d'Internet, laisse le New yorkais dans ses bureaux pour observer les progrès de la désintoxication, consistant en un personnel humain passant au peigne fin les subreddits pour déterminer à quel point quelque chose doit être mauvais pour l'arrêter. Reddit a mis à jour ses politiques l'année dernière à peu près au moment où il a trouvé un contenu misogyne violent dans le sous-répertoire r / incels, selon Vice .

Twitter doit toujours expliquer pourquoi les utilisateurs crachant du contenu affilié aux néo-nazis sont autorisés à rester sur la plate-forme, tandis que d'autres utilisateurs trouveraient que cela résiste aux abus sur Internet. peut les bannir au lieu de l'agresseur. L'année dernière, Twitter a commencé suppression de la coche vérifiée des utilisateurs populaires associés aux mouvements de la droite alternative, mais les suprémacistes blancs comme Richard Spencer utilisaient déjà l'application pour diffuser des messages violents. À présent, Twitter envisage d'éliminer les comptes de robots qui répandent des informations erronées .



La frustration du public est palpable - et peut-être la seule force motrice derrière tout changement. Unilever, l'un des plus grands annonceurs au monde, a lancé en février la possibilité de supprimer les publicités de Facebook si elle ne donne pas suite à la réglementation du discours de haine. Le Washington Post a rapporté que l'absence de réglementation fédérale sur l'industrie de la technologie pousse les gouvernements des États à agir. La Californie, où la plupart des entreprises technologiques ont leur siège social, élabore une législation pour lutter contre les robots des médias sociaux. Le Maryland, New York et Washington suivent de près, poussant des projets de loi qui rendent les publicités politiques en ligne plus transparentes pour les électeurs après le scandale Cambridge Analytica de Facebook.

Bien qu'Instagram appartienne à Facebook, il s'est attaqué rapidement au problème des GIF racistes. L'action de Snapchat a largement chuté car des célébrités se sont plaintes à ce sujet, comme Kylie Jenner demander si quelqu'un l'a utilisé plus et Rihanna abandonner l'application après qu'une annonce a demandé aux utilisateurs s'ils préféraient la gifler ou frapper Chris Brown.

L'incident GIF marque un moment de prise en compte pour les plateformes de médias sociaux qui utilisaient auparavant le premier amendement comme bouclier. La vitesse de la résolution indique un changement de pouvoir, d'autant plus que les utilisateurs de médias sociaux suppriment des comptes et commencent à surveiller leurs propres paramètres de confidentialité. Alors que les gens se retirent d'Internet, il est important de voir comment les grandes entreprises de technologie et de médias se confrontent à leur place dans la société et à ce que les utilisateurs exigent d'elles. Ils nous font gagner de l’argent depuis bien trop longtemps. Il est temps de rendre des comptes.

[Photo: Getty Images]

Articles Populaires