Au fil des années, Facebook est devenu une plateforme de communication incontournable pour des milliards de personnes à travers le monde. Cependant, cette immense audience peut aussi présenter des défis majeurs pour la société, notamment en ce qui concerne la propagation de la désinformation et des discours haineux. Face à ces défis, Facebook a mis en place plusieurs initiatives pour lutter contre ces phénomènes et protéger ses utilisateurs. Dans cet article, nous allons explorer les mesures prises par Facebook pour lutter contre la désinformation et les discours haineux, ainsi que les résultats de ces efforts jusqu’à présent.
Les politiques de Facebook pour lutter contre la désinformation et la haine
Afin de lutter contre la diffusions de fausses informations et de discours de haine sur sa plateforme, Facebook met en place plusieurs politiques strictes. En 2019, l’entreprise a annoncé qu’elle allait renforcer ses politiques en matière de protection des droits des personnes impliquées dans ce type de comportements. Cette année-là, elle a également introduit de nouvelles règles visant à réduire la propagation de la désinformation et du discours de haine. Ces mesures font partie d’un effort plus large de Facebook visant à fournir un espace plus sûr et plus responsable pour ses utilisateurs.
Mise en œuvre d’une nouvelle législation européenne
En avril 2022, une nouvelle législation européenne a été adoptée afin de mieux lutter contre la désinformation et les discours haineux sur les médias et les grandes plateformes comme Facebook. Cela obligera les plus grands acteurs à rendre des comptes sur leurs algorithmes, qui déterminent ce que voient les utilisateurs. Et à partir de l’été 2023, ils devront se faire auditer par des organismes indépendants à leurs frais. Les très grandes plateformes en ligne à laquelle s’appliquent cette législation sont celles qui comptent plus de 45 millions d’utilisateurs actifs dans l’UE.
Les entreprises qui ne respectent pas ces obligations seront passibles d’amendes allant jusqu’à 6 % de leur chiffre d’affaires mondial, ou d’une interdiction d’opérer dans l’UE en cas d’infractions graves répétées.
Politique de modération des contenus sur Facebook
Pour s’assurer que ce genre de discours haineux ou de désinformation ne puissent être partagés sur sa plateforme, Facebook a mis en place une politique stricte de modération des contenus. La plateforme dispose d’un système de signalement et de revue des contenus qui permet aux utilisateurs de signaler tout contenu inapproprié ou illégal. Si le contenu est jugé inacceptable, il peut être supprimé ou bloqué. De plus, si un utilisateur enfreint les termes et conditions de Facebook, son compte peut être suspendu ou désactivé.
Partenariats avec des tiers
Facebook collabore également avec des tiers afin de mieux lutter contre les discours de haine et la désinformation. Par exemple, en 2019, l’entreprise a annoncé un partenariat avec l’organisation non gouvernementale Third Space Learning (TSL) pour former des enseignants sur l’utilisation responsable des médias et des technologies numériques. Ce partenariat vise à améliorer la compréhension des jeunes générations sur les questions liées aux médias sociaux et à la technologie. La plateforme travaille également avec des agences gouvernementales et des ONG pour surveiller le web et promouvoir des normes acceptables sur Facebook.
Facebook a pris des mesures drastiques depuis 2019 pour lutter contre la désinformation et les discours de haine sur sa plateforme, notamment en adoptant une nouvelle législation, en instaurant une politique de modération des contenus et en collaborant avec des tiers. Ces mesures ont permis à Facebook de maintenir des normes élevées et de protéger ses utilisateurs contre les abus et les discours offensants.