Plus de parole et moins d’erreurs: Meta decide de mettre fin à son programme de verification de faits au profis de la liberté d’expression.
81 vues .

Apres la récente décision de Meta de démanteler son programme de vérification des faits par une tierce partie marque un écart spectaculaire par rapport à sa position antérieure sur la désinformation et la Mésinformation. Pour une plateforme avec plus de trois milliards d’utilisateurs, ce changement représente un profond pari sur le pouvoir de la modération communautaire – un pari que nous pensons pouvoir se retourner par une manière catastrophique. Alors que le géant des médias sociaux insiste sur le fait que ce changement est motivé par le désir d’améliorer la liberté d’expression, la réalité est qu’il menace de défaire des années de progrès dans la lutte contre la désinformation.

De la responsabilisation à l’“avis de la Communauté”

En 2016, en raison de préoccupations concernant l’intégrité des informations en ligne parvenaient à un point d’ébullition, Meta a lancé son initiative de vérification des faits indépendante. Cela faisait suite à des cris mondiaux sur le rôle des médias sociaux dans l’influence des élections politiques et la diffusion des théories du complot. Meta s’est associé à des organisations établies comme Reuters Fact Check, Agence France-Presse et PolitiFact pour évaluer de manière indépendante l’exactitude du contenu circulant sur ses plateformes, y compris Facebook, Instagram et Threads. Lorsque le contenu a été signalé comme inexact ou trompeur, des étiquettes de mise en garde ont été ajoutées, ce qui a aidé les utilisateurs à identifier les messages problématiques. Le programme, bien que non sans ses limites, était un élément essentiel de l’écosystème de la responsabilité Meta construit dans un effort pour protéger le discours public.

Avance rapide jusqu’en 2025, et Meta a annoncé son intention d’éliminer progressivement ce programme, à commencer par les États-Unis, en faveur d’un nouveau système appelé « Notes de la Communauté ». Comment cela fonctionne-t-il ? Le principe est simple: les utilisateurs contrôlés fournissent un contexte à des messages potentiellement trompeurs, et leurs contributions sont évaluées pour leur utilité par un ensemble diversifié de pairs. Une fois jugées utiles, les notes sont rendues publiques. La raison d’être de zuckerberg ? Le contrôle des faits a conduit à « trop de censure » et a étouffé la « liberté d’expression », en particulier après la récente élection présidentielle américaine. Cette décision, affirme zuckerberg, représente un retour aux racines de la plate-forme – la parole avant tout qui est en priorité. Au lieu de s’appuyer sur des vérificateurs de faits professionnels et indépendants, Meta va maintenant s’enquérir du contenu potentiellement trompeur, laissant aux utilisateurs ajouter du contexte et des commentaires aux messages qu’ils jugent faux.

Chez FactCheckAfrica, nous pensons qu’il s’agit d’une grave erreur, une concession dangereuse aux pressions politiques qui entourent Meta et un pas en arrière important dans la lutte pour la vérité en ligne.

L’illusion du « liberté »

Le cadrage de la décision de zuckerberg en tant que restauration de l’« expression libre » sonne creux lorsqu’il est vu à travers le prisme de l’intégrité numérique. S’il est vrai que la liberté d’expression est une pierre angulaire des sociétés démocratiques, le changement de Meta se fait au détriment de la responsabilité. En outre, l’élaboration de cette décision en tant que retour aux « racines » de Meta ignore l’évolution des plateformes numériques en tant que services publics. Avec une grande portée vient une grande responsabilité. Les plateformes comme Facebook et Instagram ne sont pas de simples canaux d’information ; elles façonnent les perceptions, influencent les décisions et, de plus en plus, définissent la réalité pour des milliards de personnes.

Le système de vérification des faits Meta abandonné n’était pas une question de silence ; il s’agissait de fournir aux utilisateurs les informations dont ils ont besoin pour différencier la vérité du mensonge. Comme l’a noté Angie Drobnic Holan, à la tête du Réseau international de recherche, dans sa déclaration en réponse à la décision de Meta, « le journalisme de contrôle d’aujourd’hui n’a jamais censuré ou supprimé des postes ; il ajoute des informations et un contexte à des affirmations controversées, et c’est le contenu du canular démystifié et les théories du complot ». Ces vérificateurs de faits ont suivi un code de principes, garantissant que leur travail était non partisan, transparent et enraciné dans l’éthique journalistique.

La décision de Meta, en revanche, élève la puissance des annotations non vérifiées par les utilisateurs tout en supprimant la supervision experte qui a donné vérification de ses moyens de fait. Les utilisateurs – souvent sans la formation requise ou l’accès à des sources fiables – seront les nouveaux arbitres de la vérité. Mais seront-ils vraiment capables de s’attaquer à la complexité de la désinformation moderne ? Seront-ils capables de discerner entre l’opinion et les faits, ou vont-ils simplement renforcer leurs propres préjugés? Les preuves de la référence de X (anciennement Twitter) font état de notes de la communauté, à laquelle Meta emprunte maintenant, suggère cette dernière.

En 2023, des rapports du Washington Post et du Centre pour la lutte contre la haine numérique ont révélé que les notes de la communauté de X n’entramais pas endiguer la vague de mensonges sur la plate-forme. Bien qu’il soit présenté comme une solution à la désinformation, le système a lutté pour faire face à des mensonges très médiatisés et a souvent laissé persister des contenus trompeurs pendant de longues périodes. Cela soulève une question cruciale: si une plate-forme plus établie comme X, qui fonctionne à une échelle similaire, n’a pas été en mesure de maîtriser la désinformation à l’aide de ce modèle, qu’est-ce qui fait que Meta pense qu’il réussira?

La décision de Meta n’existe pas dans le vide. En tant que l’une des plus grandes entreprises technologiques au niveau mondial, ses choix ont créé un précédent pour d’autres plateformes. Alors que Meta positionne le changement comme une démarche pour restaurer la liberté d’expression, la réalité est qu’il permettra probablement la propagation incontrôlée des mensonges et des théories du complot. Rien qu’en Australie, Meta a placé des étiquettes d’avertissement sur des millions d’éléments de contenu trompeur sur Facebook et Instagram. De nombreuses études ont également montré que ces efforts ont contribué à ralentir la propagation des informations nuisibles, en particulier en ce qui concerne les questions telles que le COVID-19, l’extrémisme politique et la santé publique. Compte tenu du recul de Meta de cette responsabilité, il y a peu de raisons de croire que les notes générées par les utilisateurs seront aussi efficaces pour freiner la propagation de la désinformation dangereuse.

Qu’est-ce qui est en jeu ?

Le remplacement de la surveillance indépendante par une modération participative risque d’éroder la confiance déjà fragile dans les plateformes numériques. Les utilisateurs sont plus susceptibles de remettre en question la crédibilité des annotations de pairs anonymes que d’experts impartiaux. Cette érosion de la confiance crée un terrain fertile pour la désinformation et prospère, en particulier dans les environnements polarisés où la vérité est contestée.

L’une des conséquences les plus immédiates de la décision de Meta est la pression financière probable qu’elle imposera aux organisations indépendantes de vérification des faits. L’initiative de vérification des faits de Meta a fourni un financement essentiel à jusqu’à 90 organisations accréditées dans le monde entier, qui se sont appuyées sur ces partenariats pour mener à bien leurs importants travaux. Les effets d’ondulations risquent d’affaiblir la lutte mondiale contre la désinformation, car le changement pourrait déstabiliser de nombreuses organisations de vérification des faits, les forçant à se rapprocher de différentes sources de financement ou à faire face à une diminution de la capacité opérationnelle.

En outre, les vérificateurs de faits indépendants ont historiquement adhéré à un code de principes strict, garantissant la transparence, l’impartialité et l’exactitude de leurs travaux. Ces organisations sont devenues des sources fiables d’informations fiables dans un monde de plus en plus en proie à la désinformation. Le départ de Meta de ces processus de vérification rigoureux et externe pourrait entraîner une dilution de la confiance dans les informations circulant sur ses plateformes.

La possibilité que des notes communautaires soient fabriquées à des fins politiques est une autre question cruciale. Les utilisateurs prenant l’initiative de présenter des contenus comme trompeurs, il existe un risque inhérent de manipulations par des groupes d’intérêt ou des individus ayant des agendas politiques. Contrairement aux vérificateurs de faits professionnels, qui sont formés et guidés par des normes éthiques, les utilisateurs peuvent être plus enclins à biaiser, qu’ils soient intentionnels ou non. Sans contrôle externe, le système des notes communautaires pourrait devenir un outil pour étouffer les points de vue opposés ou promouvoir des récits partisans.

En outre, le moment de la décision de Meta soulève des questions inconfortables. Pour une entreprise qui bannit un jour le récit de Trump après les émeutes du Capitole du 6 janvier, ce changement ressemble moins à un principe de principe pour la liberté d’expression et plus comme la capitulation à la pression politique. Cela est particulièrement préoccupant à la suite des élections américaines, où les acteurs politiques, y compris le président élu Trump et ses alliés conservateurs, ont exprimé leur satisfaction à l’égard du changement de Meta. Il n’est pas difficile d’imaginer comment certains groupes pourraient exploiter un système comme les notes de la communauté pour amplifier leurs messages tout en rejetant les points de vue opposés comme « meurtriers » ou « faux ». À une époque où la désinformation est devenue un outil politique puissant, ce type de modération du contenu à durée indéterminée et générée par les utilisateurs pourrait alimenter la division plutôt que la combattre.

Un appel à la responsabilité

L’abandon par Meta de la vérification indépendante des faits n’est pas seulement un faux pas d’entreprise – c’est une menace pour le tissu même du discours informé à l’ère numérique. Bien que son mouvement puisse être un gain à court terme pour les défenseurs de la liberté d’expression, il représente un risque à long terme pour l’intégrité du paysage de l’information numérique.

Alors que Meta pivote vers un modèle qui surplombe la vérité, la responsabilité est sur les utilisateurs, les journalistes et les décideurs politiques pour s’intensifier et exiger plus. Chez FactCheckAfrica, nous continuons de croire au pouvoir du journalisme indépendant et des organisations de vérification des faits pour tenir les plates-formes responsables. Mais nous ne pouvons pas le faire seuls. Nous avons besoin de cadres réglementaires plus solides, de pratiques commerciales plus transparentes et, surtout, d’un engagement en faveur de la vérité qui transcende les pressions politiques et financières.

En l’absence de responsabilité des entreprises, nous devons tous devenir les gardiens de la vérité. Les enjeux sont trop élevés pour que nous restions passifs face au changement dangereux de Meta. En tant que citoyens du monde, nous devons exiger davantage de nos plates-formes – parce que, dans la bataille pour la vérité, le silence est la complicité.

Cet article est une production de Fact-check Africa, nous l’avons trouvé interesant et juger bon de le syndiquer sur notre plateforme  afin que nos lecteurs en benefice de ce contenu engeante, lequel regorge pleine des connaissance.

Leave comment

Your email address will not be published. Required fields are marked with *.

Translate »