Depuis le 24 février, le début de l’invasion de l’Ukraine par la Russie, la désinformation foisonne sur les réseaux sociaux avec la sortie de vidéos de propagande et de rumeurs et théories comme celle du fantôme de Kyiv.
Les fausses nouvelles – photos, vidéos et affirmations de toutes sortes – sur le réseau social TikTok sont proposées aux utilisateur·rice·s par le biais de l’algorithme de la page « For you », révèle une enquête de NewsGuard du mois dernier. NewsGuard est un site américain renommé, utilisé par de nombreux·ses journalistes afin de vérifier la crédibilité des articles et informations circulant sur le web. L’enquête révèle que la plateforme promeut à la fois du contenu pro-russe et pro-ukrainien. Le principal problème soulevé par NewsGuard serait que, sur TikTok, le contenu d’information de sources crédibles et vérifiées apparaîtrait aux côtés de contenus non vérifiés et mal identifiés sans aucune distinction faite entre les deux.
La propagation de désinformation sur les réseaux sociaux serait potentiellement instrumentalisée de part et d’autre du conflit, non pas seulement le résultat de l’algorithme de TikTok spécifiquement. En effet, plusieurs fausses images et vidéos datant de 2014 et non de 2022 circulent sur Tik Tok. On y voit également des vidéos passer sans texte ou contexte, ce qui permet aux spectateur·trice·s de les interpréter de leurs propres manières. On y trouve également des théories qui affirment la présence d’usines d’armes biologiques américaines en Ukraine. La théorie du « fantôme de Kyiv », soldat qui serait parvenu à abattre six jets russes au début de l’invasion, provenait en réalité du contenu d’un jeu vidéo « Digital Combat Simulator (DCS) World », qui aurait recréé une image d’invasion de l’Ukraine.
Le samedi 26 mars dernier, la première vice-ministre ukrainienne des Affaires étrangères, Emine Djaparova, a évoqué que l’utilisation de la désinformation dans le cadre du conflit russo-ukrainien s’apparenterait au début d’une « troisième guerre mondiale ». Djaparova, elle-même ancienne journaliste, a déclaré lors du Forum de Doha au Qatar que « nous entrons dans une troisième guerre mondiale, pas un conflit conventionnel, mais une guerre informationnelle ».
« Sur TikTok, le contenu d’information de sources crédibles et vérifiées apparaîtrait aux côtés de contenus non vérifiés et mal identifiés sans aucune distinction faite entre les deux »
Par ailleurs, le président de l’Ukraine Volodymyr Zelensky a mentionné dans un de ses discours que l’influence des utilisateur·rice·s de TikTok sur leurs audiences pouvaient potentiellement arrêter les conflits. Le 10 mars, la Maison Blanche a organisé une réunion regroupant plusieurs influenceur·euse·s pour leur demander d’adopter la ligne officielle des États-Unis. Plusieurs utilisateur·rice·s, sans s’en douter, partagent malgré eux·lles du contenu pouvant être truqué ou faussement présenté comme provenant du conflit russo-ukrainien. Il existe toutefois plusieurs outils de détection de désinformation, dont le site NewsGuard. Une de leurs expériences consistait à surfer sur le réseau TikTok pour 45 minutes. Vers la fin de celle-ci, la page « For you » des analystes était presque exclusivement remplie de contenu invérifé et parfois carrément faux lié à la guerre en Ukraine, sans distinction entre la désinformation et les sources fiables, peut-on lire dans le rapport. Selon l’enquête de NewsGuard, l’algorithme de TikTok trompe les utilisateur·rice·s. En réponse à ces critiques et analyses, un porte-parole de la compagnie TikTok a déclaré : « Nous continuons à répondre aux propos de la guerre en Ukraine avec des ressources de sûreté et de sécurité alors que nous nous efforçons de supprimer les informations nuisibles et d’assurer une expérience seine sur TikTok ». La compagnie affirme s’être associée avec des organisations indépendantes de vérification des faits (factchecking, ndlr).
TikTok, qui est originellement une application de danse, est devenu un enjeu politique aux implications graves. Pour y remédier, des organisations comme l’Observatoire TikTok de la Fondation Mozilla examinent le type de contenu qui est populaire ou non sur la plateforme par le biais de l’algorithme et des politiques de modération de l’application TikTok. Actuellement, cette initiative se concentre sur la rétrogradation du contenu politique dans les pays non anglophones. Plus spécifiquement, l’Observatoire suit de près le succès des contenus susceptibles de déplaire au Parti communiste chinois (PCC), notamment lorsqu’ils sont publiés à l’étranger. Le chercheur Marc Faddoul explique dans une publication blogue que « Douyin, la version chinoise de TikTok, est déjà fortement modérée – c’est un fait connu ». Conséquemment, en raison des implications géopolitiques, il spécifie que « la question est de savoir si le PCC utilise son influence sur ByteDance [le propriétaire de TikTok, ndlr] pour censurer ou façonner le discours politique à l’étranger. »