Vous êtes ici

Back to top

APRNEWS: La technologie de clonage vocal émerge dans la guerre civile au Soudan

Français

Une campagne utilisant l’intelligence artificielle pour usurper l’identité d’Omar El-Béchir, l’ancien dirigeant du Soudan, a reçu des centaines de milliers de vues sur TikTok, ajoutant de la confusion en ligne dans un pays déchiré par la guerre civile.

Un compte anonyme a publié ce qu’il dit être des « enregistrements divulgués » de l’ex-président depuis la fin du mois d’août. La chaîne a posté des dizaines de clips - mais la voix est fausse.

Béchir, qui a été accusé d’avoir organisé des crimes de guerre et a été renversé par l’armée en 2019, n’a pas été vu en public depuis un an et serait gravement malade. Il nie les accusations de crimes de guerre.

Le mystère entourant le lieu où il se trouve ajoute une couche d’incertitude à un pays en crise après que des combats ont éclaté en avril entre l’armée, actuellement au pouvoir, et la milice rivale des Forces de soutien rapide.

Des campagnes comme celle-ci sont importantes car elles montrent comment de nouveaux outils peuvent distribuer du faux contenu rapidement et à moindre coût via les médias sociaux, disent les experts.

« C’est la démocratisation de l’accès à une technologie sophistiquée de manipulation audio et vidéo qui m’inquiète le plus », déclare Hany Farid, qui effectue des recherches en criminalistique numérique à l’Université de Californie à Berkeley, aux États-Unis.

« Les acteurs sophistiqués ont été capables de déformer la réalité pendant des décennies, mais maintenant la personne moyenne avec peu ou pas d’expertise technique peut rapidement et facilement créer de faux contenus. »

Les enregistrements sont publiés sur une chaîne appelée The Voice of Sudan. Les messages semblent être un mélange d'anciens audios de conférences de presse lors de tentatives de coup d’État, de reportages et de plusieurs « enregistrements divulgués » attribués à Béchir. Les messages prétendent souvent être tirés d’une réunion ou d’une conversation téléphonique, et semblent granuleux comme on pourrait s’y attendre d’une mauvaise ligne téléphonique.

Pour vérifier leur authenticité, nous avons d’abord consulté une équipe d’experts soudanais de BBC Monitoring. Ibrahim Haithar nous a dit qu’ils n’étaient probablement pas récents :

« La voix ressemble à celle de Béchir, mais il est très malade depuis quelques années et doute qu’il soit capable de parler aussi clairement. »

Cela ne veut pas dire que ce n’est pas lui.

Nous avons également vérifié d’autres explications possibles, mais il ne s’agit pas d’un ancien aucien audio qui a refait surface et il est peu probable qu’il soit l’œuvre d’un impressionniste.

L’élément de preuve le plus concluant est venu d’un utilisateur de X, anciennement Twitter.

Ils ont reconnu le tout premier des enregistrements de Bashir postés en août 2023. On y voit apparemment le dirigeant critiquer le commandant de l’armée soudanaise, le général Abdel Fattah Burhan.

L’enregistrement de Béchir correspondait à une émission Facebook Live diffusée deux jours plus tôt par un commentateur politique soudanais populaire, connu sous le nom d’Al Insirafi. On pense qu’il vit aux États-Unis, mais n’a jamais montré son visage à la caméra.

La paire ne se ressemble pas particulièrement, mais les scripts sont les mêmes, et lorsque vous lisez les deux audios ensemble, ils se jouent parfaitement en synchronisation.

La comparaison des ondes audio montre des schémas similaires dans la parole et le silence, note M. Farid.

Les preuves suggèrent qu’un logiciel de conversion vocale a été utilisé pour imiter la parole de Béchir. Le logiciel est un outil puissant qui vous permet de télécharger un extrait audio, qui peut être changé dans la voix différente.

Après d’autres recherches, un modèle a émergé. Nous avons trouvé au moins quatre autres enregistrements de Bashir qui ont été tirés des émissions en direct du même blogueur. Il n’y a aucune preuve qu’il soit impliqué.

Le compte TikTok est exclusivement politique et nécessite une connaissance approfondie de ce qui se passe au Soudan, mais qui bénéficie de cette campagne fait l’objet d’un débat. Un récit constant est la critique du chef de l’armée, le général Burhan.

La motivation pourrait être de faire croire au public que Béchir a émergé pour jouer un rôle dans la guerre. Ou la chaîne pourrait essayer de légitimer un point de vue politique particulier en utilisant la voix de l’ancien dirigeant. L’angle que pourrait être cet angle n’est pas clair.

La Voix du Soudan nie avoir induit le public en erreur et affirme qu’ils ne sont affiliés à aucun groupe. Nous avons contacté le compte et avons reçu une réponse textuelle disant: « Je veux communiquer ma voix et expliquer la réalité que mon pays traverse dans mon style. »

Un effort de cette ampleur pour se faire passer pour Béchir peut être considéré comme « significatif pour la région » et a le potentiel de tromper le public, dit Henry Ajder, dont la série sur BBC Radio 4 a examiné l’évolution des médias synthétiques.

Les experts en IA craignent depuis longtemps que de fausses vidéos et de faux enregistrements audio ne conduisent à une vague de désinformation susceptible de déclencher des troubles et de perturber les élections.

« Ce qui est alarmant, c’est que ces enregistrements pourraient également créer un environnement où beaucoup ne croient même pas aux vrais enregistrements », explique Mohamed Suliman, chercheur au Civic AI Lab de la Northeastern University.

Comment pouvez-vous repérer la désinformation basée sur l’audio?

Comme nous l’avons vu avec cet exemple, les gens devraient se demander si l’enregistrement semble plausible avant de partager.

Il est essentiel de vérifier s’il a été publié par une source fiable, mais la vérification de l’audio est difficile, en particulier lorsque le contenu circule sur les applications de messagerie. C’est encore plus difficile en période de troubles sociaux, comme celui que connaît actuellement le Soudan.

La technologie permettant de créer des algorithmes formés pour repérer l’audio synthétique en est encore aux tout premiers stades de développement, alors que la technologie permettant d’imiter les voix est déjà assez avancée.

Après que la BBC ait contacté TikTok, le compte a été banni.