Une étude du British University College de Londres, publiée dimanche 13 août, montre que plus d’un quart des voix imitées utilisant ce que l’on appelle le « deep faking » réussissaient à tromper même les auditeurs les plus attentifs et les plus concentrés.
Selon des chercheurs de l’université, plus de 500 personnes formées pour distinguer les vrais sons des imitations n’ont pu détecter que 73 % des imitations au cours de l’étude.
Deepfake est une application d’intelligence artificielle utilisée pour générer des sons, des images et des vidéos qui semblent avoir été créés par de vrais individus, à l’instar de la célèbre fausse vidéo de l’ancien président américain Barack Obama.
L’étude a été menée en anglais et en chinois, où les pourcentages étaient similaires dans les résultats des deux langues, bien que l’équipe de recherche ait constaté que les anglophones étaient capables de distinguer la voix humaine de la voix imitée générée à l’aide de l’intelligence artificielle grâce au rythme de la respiration. Tandis que les locuteurs chinois ont indiqué le rythme, la vitesse et la fluidité de la parole comme critères de discrimination.
Il est rapporté que les fausses voix sont strictement utilisées pour escroquer les gens et obtenir de l’argent d’eux en se faisant passer pour un ami ou un partenaire commercial et en demandant à la victime de lui transférer de l’argent.
Grands risques de propagation de la fraude
Ainsi, les développements récents de la technologie de l’intelligence artificielle ont soulevé des inquiétudes quant à la possibilité de propager la fraude en imitant les voix. En particulier avec la capacité des applications d’intelligence artificielle à imiter les voix avec une grande précision.
L’équipe de chercheurs de l’université britannique a prévenu que « du fait des développements technologiques, il est devenu possible de générer une copie presque réelle de la voix de toute personne à partir d’un enregistrement de quelques mots de sa voix ».
Les chercheurs ont déclaré que les résultats de l’étude peuvent ne pas refléter la réalité réelle selon laquelle les participants à l’étude- même ceux qui n’ont pas été formés- savaient qu’ils faisaient partie d’une expérience et étaient donc plus concentrés sur la découverte des voix imitées.
La plupart des efforts de lutte contre la contrefaçon de votes se concentrent actuellement sur l’utilisation de systèmes d’intelligence artificielle également pour les détecter. Lesquels ont performé au même niveau que les performances des personnes participant à l’expérience universitaire. Mais ils ont excellé par rapport aux personnes qui ne pas savaient qu’ils participaient à une expérience pour découvrir de fausses voix.
Les chercheurs ont donc déclaré qu’à la lumière de l’attente d’un développement et de progrès significatifs dans les techniques d’imitation des sons, ce qui est nécessaire est le développement d’outils plus avancés pour leur découverte.