Sommaire
OpenAI lance un outil inquiétant pour les élections : clonage vocal de haute précision
La société OpenAI, créatrice du célèbre programme de conversation ChatGPT, basé sur l’intelligence artificielle générative, a présenté un outil de clonage vocal limitant son utilisation pour éviter l’enregistrement de fraudes ou de crimes, selon l’Agence France-Presse.
Une technologie au service des campagnes électorales
Cet outil nommé « Voice Engine » serait capable de reproduire la voix d’une personne à partir d’un échantillon vocal de 15 secondes, selon un communiqué d’OpenAI rapportant les résultats d’un test à petite échelle.
Le communiqué ajoute : « Nous sommes conscients que la capacité de générer des voix humaines comporte des risques importants, notamment en cette année électorale. »
OpenAI indique collaborer avec des partenaires américains et internationaux issus de gouvernements, de médias, du divertissement, de l’éducation, de la société civile et d’autres secteurs, prenant en compte leurs observations dans le processus d’innovation de l’outil.
Craintes et préoccupations pour les élections
Cette année, de nombreuses élections se déroulent dans plusieurs pays, et les chercheurs en désinformation médiatique redoutent une utilisation abusive des applications d’intelligence artificielle générative, notamment des outils de clonage vocal peu coûteux et difficiles à suivre.
Précautions prises par OpenAI
OpenAI a affirmé avoir adopté une « approche prudente » avant le déploiement de l’outil sur une plus grande échelle, en raison du risque d’une utilisation abusive des voix générées artificiellement.
L’offre de l’outil intervient après qu’un conseiller travaillant pour la campagne présidentielle d’un rival démocrate de Joe Biden a créé un programme automatisé imitant la personnalité du candidat présidentiel américain réélu.
Mesures de sécurité et contrôle d’utilisation
OpenAI a déclaré que les partenaires testant « Voice Engine » ont accepté des règles imposant, par exemple, le consentement explicite de toute personne avant d’utiliser sa voix, ainsi que l’obligation de signaler clairement aux auditeurs que les voix ont été créées par intelligence artificielle.
La société a également mis en place une série de mesures de sécurité, dont un marquage numérique, pour pouvoir retracer l’origine de chaque voix créée par le nouvel outil, en plus d’une surveillance proactive de son utilisation.