Accueil Actualité Nouveaux outils vidéo IA accroissent craintes deepfakes avant élections

Nouveaux outils vidéo IA accroissent craintes deepfakes avant élections

par Sara
Faire un don
A+A-
Réinitialiser
Nouveaux outils vidéo IA accroissent craintes deepfakes avant élections

Nouveaux outils vidéo IA accroissent craintes deepfakes avant élections

La vidéo que OpenAI a publiée pour présenter son nouvel outil de conversion de texte en vidéo, Sora, doit être vue pour être crue. Des scènes hyperréalistes de mammouths laineux chargés dans des nuages de neige, un couple se promenant sous des cerisiers en fleurs tombants et des images aériennes de la ruée vers l’or en Californie.

La démonstration aurait incité le producteur de cinéma Tyler Perry à suspendre un investissement de 800 millions de dollars dans un studio. Des outils comme Sora promettent de traduire la vision d’un utilisateur en images en mouvement réalistes avec une simple instruction textuelle, la logique veut que cela rende les studios obsolètes.

Préoccupations Croissantes

D’autres s’inquiètent du fait que l’intelligence artificielle (IA) de ce type puisse être exploitée par des personnes aux intentions malveillantes. Des acteurs malveillants pourraient utiliser ces services pour créer des deepfakes hautement réalistes, ce qui pourrait induire en erreur les électeurs pendant une élection ou semer simplement le chaos en propageant des rumeurs divisives.

Les régulateurs, les forces de l’ordre et les plates-formes de médias sociaux ont déjà du mal à faire face à la montée de la désinformation générée par l’IA, y compris des enregistrements audio falsifiés de dirigeants politiques qui auraient contribué à fausser une élection en Slovaquie et à dissuader les gens de voter lors des primaires du New Hampshire.

Les politiciens et la société civile craignent qu’à mesure que ces outils deviennent de plus en plus sophistiqués, il deviendra de plus en plus difficile pour le grand public de distinguer le vrai du faux.

Experts préoccupés

Cependant, les experts en désinformation politique et en IA affirment que l’utilisation croissante des produits IA n’est qu’une nouvelle facette d’un vieux problème. Ces outils s’ajoutent simplement à un arsenal déjà bien fourni de technologies et techniques utilisées pour manipuler et tromper.

Faire face au défi des deepfakes signifie vraiment aborder les questions non résolues sur la régulation des plates-formes de médias sociaux sur lesquelles ils se propageront et rendre les grandes entreprises technologiques responsables lorsque leurs produits sont laissés ouverts aux mauvais usages.

Réponses insuffisantes

L’incitation à réglementer les sociétés technologiques afin de les contraindre à agir et de les pénaliser en cas de non-respect n’est probablement guère considérée. Mais les experts en désinformation sur les médias sociaux disent ressentir un sentiment de déjà-vu. Les conversations sur la régulation de l’IA rappellent étrangement celles qui ont eu lieu il y a des années autour de la désinformation sur les réseaux sociaux. Les grandes entreprises technologiques se sont engagées à mettre en place des mesures pour lutter contre la propagation de fausses informations dangereuses, mais le problème persiste.

Avec des élections potentiellement très chargées qui se déroulent dans l’Union européenne, au Royaume-Uni, en Inde et aux États-Unis cette année, les grandes entreprises technologiques se sont à nouveau engagées, individuellement et collectivement, à réduire la propagation de ce type de désinformation et de désinformation sur leurs plateformes.

Conclusion

Avant que les cycles électoraux ne débutent réellement, il sera difficile de prédire dans quelle mesure les deepfakes proliféreront sur les médias sociaux. Cependant, une partie du préjudice a déjà été causée, selon les chercheurs. À mesure que les gens deviennent plus conscients de la capacité à créer des images ou des séquences bidonnées sophistiquées, cela crée un sentiment plus large de méfiance et de malaise.

Les vraies images ou vidéos peuvent être rejetées comme fausses – un phénomène connu sous le nom de « dividende du menteur ».

Laissez un commentaire

*En utilisant ce formulaire, vous acceptez le stockage et la gestion de vos données par ce site web.


Droits d’auteur © 2024 – unsujet.fr – Tous droits réservés

Bienvenue sur unsujet.fr ! 🌟 Nous utilisons des cookies pour améliorer votre expérience sur notre site. Ces petits fichiers sont essentiels pour le bon fonctionnement de notre site et nous aident à comprendre comment vous l'utilisez, afin de le rendre encore plus intéressant et pertinent pour vous. En continuant à naviguer sur unsujet.fr, vous acceptez notre utilisation des cookies. Si vous souhaitez en savoir plus sur notre politique de confidentialité et les cookies que nous utilisons, cliquez sur "En savoir plus". Vous pouvez également choisir de refuser les cookies non essentiels en cliquant sur "Refuser". Merci de votre visite et bonne lecture sur unsujet.fr ! 📚🌍 Accepter En savoir plus