Une étude montre que les visages générés par l’IA sont indiscernables des vrais visages.

Avatar photo

L’adoption rapide de l’intelligence artificielle a des implications majeures pour notre vie privée. Une nouvelle étude menée par deux chercheurs montre qu’il est de plus en plus difficile pour les gens de distinguer un visage créé par l’IA d’un vrai visage. De manière surprenante, les chercheurs ont déclaré que leur étude a montré que les fausses images sont plus dignes de confiance que les vraies. Les chercheurs appellent maintenant à davantage de mesures de protection pour empêcher les “faux profonds” de s’immiscer dans nos vies. Les chercheurs ont mis en garde contre les graves conséquences de cette pratique, affirmant que des textes, des sons, des images et des vidéos synthétisés par l’IA ont déjà été utilisés à des fins de fraude, de propagande et de “pornographie de vengeance”.

Les chercheurs ont demandé aux participants de distinguer les visages créés à l’aide de la technologie de pointe StyleGAN2 de ceux qui étaient réels. Ils ont également interrogé les participants sur le niveau de confiance que leur inspiraient les visages. Les résultats ont été surprenants. Ils ont révélé que les visages générés synthétiquement étaient très photoréalistes et difficiles à distinguer des visages réels. Les participants les ont également jugés plus dignes de confiance.

Au cours de la première expérience, le taux de précision des participants n’était que de 48%. Au cours de la deuxième expérience, le taux s’est légèrement amélioré pour atteindre 59 %, malgré l’entraînement de la première série. Les chercheurs ont ensuite effectué un troisième tour pour vérifier la fiabilité. Avec le même ensemble d’images, ils ont constaté que l’évaluation moyenne des faux visages était 7,7 % plus fiable que celle des vrais visages.

Le texte, l’audio, l’image et la vidéo synthétisés par l’IA sont “militarisés” à des fins d’imagerie intime non consensuelle, de fraude financière et de campagnes de désinformation, ont déclaré les chercheurs dans l’étude publiée dans Proceedings of the National Academy of Sciences. (PNAS). “Notre évaluation du photoréalisme des visages synthétisés par l’IA indique que les moteurs de synthèse ont traversé la vallée de la peur et sont capables de créer des visages qui sont indiscernables – et plus fiables – que les visages réels”, ont-ils ajouté.

Les auteurs de l’étude – Sophie Nightingale de l’Université de Lancaster et Hany Farid de l’Université de Californie – ont également mis en garde contre le scénario où les gens seraient incapables d’identifier les images générées par l’IA. “La conséquence la plus pernicieuse est peut-être que, dans un monde numérique où une image ou une vidéo peut être truquée, l’authenticité de tout enregistrement gênant ou importun peut être remise en question.”

Les chercheurs ont proposé quelques lignes directrices contre les faux profonds. Ces mesures de protection comprennent l’incorporation de filigranes robustes dans les réseaux de synthèse d’images et de vidéos.


Related Posts