Les progrs des logiciels de montage vido ont facilit la production de vidos “deepfake”. Il existe principalement deux types de vidos “deepfake”, l’une o ce que dit la personne est manipul en intervertissant les expressions faciales, et l’autre o l’identit de la personne est intervertie. Des informaticiens ont mis au point une technique permettant de dtecter les fausses vidos dans lesquelles les expressions faciales ont t manipules avec une prcision de 99 %, ce qui est suprieur aux autres approches de pointe. La mthode fonctionne aussi bien que les approches comparables dans les vidos o seule l’identit, et non les expressions, a t manipule. Il s’agit donc d’une approche gnralise qui peut dtecter n’importe quel type de vidos “deepfake”.

La capacit dtecter les vidos “deepfake” est considre comme essentielle la protection de la dmocratie, car des individus et des dirigeants sans scrupules utilisent ces vidos pour influencer les opinions politiques ou sociales. Il existe un certain nombre de mthodes permettant de dtecter les vidos deepfake. En 2019, des chercheurs bass Stanford ont mis au point un outil capable de synchroniser les lvres d’une personne dans une vido avec ce qui est dit, cens tre utilis pour les msaventures de tournage et pour traduire des films dans d’autres langues. Aprs avoir vu la technique dploye dans l’arne politique, les chercheurs ont mis au point une technique permettant d’identifier la vido manipule en dtectant les discordances entre la vision et le phnome, c’est–dire une discordance entre la forme de la bouche d’une personne et le son mis ce moment-l.

L’approche a fonctionn avec une prcision de 80 %. Des chercheurs de l’universit de Binghamton et d’Intel ont mis au point une technique appele FakeCatcher qui dtecte les variations subtiles de la coloration de la peau causes par un cur qui bat, une technique utilise par les smartwatches et les oxymtres de pouls pour dtecter le rythme cardiaque, appele photoplthysmographie (PSG). La technique fonctionne avec une prcision de 90 %.

Si les techniques existantes sont raisonnablement prcises lorsqu’il s’agit d’identifier des visages intervertis, il n’existe ce jour aucune technique fiable pour identifier les vidos o seules les expressions ont t manipules, ce qui est la tche la plus difficile. Le co-auteur de l’article, Amit Roy-Chowdhury, dclare : Ce qui rend le domaine de la recherche sur les deepfakes plus difficile, c’est la concurrence entre la cration, la dtection et la prvention des deepfakes, qui deviendra de plus en plus froce l’avenir. Avec davantage de progrs dans les modles gnratifs, les deepfakes seront plus faciles synthtiser et plus difficiles distinguer des vrais .

Pour la nouvelle technique, un rseau neuronal est divis en deux composantes, l’une pour le suivi des rgions avec les expressions, et l’autre charge d’identifier la manipulation. La premire branche fournit des informations sur les expressions faciales discernes, et qui contiennent les expressions telles que les yeux, la bouche ou le front une deuxime branche, appele encodeur-dcodeur. L’encodeur-dcodeur est charg d’identifier si une manipulation a eu lieu et, le cas chant, dans quelles rgions.

Des chercheurs developpent une IA capable de detecter les videos

Les deux premires colonnes montrent les images relles et manipules, les deux colonnes suivantes montrent les masques binaires des rgions avec expressions, la dernire colonne montre les rgions manipules.

Ce dispositif, connu sous le nom d’Expression Manipulation Detection ou EMD, permet de localiser et de dtecter les expressions manipules. L’auteur principal de la recherche, Ghazal Mazaheri, dclare : L’apprentissage multitche peut tirer parti des caractristiques importantes apprises par les systmes de reconnaissance des expressions faciales pour amliorer la formation des systmes conventionnels de dtection des manipulations. Une telle approche permet d’obtenir des performances impressionnantes dans la dtection de la manipulation des expressions faciales . Les ensembles de donnes de rfrence utiliss pour l’tude sont bass sur des changes d’expressions et d’identit, l’un transfrant les expressions d’une vido source une vido cible sans changer l’identit, tandis que l’autre change l’identit dans une vido. L’EMD a dmontr un haut degr de prcision dans l’identification des vidos manipules, qu’il s’agisse de fausses identits ou d’expressions faciales.

Des ingnieurs informaticiens du MIT ont compil un certain nombre d’extraits audio, vido et textuels “deepfake” que les ordinateurs ont trouv particulirement difficiles dtecter, et les ont hbergs sur un site appel “Detect Fakes”. Sur ce site, les utilisateurs intresss peuvent se mettre au dfi de trouver le contenu deepfake, qui a t mlang en proportion gale avec du contenu rel. L’ide de ce site est de sensibiliser le public la question du deepfake, car les informaticiens pensent qu’il sera de plus en plus difficile de dtecter ce type de contenu grce aux progrs de l’intelligence artificielle, et que les gens devront s’en remettre des approches non techniques pour identifier ces mdias.

Source : Detection and Localization of Facial Expression Manipulations

Et vous ?

GPT 3 peut executer du code rechercher une valeur dans une Que pensez-vous de cette tude ?

GPT 3 peut executer du code rechercher une valeur dans une Le nouvel outil dtecte un deepfake avec une efficace 99 %. Quel commentaire en faites-vous ?

GPT 3 peut executer du code rechercher une valeur dans une Pensez-vous quune fois les limites de loutil corriges, les deepfakes ne devraient plus poser de problmes personne?

Voir aussi :

GPT 3 peut executer du code rechercher une valeur dans une Des deepfakes mettant en scne Vladimir Poutine et Kim Jong-un sont utiliss dans une campagne publicitaire politique, non pas pour perturber les lections, mais protger le droit de vote

GPT 3 peut executer du code rechercher une valeur dans une Un nouvel outil de dtection des “deepfakes” s’avre efficace 94 %, en analysant les reflets de la lumire dans les yeux



GPT 3 peut executer du code rechercher une valeur dans une Facebook supprime une vido deepfake du prsident ukrainien Volodymyr Zelenskyy se rpandant sur le rseau social, et demandant aux troupes ukrainiennes de dposer les armes et de se rendre

GPT 3 peut executer du code rechercher une valeur dans une Deepfake : les vidos manipules et parfaitement relles pourront tre cres par n’importe qui d’ici 6 12 mois, d’aprs Hao Li, un pionnier de cette technologie

We would like to thank the writer of this write-up for this incredible web content

Des chercheurs dveloppent une IA capable de dtecter les vidos deepfake avec une prcision allant jusqu’ 99 %, cette mthode dtecte les expressions faciales manipules et les changes d’identit

Check out our social media accounts as well as other pages related to themhttps://www.ai-magazine.com/related-pages/