Deux chercheurs ont trouv plus de 1000 faux profils sur LinkedIn qui ont utiliss des visages gnrs par l’IA, plus de 70 entreprises ont cr de faux profils pour conclure des ventes

Des faux profils crer pour augmenter les ventes des entreprises sans avoir payer pour du personnel supplmentaire ? C’est ce qu’ont dcouvert des chercheurs sur les faux profils avec des images gnrs par l’IA : en utilisant de faux profils, les entreprises peuvent largir leur rseau en ligne sans renforcer leur propre personnel de vente ni atteindre les limites de LinkedIn en matire de messages. La demande de prospects en ligne a explos pendant la pandmie, car il est devenu difficile pour les quipes de vente de prsenter leurs produits en personne.

Deux chercheurs de Stanford ont trouv plus de 1 000 faux profils sur LinkedIn qui ont utiliss des visages gnrs par l’IA. Rene DiResta et Josh Goldstein de l’Observatoire Internet de Stanford ont fait cette dcouverte aprs que DiResta ait reu un message d’un profil signal comme appartenant un certain Keenan Ramsey . Cela ressemblait un argumentaire de vente de logiciels normal premire vue, mais aprs une enqute plus approfondie, il est devenu vident que Ramsey tait une personne entirement fictive.

Alors que l’image semblait tre une photo d’entreprise standard, elle comprenait galement des lments qui laissaient penser qu’il s’agissait d’un visage gnr par l’IA comme ceux gnrs par des sites Web l’instar de This Person Does Not Exist. DiResta a t spcifiquement avertie par l’alignement des yeux de Ramsey (le point mort de la photo), ses boucles d’oreilles (elle n’en portait qu’une) et ses cheveux, dont plusieurs mches taient floues en arrire-plan.

DiResta a d’abord pens que le message de Ramsey pouvait tre une tentative de phishing – essayant de la tromper pour qu’elle rvle des informations sensibles. Elle est devenue encore plus mfiante lorsqu’elle a reu un message LinkedIn identique – comprenant les mmes emojis – de quelqu’un d’autre prtendant tre un employ de RingCentral et dont la photo de profil semblait galement gnre par ordinateur.

Puis elle a reu un e-mail d’un troisime employ de RingCentral, faisant rfrence au message LinkedIn de Ramsey. Mais quand elle a recherch le nom de celui-ci, il semblait appartenir une vraie personne qui travaillait dans l’entreprise.

Intrigus, DiResta et Goldstein, un stagiaire postdoctoral Stanford, ont commenc parcourir LinkedIn la recherche de profils comme celui de Ramsey.

En l’espace de quelques semaines, nous avons trouv plus d’un millier de comptes qui semblent tre de faux comptes avec des images gnres par le GAN , a dclar Goldstein. Et lorsque nous avons recherch ces personnes sur Internet, nous n’avons trouv aucune preuve de leur existence ailleurs, ce qui est rare .

Les profils qu’ils ont reprs avaient galement d’autres modles en commun. Beaucoup ont dcrit leurs emplois avec des variantes de titres tels que responsable du dveloppement commercial, responsable du dveloppement des ventes, responsable de la croissance et spcialiste de la gnration de la demande.

Ils avaient souvent une brve liste de deux ou trois anciens employeurs, parfois des noms bien connus comme Amazon et Salesforce, sans aucun dtail sur ces expriences. Lorsque NPR a contact certaines des entreprises rpertories comme anciens employeurs, aucune n’avait de trace des employs supposs y travailler.

Ce n’est pas une histoire de msinformation ou de dsinformation, mais plutt l’intersection d’un cas d’utilisation commerciale assez banal avec la technologie de l’IA, et les questions d’thique et d’attentes qui en rsultent. Quelles sont nos hypothses lorsque nous rencontrons d’autres personnes sur les rseaux sociaux*? Quelles actions traversent la ligne de la manipulation , s’est demand DiRestra sur Twitter.

Deux chercheurs ont trouve plus de 1000 faux profils sur

Un recours la gnration d’images par IA pour embaucher moins de personnes ?

Un mdia a tent de vrifier les affirmations des chercheurs et a dcouvert plus de 70 entreprises qui taient rpertories comme employeurs sur ces faux profils. Plusieurs ont dclar qu’ils avaient embauch des spcialistes du marketing externes pour aider aux ventes. Cependant, ils ont dclar qu’ils n’avaient autoris aucune utilisation d’images gnres par ordinateur, et beaucoup ont t surpris et ont sembl les dcouvrir lorsque la question leur a t pose.

De nombreux profils LinkedIn semblent avoir un objectif beaucoup plus banal : augmenter les ventes pour les entreprises, grandes et petites. Des comptes comme celui de Keenan Ramsey envoient des messages des clients potentiels. Quiconque mord l’hameon est mis en relation avec un vrai vendeur qui essaie de conclure l’affaire. Pensez-y comme du tlmarketing l’re du numrique.

En utilisant de faux profils, les entreprises peuvent largir leur rseau en ligne sans renforcer leur propre personnel de vente ni atteindre les limites de LinkedIn en matire de messages. La demande de prospects en ligne a explos pendant la pandmie, car il est devenu difficile pour les quipes de vente de prsenter leurs produits en personne.

Le mdia n’a pas t en mesure de vrifier de manire indpendante qui a cr les profils ou les images, ni trouv quiconque ayant autoris leur utilisation. Il n’a pas non plus trouv d’activit illgale associe ces profils. Mais ces photos de profil LinkedIn gnres par ordinateur illustrent comment une technologie qui a t utilise pour propager la dsinformation et le harclement en ligne a fait son chemin dans le monde de l’entreprise.

D’un point de vue commercial, crer des comptes de mdias sociaux avec des visages gnrs par ordinateur a ses avantages*: cela revient moins cher que d’embaucher plusieurs personnes pour crer de vrais comptes, et les images sont convaincantes.

Une tude rcente a rvl que les visages crs par l’IA sont devenus indiscernables des vrais visages. Les gens n’ont que 50*% de chances de deviner correctement si un visage a t cr par un ordinateur. Si vous demandez la personne moyenne sur Internet, ‘Est-ce une personne relle ou gnre synthtiquement?’ ils vont essentiellement rpondre au hasard , a dclar Hany Farid, expert en digital media forensics l’Universit de Californie Berkeley, co-auteur de l’tude avec Sophie J. Nightingale de l’Universit de Lancaster.

1649210769 743 Deux chercheurs ont trouve plus de 1000 faux profils sur
Quelle est la personne relle ? Quelle est celle qui est gnre par une IA ?

Leur tude a galement rvl que les gens considrent les visages crs par ordinateur lgrement plus fiables que les vrais. Farid souponne que c’est parce que l’IA s’en tient aux caractristiques les plus moyennes lors de la cration d’un visage.

Ce visage a tendance sembler digne de confiance, parce qu’il est familier, n’est-ce pas? Il ressemble quelqu’un que nous connaissons , a-t-il dclar. Il craint que la prolifration du contenu gnr par l’IA n’augure une nouvelle re de tromperie en ligne, utilisant non seulement des images fixes, mais aussi des deepfakes audio et vido.

La raction de LinkedIn

Aprs que les chercheurs de Stanford ont alert LinkedIn sur les profils, LinkedIn a dclar avoir enqut et supprim ceux qui enfreignaient ses politiques, y compris les rgles contre la cration de faux profils ou la falsification d’informations. LinkedIn n’a pas donn de dtails sur la manire dont il a men son enqute.

Nos politiques indiquent clairement que chaque profil LinkedIn doit reprsenter une personne relle. Nous mettons constamment jour nos dfenses techniques pour mieux identifier les faux profils et les supprimer de notre communaut, comme nous l’avons fait dans ce cas , a dclar la porte-parole de LinkedIn, Leonna Spilman. En fin de compte, il s’agit de s’assurer que nos membres peuvent entrer en contact avec de vraies personnes, et nous nous efforons de garantir qu’ils disposent d’un environnement sr pour le faire .

En effet, sur sa page Professional community policies, la section fiabilit, LinkedIn est trs clair : Nous vous demandons dutiliser votre vritable identit sur LinkedIn, de fournir des informations exactes vous concernant ainsi que votre organisation, et de partager uniquement des informations relles et authentiques :

  • Ne partagez pas de contenu faux ou trompeur : ne partagez pas de contenu dune faon dont vous savez ou pensez quelle pourrait tre trompeuse ou inexacte, y compris de fausses informations ou de la dsinformation.
  • Ne crez pas de faux profil et ne falsifiez pas des informations vous concernant : tout faux profil ou fausse entit est interdit. Ne publiez pas dinformations trompeuses ou fallacieuses sur vous-mme, votre entreprise, vos qualifications, votre exprience professionnelle, vos affiliations ou vos ralisations. Nutilisez pas la photo de quelquun dautre ou toute autre image qui ne vous reprsente pas comme photo de profil.
1649210770 769 Deux chercheurs ont trouve plus de 1000 faux profils sur

Des motifs parfois plus obscurs

Ce n’est pas la premire fois que visages crs par une IA sont utiliss sur les rseaux sociaux. En 2021, une srie de tweets antisyndicaux ont t envoys partir de comptes prtendant tre des employs des entrepts Amazon. Ils ont t bannis de Twitter et bon nombre de leurs photos de profil semblaient provenir du mme type d’IA que les photos utilises sur LinkedIn. Amazon a ni tout lien ou responsabilit pour les profils et leurs tweets.

Bien sr les types d’incident comme celui qui s’est produit sur Twitter est diffrent de ce qu’on vcu les deux chercheurs et sans doute pire : au lieu d’essayer de faire une vente d’une manire moins directe, les robots Twitter d’Amazon et d’autres sources poussent gnralement la dsinformation et la propagande, la fois pour les entreprises et les gouvernements. Par exemple dans le cas des faux comptes prtendant tre des travailleurs d’Amazon, ils ont t cr dans un contexte o des employs dAmazon en Alabama ont t invits voter pour dcider si ledit entrept devient le premier de l’entreprise voir son personnel se regrouper en syndicats aux tats-Unis.

Nombreuses taient les publications qui dnonait les conditions de travail au sein des locaux du gant du commerce en ligne : usage de logiciels de navigation, bracelets, camras thermiques, camras de scurit, enregistrements. Amazon tentait de justifier son recours ces outils en arguant quil sagit de dispositifs destins encadrer la productivit des employs : Les performances des employs sont mesures et values sur une longue priode, car nous savons que divers facteurs peuvent avoir un impact sur la capacit rpondre aux attentes d’un jour ou d’une heure donns. Nous soutenons les personnes qui ne sont pas performantes au niveau attendu grce un accompagnement spcifique pour les aider s’amliorer.

Les entrepts dAmazon sont automatiss et certains postes sont occups par des robots. La socit sappuie sur des capteurs anims par une intelligence artificielle afin de suivre la productivit des employs. LIA est mme en mesure de gnrer de faon automatique les documents ncessaires au licenciement en cas de non-atteinte des objectifs. Ce seul motif a men au licenciement de plus de 300 employs travaillant dans un des entrepts de lentreprise Baltimore pendant la priode allant d’aot 2017 septembre 2018.

L’objectif des faux comptes tait donc de faire pencher la balance en faveur du non la cration d’un syndicat. Pour y parvenir, ils faisaient les loges des conditions de travail chez Amazon et plantait les graines du doute quant l’utilit de former un syndicat. Il y avait par exemple ce tweet qui disait : Ce qui me drange le plus dans les syndicats, c’est qu’il n’y a pas de possibilit de se retirer des cotisations , ou encore cet autre qui disait : Les syndicats sont bons pour certaines entreprises, mais je ne veux pas avoir dbourser des centaines de dollars par mois uniquement pour les avocats !

Les visages gnrs par IA

Les faux visages utiliss par Ramsey et l’innombrable arme de bots comme elle sont gnrs par des rseaux antagonistes gnraux, ou GAN.

Le concept de GAN a t introduit pour la premire fois en 2014 par le clbre informaticien Ian Goodfellow, et depuis lors, Nvidia est la pointe de la technologie. Tero Karras, chercheur principal de la socit, a dirig de nombreuses tudes sur le GAN.

Un GAN est un modle gnratif o deux rseaux sont placs en comptition dans un scnario de thorie des jeux. Le premier rseau est le gnrateur, il gnre un chantillon (ex. une image), tandis que son adversaire, le discriminateur essaie de dtecter si un chantillon est rel ou bien s’il est le rsultat du gnrateur. L’apprentissage peut tre modlis comme un jeu somme nulle. Ces programmes informatiques se font concurrence des millions de fois afin daffiner leurs comptences en matire de gnration dimages jusqu ce quils aient la capacit de crer des images compltes.

Il peut tre difficile de distinguer un visage gnr par GAN d’un vrai, mais il y a quelques signes rvlateurs :

  • Les arrire-plans sont souvent indistincts, flous ou irrguliers
  • Les vtements semblent souvent irrguliers, avec des cols incohrents, des lignes imprcises et d’autres artefacts similaires
  • Les dents peuvent apparatre irrgulires ou se fondre dans les lvres
  • Les cheveux semblent avoir des mches rebelles en excs, qui peuvent disparatre et rapparatre, tandis que les cheveux plus longs peuvent sembler imprcis
  • Les reflets et l’clairage peuvent tre irrguliers
  • Des ppins dans la peau
  • Des accessoires manquants ou irrguliers
  • Les yeux de la personne sont parfaitement centrs dans l’image

Une tude rcente a rvl que la personne moyenne n’a pas plus de chance que de chance de distinguer un vrai visage d’un visage gnr par l’IA. Si vous pensez pouvoir faire mieux, testez-vous sur ce site.

GPT 3 peut executer du code rechercher une valeur dans une Quel visage est rel et lequel a t gnr par une IA ? Testez-vous sur ce site ?

Sources : tude sur les visages gnrs par IA, LinkedIn

Et vous ?

GPT 3 peut executer du code rechercher une valeur dans une Que pensez-vous d’une stratgie visant employer des faux profils avec des images gnrs par une IA pour conclure des ventes ?

GPT 3 peut executer du code rechercher une valeur dans une tes-vous surpris de voir des entreprises y avoir recours, volontairement ou non ?

GPT 3 peut executer du code rechercher une valeur dans une tes-vous pour ou contre ce genre de pratique ? Dans quelle mesure ?

GPT 3 peut executer du code rechercher une valeur dans une Arrivez-vous distinguer le visage rel de celui gnr par une IA ?

Voir aussi :

GPT 3 peut executer du code rechercher une valeur dans une Ce site montre des portraits de visages humains gnrs par une IA. Aucun d’entre eux n’est rel. Actualisez la page pour en voir un nouveau

GPT 3 peut executer du code rechercher une valeur dans une Des faux comptes prtendant tre des travailleurs d’Amazon ont fait l’loge de leurs conditions de travail sur Twitter, pour encourager les employs ne pas voter pour la syndicalisation

We want to give thanks to the writer of this post for this incredible content

Deux chercheurs ont trouv plus de 1000 faux profils sur LinkedIn qui ont utiliss des visages gnrs par l’IA, plus de 70 entreprises ont cr de faux profils pour conclure des ventes

Check out our social media accounts as well as other pages related to it.https://www.ai-magazine.com/related-pages/