L’IA qui dtecte vos motions peut tre utilise mauvais escient et ne doit pas tre accessible tous, d’aprs Microsoft

Microsoft a annonc mardi son intention d’arrter la vente de la technologie de reconnaissance faciale qui prdit les motions, le sexe ou l’ge d’une personne, et de restreindre l’accs d’autres services d’intelligence artificielle, car elle risque de soumettre des personnes des strotypes, la discrimination ou un refus injuste de services . Dans un billet de blog, Microsoft fait rfrence son travail en interne et avec des chercheurs extrieurs pour dvelopper une norme d’utilisation de la technologie. L’article reconnat que ces travaux ont rvl de graves problmes de fiabilit de la technologie. Cet engagement est ncessaire parce quil n’y a apparemment pas encore assez de lois rglementant l’utilisation des technologies d’apprentissage automatique. Ainsi, en l’absence de cette lgislation, Microsoft devra simplement se forcer faire ce qu’il faut.

Microsoft s’est engag restreindre l’accs aux outils d’IA conus pour prdire les motions, le sexe et l’ge partir d’images, et limiter l’utilisation de ses modles de reconnaissance faciale et d’audio gnratif dans Azure. Le gant de l’informatique a fait cette promesse hier, tout en partageant sa norme d’IA responsable, un document dans lequel l’entreprise amricaine s’engage limiter tout dommage caus par ses logiciels d’apprentissage automatique. Cette promesse comprend l’assurance que l’entreprise valuera l’impact de ses technologies, documentera les donnes et les capacits des modles et appliquera des directives d’utilisation plus strictes.

Cette dcision fait suite de vives critiques l’gard de cette technologie, qui a t utilise par des entreprises pour surveiller les candidats l’emploi pendant les entretiens. Les systmes de reconnaissance faciale sont souvent forms sur des bases de donnes prdominance blanche et masculine, de sorte que leurs rsultats peuvent tre biaiss lorsqu’ils sont utiliss sur d’autres cultures ou groupes. Ces efforts ont soulev des questions importantes concernant la vie prive, l’absence de consensus sur la dfinition des motions et l’incapacit gnraliser le lien entre l’expression faciale et l’tat motionnel travers les cas d’utilisation, les rgions et les donnes dmographiques , a dclar Sarah Bird, chef de produit principal de l’unit Azure A.I. de Microsoft. Des socits comme Uber utilisent actuellement la technologie de Microsoft pour s’assurer que les conducteurs au volant correspondent aux profils qu’ils ont dans leurs dossiers.

Il y a deux ans, Microsoft a entrepris un processus d’examen visant laborer une norme d’intelligence artificielle responsable et guider la construction de systmes d’intelligence artificielle plus quitables et plus fiables. L’entreprise a publi le rsultat de ces efforts dans un document de 27 pages mardi. En introduisant l’accs limit, nous ajoutons une couche supplmentaire d’examen minutieux l’utilisation et au dploiement de la reconnaissance faciale afin de garantir que l’utilisation de ces services s’aligne sur la norme d’IA responsable de Microsoft et contribue des avantages de grande valeur pour l’utilisateur final et la socit , a crit Bird dans le billet de blog publi mardi.

Nous reconnaissons que pour que les systmes d’intelligence artificielle soient dignes de confiance, ils doivent tre des solutions appropries aux problmes qu’ils sont censs rsoudre , a crit Natasha Crampton, responsable de l’intelligence artificielle chez Microsoft, dans un autre billet de blog. Crampton a ajout que l’entreprise allait retirer les capacits de l’IA qui dduisent des tats motionnels et des attributs d’identit tels que le sexe, l’ge, le sourire, la pilosit faciale, les cheveux et le maquillage comme exigence de sa nouvelle norme.

LIA qui detecte vos emotions peut etre utilisee a mauvais

Cette dcision intervient alors que les lgislateurs des tats-Unis et de l’Union europenne dbattent des questions juridiques et thiques lies l’utilisation de la technologie de reconnaissance faciale. Certaines juridictions imposent dj des limites au dploiement de cette technologie. partir de l’anne prochaine, les employeurs de la ville de New York seront confronts une rglementation accrue sur leur utilisation d’outils automatiss pour slectionner les candidats. En 2020, Microsoft a rejoint d’autres gants de la technologie en s’engageant ne pas vendre ses systmes de reconnaissance faciale aux services de police jusqu’ ce qu’une rglementation fdrale existe.

Mais les universitaires et les experts critiquent depuis des annes des outils comme l’API Azure Face de Microsoft qui prtendent identifier les motions partir de vidos et de photos. Leurs travaux ont montr que mme les systmes de reconnaissance faciale les plus performants identifient de manire disproportionne les femmes et les personnes la peau plus fonce.

Le besoin de ce type de conseils pratiques est de plus en plus important. L’IA fait de plus en plus partie de nos vies, et pourtant, nos lois sont la trane. Elles n’ont pas rattrap les risques uniques de l’IA ni les besoins de la socit. Si nous voyons des signes indiquant que l’action gouvernementale en matire d’IA s’tend, nous reconnaissons galement notre responsabilit d’agir. Nous pensons que nous devons uvrer pour que les systmes d’IA soient responsables ds leur conception, a dclar Natasha Crampton.

Ainsi, afin d’viter que les dveloppeurs d’apprentissage automatique ne causent des conflits et de la malveillance l’aide de ses technologies, Microsoft met fin l’accs aux outils forms pour classer le sexe, l’ge et les motions des personnes, et analyser leur sourire, leur pilosit faciale, leurs cheveux et leur maquillage, via son API Face dans Azure. Les nouveaux clients ne pourront pas utiliser cette API dans le cloud de Microsoft, et les clients existants ont jusqu’au 30 juin 2023 pour migrer vers d’autres services avant que le logiciel ne soit officiellement retir.

Bien que ces capacits ne seront pas offertes via sa plateforme API, elles seront toujours utilises dans d’autres parties de l’empire Microsoft. Par exemple, les fonctionnalits seront intgres dans Seeing AI, une application qui identifie et raconte les descriptions de personnes et d’objets pour les personnes souffrant de dficiences visuelles.

L’accs d’autres types d’outils Microsoft considrs comme risqus, tels que la gnration de sons ralistes (mettre des mots dans la bouche de quelqu’un) et la reconnaissance faciale (utile pour la surveillance) sera restreint. Les nouveaux clients devront demander utiliser ces outils ; Microsoft valuera si les applications qu’ils veulent dvelopper sont appropries ou non. Les clients existants devront galement obtenir l’autorisation de continuer utiliser ces outils pour leurs produits partir du 30 juin 2023.

L’imitation du son de la voix d’une personne l’aide de modles d’IA gnrative n’est dsormais plus autorise sans le consentement du locuteur. Les produits et services conus l’aide du logiciel Custom Neural Voice de Microsoft devront galement indiquer que les voix sont fausses. Les directives d’utilisation des outils de reconnaissance faciale de l’entreprise sont galement plus strictes s’ils sont appliqus dans des espaces publics et ne peuvent pas tre utiliss pour suivre des individus des fins de surveillance.

Source : Microsoft (1, 2, 3)

Et vous ?

GPT 3 peut executer du code rechercher une valeur dans une Quel est votre avis sur le sujet ?

Voir aussi :

GPT 3 peut executer du code rechercher une valeur dans une La technologie de reconnaissance des motions devrait tre interdite, car elle a peu de fondement scientifique, a conclu l’institut de recherche IA Now



GPT 3 peut executer du code rechercher une valeur dans une Des chercheurs dveloppent une IA capable de dtecter les vidos deepfake avec une prcision allant jusqu’ 99 %, cette mthode dtecte les expressions faciales manipules et les changes d’identit

GPT 3 peut executer du code rechercher une valeur dans une Espagne : la police s’appuie sur l’IA pour dbusquer les fausses dclarations de vol, VeriPol dispose d’un taux de prcision de 83%

GPT 3 peut executer du code rechercher une valeur dans une La pandmie a-t-elle normalis les logiciels de surveillance des employs ? Des rapports indiquent que ces logiciels se rpandent rapidement

We want to give thanks to the author of this write-up for this awesome content

L’IA qui dtecte vos motions peut tre utilise mauvais escient et ne doit pas tre accessible tous, d’aprs Microsoft

You can find our social media accounts as well as other related pageshttps://www.ai-magazine.com/related-pages/