Le responsable de l’IA de Meta publie un document sur la cration d’une intelligence artificielle

Yann LeCun, pionnier de l’apprentissage automatique (ML) et responsable de l’IA chez Meta, a rcemment publi un article de recherche dans lequel il expose sa vision des IA qui apprennent connatre le monde comme les humains. L’article laisse entendre, sans l’exprimer clairement, que la plupart des projets actuels en matire d’IA ne seront jamais en mesure d’atteindre cet objectif de niveau humain. En outre, LeCun indique que des problmes fondamentaux chappent toujours de nombreuses souches d’apprentissage profond, dont la raison (ou le bon sens). Son ouvrage propose quelques ides pour rapprocher davantage l’IA de l’intelligence humaine.

Yann LeCun est un chercheur franais en intelligence artificielle, vice-prsident et scientifique en chef de l’IA chez Meta, propritaire des plateformes de mdias sociaux Facebook, Instagram et WhatsApp. LeCun a mis au point les rseaux de neurones convolutifs, un principe fondamental sur le terrain, qui, entre autres avantages, ont t essentiels pour rendre l’apprentissage profond plus efficace. Il a t rcompens par le prix Turing 2018 pour ces travaux sur l’apprentissage profond. Il partage ce prix avec les Canadiens Yoshua Bengio et Geoffrey Hinton. Toutefois, LeCun semble convaincu que l’industrie est encore trs loin d’une IA “autonome”.

Dans un document de recherche publi en juin dans Open Review.net, LeCun propose un moyen de rsoudre ce problme en formant les algorithmes d’apprentissage apprendre plus efficacement, car l’IA a prouv qu’elle n’tait pas trs doue pour prdire et planifier les changements dans le monde rel. Par contre, les humains et les animaux sont capables d’acqurir d’normes quantits de connaissances sur le fonctionnement du monde par l’observation et avec trs peu d’interaction physique. Selon LeCun, en raison de ces lacunes, la plupart des approches actuelles de l’IA ne mneront jamais une vritable intelligence.

En effet, malgr la rapidit avec laquelle l’homme en est venu compter sur la puissance de l’IA, une question hante le domaine depuis presque aussi longtemps que ses dbuts : ces systmes intelligents pourraient-ils un jour acqurir une sensibilit suffisante pour galer, voire dpasser, l’humanit ? Dans ce dbat, un ex-ingnieur de Google a prtendu rcemment qu’un chatbot avait acquis la sensibilit, mais l’on est assez loin de cette ralit. Ce dernier a t congdi par la suite pour plusieurs raisons. Les systmes actuels d’IA et d’apprentissage automatique manquent de raison, un concept essentiel au dveloppement de systmes d’IA “autonomes”.

C’est–dire des systmes d’IA capables d’apprendre la vole, directement partir d’observations du monde rel, plutt que de longues sances d’entranement pour effectuer une tche spcifique. Lors d’une interview en septembre, LeCun a clairement not qu’il considre avec beaucoup de scepticisme les recherches actuelles en matire d’apprentissage profond. Je pense qu’elles sont ncessaires, mais pas suffisantes. Nous symbolisons tout et formons des modles gigantesques pour faire des prdictions discrtes, et d’une manire ou d’une autre, l’intelligence artificielle mergera de tout cela , a dclar le laurat du prix Turing.

Les recherches en matire d’IA les plus fructueuses l’heure actuelle comprennent de grands modles de traitement du langage naturel (NPL) tels que GPT-3, bas sur Transformer et ses semblables. Comme le dit LeCun, les adeptes du modle Transformer croient que “nous tokenisons tout et formons des modles gigantesques pour faire des prdictions discrtes, et que d’une manire ou d’une autre, l’IA mergera de tout cela”. Ils n’ont pas tort, dans le sens o cela peut tre un composant d’un futur systme intelligent, mais je pense qu’il manque des pices essentielles , a-t-il soulign. Il propose de commencer au bas de l’chelle.

Nous voyons beaucoup de revendications quant ce que nous devrions faire pour avancer vers une IA de niveau humain. Et certaines ides sont, mon avis, mal orientes. Nous n’en sommes mme pas encore au point o nos machines intelligentes ont autant de bon sens qu’un chat. Alors, pourquoi ne pas commencer par l ? , a dclar LeCun. Afin de faire progresser la recherche sur l’IA au cours de la prochaine dcennie, son article de recherche propose une architecture qui rduirait au minimum le nombre d’actions qu’un systme doit entreprendre pour apprendre et mener bien une tche donne.

Tout comme les diffrentes sections du cerveau humain sont responsables des diffrentes fonctions du corps, il propose un modle pour la cration d’une intelligence autonome qui serait compose de cinq modules distincts, mais configurables. L’une des parties les plus complexes de l’architecture propose par LeCun, le “module de modle du monde” (world model module), aurait pour fonction d’estimer l’tat du monde, mais aussi de prdire les actions imagines et d’autres squences du monde. Cela s’apparenterait un simulateur, un appareil qui permet de reprsenter artificiellement un fonctionnement rel.

Selon lui, les connaissances sur le fonctionnement du monde peuvent ainsi tre facilement partages entre diffrentes tches. certains gards, cela pourrait ressembler la mmoire. Cela dit, il reste encore beaucoup de travail faire avant que les systmes autonomes puissent apprendre grer des situations incertaines. Selon LeCun, dans un monde aussi chaotique et imprvisible que le ntre, c’est une question que nous devrons sans doute aborder tt ou tard. Mais pour l’instant, la gestion de ce chaos fait partie de ce qui nous rend humains. En plus de diriger la recherche sur l’IA chez Meta, LeCun est galement professeur l’universit de New York.

Il a pass sa carrire dvelopper des systmes d’apprentissage sur lesquels reposent aujourd’hui de nombreuses applications modernes d’IA. En 2013, il a fond le groupe Facebook AI Research (FAIR), la premire incursion de Meta dans la recherche sur l’IA, avant de de devenir, quelques annes plus tard, le responsable scientifique de l’IA de l’entreprise. Depuis lors, Meta a connu plusieurs succs en essayant de dominer ce domaine en constante volution. En 2018, leurs chercheurs ont entran une IA reproduire des globes oculaires dans l’espoir de faciliter l’dition de leurs photos numriques par les utilisateurs.

Plus tt cette anne, BlenderBot 3, le nouveau chatbot d’IA de Meta, s’est rvl tonnamment malveillant envers Mark Zuckerberg et a suscit un dbat sur l’thique de l’IA et les donnes biaises. Les premiers tests de BlenderBot 3 ont rvl qu’il est loin d’tre l’agent conversationnel hautement performant que Meta a prtendu. Il a dit de PDG Mark Zuckerberg qu’il est “effrayant et manipulateur”. Il affirme aussi que “Zuckerberg est un bon homme d’affaires, mais ses pratiques commerciales ne sont pas toujours thiques”. Il a galement dcrit Facebook comme ayant des problmes de confidentialit et rpandant de fausses nouvelles.

Plus rcemment, l’outil Make-a-Video de Meta est capable d’animer la fois du texte et des images simples ou apparies dans des vidos, ce qui annonce encore plus de mauvaises nouvelles pour l’essor autrefois prometteur de l’art gnr par l’IA. Par ailleurs, les adolescents peuvent apprendre conduire avec seulement quelques dizaines d’heures de rptition. Les systmes d’IA, notamment ceux des voitures “autonomes”, en revanche, doivent tre entrans l’aide d’une quantit insense de donnes avant de pouvoir accomplir la mme tche, et sont susceptibles de commettre des erreurs que les humains ne commettraient pas.

Lors de la prsentation de ses travaux l’UC Berkeley, LeCun a dclar : il faudrait qu’une voiture tombe de la falaise plusieurs fois avant qu’elle ne se rende compte que c’est une mauvaise ide. Et encore quelques milliers de fois avant qu’elle ralise comment ne pas tomber de la falaise. Cette distinction rside dans le fait que les humains et les animaux sont capables de bon sens . Si le concept de bon sens peut se rsumer un jugement pratique, LeCun le dcrit dans son article comme un ensemble de modles permettant un tre vivant de faire la diffrence entre ce qui est probable, ce qui est possible et ce qui est impossible.

Selon lui, une telle comptence permet une personne d’explorer son environnement, de complter les informations manquantes et d’imaginer de nouvelles solutions des problmes inconnus. LeCun suggre que les chercheurs en IA tiennent le bon sens pour acquis, ce qui fait que l’industrie n’a pas russi jusque-l doter l’IA et les algorithmes d’apprentissage automatique de l’une de ces capacits. Au cours de l’expos, LeCun a galement soulign que de nombreux processus de formation modernes, comme les techniques d’apprentissage par renforcement, ne sont pas la hauteur de la fiabilit humaine dans les tches du monde rel.

L’apprentissage par renforcement est une technique de formation de l’IA base sur la rcompense des comportements favorables et la punition des comportements indsirables. C’est un problme pratique, car nous voulons vraiment des machines dotes de bon sens. Nous voulons des voitures conduite autonome, des robots domestiques, des assistants virtuels intelligents , a-t-il dclar. L’expos de LeCun, 62 ans, reprsente une critique surprenante de ce qui semble fonctionner venant de l’universitaire qui a perfectionn l’utilisation des rseaux neuronaux convolutifs.

Source : Article de recherche de Yann LeCun (PDF)

Et vous ?

GPT 3 peut executer du code rechercher une valeur dans une Quel est votre avis sur le sujet ?

GPT 3 peut executer du code rechercher une valeur dans une Que pensez-vous de la proposition de LeCun pour parvenir une IA autonome ?

GPT 3 peut executer du code rechercher une valeur dans une Selon vous, l’intelligence artificielle peut-elle un jour tre dote du bon sens comme le souhaite LeCun ?

GPT 3 peut executer du code rechercher une valeur dans une Le modle de cration de l’IA propos par LeCun permettra-t-il d’atteindre cet objectif dans les annes venir ?

GPT 3 peut executer du code rechercher une valeur dans une Pensez-vous galement que la plupart des approches actuelles de l’IA ne mneront jamais une vritable intelligence ?

Voir aussi

GPT 3 peut executer du code rechercher une valeur dans une Les parrains de l’intelligence artificielle rcompenss du prix Turing 2018, le prix Nobel de l’informatique

GPT 3 peut executer du code rechercher une valeur dans une Le nouveau chatbot d’IA de Meta affirme que le PDG Mark Zuckerberg est “effrayant et manipulateur”, l’agent conversationnel tient galement des propos racistes et rpand des thories du complot

GPT 3 peut executer du code rechercher une valeur dans une Un ingnieur licenci par Google aurait affirm que le chatbot d’IA est plutt raciste , et que l’thique de l’IA chez Google est une feuille de vigne

GPT 3 peut executer du code rechercher une valeur dans une GPT-3 peut excuter du code, rechercher une valeur dans une table de recherche, le modle de langage autorgressif semble avoir des problmes avec les grands nombres

We want to give thanks to the author of this article for this amazing content

Le responsable de l’IA de Meta publie un document sur la cration d’une intelligence artificielle

Take a look at our social media profiles as well as other related pageshttps://www.ai-magazine.com/related-pages/