IA générique et généralisation de l’IA : les défis des industriels

Actuellement, les techniques d’apprentissage profond basées sur des réseaux de neurones artificiels visent à accomplir certaines tâches, tels le traitement du langage naturel et la vision par ordinateur.

En clair, les grands groupes et les laboratoires de recherche se penchent sur l’amélioration et l’optimisation des différentes architectures de réseaux de neurones afin d’accélérer les apprentissages et les rendre plus précis. Ils développent des techniques et itèrent sur des moyens de traiter le langage et les images. Derrière ces objectifs généraux, les modèles de NLP et de computer vision sont entraînés pour accomplir certaines tâches : identification/détection, classification, segmentation, corrélation, prédiction, etc.

C’est ce qui a donné naissance aux modèles de deep learning préentraînés : BERT, ResNET, GPT, VGG… et toutes leurs variantes. Les travaux de chercheurs de Facebook (Meta), de Google, de Microsoft et d’une myriade de laboratoires de recherche ont permis de faire avancer le domaine et de commercialiser des logiciels et solutions qui exploitent ces techniques.

 La maîtrise scientifique de ces domaines est si avancée, que Meta AI – l’unité de recherche de Facebook – a présenté en janvier 2022 Data2Vec, un seul modèle autosupervisé capable de traiter à la fois du texte, des images et de retranscrire la voix (speech-to-text), en égalant les modèles spécifiques à ces tâches.

De l’IA générique au monde réel

Cependant, il faut noter que ces algorithmes de NLP et de computer vision demandent à être adaptés aux cas d’usage spécifiques. En effet ces réseaux de neurones ont été entraînés sur de vastes jeux de données génériques rassemblés sur le Web. Par exemple, le modèle NLP BERT a « appris » l’anglais à partir de pages Wikipédia. Pour qu’un encodeur assimile le français, il a fallu adapter le jeu de données et les annotations. Le problème se complexifie de nouveau quand il est question d’assimiler les accents dans un système de speech to text, selon Eric Charton, directeur AI Science pour la Banque Nationale du Canada.

Pour le traitement des images, Google et Microsoft ont rassemblé des banques d’images qui contiennent des millions d’images qu’il a fallu annoter et libeller. En clair, ces formes d’IA sont génériques.

Pour les adapter à des cas d’usage « dans le monde réel », la méthode traditionnelle consiste à « fine tuner » (effectuer des réglages fins) afin de reproduire les résultats attendus dans le domaine spécifique, adapter le modèle à des jeux de données beaucoup moins volumineux, ajuster ses poids suivant la ou les tâches. 

C’est l’un des problèmes rencontrés par Valeo. L’équipementier automobile développe son propre système de conduite autonome. Comme l’expliquait Flora Dellinger – Machine Learning Software Engineer chez Valeo, lors du webinaire de l’académie des technologies du 20 janvier dernier –, les industriels doivent acquérir leurs propres données, les sélectionner, puis les annoter depuis de nombreux capteurs équipant les véhicules de test. Un travail considérable.

« Une fonction critique est une fonction dont le dysfonctionnement met en péril la sécurité des personnes ou de biens stratégiques. »
Daniel DuclosDirecteur technique département de recherche « Sciences et Technologies du Numérique », Safran Tech

L’autre méthode qui s’impose petit à petit se nomme le transfer learning. Cette technique consiste à transférer la connaissance d’un modèle entraîné sur une tâche à une variante de ce modèle capable de traiter une autre tâche similaire. Plus les tâches sont proches, plus les résultats sont bons. Là encore, rien de magique.

Or dans le monde industriel, ces modèles de deep learning issus d’approches généralistes sont amenés à assurer des fonctions critiques. « Une fonction critique est une fonction dont le dysfonctionnement met en péril la sécurité des personnes ou de biens stratégiques », définit Daniel Duclos, directeur technique au département de recherche « Sciences et Technologies du Numérique » chez Safran Tech.

Ces fonctions sont tout ou partie de systèmes complexes, en premier lieu les futurs véhicules autonomes aériens, maritimes et terriens. « C’est évidemment une question absolument centrale pour la communauté aéronautique. L’on ne peut pas utiliser des algorithmes qui prennent des décisions sur des fonctions critiques sans en connaître les performances. Or il est difficile d’expérimenter ces modèles en condition réelle », expose le spécialiste.

 Faire voler un avion de ligne ou un chasseur de manière totalement autonome paraît insensé tant le prix d’un appareil est coûteux et les risques sont grands. Si la législation est plus permissive quant aux voitures autonomes, les essais sont souvent limités à des environnements contrôlés : les systèmes d’IA n’apprennent pas les « corner cases », les situations rares comme les accidents, les traversées intempestives des piétons ou autres chutes d’objets sur la chaussée. Il faut alors recourir à la génération de données et à la simulation.

D’une approche basée sur les modèles à une autre centrée sur les données

Pourquoi est-il si difficile de déployer des systèmes intelligents dans le monde réel ? Pourtant, les algorithmes de traitement et d’analyse d’images existent de longue date dans le domaine de l’aviation. « L’approche traditionnelle consiste à définir un algorithme à partir de logiques, d’heuristiques dont le nombre de dimensions est relativement limité », constate Daniel Duclos. « Une image est d’abord prétraitée pour améliorer le contraste, limiter le bruit avant d’en extraire les features. À partir de ces paramètres, nous appliquons des logiques géométriques (2D, 3D), colorimétriques, pour tenter de reconnaître des objets dans l’image sur la base de ces propriétés ».

Dans ce cas-là, l’algorithme peut être décomposé en une suite linéaire d’actions « où chaque contribution est explicite et a un rôle déterminé dans la recherche de la solution ». Dans ce paradigme, c’est l’exécution de l’algorithme qui est parfois complexe, suivant le nombre de cas à traiter, selon Daniel Duclos.

Ces fonctions sont tout ou partie de systèmes complexes, en premier lieu les futurs véhicules autonomes aériens, maritimes et terriens. « C’est évidemment une question absolument centrale pour la communauté aéronautique. L’on ne peut pas utiliser des algorithmes qui prennent des décisions sur des fonctions critiques sans en connaître les performances. Or il est difficile d’expérimenter ces modèles en condition réelle », expose le spécialiste.

« Du fait de la variation des données d’entrée, des différentes méthodes d’apprentissage, de la complexité des architectures, la performance est très difficile à prédire et à contrôler. »
Patrick PérezDirecteur scientifique du laboratoire d’intelligence artificielle, Valeo

Faire voler un avion de ligne ou un chasseur de manière totalement autonome paraît insensé tant le prix d’un appareil est coûteux et les risques sont grands. Si la législation est plus permissive quant aux voitures autonomes, les essais sont souvent limités à des environnements contrôlés : les systèmes d’IA n’apprennent pas les « corner cases », les situations rares comme les accidents, les traversées intempestives des piétons ou autres chutes d’objets sur la chaussée. Il faut alors recourir à la génération de données et à la simulation.

« Avec le deep learning, c’est l’inverse », poursuit-il. « L’exécution est relativement simple, mais la structure de l’algorithme est complexe : il y a plusieurs millions voire des milliards de paramètres souvent inconnus et les traitements sont fortement non linéaires ». La contribution des différentes couches d’un réseau de neurones à la performance finale du modèle n’est « pas ou peu explicite ».

« Du fait de la variation des données d’entrée, des différentes méthodes d’apprentissage, de la complexité des architectures, la performance est très difficile à prédire et à contrôler », observe Patrick Pérez, directeur scientifique du laboratoire d’intelligence artificielle chez Valeo. « L’un des objectifs est de généraliser l’apprentissage d’un modèle. Dans la pratique, l’on constate que la généralisation est souvent très décevante. Le modèle peut faire des erreurs qui sont totalement sidérantes. Les résultats en sortie peuvent être inattendus, même quand ils doivent être très proches des données en entrée ».

 Les spécifications des données en entrée ne sont pas aussi limpides. Alors que la méthode traditionnelle permet de s’appuyer sur des règles explicites, par exemple les formes, les dimensions et les couleurs des panneaux de signalisation définis dans le Code de la route ; la computer vision impose d’annoter les données : la connaissance est diffuse. « La connaissance est dans les annotations, dans les fonctions qui permettent de comparer les données en entrée et les résultats en sortie, dans la conception du modèle, etc. Toutes les formes de connaissance ne sont pas forcément exploitables », précise Patrick Pérez. En cas d’incertitude, avec un algorithme traditionnel, il est possible de modéliser des règles dans un système expert, explique Daniel Duclos.

Des modèles plus performants, mais plus difficiles à contrôler

Alors, pourquoi s’efforcer à employer des réseaux de neurones dans des systèmes complexes ? « Puisque le deep learning et le machine learning donnent de bons résultats, que ce sont des outils plus performants, l’on tente de les appliquer à des problèmes plus ouverts », affirme le responsable chez Safran. Et si l’effet « boîte noire » freine grandement les expérimentations avec le deep learning, l’utilisation de systèmes experts et d’algorithmes traditionnels ne ferait pas mieux.

« Le monde ouvert nous préoccupe dans la conception de voitures autonomes. »
Patrick PérezDirecteur scientifique, laboratoire d’intelligence artificielle, Valeo

« L’on pourrait développer des véhicules autonomes avec des algorithmes à l’ancienne, mais leur application dans un domaine ouvert provoquerait les mêmes difficultés », constate Daniel Duclos.

« Le monde ouvert nous préoccupe dans la conception de voitures autonomes. Le fait que le modèle de deep learning ne généralise pas l’apprentissage correctement, qu’il peut y avoir de possibles dérives dans le temps ou que des perturbations provoquent des dysfonctionnements sont autant d’éléments à prendre en compte », liste Patrick Pérez.

Ces points d’attention ont un prix. Cela demande de revoir les approches de développement (intégrer les principes MLOps dans les cycles en V, ce qui donnerait des cycles en W), les processus contraignants et les normes, d’adapter ou de créer des équipements spécifiques et certifiés pour des usages critiques, et de mettre en place un ensemble de méthodes de contrôle et de mesure de la complexité de l’architecture d’un réseau de neurones.

Découplage, dédoublement des fonctions critiques, processus… les bonnes habitudes des industriels

Il y a toutefois un point rassurant dans le domaine de l’aviation. « Un groupe de travail de l’association SAE EUROCAE a récemment comparé les normes applicables dans le domaine de l’aéronautique et a pointé en quoi l’utilisation de l’IA va poser problème pour chacune d’entre elles », raconte Daniel Duclos. « La bonne nouvelle, c’est que la grande majorité de ces standards restent applicables, mais les difficultés que j’ai évoquées en sus des questions d’explicabilité demeurent ».

De son côté, l’Agence européenne de la sécurité aérienne (AESA) anticipe que les premières solutions d’IA d’assistance au pilotage seront validées à l’horizon 2025. « Avec les niveaux d’autonomie suivants, l’objectif est de rendre possible le pilotage d’un avion de ligne par un pilote au cours de la décennie, au lieu de deux actuellement », résume l’expert de Safran.

« Avec les niveaux d’autonomie suivants, l’objectif est de rendre possible le pilotage d’un avion de ligne par un pilote au cours de la décennie, au lieu de deux actuellement. »
Daniel DuclosSafran Tech

L’avion totalement autonome n’est pas pour tout de suite. En revanche, l’on peut s’attendre à l’apparition de modules d’IA certifiés, explicables, encapsulés dans des systèmes complexes. « L’on s’oriente d’abord vers l’utilisation de modules d’IA placés dans des filets de sécurité qui vont s’assurer que le comportement de l’IA n’engendre pas de risques dans les systèmes, que ces risques ne se propagent pas », avance Daniel Duclos. Les méthodes de mitigation sont connues : le dédoublement des systèmes (déploiement de plusieurs algorithmes différents, entre autres) et l’application de règles strictes d’exécution.

Selon Patrick Pérez, il en va de même dans le domaine de la voiture autonome. Un modèle de deep learning n’effectue pas la tâche finale ; ce sont plusieurs algorithmes et systèmes fonctionnant de concert qui doivent assurer le fonctionnement et la sécurité du véhicule. Le monde industriel est donc très loin de l’approche défendue par Meta et les géants du cloud, fervents défenseurs des mégamodèles et de l’IA générale.

We would love to thank the author of this short article for this amazing material

IA générique et généralisation de l’IA : les défis des industriels

Check out our social media profiles as well as other related pageshttps://www.ai-magazine.com/related-pages/