Pourquoi les entreprises spécialisées dans l’IA militaire sont-elles en plein essor ?

En février, deux semaines précisément après l’invasion de l’Ukraine par la Russie, Alexander Karp, le PDG de la société d’analyse de données Palantir, s’est adressé aux dirigeants européens. Dans une lettre ouverte, il leur a affirmé que la guerre étant à leurs portes, les Européens avaient tout intérêt à moderniser leur arsenal avec l’aide de la Silicon Valley.

Afin que l’Europe “reste suffisamment forte pour vaincre la menace d’une occupation étrangère”, écrit Alexander Karp, les pays doivent épouser [l’idée d’] “une relation entre technologies et l’Etat, entre les entreprises novatrices cherchant à déloger l’emprise des entrepreneurs enracinés et les ministères du gouvernement fédéral qui les financent”.

Les militaires répondent à l’appel. Le 30 juin, l’OTAN a annoncé la création d’un fonds pour l’innovation à hauteur d’un milliard de dollars. Les investissements seront réalisés dans des jeunes start-up et des fonds de capital-risque actifs développant des technologies “prioritaires” telles que l’intelligence artificielle (IA), la big data et les systèmes autonomes.

Depuis le début de la guerre en Ukraine, le Royaume-Uni a développé une nouvelle stratégie d’IA spécifiquement dédiée à des fins de défense. Les Allemands, quant à eux, ont affecté un peu moins d’un demi-milliard de dollars à la recherche et à l’intelligence artificielle dans le cadre d’un vaste plan de 100 milliards de dollars à destination de l’armée.

À LIRE AUSSI

Guerre en Ukraine : la Russie fait campagne sur Telegram pour recruter des volontaires

“La guerre est un catalyseur de changement”, affirme Kenneth Payne, qui dirige la recherche sur les études de défense au King’s College de Londres et auteur du livre I, Warbot : The Dawn of Artificially Intelligent Conflict.

La guerre en Ukraine a accéléré, en ajoutant un sentiment d’urgence, la volonté d’introduire davantage d’outils d’intelligence artificielle sur le champ de bataille. Ceux qui ont le plus à y gagner là-dedans ce sont les start-up telles que Palantir. Ces dernières espèrent tirer profit de la course des armées pour mettre à jour leurs arsenaux avec les dernières technologies. Cependant, les préoccupations éthiques de longue date concernant l’utilisation de l’IA dans les guerres se font plus pressantes à mesure que la technologie devient de plus en plus sophistiquée. En parallèle, la perspective de mettre en place des restrictions et des réglementations régissant l’utilisation de l’IA semble plus éloignée que jamais.

Les relations entre la tech et l’armée n’ont pas toujours été aussi cordiales. En 2018, suite aux protestations et à l’indignation de ses employés, Google s’est retiré du programme militaire Maven du Pentagone. Il s’agissait d’une tentative de construction d’un système de reconnaissance d’images pour améliorer les frappes de drones. L’épisode avait provoqué un débat houleux sur les droits de l’Homme et sur le développement d’armes autonomes grâce à l’IA.

L’incident a également conduit des chercheurs en intelligence artificielle de renom, tels que Yoshua Bengio – lauréat du prix Turing -, ainsi que Demis Hassabis, Shane Legg et Mustafa Suleyman, fondateurs du laboratoire d’IA DeepMind, à s’engager à ne pas travailler sur le développement d’une IA létale.

Quatre ans plus tard, la Silicon Valley n’a jamais été aussi proche des armées du monde entier. Les grandes entreprises ne sont pas les seules à s’intéresser à l’IA : les jeunes pousses ont enfin leur place dans ce domaine, explique Yll Bajraktari, ancien directeur exécutif de la Commission de sécurité nationale américaine sur l’IA (NSCAI). Yll Bajraktari travaille désormais pour le Special Competitive Studies Project, un lobby qui milite pour une présence plus accrue d’IA aux Etats-Unis.

Pourquoi l’intelligence artificielle ?

Les entreprises qui vendent de l’IA militaire font de grandes déclarations sur les prouesses de leur technologie. Elles affirment que cette technologie peut être utile dans tous les domaines, du plus banal au plus mortel, de la vérification des CV au traitement des données transmises par des satellites en passant par la reconnaissance de schémas dans les données afin d’aider les soldats à prendre des décisions plus rapidement sur le champ de bataille. Les logiciels de reconnaissance d’images peuvent aider à identifier des cibles. Les drones autonomes peuvent être mobilisés pour la surveillance ou les attaques sur terre, dans les airs ou dans l’eau. Ces engins volants peuvent aussi aider les soldats à livrer des provisions de manière plus sûre que par voie terrestre.

Sur les terrains de guerre, ces technologies n’en sont qu’à leurs premiers pas et les armées traversent actuellement une période d’expérimentation, souligne Kenneth Payne. Et d’ajouter : parfois, ça ne donne rien. On pourrait citer d’innombrables exemples d’entreprises spécialisées en IA qui promettaient monts et merveilles à propos de technologies qui, au final, ne fonctionnent pas aussi bien qu’annoncé. Par ailleurs, les zones de guerre sont parmi les endroits où, d’un point de vue technique, il est le plus difficile de déployer l’IA car celle-ci n’a accès qu’à très peu de données pertinentes concernant ces zones lors des entraînements. Ceci pourrait entraîner une défaillance des systèmes de “manière complexe et imprévisible”, déclare Arthur Holland Michel, expert en drones et autres technologies de surveillance, dans un document destiné à l’Institut des Nations unies pour la recherche sur le désarmement.

Néanmoins, de nombreuses armées poursuivent leur marche en avant. Dans un communiqué de presse datant de 2021, l’armée britannique a fièrement annoncé avoir fait usage d’IA pour la première fois lors d’une opération militaire. L’objectif était de fournir des informations sur le terrain environnant. Les Etats-Unis collaborent avec des start-up afin de développer des véhicules militaires autonomes. Par ailleurs, à l’avenir, les essaims de centaines – voire de milliers – de drones autonomes que les armées américaines et britanniques sont en train de produire pourraient constituer des armes puissantes et mortelles.

De nombreux experts sont inquiets. Meredith Whittaker, conseillère principale en matière d’IA à la Commission fédérale du commerce et directrice de la faculté d’IA Now Institute, estime que cette tendance vise davantage à enrichir les entreprises technologiques qu’à améliorer les opérations militaires.

Dans un article publié dans le magazine Prospect et qu’elle a co-écrit avec Lucy Suchman, professeure de sociologie à l’université de Lancaster, Meredith Whittaker affirme que les partisans de l’IA alimentent l’idée d’une guerre froide et tentent de créer un récit qui positionne la Big Tech comme une “infrastructure nationale critique”. Celle-ci serait trop grande et trop importante pour être démantelée ou réglementée. Les deux expertes mettent en garde contre le fait que l’utilisation de l’IA par l’armée soit présentée comme une fatalité plutôt que ce qu’elle est réellement : un choix actif qui implique des complexités éthiques et des compromis.

À LIRE AUSSI

Se dirige-t-on vers une nouvelle guerre menée avec des technologies autoritaires ?

Les trésors de guerre de l’IA

Les polémiques suscitées par le projet Maven étant reléguées au passé, les voix qui s’élèvent pour réclamer davantage d’intelligence artificielle à des fins de défense se font de plus en plus entendre ces dernières années.

Parmi ces voix, l’une des plus puissantes est celle de l’ancien PDG de Google, Eric Schmidt, qui a présidé la NSCAI et a appelé les Etats-Unis à adopter une approche plus agressive de l’IA militaire.

L’an dernier, dans un rapport décrivant les mesures que les Etats-Unis devraient prendre d’ici à 2025 pour être à la hauteur en matière d’IA, la NSCAI a préconisé à l’armée américaine d’investir huit milliards de dollars par an dans ces technologies, sous peine de se retrouver derrière la Chine.

Selon un rapport du Georgetown Center for Security and Emerging Technologies, l’armée chinoise dépenserait plus de 1,6 milliard de dollars par an dans l’IA. Aux Etats-Unis, des efforts importants sont déjà en cours pour atteindre de tels montants, explique Lauren Kahn, chargée de recherche au Council on Foreign Relations. En 2022, le ministère américain de la défense a demandé 874 millions de dollars pour l’intelligence artificielle, tout en précisant, dans un rapport publié en mars, que ce chiffre ne reflétait pas le total des investissements du ministère en matière d’IA.

L’armée américaine n’est pas la seule à être convaincue de cette nécessité. Les pays européens, qui ont tendance à être plus prudents lorsqu’il s’agit d’adopter de nouvelles technologies, dépensent également plus d’argent dans l’IA qu’auparavant, note Heiko Borchert, co-directeur du Defense AI Observatory à l’université Helmut Schmidt de Hambourg en Allemagne.

Français et Britanniques ont identifié l’intelligence artificielle comme une technologie de défense essentielle. Par ailleurs, la Commission européenne a affecté un milliard de dollars au développement de nouvelles technologies de défense.

Des critiques et des soutiens

Créer une demande pour l’IA est une chose. Faire en sorte que les armées adoptent cette technologie en est une autre.

De nombreuses nations s’intéressent à l’IA mais elles ont du mal à faire le passage du concept au déploiement, souligne Arnaud Guérin, PDG de Preligens, une start-up française spécialisée dans la surveillance par IA. Cela s’explique en partie par le fait que, dans la plupart des pays, le secteur de la défense est encore dominé par un groupe de grands entrepreneurs davantage spécialisés dans le matériel militaire que dans les logiciels d’IA, poursuit-il.

Autre explication : la lenteur du processus des contrôles militaires par rapport à la vitesse fulgurante à laquelle nous sommes habitués à voir se développer l’IA. Les contrats militaires peuvent s’étendre sur des décennies alors que dans le cycle rapide des start-up, les entreprises n’ont à peu près qu’un an pour démarrer leurs activités.

Les start-up et les investisseurs en capital-risque ont exprimé leur frustration vis-à-vis de ce processus lent. Le risque, selon Katherine Boyle, associée générale de la société de capital-risque Andreessen Horowitz, est que des ingénieurs talentueux partent, frustrés, pour occuper des emplois chez Facebook et Google, et que des start-up fassent faillite en attendant de décrocher des contrats avec l’armée.

À LIRE AUSSI

Ces drones sont capables de travailler ensemble pour imprimer une tour en 3D

“Certains de ces cercles sont totalement critiques, en particulier dans ce secteur où les préoccupations en matière de sécurité sont très réelles”, analyse Mark Warner, qui a fondé FacultyAI, une société d’analyse de données qui travaille avec l’armée britannique. “Mais d’autres ne le sont pas… Et d’une certaine manière, ils ont conservé leur position de leader”.

Les entreprises d’IA ayant des ambitions militaires doivent “rester en activité pendant longtemps”, déclare Ngor Luong, un analyste de recherche qui a étudié les tendances d’investissement dans l’IA au sein du Georgetown Center for Security and Emerging Technologies.

Selon Lauren Kahn, les armées sont dans une impasse : soit elles prennent le risque d’aller trop vite et de déployer des systèmes défectueux et dangereux soit elles s’exposent à aller trop lentement et ne pas profiter des avancées technologiques. Les Etats-Unis veulent mettre un coup d’accélérateur et, pour ce faire, le ministère de la défense a fait appel à Craig Martell, l’ancien responsable de l’intelligence artificielle de la société de transport Lyft.

En juin 2022, Craig Martell a pris la tête du nouveau bureau du Pentagone chargé de l’intelligence artificielle numérique qui vise à coordonner les efforts de l’armée américaine en matière d’IA. Sa mission, a-t-il précisé à Bloomberg, consiste à changer la culture du département et d’encourager l’utilisation de l’IA par l’armée malgré “l’inertie bureaucratique”.

Craig Martell pourrait se retrouver face à une porte bien ouverte car les entreprises spécialisées en IA ont déjà décroché des contrats militaires lucratifs. En février, Anduril – une start-up née il y a cinq ans et qui développe des systèmes de défense autonomes tels que des drones sous-marins sophistiqués – a remporté un contrat de défense d’un milliard de dollars avec les Etats-Unis. En janvier, ScaleAI, une start-up qui fournit des services d’étiquetage de données pour IA, a signé un contrat de 250 millions de dollars avec le ministère américain de la défense.

Se méfier de l’effet de mode

Même si on constate une intégration de plus en plus importante et constante de l’IA sur le champ de bataille, les préoccupations éthiques qui ont été suscitées par les protestations autour du projet Maven n’ont pas disparu.

Certains efforts ont été menés pour tenter d’apaiser ces inquiétudes. Conscient du manque de confiance à l’égard de l’IA, le ministère américain de la défense a élaboré des lignes directrices en matière “d’intelligence artificielle responsable” à l’intention des développeurs d’IA. Et il dispose également de ses propres règles d’éthique en matière d’intelligence artificielle.

Toutes ces lignes directrices invitent les armées à utiliser l’IA d’une manière légale, responsable, fiable et traçable. Elles cherchent aussi à atténuer les biais intégrés aux algorithmes.

L’un de leurs concepts clés est que les humains doivent toujours garder le contrôle des systèmes d’IA. Cependant, au fur et à mesure que la technologie se développe, cela ne sera pas vraiment possible, considère Kenneth Payne.

“Tout l’intérêt d’un [système] autonome réside dans le fait de lui permettre de prendre une décision plus rapidement et plus précisément qu’un humain ne pourrait le faire et ce à une échelle qu’aucun humain ne pourrait jamais atteindre”, précise-t-il. “Si avant de prendre la moindre décision vous vous demandez ‘Est-ce que je vais avoir besoin d’un avocat ?’, alors effectivement vous vous mettez dans un état de paralysie”.

Pourtant, les critiques affirment que des règles plus strictes sont nécessaires. Une campagne mondiale intitulée “Stop Killer Robots” (“Arrêtez les robots tueurs”, en français) vise à interdire les armes autonomes mortelles tels que les essaims de drones.

Des militants, des responsables de haut niveau tels que le chef des Nations unies, António Guterres, et des gouvernements comme celui de la Nouvelle-Zélande, affirment que les armes autonomes sont profondément contraires à l’éthique car elles donnent aux machines le contrôle des décisions relatives à la vie et à la mort. Elles pourraient également nuire de manière disproportionnée aux communautés marginalisées en raison des biais algorithmiques.

Des essaims de milliers de drones autonomes, par exemple, pourraient devenir des armes de destruction massive. Restreindre ces technologies sera une bataille difficile à mener car l’idée d’une interdiction mondiale s’est heurtée à l’opposition de nations dépensières sur le plan militaire comme les États-Unis, la France et le Royaume-Uni.

En fin de compte, la nouvelle ère de l’IA militaire soulève une multitude de questions éthiques complexes auxquelles nous n’avons pas encore de réponses.

L’une de ces questions est de savoir dans quelle mesure nous souhaitons que les forces armées soient automatisées, lance Kenneth Payne. D’un côté, les systèmes d’IA pourraient réduire les pertes en rendant la guerre plus ciblée, mais d’un autre côté, vous “créez effectivement une force de robots mercenaires pour combattre en votre nom”, dit-il. “Cela éloigne votre société des conséquences qui découlent de l’usage de la violence.”

Un article de Melissa Heikkilä, traduit de l’anglais par Kozi Pastakia.

À LIRE AUSSI

L’histoire des 1.000 ingénieurs chinois de SpaceX… qui n’ont jamais existé

We want to give thanks to the author of this article for this outstanding material

Pourquoi les entreprises spécialisées dans l’IA militaire sont-elles en plein essor ?

Visit our social media profiles and other pages related to themhttps://www.ai-magazine.com/related-pages/