Quelles utilisations de l’intelligence artificielle sont si dangereuses qu’elles devraient être interdites ou classées à haut risque ? C’est la question cruciale qui se trouve au cœur de l’affaire de l’intelligence artificielle. premier sommet sur la sécurité et l’intelligence artificielle qui s’est clôturé hier, dans un lieu emblématique à 75 kilomètres de Londres, en tant que Bletchley Park où les codes secrets des nazis ont été déchiffrés pendant la Seconde Guerre mondiale. Il en est résulté un engagement commun, résumé dans la « déclaration de Bletchley », dans laquelle les 25 pays présents se sont déclarés prêts à travailler ensemble et à établir une approche commune pour superviser les développements en matière d’intelligence artificielle. Wu Zhaohui, vice-ministre chinois de la science et de la technologie, a également souligné que Pékin renforcerait la collaboration en matière de sécurité de l’intelligence artificielle afin de contribuer à la mise en place d’un « cadre de gouvernance » international.
Cet engagement sur le papier complète les efforts déployés jusqu’à présent au niveau individuel pour réglementer les risques et les conflits éthiques possibles liés à l’utilisation de l’intelligence artificielle. Par exemple, la reconnaissance faciale dans tous les lieux publics, ou la justice prédictive, qui est la capacité de calculer à l’avance l’issue d’un jugement, ou encore ce que l’on appelle l’intelligence artificielle. notation socialec’est-à-dire l’évaluation sociale qui mesure la fiabilité des personnes au moyen d’algorithmes qui produisent des évaluations numériques et classificatoires à partir du comportement, des préférences et même des données personnelles collectées sur le web.
De la déclaration de Bletchley à la loi sur l’IA
Lundi, le président de la États-Unis , Joe Biden signé un décret sur l’intelligence artificielle exigeant des entreprises qu’elles signalent au gouvernement fédéral les risques éventuels où leurs systèmes pourraient, d’une manière ou d’une autre, profiter à d’autres pays ou à des groupes terroristes pour produire des armes de destruction massive. L’ordonnance vise également à réduire les dangers des « deep fakes » qui pourraient influencer les votes ou tromper les consommateurs. « I contrefaçons profondes utilisent des fichiers audio et vidéo générés par l’intelligence artificielle pour salir des réputations, diffuser des fausses nouvelles et commettre des fraudes », a déclaré M. Biden lors de la signature du décret à la Maison Blanche, mettant également sur la table le risque de désinformation. Le même jour, le 30 octobre, les pays du Groupe des Sept se sont mis d’accord sur un Code de conduite en 11 points pour les entreprises développant des systèmes d’IA avancés, qui « vise à promouvoir une IA sûre, sécurisée et fiable dans le monde entier ».
Pour sa part, La Chine avait déjà présenté le ‘Initiative mondiale de gouvernance de l’IA« Pékin a publié une proposition d’exigences de sécurité pour les entreprises offrant des services basés sur l’intelligence artificielle, y compris une liste noire de sources qui ne peuvent pas être utilisées pour former des modèles d’intelligence artificielle. Dans le même temps, il a exigé des fournisseurs de services qu’ils soumettent des évaluations de sécurité et qu’ils reçoivent une autorisation avant de commercialiser des produits d’intelligence artificielle sur le marché de masse. La Commission européenne s’est également engagée dans la voie de l’interdiction et de l’obligation d’autorisation.L’Europe, où les négociations viennent d’entrer dans une phase cruciale pour finaliser l’ambitieuse loi de l’Union européenne sur l’IA d’ici la fin de l’année. .
Les incitations à agir, et à le faire ensemble, sont donc nombreuses. Tout d’abord, parce que l’intelligence artificielle est une technologie mondiale qui offre de grandes promesses, comme le diagnostic des maladies, la prévision des inondations et d’autres effets du changement climatique, mais qui comporte en même temps des risques, notamment des violations potentielles de la vie privée et la suppression d’emplois. L’IA est basée sur de grands modèles de langage (Grand modèle linguistique(LLM) qui sont formés à l’aide d’une grande quantité de textes provenant de différentes sources : ils peuvent être exécutés sur n’importe quel ordinateur, n’importe où dans le monde. Il ne servirait donc pas à grand-chose de réglementer strictement l’IA dans certains pays, si des lacunes réglementaires subsistaient dans d’autres.
La volonté d’agir existe, mais il n’y a pas de « consensus sur les problèmes que nous devrions gouverner, et encore moins sur la manière dont nous devrions les gouverner ». ‘, résume Henry Farrell, professeur d’affaires internationales à l’université Johns Hopkins de Baltimore. Plus précisément, il convient de distinguer trois questions qui ouvrent, en fait, trois champs de discussion. De quoi le monde doit-il se préoccuper face au développement de l’IA ? Quel doit être l’objectif des règles ? Et comment les appliquer ? S’ils s’opposaient autrefois à la réglementation, aujourd’hui, même des géants comme Alphabet et Microsoft font pression pour que de nouvelles règles soient négociées, convenues et appliquées. Ils craignent qu’une concurrence débridée n’incite d’autres acteurs à agir de manière imprudente, en proposant des modèles susceptibles d’être utilisés de manière abusive.
Réglementer oui, mais comment ?
Venons-en aux objectifs de la régulation. Ceux-ci sont difficiles à définir car l’intelligence artificielle évolue rapidement : il ne se passe pas un jour sans qu’une start-up n’invente quelque chose de nouveau. Et même les développeurs ne peuvent pas dire avec certitude quelles seront les fonctionnalités futures des systèmes basés sur l’IA. Lors d’une audition au Sénat à Washington en juillet dernier, Dario Amodei, PDG d’Anthropic, a averti que les modèles d’intelligence artificielle seront en mesure de fournir toutes les informations nécessaires à la fabrication d’armes biologiques dans quelques années, ce qui permettra à « beaucoup plus d’acteurs de mener des attaques biologiques à grande échelle ». Des prédictions similaires ont été faites au sujet des cyber-armes. D’autres risques concernent l’affaiblissement du processus démocratique.
Pour toutes ces raisons, le débat sur ce qu’il convient de réglementer ne semble pas facile à résoudre . Les entreprises technologiques suggèrent principalement de limiter l’examen aux modèles les plus puissants et les plus avancés. Microsoft a demandé un régime de licence qui obligerait les entreprises à enregistrer les modèles qui dépassent certains seuils de performance. Mais la plupart des entreprises estiment que ce sont les applications des modèles, et non les modèles eux-mêmes, qui devraient être réglementées. Les développeurs d’intelligence artificielle mettent en garde contre une réglementation plus intrusive qui ralentirait l’innovation.
Qui contrôlera les développements de l’IA ?
Jusqu’à l’année dernière, les États-Unis, le Royaume-Uni et l’Union européenne semblaient s’accorder sur cette approche fondée sur le risque. L’essor vertigineux du LLM depuis le lancement du Chat gpt il y a un an les pousse à revoir leur position. L’Union européenne se demande désormais si les modèles eux-mêmes ne devraient pas être supervisés. Le Parlement européen souhaite que les concepteurs de modèles testent l’impact potentiel des LLM sur tous les domaines, de la santé humaine aux droits de l’homme. Il insiste également sur la nécessité d’obtenir des informations sur les données à partir desquelles les modèles sont formés. Ces réglementations plus strictes représenteraient un changement par rapport aux codes de conduite non contraignants, qui ont été l’approche privilégiée jusqu’à présent. L’été dernier, la Maison Blanche avait déjà négocié une série d' »engagements volontaires » avec certaines entreprises pour que leurs modèles soient testés en interne et en externe avant d’être diffusés, leur demandant également de partager des informations sur la manière dont elles gèrent les risques liés à l’IA.
La question de savoir qui doit réglementer se pose également. Les États-Unis et la Grande-Bretagne pensent que les agences gouvernementales existantes peuvent faire l’essentiel du travail. L’Union européenne souhaite créer un nouvel organisme de réglementation. Au niveau international, certains leaders technologiques ont appelé à la création d’un organisme similaire au Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), chargé par les Nations unies de suivre les recherches sur le réchauffement de la planète et de mettre au point des moyens de mesurer son impact. Compte tenu de toutes ces questions en suspens, il est difficile de prédire ce que les « Déclaration de Bletchley « . Selon Keegan McBride, professeur d’intelligence artificielle et de politique à l’Internet Institute de l’Université d’Oxford, il est logique de comprendre comment nous pouvons aider les entreprises à être compétitives à une époque de changements rapides et d’investissements considérables dans l’IA, sans ignorer les risques plus immédiats dans le monde réel de la technologie.