sam. Fév 24th, 2024

La réunion des représentants permanents des 27 (Coreper I) a donné les résultats escomptés. feu vert  à laLoi sur l’IA le nouveau Système de règles de l’UE sur l’intelligence artificielle.  Le 9 décembre, un accord politique a été conclu sur le premier ensemble de règles contraignantes au monde en matière d’intelligence artificielle.

UE, accord trouvé pour la loi sur l’IA. Ce que prévoit la loi

L’Union européenne est en passe de devenir la première grande puissance mondiale à disposer d’un cadre réglementaire sur les systèmes d’IA.  L’UE est la première à établir des normes contraignantes pour la technologie de l’intelligence artificielle, qui évolue rapidement. Bien que de nombreux pays et organisations internationales – de l’OCDE au G7 – aient passé ces dernières années à réfléchir à la manière de réglementer l’intelligence artificielle, la plupart d’entre eux s’en sont tenus à des lignes directrices ou à des codes de conduite volontaires.

Que va-t-il se passer maintenant ?  Le texte va être soumis au Parlement européen  où la partie devrait être plus facile. Le processus devrait être achevé en avril, mais cela ne signifie pas que toutes les nouvelles règles entreront en vigueur immédiatement. Il s’agira d’un processus graduel : après six mois, les interdictions seront mises en œuvre et après six autres mois, les règles relatives aux modèles fondateurs. En bref, cela prendra un an.

Le règlement garantirait que les systèmes d’intelligence artificielle mis sur le marché européen et utilisés dans l’UE sont sûrs et respectent les valeurs et les droits fondamentaux de l’UE. . Dans le même temps, il continuerait à encourager l’investissement et l’innovation dans le domaine de l’IA en Europe. L’idée qui sous-tend le texte adopté est la suivante réglementer l’intelligence artificielle en fonction de sa capacité à nuire à la société, en suivant une approche « fondée sur le risque ». Cette approche va d’un risque minimal à un risque inacceptable ; plus le risque est élevé, plus les règles sont strictes. Si la grande majorité des systèmes d’intelligence artificielle entrent dans la catégorie des risques minimes et ne créeront donc pas de problèmes pour la société et n’auront pas à se conformer à la réglementation, les systèmes d’intelligence artificielle identifiés comme présentant un risque élevé devront, en revanche, répondre à des exigences strictes, notamment des systèmes d’atténuation des risques, des ensembles de données de haute qualité, l’enregistrement des activités, une documentation détaillée, des informations claires pour l’utilisateur, une supervision humaine et un niveau élevé de robustesse, d’exactitude et de cybersécurité. Plus précisément, les systèmes d’IA à haut risque comprennent certaines infrastructures critiques, telles que les secteurs de l’eau, du gaz et de l’électricité, mais aussi les dispositifs médicaux, les systèmes permettant de déterminer l’accès aux établissements d’enseignement ou de recruter des personnes, ou encore certains systèmes utilisés dans le cadre de l’application de la loi, du contrôle des frontières, de l’administration de la justice et des processus démocratiques. L’une des questions les plus débattues concerne les systèmes d’identification biométrique, considérés comme présentant un risque élevé.  Certaines utilisations de systèmes biométriques seront interdites, par exemple les systèmes de reconnaissance des émotions utilisés sur le lieu de travail, certains systèmes de profilage des personnes sur la base du sexe ou de l’appartenance ethnique, et la reconnaissance faciale en temps réel à des fins répressives dans les espaces accessibles au public, à quelques exceptions près. L’accord conclu clarifie les objectifs pour lesquels une telle utilisation est nécessaire à des fins répressives et pour lesquels les autorités répressives devraient exceptionnellement être autorisées à utiliser ces systèmes. C’est le cas, par exemple, en cas d’attaques terroristes imminentes, de recherche de victimes, d’enquêtes portant sur des crimes graves tels que le meurtre, l’enlèvement ou l’agression sexuelle.
Le risque inacceptable concerne les systèmes d’intelligence artificielle considérés comme une menace pour les droits fondamentaux des personnes, qui seront interdits. Le risque inacceptable concerne les systèmes d’intelligence artificielle considérés comme une menace pour les droits fondamentaux des personnes. liste noire comprend les systèmes ou applications d’intelligence artificielle qui manipulent le comportement humain pour contourner le libre arbitre des utilisateurs, tels que les jouets qui utilisent l’assistance vocale, encourageant les comportements dangereux des mineurs, ou les systèmes qui permettent la « notation sociale » par les gouvernements et les entreprises, ainsi que certaines applications de police prédictive absolument interdites. Vient ensuite la catégorie des risques spécifiques, qui concerne les systèmes d’intelligence artificielle générative, les fameux « chatbots ». Lorsqu’ils les utilisent, les utilisateurs doivent être conscients qu’ils interagissent avec une machine. I deepfake et autres contenus générés par l’IA devraient être étiquetés comme tels et les utilisateurs devraient être informés lorsque des systèmes de catégorisation biométrique ou de reconnaissance des émotions sont utilisés.  En outre, les fournisseurs devront concevoir des systèmes permettant d’étiqueter les contenus audio, vidéo, textuels et les images synthétiques dans un format lisible par la machine et de détecter qu’ils ont été générés ou manipulés artificiellement.

Lire aussi:  Concorso Italiano. La Californie attend plus de 1 000 voitures de collection fabriquées en Italie.

Les amendes pour infraction peuvent aller de 7,5 millions d’euros ou 1,5 % du chiffre d’affaires à 35 millions d’euros ou 7 % du chiffre d’affaires mondial.

Le groupe d’entreprises DigitalEurope avait déjà critiqué les règles établies par l’UE en décembre dernier, les qualifiant de fardeau supplémentaire pour les entreprises. « Nous avons un accord, mais à quel prix ? », a déclaré Cecilia Bonefeld-Dahl, directrice générale de DigitalEurope. Le groupe de défense des droits à la vie privée European Digital Rights s’est montré tout aussi critique. « Il est difficile de s’enthousiasmer pour une loi qui, pour la première fois dans l’UE, a pris des mesures pour légaliser la reconnaissance faciale publique en temps réel », a déclaré sa conseillère politique principale, Ella Jakubowska. « Le Parlement s’est battu avec acharnement pour limiter les dégâts, mais le paquet global sur la surveillance biométrique et le profilage est au mieux tiède.

By Nermond

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *