jeu. Fév 29th, 2024

Après plus de 36 heures de négociations, le « trilogue » formé par la Commission européenne, le Conseil de l’Union européenne et le Parlement est parvenu à un accord sur le texte de l’AI Act, la loi européenne sur l’intelligence artificielle.

Il s’agit du premier cadre réglementaire sur les systèmes d’IA au monde. L’accord a été annoncé dans un tweet du commissaire européen au marché intérieur, Thierry Breton.

Plus en détail, vous pouvez voir ce que l’accord politique sur le règlement – le premier du genre dans le monde – prévoit  – qui  souhaite s’assurer que les systèmes d’intelligence artificielle mis sur le marché européen et utilisés dans l’UE sont sûrs et respectent les droits fondamentaux et les valeurs de l’UE. Et, dans le même temps, stimuler l’investissement et l’innovation dans l’IA en Europe.

L’idée qui sous-tend le texte adopté est de réglementer l’intelligence artificielle en fonction de sa capacité à causer des dommages à la société, en suivant une approche « fondée sur le risque ». allant d’un risque minimal à un risque inacceptable ; plus le risque est élevé, plus les règles sont strictes.
La grande majorité des systèmes d’intelligence artificielle entrent dans la catégorie des risques minimes et bénéficieront d’un laissez-passer.

Les systèmes d’intelligence artificielle identifiés comme présentant un risque élevé, en revanche, devront se conformer à des exigences strictes notamment des systèmes d’atténuation des risques, des ensembles de données de haute qualité, l’enregistrement des activités, une documentation détaillée, des informations claires pour l’utilisateur, une supervision humaine et un niveau élevé de robustesse, de précision et de cybersécurité.

Parmi les exemples de systèmes d’intelligence artificielle à haut risque figurent certaines infrastructures critiques, par exemple dans les secteurs de l’eau, du gaz et de l’électricité, les dispositifs médicaux, les systèmes permettant de déterminer l’accès aux établissements d’enseignement ou de recruter des personnes, ou encore certains systèmes utilisés dans le cadre de l’application de la loi, du contrôle des frontières, de l’administration de la justice et des processus démocratiques. En outre, les systèmes biométriques d’identification, de catégorisation et de reconnaissance des émotions sont également considérés comme présentant un risque élevé.

Vendredi, l’autorité britannique de la concurrence et des marchés (CMA) envisage de lancer une enquête sur le partenariat entre Microsoft et OpenAI, afin de déterminer si la collaboration entre les deux entreprises pourrait avoir un impact sur le marché et, dans une certaine mesure, menacer la concurrence. Le PDG d’OpenAI, Sam Altman, a fait savoir ces derniers jours que Microsoft occuperait un poste d’observateur sans droit de vote au sein du conseil d’administration d’OpenAI et aurait accès à des informations confidentielles, bien qu’il n’ait pas le droit de vote. Microsoft, qui s’est engagé à investir plus de 10 milliards de dollars dans OpenAI et qui détient 49 % de la société, a réagi à la nouvelle antitrust britannique en niant avoir pris le contrôle d’OpenAI. « Microsoft aura un observateur sans droit de vote au conseil d’administration d’OpenAI, ce qui est très différent d’une prise de contrôle », a déclaré Brad Smith, président de Microsoft.
Lire aussi:  Interview. Plus d'ombres que de lumières dans la loi sur le microcrédit

By Nermond

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *