Le OK du Parlement européen à la loi sur l’Intelligence artificielle (I A) arrive. Et l’Europe est de plus en plus proche de donner vie au premier ensemble de règles au monde dédiées à l’Intelligence artificielle. Le pas qui vient d’être franchi sera fondamental pour un large éventail d’applications, allant de la biométrie à l’IA générative de ChatGpt.
Le texte, qui vise à fournir les standards d’un secteur en constante évolution, a été approuvé hier par 499 votes favorables, 29 contre et 93 abstentions.
Voici quelques-uns des principaux points du règlement approuvé par la plénière de Strasbourg :
- L’interdiction de l’utilisation de l’intelligence artificielle pour les activités de surveillance biométrique. Idem pour la reconnaissance des émotions et pour les utilisations policières prédictives.
- La détermination d’un « risque élevé » pour les systèmes d’IA potentiellement utilisés pour influencer les électeurs lors des élections.
- L’obligation de déclarer comment le contenu a été généré pour les systèmes d’IA générative tels que ChatGPT.
Ce dernier point était peut-être celui le plus attendu par les fans des chatbots super intelligents introduits par OpenAI grâce à ses modèles de langage, commentent les analystes.
Récemment, Sam Altman, PDG d’OpenAI, a déclaré que l’entreprise qui a déchaîné ChatGpt dans le monde pourrait penser à quitter l’Europe, au cas où les règles seraient trop strictes. Même si dans tous les cas, selon les propos d’Altman rapportés par le Financial Times, OpenAI tentera de s’adapter aux règles.
Les règles du ChatGpt et de l’IA générative
Le projet initial des règles européennes de l’IA remonte à 2021, avant que l’IA générative ne prenne l’importance qu’elle a acquise l’année dernière, avec l’arrivée de ChatGpt. Pour cette raison, le texte approuvé hier par le Parlement consacre des règles spécifiques à ChatGpt et ses semblables (c’est-à-dire, précisément, les systèmes d’IA générative).
Des règles qui, entre autres, imposent le respect des exigences de transparence. Ainsi, il faudra toujours déclarer que les contenus ont été générés par l’IA. It il doit être possible de distinguer les images deep-fake des vraies. Tandis que « des garde-fous seront nécessaires pour empêcher la génération de contenus illégaux », précise la nouvelle loi.
En ce qui concerne le droit d’auteur, et c’est peut-être le point le plus complexe, « les résumés détaillés des données protégées par le droit d’auteur utilisées pour la formation des algorithmes devraient également être publiés », précise le Parlement.
Les fournisseurs de modèles linguistiques tels que OpenAI, selon le Parlement, « devraient évaluer et atténuer les risques éventuels (pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit) et enregistrer leurs modèles dans la base de données de l’UE. Et ce, avant qu’ils ne soient placés sur le marché européen ».
Brando Benifei, co-rapporteur du texte et chef de la délégation du Parlement à Strasbourg, a rappelé la lettre des experts de l’UE sur les risques de l’intelligence artificielle, également signée par Sam Altman : « Aujourd’hui, tous les regards sont tournés vers nous. Alors que les Big Techs tiraient la sonnette d’alarme pour leurs créations, l’Europe est allée de l’avant et a proposé une réponse concrète aux risques que l’IA commence à représenter. Nous voulons que le potentiel créatif et productif de l’IA soit exploité. Cependant, lors des négociations avec le Conseil, nous nous battrons pour protéger notre position et contrer les dangers pour la démocratie et la liberté ».