Actualités
L'Europe dompte l'IA
L’Union européenne recadre la bête !
À l’image d’un cheval fougueux, l’Intelligence Artificielle (IA) fait preuve d’une ardeur impétueuse et semble être totalement indomptable. Le dressage des chevaux révolutionna pourtant le transport, l’agriculture, la mobilité des armées, le travail et les loisirs, et contribua de manière significative au développement des sociétés humaines.
Voilà qui a de quoi rassurer : l’intelligence artificielle doit donc être encadrée pour mieux correspondre aux attentes du monde dans lequel elle est née. La rejeter est d’ores et déjà considéré comme une attitude absurde tant l’IA s’est rendue indispensable dans des secteurs tels que la santé, la finance, la mobilité, le commerce, l’énergie, l’éducation, l’industrie ou l’agriculture.Certains diront que l’arrivée des trottinettes électriques aurait dû permettre de fluidifier la mobilité tout en réduisant les émissions de CO2, mais que le manque de législation pour les encadrer a fini par autoriser indirectement leurs usagers à circuler n’importe où et dans n’importe quelles conditions.
Pour éviter que son utilisation soit mal « gérée » et afin d’assurer des conditions optimales pour son développement, l’Union Européenne a décidé de réglementer le recours à l’intelligence artificielle.Il y a quatre ans, un premier cadre réglementaire concernant l’IA fut proposé par la Commission européenne. Le Parlement s’était alors fixé pour priorité de veiller à la sûreté, à la transparence, à la traçabilité et au caractère respectueux des personnes et de l’environnement. Un classement recensant les « risques » que les différentes applications peuvent présenter pour notre civilisation fut également créé.Le 13 mars 2024, une réglementation européenne en matière d’intelligence artificielle, connue sous le nom d’AI Act ou de Loi IA, fut adoptée par le Parlement et approuvée par le Conseil européen le mois dernier. Cette loi pionnière vise à harmoniser les règles sur l’IA, en mettant l’accent sur ces « risques » pour garantir un développement et un usage responsables de cette technologie au sein de l’UE.
Mais, au fond, de quels risques s’agit-il ?
Basée sur l’EU Artificial Intelligence Act, voici une synthèse vulgarisée de cette loi et ses quatre « classes de risques » :
1. Les « risques inacceptables », tels que les systèmes de notation sociale et l’IA manipulatrice, sont interdits. Ces risques inacceptables incluent la manipulation cognitive et comportementale de personnes ou de groupes vulnérables, comme des jouets vocaux incitant les enfants à des comportements dangereux, ainsi que le classement social des individus basé sur des critères personnels et socioéconomiques. D’autres interdictions concernent la catégorisation et l’identification biométriques, ainsi que les systèmes d’identification biométrique en temps réel à distance, tels que la reconnaissance faciale.
Des exceptions peuvent toutefois être autorisées pour certaines utilisations liées à l’application de la loi.
2. Les systèmes d’IA à « haut risque » comprennent les systèmes d’IA capables de malmener la sécurité et les droits fondamentaux : ceux qui sont utilisés dans les produits relevant de la législation de l’UE sur la sécurité des produits (voitures, aviation, jouets, etc.) ; mais aussi ceux qui relèvent de domaines particuliers devant être ajouté à une base de données de l’Union européenne (emploi, éducation, forces de l’ordre, etc.).
3. Les systèmes d’IA à « risque limité », soumis à des obligations de transparence : les citoyens doivent savoir qu’ils interagissent avec une IA (chatbots, deepfakes). Pour ce faire, il faudra clairement indiquer les médias ou contenus ayant été générés par une IA. Il est primordial de reconnaitre que chaque individu a le droit de s’opposer à des traitements automatisés qui ne comportent pas d’intervention humaine dans le processus décisionnel.
Comme les êtres humains, les systèmes sont également susceptibles de commettre des erreurs, qu’elles soient causées par des défaillances techniques ou par des biais (discriminations) intégrés dans l’outil.
4. Les systèmes d’IA à « risque minimal ». Cette dernière catégorie n’est pas (encore) réglementée et inclut des applications comme les jeux vidéo et des filtres anti-spam activés par l’IA.
Cette loi adoptée en mars 2024 ne sera totalement appliquée que dans deux ans, même si certains volets le seront plus rapidement.
Il s’agit là d’une première « limite théorique » sensée réguler l’usage de cette arme pour laquelle une formation « éthique » spécifique devrait être dispensée à tous ses utilisateurs avant qu’une totale mise à disposition ne leur soit accordée. Une sorte de permis d’IA peut-être ?
EU Artificial Intelligence Act : https://artificialintelligenceact.eu/fr/high-level-summary/
CNIL : https://www.cnil.fr/fr/intelligence-artificielle/intelligence-artificielle-de-quoi-parle-t-on
Nous remercions le comte Pierre-Alexandre de Lannoy pour la rédaction de cet article.