Sélectionner une page

Un accord historique a été trouvé entre l’Allemagne, la France et l’Italie concernant la réglementation de l’intelligence artificielle (IA) dans l’Union Européenne. Ce consensus marque un pas important dans la législation européenne sur l’IA, qui a été initialement proposée par le Parlement européen en juin pour contenir les risques des applications d’IA et éviter les effets discriminatoires, tout en exploitant le pouvoir innovant de l’IA​​.

L’accord entre ces trois grands pays de l’UE soutient une « auto-réglementation obligatoire par des codes de conduite » pour les modèles fondamentaux d’IA, conçus pour produire une large gamme de résultats. Ils s’opposent à l’application de « normes non testées » et soulignent que la réglementation de l’IA devrait se concentrer sur l’application de la technologie, et non sur la technologie elle-même​​.

Les gouvernements ont proposé que les codes de conduite et de transparence soient contraignants pour tous, mais sans sanctions initiales. Si des violations sont identifiées après une certaine période, un système de sanctions pourrait être mis en place​​​​. En outre, une autorité européenne surveillera le respect des normes, et le Ministère de l’Économie allemand, en collaboration avec le Ministère des Affaires Numériques, a souligné l’importance de réglementer l’application de l’IA, plutôt que la technologie elle-même​​.

Selon la secrétaire d’État allemande aux Affaires économiques, Franziska Brantner, il est crucial d’exploiter les opportunités tout en limitant les risques, et un équilibre entre ces objectifs est nécessaire dans un domaine technologique et juridique encore non défini​​.

Par ailleurs, le Parlement européen a adopté une approche basée sur les risques, introduisant des restrictions basées sur le niveau de dangerosité perçu d’une application d’IA. Certaines applications seront complètement interdites si les législateurs considèrent le risque comme « inacceptable », tandis que les technologies jugées « à haut risque » auront de nouvelles limitations d’utilisation et des exigences de transparence accrues​​. Parmi les mesures spécifiques proposées, on trouve l’interdiction de l’IA de reconnaissance des émotions dans la police, les écoles et les lieux de travail, l’interdiction des biotechnologies en temps réel et du profilage prédictif dans les espaces publics, l’interdiction du scoring social par les agences publiques, des restrictions sur l’IA générative, et des restrictions sur les algorithmes de recommandation sur les réseaux sociaux​​.

Cet accord et la législation proposée sont perçus comme des développements majeurs dans la réglementation de l’IA à l’échelle mondiale, et ils pourraient établir une norme globale pour les années à venir​​.

Cependant, il faudra probablement deux ans avant que ces lois ne soient réellement mises en œuvre, car les membres du Parlement européen doivent encore négocier les détails avec le Conseil de l’Union européenne et la Commission européenne. La législation finale sera un compromis entre trois ébauches différentes de ces institutions, qui varient considérablement​​.