Par akademiotoelektronik, 02/02/2023
Intelligence artificielle : l'UE va légiférer pour éviter les dérives
La Commission européenne doit dévoiler le 21 avril une proposition pour encadrer les applications d'intelligence artificielle, avec le double objectif de rassurer la population en réprimant des dérives dangereuses et de créer des règles harmonisées favorisant l'essor de ces technologies.
À lire aussiL’intelligence artificielle au cœur de la compétition sino-américaine
Le projet de règlement, que l'AFP a pu consulter, prévoit d'interdire un nombre très limité d'utilisations qui menacent les droits fondamentaux. Seront prohibés les systèmes de «surveillance généralisée» de la population, ceux «utilisés pour manipuler le comportement, les opinions ou les décisions» des citoyens, ou bien des systèmes de «notation sociale» des individus à partir notamment de leur comportement ou leur personnalité.
Des autorisations dérogatoires sont prévues en cas de nécessité pour la lutte antiterroriste et la sauvegarde de la sécurité publique. Les applications militaires ne sont pas couvertes par la réglementation.
Cependant, l'intelligence artificielle, qui regroupe des techniques d'automatisation à base de logiciels et de données, est considérée comme prometteuse pour améliorer la productivité des usines, les rendements agricoles, optimiser les consommations d'énergie, mieux organiser les transports, réduire la pollution, améliorer les systèmes de santé...
Tests de conformité pour des applications «à haut risque»
Dans cette course technologique, l'Europe tente de rattraper son retard sur les États-Unis et la Chine. Pour promouvoir l'innovation dans ce domaine, Bruxelles entend fournir un cadre juridique clair aux entreprises et un marché harmonisé à travers ses 27 États membres.
Pour ce faire, le projet de règlement prévoit d'introduire des tests de conformité aux normes européennes pour des applications jugées «à haut risque» avant leur arrivée sur le marché. Ces exigences viendront s'ajouter aux règles déjà existantes en matière de sécurité des produits.
Le texte fournit une liste des systèmes «à haut risque». Une première catégorie, incluant «l'identification biométrique à distance des personnes dans les lieux publics» et les «éléments de sécurité dans des infrastructures publiques essentielles» se verra imposer des tests de conformité réalisés par une autorité tierce.
À lire aussiMicrosoft acquiert Nuance, spécialiste de la reconnaissance vocale, pour 19,7 milliards de dollars
Une deuxième catégorie inclut notamment les systèmes de priorisation des services d'urgence, les outils utilisés pour le recrutement, ou bien pour déterminer l'accès à des institutions éducatives, ou encore pour évaluer la solvabilité des personnes. La conformité de ces applications sera garantie par une auto-évaluation conduite par le fournisseur.
Les autres usages, non classifiés comme à «haut risque», ne se verront imposer quasiment aucune contrainte réglementaire supplémentaire.
Les infractions des entreprises, en fonction de leur gravité, pourraient être punies par des amendes allant jusqu'à 4% de leur chiffre d'affaires mondial, selon la version du projet consultée par l'AFP, et qui pourrait encore évoluer avant sa validation.
Articles Liés