
« En encourageant l’innovation et en préservant les droits fondamentaux, l’Europe se positionne comme un leader mondial dans l’adoption responsable de l’intelligence artificielle », conclut Paul Berenguer (Business Innovation Manager) l’auteur de cette tribune.
L’intelligence artificielle (IA) est rapidement devenue une technologie clé qui transforme le mode de fonctionnement des industries et qui, avec des implications économiques et sociales évidentes et incertaines dans leur réalisation à moyen et long terme, offre à la fois des avancées révolutionnaires et des défis importants. Pour remédier à ces complexités, l’Union européenne (UE) a adopté une approche visionnaire de la réglementation de l’IA (AI Act) dans un effort réglementaire qui cherche à équilibrer l’innovation avec la protection des droits fondamentaux des citoyens afin d’assurer une intégration sûre et bénéfique dans notre société.
Le cadre réglementaire de l’UE, illustré par des initiatives telles que le Règlement européen sur l’IA, le Règlement général sur la protection des données (RGPD ou GDPR) et le Règlement sur la cyberrésilience, fournit une feuille de route pour le développement de l’intelligence artificielle, en privilégiant la sécurité, la transparence et la gouvernance éthique. Cette approche basée sur les risques, traite les systèmes d’IA comme des produits, en mettant l’accent sur leur application et leur utilisation commerciale plutôt que sur le développement de la technologie elle-même. Le règlement se divise donc en trois catégories distinctes – risque minimum, risque élevé, et risque inacceptable – dans le but d’établir des niveaux appropriés de surveillance et d’intervention.
La première de ces catégories (ou IA à risque minimum) est configurée sur la base de systèmes qui présentent un faible risque pour les droits fondamentaux et la sécurité personnelle et qui incluent des applications qui génèrent du contenu audiovisuel ou des images sans impact significatif sur les décisions critiques. Les Chatbots ou assistants virtuels basés sur l’IA générative, tels que ChatGPT, OpenAI, ou CoPilot de Microsoft, seraient quelques exemples d’utilisation de ce type d’Intelligence artificielle dans cette catégorie.
Deuxièmement, nous aurions des applications d’IA à risque élevé, c’est-à-dire des systèmes qui peuvent affecter directement les droits et libertés des personnes, et qui sont appliqués dans des secteurs sensibles tels que : la santé (diagnostic médical et gestion des patients), les transports (véhicules autonomes et systèmes de navigation), les infrastructures (approvisionnement en énergie et services d’eau), la banque et les assurances (évaluation du crédit et détection des fraudes) et la gestion des ressources humaines (processus de sélection et d’évaluation des employés), entre autres.
Enfin, les produits IA à risque inacceptable. Il s’agit de systèmes dans lesquels leur mise en œuvre et leur commercialisation (et non leur développement) seraient interdites sur le territoire européen en raison de leur potentiel de violation des droits fondamentaux. Quelques exemples que nous pouvons mettre en évidence ici incluent la manipulation subliminale (systèmes qui influencent le comportement sans consentement), la notation sociale (évaluation des individus sur la base de leur comportement ou de leurs caractéristiques personnelles) et l’identification biométrique en temps réel dans les espaces publics sans justification légale.
Ces règlements témoignent de l’engagement de l’Union en faveur d’une gouvernance proactive face à l’évolution rapide des technologies À mesure que les technologies de l’IA s’infiltrent dans des aspects ou des domaines sensibles de la vie quotidienne, le besoin de règles précises, adaptables et applicables devient de plus en plus essentielle. À cet égard, la décision de l’UE de classer les risques liés à l’IA en fonction de la gravité de son impact potentiel constitue un modèle de pratique réglementaire que d’autres régions pourraient (ou devraient) imiter.
Cependant, la réglementation pose également des défis, notamment en termes de conformité avec les lois existantes telles que le GDPR. La demande insatiable de données par l’IA est en conflit avec des principes juridiques tels que la minimisation des données et la transparence qui ont un caractère spécifique dans le cadre réglementaire européen.
Bien que cela ne relève en principe que du contexte européen, son acceptation et son application gagnent du terrain au niveau international étant adoptées en tant que bonnes pratiques dans d’autres cadres réglementaires et environnements d’entreprise. La nature de la « boîte noire » de l’IA complique la compréhension des utilisateurs de la façon dont les décisions sont prises, une situation qui, en fin de compte, rend difficile la responsabilisation et les droits des titulaires des données.
Une autre considération est que la réglementation ne cherche pas à étouffer l’innovation mais à renforcer la confiance dans l’utilisation de cette technologie. Pour les entreprises, s’adapter à cette nouvelle réalité n’est pas seulement une question de conformité, mais aussi une opportunité de diriger de manière responsable et d’obtenir un avantage concurrentiel. En s’engageant de manière proactive en faveur d’une gouvernance responsable de l’IA, les organisations peuvent montrer à leurs clients et aux autres parties prenantes leur engagement en faveur de pratiques éthiques, sûres et transparentes. Ce qui permet d’instaurer un climat de confiance et de respecter les obligations légales.
En outre, l’adoption responsable de l’IA nécessite une collaboration entre tous les secteurs : les développeurs de technologies, les législateurs et les utilisateurs finaux. Ils doivent travailler ensemble pour maintenir ces règlements à jour. Cette coopération est essentielle pour que cette technologie demeure un outil bénéfique pour la société, tout en protégeant nos droits et notre sécurité.
En conclusion, le cadre réglementaire de l’UE en matière d’IA représente une approche équilibrée de la gestion des risques et des opportunités que l’intelligence artificielle pose indubitablement. En encourageant l’innovation et en protégeant les droits fondamentaux, l’Europe se positionne comme un leader mondial de l’adoption responsable de l’IA. La responsabilité de l’adoption de ces changements incombe aux entreprises, en assurant non seulement la conformité, mais aussi le leadership dans un monde de plus en plus axé sur l’IA.