À partir du 1er août 2024, la législation européenne visant à réguler l’utilisation de l’Intelligence Artificielle au sein de l’Union Européenne est entrée en vigueur. Connue sous le nom d’IA Act ou AI Act en anglais, cette nouvelle réglementation, initiée en 2021, sera progressivement mise en application dans les prochains mois.
Voici un aperçu des principaux aspects de cette règlementation :
Fonctionnement de l’IA Act
L’IA Act classe les technologies d’intelligence artificielle en fonction des risques qu’elles présentent :
- Risques inacceptables : Les systèmes d’IA présentant des risques inacceptables, tels que les systèmes de notation sociale et les IA manipulatrices, sont interdits.
- Haut risque : La majorité des dispositions législatives concernent les systèmes d’IA à haut risque, soumis à des régulations strictes.
- Risque limité : Les systèmes d’IA à risque limité sont soumis à des obligations de transparence “légères”. Les développeurs et les déployeurs doivent informer les utilisateurs finaux qu’ils interagissent avec une IA, comme les chatbots et les deepfakes.
- Risque minimal : Les systèmes présentant un risque minimal, comme les jeux vidéo et les filtres anti-spam, ne sont pas réglementés. Cependant, cette situation évolue avec l’essor de l’IA générative.
L’IA Act distingue les développeurs de systèmes d’IA (fournisseurs) des utilisateurs (déployeurs) et impose des réglementations plus strictes aux premiers.
Obligations des fournisseurs de modèles d’IA
Tous les fournisseurs de modèles d’IA à usage général doivent :
- Fournir une documentation technique.
- Fournir des instructions d’utilisation.
- Se conformer à la directive sur les droits d’auteur.
- Publier un résumé du contenu utilisé pour la formation.
Les fournisseurs de modèles d’IA à usage général sous licence libre et gratuite, sauf s’ils présentent un risque systémique, doivent :
- Respecter les droits d’auteur.
- Publier le résumé des données de formation.
Les fournisseurs de modèles d’IA à usage général présentant un risque systémique, qu’ils soient ouverts ou fermés, doivent également :
- Effectuer des évaluations de modèles.
- Réaliser des tests contradictoires.
- Suivre et signaler les incidents graves.
- Garantir la protection de la cybersécurité.
Mise en Place et Calendrier de l’IA Act
Pour faciliter la mise en œuvre de l’IA Act, la Commission européenne a créé l’Office AI, un organe de contrôle chargé de surveiller la conformité des développeurs de modèles. Cet office pourra procéder à des évaluations, enquêter sur les risques systémiques et recueillir les plaintes des fournisseurs en aval contre les fournisseurs en amont.
Le site officiel de l’IA Act propose un “vérificateur de conformité”, un outil interactif pour déterminer si un système d’IA est soumis aux obligations de la nouvelle législation. Cet outil est conçu pour aider les PME et les startups européennes à comprendre leurs obligations légales ou à renforcer la confiance dans leurs pratiques.
Calendrier de Mise en Application
- 1er août 2024 : Entrée en application de l’IA Act.
- 1er février 2025 : Interdiction des systèmes d’IA à risque inacceptable.
- 1er août 2025 : Entrée en vigueur des régulations concernant les modèles d’IA à usage général et des principes de gouvernance de l’Office AI.
- Été 2026 : Mise en place des autres dispositifs de la loi.
Cette nouvelle législation marque une étape importante dans la régulation de l’intelligence artificielle en Europe, visant à garantir un usage sûr et éthique des technologies d’IA. Pour plus d’informations et pour vérifier la conformité de vos systèmes, consultez le site officiel de l’IA Act.
Source : le blog du Modérateur