AI Act : Quels acteurs et quels systèmes d’intelligence artificielle sont concernés ?
Sommaire
- Le champ d’application du règlement IA
- Quels systèmes d’IA sont concernés par l’AI Act ?
- Quels sont les acteurs concernés ?
- Quelles obligations selon le profil et le niveau de risque ?
- Conclusion : se préparer dès maintenant à l’AI Act
1. Le champ d’application du règlement IA
Adopté en 2024, l’AI Act, ou règlement européen sur l’intelligence artificielle, marque un tournant pour la gouvernance numérique en Europe. Il vise à encadrer l’ensemble des systèmes d’IA mis sur le marché ou utilisés dans l’Union européenne, qu’ils soient conçus localement ou à l’étranger.
L’AI Act s’applique :
- À tous les systèmes d’IA commercialisés, déployés ou utilisés au sein de l’UE ;
- Aux acteurs européens et non-européens dès lors que leurs systèmes sont accessibles sur le territoire européen ;
- À toute organisation (publique ou privée), quelle que soit sa taille.
Exclusions : les usages militaires, les systèmes de recherche non commerciaux, et certaines coopérations intergouvernementales hors UE sont exclus du champ du règlement.
2. Quels systèmes d’IA sont concernés par l’AI Act ?
Le règlement IA classe les systèmes d’intelligence artificielle en quatre niveaux de risque, avec des obligations variables :
| Niveau de risque | Exemples | Régime applicable |
|---|---|---|
| ❌ Risque inacceptable | Manipulation cognitive, surveillance biométrique de masse, scoring social | Interdits |
| ⚠️ Haut risque | Recrutement, soins de santé, justice, sécurité, éducation, infrastructures critiques | Réglementés strictement |
| ℹ️ Risque limité | Chatbots, IA génératives, assistants conversationnels | Transparence obligatoire |
| ✅ Risque minimal | Jeux vidéo, filtres, IA de loisirs | Utilisation libre |
À noter : Sont également inclus les modèles à usage général (Foundation Models) comme GPT, lorsqu’ils sont utilisés à des fins commerciales ou intégrés dans des systèmes à haut risque.
3. Quels sont les acteurs concernés ?
L’AI Act introduit une chaîne de responsabilité étendue avec plusieurs profils d’acteurs :
- Fournisseur : Développe ou fait développer un système d’IA et le met sur le marché sous sa marque. Il est le principal responsable réglementaire du système.
- Déployeur : Utilise un système d’IA sous sa propre autorité (ex. : une entreprise qui intègre un outil d’IA dans ses processus RH). Il a la responsabilité de l’usage conforme et sécurisé.
- Importateur : Introduit sur le marché européen un système d’IA conçu à l’étranger.
- Distributeur : Met un système d’IA à disposition sur le marché, sans en être l’auteur.
- Mandataire : Représente un fournisseur non européen pour faciliter la conformité réglementaire.
🔍 Bon à savoir : Dans un projet IA, plusieurs acteurs peuvent être impliqués : il est essentiel que leurs rôles et responsabilités soient définis contractuellement.
4. Quelles obligations selon le profil et le niveau de risque ?
Le niveau de risque du système d’IA détermine les obligations réglementaires.
Pour les fournisseurs de systèmes à haut risque :
- Mise en place d’un système de gestion des risques IA ;
- Constitution d’une documentation technique complète ;
- Usage de données d’apprentissage de qualité ;
- Mise en place de mécanismes de supervision humaine ;
- Journalisation des activités du système ;
- Déclaration de conformité et marquage CE ;
- Enregistrement du système dans une base de données UE.
Pour les déployeurs :
- Utilisation conforme aux instructions fournies ;
- Garantie d’un contrôle humain effectif ;
- Surveillance continue et signalement des incidents ;
- Vérification de la qualité des données d’entrée ;
- Mise en œuvre de mesures organisationnelles adaptées.
Le règlement impose également la mise à jour continue des systèmes et un suivi rigoureux tout au long de leur cycle de vie.
5. Conclusion : se préparer dès maintenant à l’AI Act
L’AI Act va transformer durablement le paysage de l’intelligence artificielle en Europe, imposant rigueur, transparence et responsabilité à tous les maillons de la chaîne IA. Plus qu’une contrainte, c’est une opportunité stratégique pour structurer ses projets IA autour de principes éthiques et fiables.
Pour les entreprises et les administrations, se mettre en conformité rapidement est indispensable pour limiter les risques juridiques, préserver la confiance des usagers, et se différencier sur le marché.