Aller au contenu principal
Aller au contenu
⚖️ Reglementation13 min de lecture

AI Act 2026 : guide pratique de mise en conformité pour les PME

Le Règlement européen sur l'IA est en vigueur. Classification des risques, obligations de transparence, calendrier et sanctions : tout ce que votre PME doit savoir pour se mettre en conformité.

É

Équipe COCORRIDOR

5 avril 2026

AI Actintelligence artificielleconformitéhaut risquetransparence IA

Depuis le , les premières obligations de l'AI Act européen sont applicables. D'ici , l'ensemble du règlement sera en vigueur. Pour les PME qui développent ou utilisent des systèmes d'intelligence artificielle, la mise en conformité n'est plus optionnelle.

Ce guide détaille les obligations concrètes de l'AI Act, les échéances à respecter, et les étapes pratiques pour se mettre en conformité.

Qu'est-ce que l'AI Act ?

Le Règlement (UE) 2024/1689, dit « AI Act », est le premier cadre juridique complet au monde dédié à l'IA. Adopté le par le Conseil de l'Union européenne et publié au Journal officiel le , il établit des règles harmonisées pour le développement, la mise sur le marché et l'utilisation de systèmes d'IA dans l'Union européenne.

L'AI Act repose sur une approche fondée sur le risque : plus un système d'IA présente un risque pour les droits fondamentaux, plus les obligations sont strictes.

« Le présent règlement vise à améliorer le fonctionnement du marché intérieur en établissant un cadre juridique uniforme, en particulier pour le développement, la mise sur le marché, la mise en service et l'utilisation de systèmes d'intelligence artificielle dans l'Union. »

Règlement (UE) 2024/1689, Article 1er, paragraphe 1

La classification des systèmes d'IA par niveau de risque

1. Risque inacceptable (interdits)

Ces systèmes sont interdits depuis le (article 5) :

  • Manipulation subliminale ou exploitation de vulnérabilités
  • Notation sociale (social scoring) par les autorités publiques
  • Identification biométrique en temps réel dans l'espace public (sauf exceptions)
  • Inférence d'émotions sur le lieu de travail et dans les établissements d'enseignement
  • Catégorisation biométrique basée sur des caractéristiques sensibles
  • Extraction non ciblée d'images faciales depuis Internet ou la vidéosurveillance

2. Haut risque (obligations renforcées)

Les systèmes listés à l'Annexe III sont soumis aux obligations les plus strictes (articles 6 à 49) :

DomaineExemples de systèmes haut risque
RecrutementTri automatisé de CV, scoring de candidats, entretiens vidéo analysés par IA
CréditScoring crédit automatisé, évaluation de solvabilité par IA
ÉducationNotation automatisée, détection de triche par IA
Infrastructures critiquesGestion du trafic, réseaux d'eau et d'énergie
Services essentielsPriorisation des appels d'urgence, attribution de prestations sociales
SécuritéProfilage prédictif, évaluation de risque de récidive

Les obligations pour les systèmes haut risque incluent (articles 9 et suivants) :

  • Système de gestion des risques tout au long du cycle de vie
  • Gouvernance et qualité des données d'entraînement
  • Documentation technique détaillée
  • Conservation des logs automatiques
  • Transparence et information des utilisateurs
  • Contrôle humain effectif (human oversight, article 14)
  • Exactitude, robustesse et cybersécurité
  • Évaluation de conformité avant mise sur le marché

3. Risque limité (obligations de transparence)

Les systèmes à risque limité sont soumis à des obligations de transparence (article 50) :

  • Chatbots : informer l'utilisateur qu'il interagit avec un système d'IA
  • Deepfakes : étiqueter les contenus générés ou manipulés par IA
  • Reconnaissance d'émotions : informer les personnes concernées
  • Contenu généré par IA : marquer comme tel (texte, image, audio, vidéo)

Pour les PME, l'obligation la plus courante concerne le chatbot : si votre site utilise un assistant IA, vous devez clairement indiquer à l'utilisateur qu'il communique avec une intelligence artificielle.

4. Risque minimal (aucune obligation spécifique)

Les systèmes d'IA à risque minimal (filtres anti-spam, correcteurs orthographiques, recommandation simple) ne sont pas soumis à des obligations réglementaires. Le respect d'un code de conduite est encouragé.

Les modèles d'IA à usage général (GPAI)

Le chapitre V de l'AI Act introduit des obligations pour les fournisseurs de modèles d'IA à usage général (GPAI), comme GPT-4, Mistral Large ou Claude :

ObligationGPAI standardGPAI systémique (>10²⁵ FLOPS)
Documentation techniqueOui (art. 53)Oui
Politique droit d'auteurOuiOui
Résumé données d'entraînementOuiOui
Évaluation de modèleNonOui (art. 55)
Test adversarial (red teaming)NonOui
Cybersécurité renforcéeNonOui
Notification Bureau de l'IANonOui (art. 56)

Si votre PME utilise un modèle GPAI (via API ou intégration), vous êtes considéré comme un « deployer » (déployeur). Vos obligations :

  • Utiliser le système conformément aux instructions du fournisseur
  • Informer vos utilisateurs qu'ils interagissent avec une IA (article 50)
  • Déclarer vos usages d'IA dans vos mentions légales

Calendrier d'application

DateObligationConcernés
Interdiction des systèmes à risque inacceptable (art. 5)Tous
Obligations GPAI (art. 51-56) + Governance (art. 64-68)Fournisseurs GPAI
Toutes les obligations (haut risque, risque limité, transparence)Tous
Systèmes haut risque Annexe I (produits réglementés)Fabricants

En avril 2026, les PME doivent se concentrer sur :

  1. Vérifier qu'aucun système ne tombe dans la catégorie « interdite » (applicable depuis février 2025)
  2. Préparer la conformité transparence pour les chatbots et contenus IA (applicable en août 2026)
  3. Inventorier et classifier tous les systèmes d'IA par niveau de risque

Sanctions en cas de non-conformité

L'AI Act prévoit trois niveaux de sanctions (article 99) :

  • Systèmes interdits : jusqu'à 35 millions d'euros ou 7 % du CA mondial annuel
  • Non-respect des obligations : jusqu'à 15 millions d'euros ou 3 % du CA mondial
  • Informations incorrectes aux autorités : jusqu'à 7,5 millions d'euros ou 1 % du CA mondial

Les PME bénéficient d'un plafond réduit : la sanction retenue est le montant le plus bas entre le pourcentage du CA et le montant fixe.

Guide pratique : 6 étapes de mise en conformité

Étape 1 : Inventorier vos systèmes d'IA

Listez tous les systèmes d'IA utilisés dans votre organisation :

  • Chatbots sur le site web (ChatGPT, Intercom, Drift...)
  • Outils de génération de contenu (Jasper, Copy.ai...)
  • Systèmes de scoring ou de recommandation
  • Outils d'analyse de données avec composante IA
  • Assistants IA intégrés dans vos outils (Copilot, Notion AI...)

Étape 2 : Classifier chaque système par niveau de risque

Pour chaque système, déterminez s'il est interdit, haut risque, risque limité ou minimal. Vérifiez l'Annexe III du règlement pour la liste des domaines haut risque.

Étape 3 : Mettre en conformité la transparence

Pour chaque chatbot ou système d'IA en interaction avec le public :

  • Ajoutez une mention claire « Ce service utilise l'intelligence artificielle »
  • Précisez le fournisseur du modèle et l'usage qui en est fait
  • Offrez une alternative humaine quand c'est possible

Étape 4 : Mettre à jour vos documents légaux

Vos mentions légales et votre politique de confidentialité doivent déclarer :

  • Les systèmes d'IA utilisés et leur finalité
  • Le niveau de risque de chaque système
  • Les mesures de contrôle humain en place
  • Les droits des personnes concernées (article 86 de l'AI Act)

Le Legal Builder COCORRIDOR intègre automatiquement les déclarations AI Act dans vos documents légaux.

Étape 5 : Former vos équipes

L'article 4 de l'AI Act impose une obligation de maîtrise de l'IA (AI literacy) : les personnes impliquées dans le fonctionnement et l'utilisation de systèmes d'IA doivent avoir un niveau de formation suffisant.

Étape 6 : Privilégier les fournisseurs d'IA souverains

Choisir un fournisseur d'IA européen (comme Mistral AI) simplifie la conformité :

  • Pas de transfert de données hors UE
  • Conformité RGPD native
  • Documentation technique accessible
  • Soumis au droit européen en cas de litige

Foire aux questions

Mon entreprise utilise ChatGPT via l'API OpenAI. Suis-je concerné ?

Oui. Vous êtes un « deployer » au sens du règlement. Vos obligations : informer vos utilisateurs qu'ils interagissent avec une IA, déclarer l'usage dans vos mentions légales, et utiliser le système conformément aux instructions d'OpenAI. Si vous utilisez ChatGPT pour un usage haut risque (comme le scoring de candidats), des obligations supplémentaires s'appliquent.

Les PME bénéficient-elles d'exemptions ?

L'AI Act prévoit des mesures de soutien (article 62) : accès prioritaire aux « bacs à sable réglementaires » (sandboxes) organisés par les autorités nationales, frais réduits, et canaux de communication dédiés. Les obligations fondamentales (interdictions, transparence, haut risque) s'appliquent à toutes les entreprises, sans exception de taille.

Quelle différence entre l'AI Act et le RGPD ?

Le RGPD protège les données personnelles. L'AI Act encadre les systèmes d'IA dans leur ensemble, y compris quand ils ne traitent pas de données personnelles. Les deux règlements sont complémentaires : un système d'IA traitant des données personnelles doit respecter les deux. Le scan COCORRIDOR évalue les deux dimensions (score de souveraineté + conformité juridique).

Comment prouver ma conformité AI Act ?

Pour les systèmes à risque limité : conservez un registre de vos systèmes d'IA, les mentions de transparence, et les déclarations dans vos documents légaux. Pour les systèmes haut risque : maintenez une documentation technique complète, un système de gestion des risques, et une évaluation de conformité. L'article 86 confère aux personnes concernées un droit à l'explication des décisions prises par des systèmes d'IA à haut risque.

Article suivant

Data Privacy Framework : décryptage et limites

Mesurez votre souveraineté en 30 secondes

Scannez votre site gratuitement. Identifiez chaque service extra-européen et découvrez les alternatives souveraines.

Scanner mon site