HomeAI Act PME 2026 : obligations concrètes avant le 2 aoûtAutomatisation & IA pour PMEAI Act PME 2026 : obligations concrètes avant le 2 août

AI Act PME 2026 : obligations concrètes avant le 2 août

BLOG POST

AI Act PME 2026 : obligations concrètes avant le 2 août

AI Act : avant le 2 août 2026, votre PME a des obligations légales même sans avoir développé d'IA. Inventaire, classification, transparence. 3 actions en 48h.

Reading time

avril 9, 2026

Publié le 

Romaric A.

L'excellence opérationnelle.

NORISIX

Table des matières

Vous utilisez ChatGPT. Vous êtes déjà concerné.

Moins de 30 % des PME européennes ont entamé une démarche de conformité à l’AI Act. Le règlement entre en application complète le 2 août 2026, dans moins de 4 mois. Les amendes atteignent jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires mondial.

La majorité des dirigeants de PME pensent ne pas être concernés. Leur raisonnement : « Nous n’avons pas développé notre propre IA. » C’est faux. Le règlement européen crée une catégorie spécifique : le déployeur. Si vous utilisez un outil IA, un chatbot sur votre site, un LLM via API, un logiciel RH alimenté par de l’IA, vous êtes déployeur. Et vous avez des obligations légales.

La vraie question n’est pas « L’AI Act s’applique-t-il à ma PME ? » Elle est : « Quelles sont mes obligations concrètes, et combien de temps me reste-t-il pour les remplir ? »

Ce que « déployeur » signifie vraiment

L’AI Act distingue deux rôles : le fournisseur (qui développe le système IA) et le déployeur (qui l’utilise dans un contexte professionnel). Pour 90 % des PME, c’est le second statut qui s’applique.

Concrètement, vous êtes déployeur si vous :

  • Utilisez un chatbot alimenté par un LLM pour répondre à vos clients
  • Intégrez une API OpenAI, Anthropic ou Mistral dans un de vos outils métier
  • Recourez à un logiciel RH qui trie des CV ou évalue des performances via IA
  • Utilisez un outil de scoring commercial ou de prédiction client

Ce statut crée des obligations réelles, indépendamment de la taille de votre structure. La CNIL a confirmé qu’elle intensifiera ses contrôles sur les systèmes RH à partir de l’automne 2026. Le délai entre l’échéance réglementaire et les premiers contrôles sera court.

Les 4 niveaux de risque : où se situent vos outils

L’AI Act classe les systèmes IA en quatre catégories. Votre niveau d’obligation dépend directement de ce classement.

Risque inacceptable : Interdit sur le sol européen. Concerne les systèmes de surveillance biométrique de masse ou de scoring social généralisé. Quasi inexistant dans les PME standard.

Risque élevé : Ce niveau touche directement les PME qui utilisent l’IA dans les RH (tri de CV, évaluation des performances), le scoring client ou crédit, et la gestion des réclamations. Obligations lourdes : documentation technique complète, journalisation automatique des décisions, contrôle humain permanent, marquage CE si le système est intégré à un produit. L’échéance pour ce niveau est le 2 août 2026.

Risque limité : Chatbots, outils de génération de contenu, assistants LLM. Obligation principale : transparence. L’utilisateur final doit savoir qu’il interagit avec une IA. Un chatbot sur votre site sans mention explicite « réponse générée par une IA » est déjà hors conformité.

Risque minimal Filtres anti-spam, recommandations de contenu. Aucune obligation spécifique.

Pour 80 % des PME françaises, les outils utilisés tombent dans les catégories « risque limité » ou « risque élevé ». Ce sont ces deux niveaux qui exigent une action avant août.

3 actions concrètes à mener avant le 2 août

1. Inventorier vos outils IA en 48 heures. Listez chaque outil qui utilise de l’IA dans votre structure : CRM avec scoring, chatbot site web, outils de rédaction assistée, logiciels RH, APIs LLM. L’objectif n’est pas la perfection c’est d’avoir une vue complète de votre exposition. Une PME de 20 personnes identifie en général 4 à 7 outils concernés.

2. Classifier chaque outil selon les 4 niveaux de risque. La classification détermine vos obligations. Un outil RH qui trie des candidatures automatiquement est à haut risque. Un assistant de rédaction marketing est à risque limité. Pour les cas ambigus, la Direction Générale des Entreprises (DGE) a publié un vérificateur de conformité officiel. Pour un outil à haut risque, exigez de votre fournisseur sa documentation technique et sa classification. Un fournisseur qui ne peut pas répondre à ces questions est un risque juridique pour vous.

3. Ajouter les mentions de transparence obligatoires. Pour tous vos outils à risque limité chatbots, assistants IA visibles par des tiers, la mention « réponse générée par une IA » est obligatoire dès le 2 août. Cette action se mesure en heures, pas en semaines. C’est la mise en conformité la plus rapide à déployer, et la plus facilement vérifiable par les autorités.

Le calcul du coût de l’inaction

Les amendes sont proportionnées à la taille de l’entreprise. Pour les PME, des plafonds réduits s’appliquent. Mais le risque financier n’est pas le seul.

Un système IA non conforme peut être interdit d’exploitation sur le marché européen. Si votre outil RH ou votre chatbot commercial tombe dans cette catégorie, l’interdiction d’exploitation coûte infiniment plus qu’un audit préventif. Les entreprises qui ont subi les coûts cachés d’une mise en conformité tardive sur le RGPD en 2018 connaissent ce mécanisme.

Le programme IA Booster de BPI France finance une partie de l’accompagnement à la conformité pour les PME. Ce dispositif existe depuis fin 2025 et reste sous-utilisé. La mise en conformité pour une PME standard inventaire, classification, documentation se compte en jours de travail, pas en mois. Le coût d’un accompagnement adapté est sans commune mesure avec le risque juridique d’une non-conformité.

Ce que Norisix fait différemment

Nous construisons des agents IA et des workflows d’automatisation qui intègrent dès la conception les contraintes de l’AI Act : traçabilité des décisions, journalisation des actions, documentation technique des systèmes déployés. Pas comme une couche ajoutée après coup. Comme une exigence d’architecture.

Pour les PME qui utilisent des agents IA connectés à leurs outils via le protocole MCP, cette architecture produit automatiquement les logs d’activité requis par le règlement. La conformité n’est pas un projet séparé — c’est une propriété du système.

Nous réalisons un audit de conformité AI Act adapté aux PME : cartographie de vos outils IA, classification du niveau de risque, plan d’action priorisé. Résultat livré en une semaine. Parlons-en →

5 thoughts on “AI Act PME 2026 : obligations concrètes avant le 2 août

  1. L’article mentionne l’obligation de journalisation pour les systèmes à haut risque.
    Dans le cas d’un agent IA connecté via API à plusieurs outils métier, est-ce que
    c’est le fournisseur de l’API (OpenAI, Anthropic) qui doit fournir ces logs,
    ou c’est à nous de les capturer côté déploiement ? La frontière de responsabilité
    n’est pas claire pour moi.

    1. La responsabilité de journalisation incombe au déployeur, pas au fournisseur du
      modèle. L’API OpenAI ou Anthropic ne documente pas vos décisions métier, elle fournit les réponses.
      C’est à vous de capturer : quel système a produit quelle
      décision, sur quelle donnée, à quelle heure. En pratique, sur une architecture
      n8n par exemple, chaque nœud d’exécution génère des logs horodatés exploitables.
      Un agent déployé sans cette couche de capture est non conforme dès le 2 août,
      indépendamment du fournisseur du modèle sous-jacent.

  2. On utilise un outil RH pour la présélection des candidatures. il tourne sur un
    modèle qu’on n’a pas développé. L’article dit qu’on est déployeur dans ce cas.
    Mais si on désactive la fonction IA de l’outil et qu’on utilise seulement
    les filtres manuels, est-ce qu’on sort du périmètre AI Act pour ce logiciel ?

    1. Si vous désactivez la fonction IA et n’utilisez que les filtres manuels, vous
      sortez effectivement du périmètre AI Act pour ce logiciel. Mais la question
      inverse mérite d’être posée : pourquoi payer une licence avec IA si vous en
      désactivez la partie différenciante ? Dans notre expérience, les PME qui font
      ce choix le font souvent faute d’avoir évalué le coût réel de la conformité
      pour ce cas précis. Un audit rapide du module RH en question permet de savoir
      si la mise en conformité vaut l’investissement, ou si basculer sur un outil
      sans IA est la décision la plus rationnelle.

  3. Question sur le délai : l’article cite l’échéance du 2 août 2026 pour les systèmes
    à haut risque. Est-ce que ça veut dire qu’une PME qui commence son inventaire
    aujourd’hui peut raisonnablement être conforme à temps, ou est-ce que les
    démarches de documentation technique prennent trop de temps pour être bouclées
    en 4 mois ?

Questions & Débats

POUR ALLER PLUS LOIN

IA Act : ce que les PME ignorent (et paieront)

L’IA Act frappe aussi les PME. 45 000 € d’amende pour une première infraction. Ce que…

Agents IA : 4 cas d’usage concrets qui tournent en prod chez des PME

Qualification de leads, reporting, support client, relances impayées : 4 agents IA…

AI Act PME 2026 : obligations concrètes avant le 2 août

AI Act : avant le 2 août 2026, votre PME a des obligations légales même sans avoir…
Rejoignez l'élite Tech.

Recevez chaque semaine nos meilleures stratégies de scaling et d’architecture. Pas de spam, juste du code et de la valeur.