ALERTE11 avril 2026· Lecture 8 minPartager · Enregistrer · Imprimer

AI Act : 2 août,
5 mois pour basculer en conformité

Le 2 août 2026, l'ensemble des obligations sur les systèmes IA à haut risque entre en application. Sanctions : jusqu'à 35 M€ ou 7 % du chiffre d'affaires mondial. Voici ce que la rédaction conseille de faire d'ici juillet.

Par la rédaction de RadarOnAI·Photo : archives RadarOnAI
Aug 2
Échéance réglementaire UE
Fig. 05
[placeholder illustration]

Le 2 août 2026, les obligations sur les systèmes d'IA à haut risque définies à l'Annexe III du règlement entrent en vigueur. La Finlande est le premier État membre opérationnel pour la sanction depuis janvier. Les autres autorités nationales activent au fil du semestre. La France n'a pas encore désigné l'autorité unique de contrôle ; on attend une décision interministérielle avant juin.

Qu'est-ce qu'un système « à haut risque »

L'Annexe III couvre huit catégories. Les plus susceptibles de toucher une PME française : (1) recrutement et gestion RH (tout outil de tri de CV, scoring de candidat, évaluation de performance), (2) accès à des services essentiels (scoring de crédit, assurance, prestations sociales), (3) éducation (notation, attribution d'établissement), et (4) services publics.

Si vous utilisez un LLM via API pour trier des candidatures, vous êtes déployeur d'un système à haut risque. Le fait que le modèle soit OpenAI, Mistral ou Claude ne change rien : c'est l'usage qui qualifie.

Sanctions et précédents

35 M€ / 7 %
violation interdictions (Art. 5)
15 M€ / 3 %
non-conformité haut risque
7,5 M€ / 1 %
info erronée aux autorités
Pourcentages sur chiffre d'affaires mondial annuel. Le maximum entre montant fixe et pourcentage s'applique.
« Le problème n°1 des entreprises n'est pas la documentation. C'est qu'une part significative de leurs déploiements IA est totalement invisible à la direction conformité. »
— Étude appliedAI sur 106 systèmes IA d'entreprise

Notre checklist 5 mois

Mai. Recensement exhaustif. Tout outil utilisé en interne, même Slack, même un GPT custom de stagiaire, va dans le tableau. Juin. Classification : interdit / haut risque / risque limité / risque minimal. Juillet. Documentation des systèmes haut-risque (logs, supervision humaine, robustesse, transparence). 1er août. On clôt et on archive.

Verdict

L'AI Act n'est pas une option. Pour la moitié des PME que nous accompagnons, le choix d'un fournisseur souverain — Mistral via Outscale SecNumCloud, par exemple — divisera par trois la charge de mise en conformité. Pas parce que le règlement l'impose, mais parce que la documentation existe déjà côté fournisseur. Avantage compétitif, en attendant.

§ PartagerX LinkedIn
C
La rédaction de RadarOnAI
Anne M., Jules K., Louis D. · Paris, avril 2026
Suivre ↗