Sprinkling ActSprinkling Act
Connexion

Évaluer

Diagnostic gratuitVotre score instantanémentTarifsRapport 690€ + plans entrepriseRapport completCe que contient votre rapportQualificationCandidater pour un rapport completListe d'attenteRéservez votre rapport

Suivre

Index de conformitéRegistre public de screening AI ActSimulateur What-IfSimulez des changements réglementairesEnterpriseMonitoring et intelligence AI Act full-portfolio

Intelligence

SprinklingAct+Analyse d'experts mise à jour chaque semaineRapportsRecherche indépendante sur la préparation AI Act

Méthodologie

MéthodologieComment le scoring fonctionne — 6 gatesRessourcesGuides, checklists et livres blancsAI PositiveFramework de performance éthique — au-delà de la conformitéAgents IALes 4 ACTS — l'AI Act pour les builders d'agentsSignaler un problèmeBug, coquille, problème de donnée

À propos

À proposNotre mission et standardÀ qui s'adresse le rapportLes décideurs qui agissent en premierTransparenceCe que vous gagnez — et ce que nous ne pouvons pas faireCe que nous ne sommes pasLes lignes que nous ne franchissons pas

Réseau

PartenairesCabinets, auditeurs et certificateursPresse & MédiasKit presse, couverture, demandes d'interviewContactNous contacter

CHOISISSEZ VOTRE RÉGION

International (English)FranceBelgiqueLuxembourgIreland
Voir tous les pays et régions →
SprinklingAct+

Décryptage

Qu'est-ce qui rend un système IA à haut risque sous l'EU AI Act ?

Par Lamar B. Shucrani — 28 février 2026 · 8 min de lecture

La classification à haut risque déclenche les obligations les plus exigeantes de l'EU AI Act — systèmes de gestion des risques, gouvernance des données, documentation technique, supervision humaine, et plus encore. Voici exactement comment fonctionne la classification.

Recevez une notification quand cet article est mis à jour

The Two-Gate Classification System

The EU AI Act classifies AI systems as high-risk through two distinct pathways defined in Article 6.

Gate 1 — Article 6(1): AI systems that are themselves a safety component of a product covered by Union harmonisation legislation listed in Annex I (machinery, medical devices, vehicles, aviation, etc.), or are themselves such a product, and must undergo third-party conformity assessment.

Gate 2 — Article 6(2): AI systems listed in Annex III, across 8 specific domains. This is where most enterprise AI systems fall.

The 8 Annex III Domains

If your AI system falls into any of these domains, it is presumed high-risk:

1

Biometrics

Remote biometric identification, emotion recognition, biometric categorisation based on sensitive attributes.

2

Critical Infrastructure

AI used in management of critical infrastructure — water, gas, electricity, road traffic, digital infrastructure.

3

Education

AI that determines access to educational institutions, evaluates learning outcomes, assesses students.

4

Employment & HR

AI for recruitment, CV screening, promotion decisions, task allocation, performance monitoring, termination.

5

Essential Services

AI that evaluates creditworthiness, sets insurance premiums, or determines access to public benefits.

6

Law Enforcement

AI used by police for profiling, crime prediction, evidence evaluation, or lie detection.

7

Migration & Asylum

AI that assesses migration risk, verifies travel documents, or determines asylum eligibility.

8

Administration of Justice

AI that assists courts in researching facts and law, or influences legal proceedings.

The Article 6(3) Exception

Even if your system falls under Annex III, it may be exempt from high-risk classification if it does not pose a significant risk of harm to health, safety, or fundamental rights, and meets one of these four conditions:

  • It performs a narrow procedural task
  • It is intended to improve the result of a previously completed human activity
  • It detects decision-making patterns without replacing human assessment
  • It performs a preparatory task to an assessment relevant to the use cases listed in Annex III

Warning: Providers who claim this exemption must document their reasoning and notify their market surveillance authority. The exemption is not self-declaring.

Obligations for High-Risk Providers

If classified high-risk, Articles 9 through 15 impose mandatory obligations:

→Art. 9 — Risk management system (continuous, documented, iterative)
→Art. 10 — Data governance (training data requirements, bias mitigation)
→Art. 11 — Technical documentation (before market placement)
→Art. 12 — Record-keeping and logging (automatic, tamper-proof)
→Art. 13 — Transparency to deployers (instructions for use)
→Art. 14 — Human oversight (meaningful control mechanisms)
→Art. 15 — Accuracy, robustness, and cybersecurity standards

Penalties for Non-Compliance

For high-risk AI systems, penalties can reach 15 million euros or 3% of global annual turnover (Art. 99(4)), whichever is higher. For prohibited practices (Article 5), penalties rise to 35 million euros or 7%.

Full enforcement applies from August 2, 2026. The conformity assessment process for high-risk systems can take several months.

Not sure if your AI system is high-risk? The free Sprinkling Act diagnostic classifies your system in minutes — article by article.

Free diagnostic — instantSee full report

Sources

  1. [1]
    EUR-Lex (July 12, 2024) — Regulation (EU) 2024/1689 — Artificial Intelligence Act (full text) eur-lex.europa.eu/eli
  2. [2]
    EU AI Act — Article 6 — Classification Rules for High-Risk AI Systems artificialintelligenceact.eu/article
  3. [3]
    EU AI Act — Annex III — High-Risk AI Systems Referred to in Article 6(2) artificialintelligenceact.eu/annex
  4. [4]
    EU AI Act — Article 9 — Risk Management System artificialintelligenceact.eu/article
  5. [5]
    EU AI Act — Article 99 — Penalties artificialintelligenceact.eu/article
  6. [6]
    EU AI Act — Articles 10–15 — Requirements for High-Risk AI Systems artificialintelligenceact.eu/article
  7. [7]
    EU AI Act — Implementation Timeline artificialintelligenceact.eu/implementation-timeline
DÉJÀ EN VIGUEUR105 jours

Les interdictions Art. 5 et les règles GPAI s’appliquent aujourd’hui. La transparence suit dans 105 jours. La question n’est pas quand — c’est si vous avez documenté votre position.

Diagnostic gratuit — 9 questionsVoir les tarifs →

Signaux réglementaires, quand ils arrivent.

Mises à jour AI Act, nouvelles analyses, actualités d'application — envoyés uniquement quand la régulation bouge. Aucune cadence programmée.

Désabonnement à tout moment. Aucun partage avec des tiers.

VOIR AUSSI

Product

Free Diagnostic

Is your system high-risk? 9 questions, instant result.

Standard

Methodology

How Annex III systems are scored — gate by gate.

Blog

GPAI Obligations

What if your high-risk system uses a GPAI model?

Product

Full Report

Get the complete article-by-article assessment.

Produit

Diagnostic gratuitTarifsRapport completAperçu du rapportQualificationListe d'attenteSimulateur What-IfEnterpriseIndex de conformité

Contenu

SprinklingAct+Rapports de rechercheMéthodologieRessourcesAI PositiveSignaler un problème

Entreprise

À proposÀ qui s'adresse le rapportTransparenceCe que nous ne sommes pasPartenariatsPresse & MédiasContactLinkedIn

Légal

Mentions légalesPolitique de confidentialitéPolitique de cookiesConditions généralesTraitement des donnéesSécuritéSources et référencesGlossaireCharte opérateur

Copyright © 2026 Sprinkling Act. Tous droits réservés.

Luxembourg
Politique de confidentialité|Conditions générales|Politique de cookies|Sécurité|x402 bientôt