Sprinkling ActSprinkling Act
Connexion

Évaluer

Diagnostic gratuitVotre score instantanémentTarifsRapport 690€ + plans entrepriseRapport completCe que contient votre rapportQualificationCandidater pour un rapport completListe d'attenteRéservez votre rapport

Suivre

Index de conformitéRegistre public de screening AI ActSimulateur What-IfSimulez des changements réglementairesEnterpriseMonitoring et intelligence AI Act full-portfolio

Intelligence

SprinklingAct+Analyse d'experts mise à jour chaque semaineRapportsRecherche indépendante sur la préparation AI Act

Méthodologie

MéthodologieComment le scoring fonctionne — 6 gatesRessourcesGuides, checklists et livres blancsAI PositiveFramework de performance éthique — au-delà de la conformitéAgents IALes 4 ACTS — l'AI Act pour les builders d'agentsSignaler un problèmeBug, coquille, problème de donnée

À propos

À proposNotre mission et standardÀ qui s'adresse le rapportLes décideurs qui agissent en premierTransparenceCe que vous gagnez — et ce que nous ne pouvons pas faireCe que nous ne sommes pasLes lignes que nous ne franchissons pas

Réseau

PartenairesCabinets, auditeurs et certificateursPresse & MédiasKit presse, couverture, demandes d'interviewContactNous contacter

CHOISISSEZ VOTRE RÉGION

International (English)FranceBelgiqueLuxembourgIreland
Voir tous les pays et régions →
SprinklingAct+

Décryptage

Fine-tuning GPAI : quand devenez-vous provider sous l'Article 25 ?

Par Lamar B. Shucrani — 10 avril 2026 · 13 min de lecture

Vous construisez sur GPT-4, Claude ou Llama. Vous pouvez prompt engineer, ajouter du RAG, ou fine-tuner le modèle. La question qu'aucun wrapper ne veut se poser : à partir de quelle modification devenez-vous provider d'un GPAI modifié, avec toutes les obligations Art. 53 qui vont avec ?

TL;DR

  • • L'Article 25 de l'AI Act définit trois situations où un acteur en aval devient provider d'un système IA. La pertinente pour le fine-tuning est la modification substantielle (Art. 25(1)(b)).
  • • L'Article 3(23) définit « modification substantielle » comme un changement qui (a) n'était pas prévu dans l'évaluation de conformité initiale et (b) affecte la conformité OU (c) modifie la finalité du système.
  • • Prompt engineering et RAG sont presque certainement hors périmètre. Fine-tuning massif qui change capacités ou comportement est presque certainement dans le périmètre. Le fine-tuning léger est la zone grise où il faut documenter.
  • • Les seuils quantitatifs précis (par ex. un pourcentage de FLOPs de réentraînement) ne sont pas dans le texte du règlement. Ils relèveront des guidelines de l'AI Office — à ce jour non publiés. En attendant, la prudence et la documentation sont vos meilleures lignes de défense.

1. Pourquoi cette question change tout

Dans notre article précédent, on a établi que votre wrapper GPT/Claude n'est PAS un GPAI. Le GPAI, c'est le modèle sous-jacent (GPT-4, Claude, Gemini) — et les obligations Art. 53 (documentation technique, politique copyright, transparence downstream) sont portées par OpenAI, Anthropic ou Google, pas par vous. Vous êtes deployer du modèle.

Sauf que. Le moment où vous commencez à MODIFIER ce modèle — fine-tuning, continual pretraining, intégration de données propres pendant l'entraînement —, vous entrez dans un terrain réglementaire différent. À un certain point, la modification devient suffisamment substantielle pour que vous deveniez provider du GPAI modifié aux yeux de l'AI Act. Et ce moment a des conséquences massives :

  • →Obligations Art. 53 : documentation technique du modèle modifié, résumé des données d'entraînement, politique de droit d'auteur, information aux utilisateurs downstream, enregistrement dans la base de l'UE.
  • →Obligations Art. 55 si risque systémique : si votre modèle modifié dépasse le seuil de calcul systémique (≥ 10²⁵ FLOPs sur l'entraînement cumulé), s'ajoutent les obligations d'adversarial testing, signalement d'incidents, mesures de cybersécurité, reporting énergétique.
  • →Responsabilité : vous devenez l'acteur responsable du comportement du modèle pour les déployeurs en aval qui l'utilisent via votre API. Le provider originel (OpenAI, Anthropic) n'est plus en première ligne.

Autrement dit : si vous pensiez être à 20 000 € de conformité en tant que deployer, et que vous avez fait un fine-tuning qui vous propulse en provider de GPAI, vous êtes potentiellement à 200 000–500 000 € — plus les obligations continues. La question « suis-je provider du modèle modifié ? » mérite donc une vraie réponse, pas un haussement d'épaules.

2. Ce que dit l'Article 25

L'Article 25 s'intitule « Responsabilités le long de la chaîne de valeur de l'IA » (Responsibilities along the AI value chain). Son paragraphe 1 liste les trois situations dans lesquelles un distributeur, importateur, déployeur ou autre tiers devient un « provider » au sens de l'AI Act et prend l'ensemble des obligations provider :

Art. 25(1)(a)

Ils apposent leur nom ou marque sur un système IA à haut risque déjà mis sur le marché ou en service, sans préjudice de dispositions contractuelles stipulant autrement.

Art. 25(1)(b) — le cas du fine-tuning

Ils apportent une modification substantielle à un système IA à haut risque déjà mis sur le marché ou en service, de telle manière qu'il reste un système IA à haut risque conformément à l'Article 6.

Art. 25(1)(c)

Ils modifient la finalité d'un système IA, y compris un système IA à usage général (GPAI) qui n'a pas été classifié comme à haut risque et qui a déjà été mis sur le marché ou en service, de telle manière que le système IA concerné devient un système IA à haut risque conformément à l'Article 6.

Note : les formulations ci-dessus sont des reformulations fidèles basées sur la version officielle consolidée du Règlement 2024/1689 publiée au Journal Officiel. Pour le texte exact intégral, consultez la source EUR-Lex en bas d'article.

3. Qu'est-ce qu'une « modification substantielle » ?

L'Article 3(23) du règlement définit le terme. Une modification substantielle est un changement apporté à un système IA après sa mise sur le marché ou sa mise en service qui remplit DEUX conditions cumulatives :

  1. 1.N'était pas prévu dans l'évaluation de conformité initiale. Autrement dit : le provider originel n'avait pas anticipé ce type de changement dans sa documentation technique et ses tests de conformité.
  2. 2.Affecte la conformité du système OU modifie sa finalité. Les changements cosmétiques ou purement d'ergonomie ne comptent pas. Il faut que le changement touche soit à la manière dont le système respecte les exigences réglementaires, soit à ce que le système est censé faire.

Ces deux conditions se cumulent. Un changement prévu par le provider originel — par exemple, un fine-tuning léger fait via une API fine-tuning officielle d'OpenAI — est probablement hors périmètre, même s'il affecte le comportement, parce qu'il rentre dans ce qui était « prévu » par le provider. À l'inverse, un continual pretraining massif fait sur un modèle open-source (Llama par exemple) est potentiellement substantiel : il n'était pas prévu par Meta et il affecte à la fois les capacités et potentiellement la conformité (biais, sécurité, robustesse — tout ce que l'Art. 15 demande).

4. Le spectre des modifications, du plus léger au plus lourd

Voici comment lire concrètement le spectre des modifications possibles d'un GPAI. Chaque ligne est une lecture raisonnable du texte — pas un verdict juridique.

Prompt engineering

Vous écrivez des prompts système, des instructions, des templates. Aucun poids du modèle n'est modifié. Vous restez deployer du modèle — provider de votre propre système IA. Hors périmètre Art. 25(1)(b).

Retrieval-augmented generation (RAG)

Vous injectez des documents dans le contexte à l'inférence. Le modèle lui-même est inchangé. C'est une technique de déploiement, pas une modification. Hors périmètre.

Fine-tuning léger (quelques centaines d'exemples via l'API officielle du provider)

Zone grise. Argument en votre faveur : le provider originel a explicitement prévu cette voie (c'est son API fine-tuning), donc la modification était « anticipée ». Argument contre : si le fine-tuning change significativement le comportement ou la finalité, la deuxième condition de l'Art. 3(23) peut s'activer. Prudence : documentez explicitement ce que le fine-tuning fait et ne fait pas.

Fine-tuning significatif (milliers d'exemples, nouvelle capacité ou comportement)

Zone à haut risque d'interprétation. Si le fine-tuning produit un modèle avec des capacités que le provider originel n'avait pas testées, et qui affecte la conformité (par ex. introduit des biais, contourne des safety guardrails, crée des réponses dans un domaine non documenté), vous êtes vraisemblablement dans le périmètre de la modification substantielle. À ce stade, un avis juridique spécialisé est fortement recommandé avant de mettre le modèle modifié sur le marché.

Continual pretraining ou entraînement from scratch

Vous êtes provider de GPAI. Point. Vous avez toutes les obligations Art. 53 (documentation technique, résumé des données d'entraînement, politique copyright, information downstream, enregistrement base UE). Si votre entraînement cumulé dépasse 10²⁵ FLOPs, vous tombez sous Art. 55 (risque systémique) avec les obligations additionnelles qui vont avec.

5. Les seuils quantitatifs — ce qu'on sait et ce qu'on ne sait pas

Il circule dans la presse tech et certains blogs juridiques des chiffres précis du type « si le fine-tuning représente plus d'un tiers des FLOPs d'entraînement du modèle original, vous êtes provider du modèle modifié ». Soyons clairs : ces seuils ne sont PAS dans le texte du Règlement 2024/1689.

Le seul seuil quantitatif explicite dans le règlement concerne la classification GPAI à risque systémique : Recital 110 et Art. 51 fixent 10²⁵ FLOPs d'entraînement cumulé comme seuil présumé de risque systémique. Pour la modification substantielle elle-même, aucun chiffre n'est donné. Le texte reste qualitatif : « change not foreseen and affects compliance or intended purpose ».

Des guidelines plus précises relèveront du Bureau de l'IA européen (European AI Office). À la date de rédaction de cet article, ces guidelines n'ont pas été publiées. Elles sont attendues progressivement entre 2026 et 2027. Certains Code of Practice GPAI volontaires, en cours d'élaboration par des groupes d'industrie coordonnés par l'AI Office, aborderont probablement la question des modifications substantielles — mais ces codes ne sont pas du hard law.

Conséquence pratique

Tant que l'AI Office n'a pas tranché, les juristes spécialisés s'appuient sur le texte qualitatif de l'Art. 3(23) et sur l'analogie avec d'autres régimes UE (CE marking, MDR) pour interpréter. Cela veut dire : votre meilleure stratégie n'est pas d'attendre un seuil numérique, mais de documenter rigoureusement (a) ce que le modèle originel faisait, (b) ce que votre modification change, (c) pourquoi ce changement respecte ou non la conformité initiale. Ce dossier est votre défense en cas de contrôle.

6. Checklist : suis-je provider d'un GPAI modifié ?

Si vous répondez oui à une ou plusieurs des questions suivantes, vous devez traiter sérieusement la possibilité d'être provider au sens de l'Art. 25(1)(b) ou (c) :

  1. 1. Avez-vous effectué un entraînement (fine-tuning ou continual pretraining) sur les poids du modèle, pas juste sur le prompt ou le contexte d'inférence ?
  2. 2. Le modèle modifié a-t-il acquis une capacité que le modèle original ne démontrait pas ? (nouveau domaine, nouvelle langue, nouveau comportement, nouveau niveau de performance)
  3. 3. Votre modification a-t-elle potentiellement affecté la sécurité, la robustesse, la cybersécurité ou la gestion des biais du modèle de manière non documentée par le provider originel ?
  4. 4. Utilisez-vous le modèle modifié dans un cas d'usage qui correspond à l'Annexe III (emploi, crédit, éducation, services publics, biométrie, justice, migration), rendant le système IA à haut risque ?
  5. 5. Mettez-vous le modèle modifié à disposition de tiers (distribution interne à grande échelle, API publique, client-facing product) ?

Trois « oui » ou plus = prenez conseil juridique spécialisé AI Act avant de déployer. Un « oui » à la question 3 ou 4 seule peut suffire à faire basculer votre cas.

7. Que faire concrètement

  1. 1. Documentez votre baseline. Quel modèle utilisez-vous ? Quelle version ? Quelle documentation technique le provider originel a-t-il rendue disponible (model card, system card, usage policy) ? Conservez une copie datée.
  2. 2. Documentez votre modification. Pour chaque fine-tuning ou entraînement : type (LoRA, full fine-tune, continual pretraining), volume de données, durée, compute utilisé, objectif métier, tests effectués avant/après.
  3. 3. Documentez l'effet. En quoi le comportement a-t-il changé ? Quels tests avez-vous faits pour vérifier que votre modification n'introduit pas de biais ou de régression de sécurité ? Si vous n'avez pas testé, c'est un red flag.
  4. 4. Prenez position. Sur la base de votre documentation, formulez par écrit votre position : êtes-vous, à votre avis, provider du modèle modifié au sens de l'Art. 25(1)(b) ? Oui, non, ou incertain ? C'est précisément ce que le rapport Sprinkling Act produit — un artefact de position daté, basé sur le texte, que vous pouvez ensuite remettre à un avocat pour validation.
  5. 5. Si incertain : conseil juridique. Les cas borderline méritent un avis d'avocat spécialisé. Notre rapport n'est pas un avis juridique — c'est la pré-qualification structurée qui permet à votre avocat de travailler plus vite et moins cher.

Votre produit fait du fine-tuning sur un GPAI ? Le diagnostic gratuit Sprinkling Act inclut une question dédiée à cette situation et peut vous dire si votre cas mérite un traitement provider ou deployer. 9 questions, 60 secondes, sans compte.

Diagnostic gratuit — 9 questions← Article 1 : Mon wrapper est-il un GPAI ?

Sources

  1. [1]
    EUR-Lex (July 12, 2024) — Regulation (EU) 2024/1689 — Artificial Intelligence Act (full consolidated text) eur-lex.europa.eu/eli
  2. [2]
    EU AI Act — Article 3 — Definitions (including 'substantial modification', Art. 3(23)) artificialintelligenceact.eu/article
  3. [3]
    EU AI Act — Article 16 — Obligations of providers of high-risk AI systems artificialintelligenceact.eu/article
  4. [4]
    EU AI Act — Article 25 — Responsibilities along the AI value chain artificialintelligenceact.eu/article
  5. [5]
    EU AI Act — Article 28 — Notifying authorities artificialintelligenceact.eu/article
  6. [6]
    EU AI Act — Article 53 — Obligations for providers of GPAI models artificialintelligenceact.eu/article
  7. [7]
    EU AI Act — Article 55 — Obligations for providers of GPAI models with systemic risk artificialintelligenceact.eu/article
  8. [8]
    EU AI Act — Recital 84 — On substantial modifications and downstream responsibility artificialintelligenceact.eu/recital
  9. [9]
    EU AI Act — Recital 97 — GPAI model definition and training compute threshold artificialintelligenceact.eu/recital
  10. [10]
    European AI Office (Commission) — AI Act Service Desk & AI Office guidance pages ai-act-service-desk.ec.europa.eu
DÉJÀ EN VIGUEUR105 jours

Les interdictions Art. 5 et les règles GPAI s’appliquent aujourd’hui. La transparence suit dans 105 jours. La question n’est pas quand — c’est si vous avez documenté votre position.

Diagnostic gratuit — 9 questionsVoir les tarifs →

Signaux réglementaires, quand ils arrivent.

Mises à jour AI Act, nouvelles analyses, actualités d'application — envoyés uniquement quand la régulation bouge. Aucune cadence programmée.

Désabonnement à tout moment. Aucun partage avec des tiers.

VOIR AUSSI

Blog

Article 1 : Mon wrapper est-il un GPAI ?

Le point de départ de la série GPAI.

Blog

GPAI Obligations 2026

Les obligations Art. 53-55 en détail.

Product

Diagnostic gratuit

Évaluez votre position en 9 questions.

Standard

Méthodologie

Comment nous scorons la position AI Act.

Produit

Diagnostic gratuitTarifsRapport completAperçu du rapportQualificationListe d'attenteSimulateur What-IfEnterpriseIndex de conformité

Contenu

SprinklingAct+Rapports de rechercheMéthodologieRessourcesAI PositiveSignaler un problème

Entreprise

À proposÀ qui s'adresse le rapportTransparenceCe que nous ne sommes pasPartenariatsPresse & MédiasContactLinkedIn

Légal

Mentions légalesPolitique de confidentialitéPolitique de cookiesConditions généralesTraitement des donnéesSécuritéSources et référencesGlossaireCharte opérateur

Copyright © 2026 Sprinkling Act. Tous droits réservés.

Belgique
Politique de confidentialité|Conditions générales|Politique de cookies|Sécurité|x402 bientôt