IA et auteurs : Le Modèle "3T+O"
L'essor fulgurant de l'intelligence artificielle générative a créé une rupture systémique dans l'économie de la création. Les modèles actuels de régulation, oscillant entre le "fair use" américain et les exceptions de fouille de données (TDM) européennes, ne suffisent plus à endiguer le risque de substitution massive des créateurs humains par des systèmes automatisés. S'ajoute aux enjeux de la création, la souveraineté européenne.
Diagnostic : L'analyse des données juridiques et économiques révèle trois tensions majeures :
- Un déséquilibre fondamental entre le droit exclusif des auteurs et la nécessité technique de l'entraînement des IA (input).
- Une opacité des données d'entraînement qui empêche toute traçabilité et rémunération effective.
- Une menace existentielle pour les industries créatives, confrontées à une concurrence déloyale de contenus générés à coût marginal nul (output).
Proposition Stratégique : Le Modèle "3T+O" en quatre piliers indissociables :
- Transparence : Rendre obligatoire la divulgation détaillée des sources d'entraînement et pour restaurer la confiance et permettre l'exercice des droits.
- Taxation : Remplacer le système inefficace d'opt-out individuel par un droit à rémunération statutaire incessible financé par une redevance sur les systèmes d'IA générative (IA rémunération équitable unique).
- Transformation : Réorienter l'IA comme un outil au service de la créativité humaine et non comme un substitut, en investissant massivement dans les infrastructures souveraines et la protection sociale des créateurs.
- Output et Responsabilité : Prévenir la contrefaçon algorithmique en instaurant des mécanismes de filtrage obligatoire, de traçabilité des sorties et de clarification des responsabilités entre utilisateurs et fournisseurs d'IA.
Pour quel Impact ?
Ces quatre piliers permettront de garantir une rémunération pour le secteur créatif européen en quelques années (objectif 2030 par exemple), tout en sécurisant juridiquement le développement des entreprises d'IA européennes par une exception législative claire.
Le volet Output et Responsabilité préviendra la contrefaçon algorithmique massive et protégera les utilisateurs de bonne foi. L'UE se positionnera ainsi comme le leader mondial d'une régulation éthique et durable de l'IA.
Cette proposition prend appui sur la littérature académique récente (Geiger, Lucci, Senftleben, Nemitz) et des recommandations institutionnelles (UNESCO), et propose de dépasser l'opposition stérile entre innovation et régulation.
Un principe gouverne ces lignes, la protection de la diversité culturelle et des droits fondamentaux est une condition sine qua non d'un développement technologique durable. Comme le souligne Paul Nemitz, l'intégration des principes de l'État de droit dès la conception ("Rule of Law by Design") est impérative pour éviter que la technologie ne dicte sa loi à la démocratie.
Pour faciliter les débats, toutes les références sont accessibles en ligne :
- Christophe Geiger : « Elaborating a Human Rights-Friendly Copyright Framework for Generative AI », 2024.
- Christophe Geiger, Silvia Scalzini et Ludovico Bossi : « Time to (Finally) Reinstall the Author in EU Copyright Law: From Contractual Protection to Remuneration Rights », 2025.
- Nicola Lucci : « ChatGPT: A Case Study on Copyright Challenges for Generative Artificial Intelligence Systems », 2024.
- Paul Nemitz : « Constitutional democracy and technology in the age of artificial intelligence », 2018.
- Martin Senftleben : « Generative AI and Author Remuneration », 2023.
- Martin Senftleben : « A Tax on Machines for the Purpose of Giving a Bounty to the Dethroned Human Author – Towards an AI Levy for the Substitution of Human Literacy and Artistic Works », 2022.
- UNESCO « RE | PENSER LES POLITIQUES EN FAVEUR DE LA CRÉATIVITÉ, La culture, un bien public mondial. 2022 ».
1°) DIAGNOSTIC ACTUEL
1.1. L'effet de substitution
Martin Senftleben met en lumière un risque majeur : l'effet de substitution. Les systèmes d'IA, entraînés sur des œuvres humaines, sont désormais capables de générer des textes, images et musiques qui entrent en concurrence directe avec leurs propres sources d'entraînement. Cette concurrence est déloyale car le coût marginal de production par l'IA tend vers zéro, créant une pression déflationniste insoutenable pour les créateurs humains.
Des acteurs essentiels sont affectés : les traducteurs, les métiers de la création publicitaire et les journalistes, sans parler des avocats et des métiers de l'éducation et de la formation.
Au modèle économique de la destruction créatrice et à son corollaire son nécessaire accompagnement social, s'ajoutent ici des enjeux culturels et démocratiques.
1.2. L'Échec du Contrôle Exclusif (Input)
Le dogme du contrôle exclusif (droit d'autoriser ou d'interdire) est mis à l'épreuve.
- Impossibilité technique : Le volume de données nécessaires à l'entraînement (trillions de paramètres) rend la gestion des licences individuelles impossible ("transaction costs" prohibitifs selon Geiger et Scalzini).
- Inefficacité de l'Opt-Out : Le mécanisme de réservation des droits (Art. 4 DSM) est complexe, mal standardisé techniquement et souvent ignoré par les collecteurs de données (scrapers et autres outils de webscraping) situés hors juridiction UE.
1.3. L'Opacité Structurelle
L'absence de transparence sur les jeux de données d'entraînement (datasets) crée une "boîte noire". Sans savoir quelles œuvres ont été utilisées, les titulaires de droits ne peuvent ni exercer leur droit d'opposition, ni réclamer une juste rémunération.
Pour s'opposer à cet effet boîte noire, deux approches sont à relever.
- Dès que l'œuvre est indirectement perceptible par des moyens techniques, la fixation sous forme de valeurs de probabilités n'empêche pas la qualification de copie, c'est la solution dégagée par le Tribunal de Munich le 11 novembre 2025 (Ph. Schmitt « Jugement du 11 novembre 2025 du Tribunal de Munich : la mémorisation, le critère qui contraint les entreprises de l'IA à solutionner partiellement les droits d'auteur à l'entrée de l'IA »).
- Par un mécanisme de présomption avec la proposition de loi de la Sénatrice Darcos (Ph Schmitt « Proposition de loi sur l'IA et les droits des auteurs : tentative de rééquilibrage entre les acteurs de la création intellectuelle et les entreprises de l'IA »).
Lucchi souligne que cette opacité favorise également les monopoles de données, créant des barrières à l'entrée pour les startups européennes.
Le paradoxe de la valeur. L'IA générative tire sa valeur notamment des œuvres protégées qu'elle ingère, mais également par des entités en charge de la conservation du patrimoine humain. Pourtant, dans le modèle actuel, cette valeur est captée quasi-exclusivement par les développeurs technologiques, tandis que les "fournisseurs de données" (les créateurs) subissent la destruction de leur marché !
1.4. L'analyse comparative
L'étude comparative menée par Katharina de la Durantaye sur huit juridictions révèle une fragmentation mondiale qui menace la compétitivité européenne si elle n'est pas gérée stratégiquement.
| Modèle | Pays / Zone | Caractéristiques |
|---|---|---|
| Absence de Contrôle | USA, Israël, Singapour | Doctrine du Fair Use (USA) ou exception spécifique (Singapour). Favorise l'innovation rapide mais crée une insécurité juridique élevée (multiplication des procès) et aucune compensation pour les auteurs. |
| Contrôle Conditionnel | Union Européenne, Japon | Système d'Opt-Out. Tentative d'équilibre, mais lourd administrativement et techniquement faillible. Ne génère pas de revenus significatifs pour les créateurs. |
| Contrôle Total | Chine (théorique), UK (partiel) | Priorité au contrôle étatique ou au copyright strict. Risque de freiner le développement de l'IA faute d'accès aux données. |
Constat Stratégique : L'Europe ne peut pas rivaliser avec les USA sur le terrain du "laisser-faire" (qui sacrifie les créateurs voir notamment à propos des décisions de l'été 2025 Ph. Schmitt « Entrainement des IA génératives et droit d'auteur : sortir de la confrontation et reconnaître la chaine de valeur »), ni adopter un protectionnisme rigide qui tuerait son industrie IA. La "troisième voie" européenne doit être celle de la Licence Légale à Rémunération Compensatoire. Cela offre la sécurité juridique aux entreprises (droit d'accès garanti) et la sécurité économique aux créateurs (rémunération garantie).
2 LE MODELE "3T+O": ARCHITECTURE DE LA SOLUTION
Ce modèle synthétise et structure les recommandations convergentes issues des huit documents académiques analysés (notamment Senftleben pour la taxation, Durantaye pour la transparence, Nemitz et Geiger pour la transformation anthropocentrée, l'UNESCO pour la dimension culturelle), complété par l'analyse du rapport du CSPLA sur la responsabilité des outputs.
2-1°) Pilier 1 : Transparence
La transparence est la précondition absolue de tout système de régulation. Elle doit s'opérer à deux niveaux :
- Transparence des Inputs (Entraînement) : Obligation légale pour tout fournisseur d'IA opérant dans l'UE de publier un résumé détaillé des datasets utilisés, conforme aux standards de l'AI Act, mais renforcé pour permettre l'identification des répertoires d'auteurs.
- Transparence des Outputs (Génération) : Marquage obligatoire (watermarking) et métadonnées inaltérables pour tout contenu généré par IA, garantissant le droit à l'information des consommateurs et la traçabilité. Toutefois, le déploiement de telles mesures seront à valider secteur par secteur et sous réserve de seuils comme il est dit ci-après §4-4-2.
2-2°) Pilier 2 : Taxation / Compensation
C'est le cœur économique de la réforme proposée par Senftleben et Geiger. Il s'agit de basculer d'une logique d'interdiction (droit exclusif) à une logique de partage de la valeur.
- Abandon de l'Opt-Out économique : Remplacer l'article 4 DSM par une exception de fouille de données (TDM) automatique à des fins créatives.
- Création d'un Droit à Rémunération Statutaire : En contrepartie de l'exception, une redevance (IA rémunération équitable unique) est prélevée sur les revenus des fournisseurs de systèmes d'IA générative.
- Gestion Collective Obligatoire : Les fonds sont collectés par des sociétés de gestion collective et redistribués aux créateurs (et non seulement aux producteurs/éditeurs) via des clés de répartition objectives et des fonds culturels.
- Bénéficiaires : les auteurs personnes physiques.
2-3°) Pilier 3 : Transformation
Suivant les recommandations de Nemitz et de l'UNESCO, l'IA doit être régulée pour servir l'humain.
- Approche Anthropocentrée : Refus du copyright pour les œuvres générées sans intervention humaine créative substantielle.
- Droits Moraux Renforcés : Maintien d'un droit d'opposition (opt-out) strictement moral, permettant aux auteurs de refuser l'association de leur œuvre à des contenus contraires à leurs valeurs (haineux, politiques, etc.).
- Soutien à la Création Humaine : Utilisation d'une part de la redevance pour financer la protection sociale des artistes et la formation aux outils numériques.
2-4°) Pilier 4 : Output et Responsabilité
Ce quatrième pilier, essentiel mais jusqu'ici insuffisamment traité dans la littérature académique, répond à la question critique : Qui est responsable lorsqu'une IA génère un contenu contrefaisant ?
- Filtrage Préventif : Obligation pour les fournisseurs d'IA d'intégrer des systèmes de détection de similarité avant livraison des outputs, avec avertissements automatiques si un risque de contrefaçon est détecté.
- Traçabilité Technique : Extension du watermarking (Pilier 1) pour inclure des métadonnées permettant l'identification en cas de litige (hash du prompt, modèle utilisé, date de génération) avec les réserves du §4-4-2.
- Clarification des Responsabilités : Répartition équilibrée entre l'utilisateur final (responsabilité directe pour l'exploitation) et le fournisseur d'IA (responsabilité contributive si défaillance des mécanismes de prévention).
- Base de Référence Européenne : Création d'une bibliothèque d'œuvres protégées (gérée par l'EUIPO) permettant la comparaison automatique et la protection proactive des créateurs. Pour mémoire, la directive 2012/28/UE du Parlement européen et du Conseil du 25 octobre 2012 sur certaines utilisations autorisées des œuvres orphelines attribue déjà à l'office une fonction analogue.
3 RECOMMANDATIONS LEGISLATIVES CONCRETES
Pour rendre opérationnel le Modèle 3T + O, quatre actions majeures sont à mener.
3-1°) Recommandation 1 : Révision Ciblée de la Directive Droit d'Auteur (DSM)
Objectif : Instaurer le mécanisme de licence légale.
- Action A : Introduire un nouvel Article 4bis créant une exception obligatoire pour l'utilisation d'œuvres protégées dans l'entraînement des modèles d'IA générative.
- Action B : Introduire un nouvel Article 18bis instituant un "Droit à rémunération équitable incessible pour l'utilisation par l'IA", payable par les fournisseurs de modèles. Ce droit ne peut être transféré contractuellement et doit être géré collectivement.
- Les bénéficiaires ne sont que les auteurs personnes physiques.
3-2°) Recommendation 2 : Règlement sur la Transparence des Données d'IA
Objectif : Rendre la "boîte noire" transparente.
- Imposer un standard technique européen pour la déclaration des datasets (format XML/JSON standardisé).
- Créer un Registre Européen des Données d'Entraînement géré par l'Office de l'Union européenne pour la propriété intellectuelle (EUIPO).
3-3°) Recommendation 3 : Directive sur la Rémunération de la Copie Algorithmique
Objectif : Financer le système.
- Mise en place de l'assise de la redevance (IA rémunération équitable unique) : un pourcentage (différents travaux sont en cours, dans les documents académiques cités : 3-5%) du chiffre d'affaires réalisé par les services d'IA générative dans l'UE, ou une taxe forfaitaire sur la puissance de calcul (compute) dédiée à l'entraînement.
3-4°) Recommendation 4 : Protocole "Humain avant tout"
Objectif : Protéger l'intégrité humaine.
- Obligation d'étiquetage clair "Généré par IA" pour les contenus animés visuels avec des tempéraments selon les secteurs voir §4-4-2.
- Clarification de la jurisprudence : seule une œuvre portant l'empreinte de la personnalité de l'auteur humain est protégée.
4 VOLET OUTPUT ET RESPONSABILITE : PREVENIR LA CONTREFAÇON ALGORITHMIQUE
Les sections précédentes ont principalement traité de l'input (entraînement des modèles). Cette section complémentaire aborde les conditions d'exploitation des outputs (sorties) générés par l'IA et leur qualification juridique potentielle comme contrefaçon d'œuvres antérieures.
4-1°) Une Zone Grise Juridique Majeure
Contrairement à l'input, relativement bien documenté par les 8 études académiques analysées, la question de la contrefaçon par les outputs reste insuffisamment encadrée. Or, c'est à ce stade que les risques juridiques se matérialisent pour les utilisateurs finaux et les fournisseurs d'IA.
Des millions d'utilisateurs européens exploitent quotidiennement des outputs d'IA (textes, images, musiques) à des fins commerciales sans pouvoir évaluer le risque de contrefaçon. Cette insécurité juridique freine l'adoption de l'IA par les PME et expose les créateurs à une exploitation non rémunérée de leurs œuvres via des "copies algorithmiques" difficilement détectables.
4-2 Critères Juridiques de Qualification de la Contrefaçon
À partir des analyses de Lucchi (2023) et Geiger (2024), une grille d'évaluation à 5 critères cumulatifs pour déterminer si un output est proposé pour établir ce qui constitue une contrefaçon :
| N° | Critère | Test Juridique | Exemples |
|---|---|---|---|
| 1 | Reconnaissance de l'œuvre source | Un observateur averti peut identifier l'œuvre spécifique (pas seulement le style général) | Image générée "à la manière de Banksy" reproduisant "Girl with Balloon" |
| 2 | Reproduction substantielle | Reprise d'éléments originaux protégés (qualitativement importants) | Texte reprenant la structure narrative et les personnages d'un roman |
| 3 | Absence de transformation | L'output n'ajoute pas de nouvelle signification artistique ou message distinct | Musique générée reprenant la mélodie exacte d'une chanson connue |
| 4 | Effet de substitution | L'output peut servir le même usage commercial que l'original | Image de stock générée par IA remplaçant une photo Getty Images |
| 5 | Usage commercial | Exploitation à des fins lucratives (facteur aggravant selon Warhol v. Goldsmith, 2023) | Vente de produits dérivés (t-shirts, posters) basés sur l'output |
4-3. Répartition des Responsabilités
4-3-1 Responsabilité de l'Utilisateur Final
| Type | Conditions | Sanctions |
|---|---|---|
| Directe | Publication, diffusion, vente de l'output contrefaisant | Dommages-intérêts + Retrait + Destruction des exemplaires |
| Atténuée | Usage privé, pédagogique, non commercial | Exception d'usage équitable possible (selon juridiction) |
| Aggravée | Prompts intentionnellement contrefaisants ("génère une copie de [oeuvre X]") | Dommages punitifs + Sanctions pénales (contrefaçon en bande organisée) |
4-3-2 Responsabilité du Fournisseur d'IA
Le fournisseur (OpenAI, Midjourney, Stability AI) peut être tenu responsable selon deux théories juridiques :
- Contribution à la contrefaçon (Contributory Infringement) : Si le fournisseur avait connaissance (ou aurait dû avoir connaissance) que son système facilite des contrefaçons massives. Sa défense reposerait sur la mise en place de filtres anti-contrefaçon (ex: blocage de noms d'artistes).
- Responsabilité du produit défectueux (Directive 85/374/CEE) : L'IA serait qualifiée de "défectueuse" si elle génère systématiquement des outputs contrefaisants sans avertissement adéquat aux utilisateurs.
4-4 Directive sur la Prévention de la Contrefaçon Algorithmique
4-4-1 : Filtrage Obligatoire et Avertissements
- Obligation : Tout fournisseur d'IA générative opérant dans l'UE doit intégrer un système de détection de similarité basé sur l'IA elle-même (méthodologie : empreintes numériques, hachage perceptuel).
- Seuil d'Alerte : Si un output présente une similarité > 70% avec une œuvre protégée identifiée dans une base de référence (à créer), le système affiche un avertissement obligatoire avant livraison.
- Base de Référence Européenne : Création d'une "Bibliothèque Européenne des Œuvres Protégées" (gérée par l'EUIPO) alimentée volontairement par les titulaires de droits et les OGC. Les fournisseurs d'IA doivent interroger cette base avant chaque génération.
4-4-2 : Marquage Obligatoire et Traçabilité à tempérer
- Marquage Invisible : Chaque output d'images animées ou non, de sons doit porter une signature numérique (watermark) indélébile contenant :
- Identifiant du modèle d'IA utilisé
- Date et heure de génération
- Hash anonymisé du prompt (pour traçabilité en cas de litige)
- Métadonnées EXIF/XMP : Pour les images, vidéos et fichiers audio, ajout obligatoire de métadonnées standards indiquant l'origine IA et le niveau de contribution humaine (échelle 0-100%).
- Détection Publique : Mise à disposition gratuite d'un outil en ligne (API) permettant à quiconque de détecter si un contenu est généré par IA.
- Tempérament : De telles mesures amplement contraignantes dans le choix des idées et des modalités de leur communication ne devront être envisagées que secteur par secteur en fonction de seuils et que sous réserves effectives de protection des populations concernées et des consommateurs auxquels ces produits ou services seront destinées (sur la confrontation droits d'auteur et principes fondamentaux Ph. Schmitt « Mutation du droit d'auteur dans l'économie des plateformes, d'un droit de propriété à un droit d'accès »).
4-4-3 : Conditions Générales d'Utilisation (CGU) Types
- Standardisation Européenne : La Commission publie des CGU types obligatoires pour tous les services d'IA générative, incluant :
- Clause de Vérification : L'utilisateur s'engage à vérifier la licéité de l'output avant tout usage commercial.
- Clause de Responsabilité : Le fournisseur n'est pas responsable des usages contrefaisants si l'avertissement a été affiché et ignoré.
- Mécanisme de notification et de retrait adapté des œuvres adapté (Notice & Takedown) : Si un titulaire de droits identifie un output contrefaisant, le fournisseur doit :
- Bloquer la génération de prompts similaires (filtrage préventif)
- Notifier l'utilisateur original
- Conserver les logs pendant 3 ans pour preuve judiciaire
4-5 Clarification Jurisprudentielle
Objectif : Harmoniser l'interprétation au niveau de l'UE.
- Question Préjudicielle à la CJUE : Un État membre (de préférence via une affaire française ou allemande) saisit la Cour de Justice de l'Union Européenne pour :
- Définir le seuil de "reproduction substantielle" applicable aux outputs d'IA
- Trancher la question "style vs expression" : la reproduction d'un style artistique général (sans œuvre spécifique identifiable) est-elle licite ?
- Clarifier le régime de responsabilité partagée utilisateur/fournisseur.
- Les questions préjudicielles actuelles dans C-250/25 ne traitent pas toutes ces problématiques.
- Délai : Priorité absolue – compte tenu des effets économiques sur les secteurs de la création- Demande à déposer avant fin 2026 pour un arrêt attendu en 2028.
5 MECANISMES DE FINANCEMENT ET GOUVERNANCE
5-1°) Un mécanisme de redevance
Contrairement à une licence négociée de gré à gré (impossible vu le volume), la redevance forfaitaire assure une prévisibilité pour les entreprises d'IA.
- Assiette : Chiffre d'affaires des abonnements (ex: ChatGPT Plus, Midjourney) et des API commerciales.
- Taux : Fixé par une commission indépendante, révisable tous les 2 ans.
5-2°) Gouvernance des Fonds
La gestion ne doit pas être laissée aux seuls acteurs privés, mais à une Autorité Européenne pour l'IA Culturelle composée de représentants :
- Des auteurs et artistes (40%)
- Des industries culturelles (20%)
- Des entreprises technologiques (20%)
- Des pouvoirs publics et experts (20%)
Cette autorité supervisera la juste répartition des sommes perçues.
5-3 Destination des Fonds
Selon le modèle de Geiger/Scalzini/Bossi :
- 50% : Répartition individuelle basée sur l'usage statistique des répertoires (détecté par échantillonnage).
- 30% : Fonds Sociaux pour les auteurs (retraite, formation, assurance perte d'activité).
- 20% : Soutien à la Création (bourses, financement de projets innovants, "Avant-garde" culturelle).