<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Archives des IA et droit d&#039;auteur - Philippe Schmitt Avocats</title>
	<atom:link href="https://www.schmitt-avocats.fr/tag/ia-et-droit-dauteur/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.schmitt-avocats.fr/tag/ia-et-droit-dauteur/</link>
	<description>Marques, modèles, brevets, données personnelles et industrielles.</description>
	<lastBuildDate>Sat, 21 Mar 2026 14:38:25 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://www.schmitt-avocats.fr/wp-content/uploads/2024/08/cropped-LOGO-PSA-32x32.jpg</url>
	<title>Archives des IA et droit d&#039;auteur - Philippe Schmitt Avocats</title>
	<link>https://www.schmitt-avocats.fr/tag/ia-et-droit-dauteur/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Conflit IA et droits d&#8217;auteurs : confrontation Rapport du Parlement, IA Acte et Directive DSM</title>
		<link>https://www.schmitt-avocats.fr/ia-auteur-parlement-rapport-aiact-dsm/</link>
		
		<dc:creator><![CDATA[Philippe Schmitt]]></dc:creator>
		<pubDate>Mon, 23 Mar 2026 08:51:43 +0000</pubDate>
				<category><![CDATA[Actualités]]></category>
		<category><![CDATA[intelligence artificielle]]></category>
		<category><![CDATA[Directive DSM et fouille de données (TDM)]]></category>
		<category><![CDATA[exception de fouille de textes]]></category>
		<category><![CDATA[IA Act France]]></category>
		<category><![CDATA[IA et droit d'auteur]]></category>
		<category><![CDATA[Parlement européen]]></category>
		<category><![CDATA[Propriété intellectuelle IA]]></category>
		<category><![CDATA[protection des données d'entraînement]]></category>
		<category><![CDATA[Rapport du Parlement A10-0019/2026]]></category>
		<category><![CDATA[Règlement européen sur l'IA impact entreprises ?]]></category>
		<category><![CDATA[Responsabilité juridique intelligence artificielle]]></category>
		<category><![CDATA[Titularité des droits]]></category>
		<category><![CDATA[transparence des algorithmes]]></category>
		<guid isPermaLink="false">https://www.schmitt-avocats.fr/?p=10010</guid>

					<description><![CDATA[<p>&#160; &#160; TDM &#38; Droit d&#8217;auteur à l&#8217;ère de l&#8217;IA générative Analyse comparative : Rapport PE A10-0019/2026 · Directive DSM 2019/790 · AI Act 2024/1689 &#160; Introduction IA et droit d&#8217;auteur, parmi les confrontations avec les outils d&#8217;IA, celle avec ou contre les droits d&#8217;auteur mobilise les attentions. Trois instruments normatifs de portée et de</p>
<p class="more-link"><a href="https://www.schmitt-avocats.fr/ia-auteur-parlement-rapport-aiact-dsm/" class="themebutton2">READ MORE</a></p>
<p>L’article <a href="https://www.schmitt-avocats.fr/ia-auteur-parlement-rapport-aiact-dsm/">Conflit IA et droits d&rsquo;auteurs : confrontation Rapport du Parlement, IA Acte et Directive DSM</a> est apparu en premier sur <a href="https://www.schmitt-avocats.fr">Philippe Schmitt Avocats</a>.</p>
]]></description>
										<content:encoded><![CDATA[		<div data-elementor-type="wp-post" data-elementor-id="10010" class="elementor elementor-10010">
						<section class="elementor-section elementor-top-section elementor-element elementor-element-99e8eed elementor-section-boxed elementor-section-height-default elementor-section-height-default" data-id="99e8eed" data-element_type="section" data-e-type="section">
						<div class="elementor-container elementor-column-gap-default">
					<div class="elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-2df3be0" data-id="2df3be0" data-element_type="column" data-e-type="column">
			<div class="elementor-widget-wrap elementor-element-populated">
						<div class="elementor-element elementor-element-da526c0 elementor-widget elementor-widget-html" data-id="da526c0" data-element_type="widget" data-e-type="widget" data-widget_type="html.default">
				<div class="elementor-widget-container">
					<!DOCTYPE html>
<html lang="fr">
<head>
    <meta charset="UTF-8">
    <meta name="viewport" content="width=device-width, initial-scale=1.0">
    <title>TDM & Droit d'auteur à l'ère de l'IA générative</title>
    <style>
        /* Police moderne et lisible */
        body {
            font-family: 'Segoe UI', Roboto, 'Helvetica Neue', sans-serif;
            line-height: 1.6;
            color: #333;
            max-width: 1200px;
            margin: 0 auto;
            padding: 20px;
            background-color: #f9f9f9;
        }

        /* En-tête stylisé */
        header {
            text-align: center;
            margin-bottom: 30px;
            padding: 20px 0;
            border-bottom: 2px solid #2c3e50;
        }

        h1 {
            color: #2c3e50;
            font-size: 2.2em;
            margin-bottom: 10px;
        }

        h2 {
            color: #3498db;
            font-size: 1.6em;
            margin-top: 30px;
            border-left: 4px solid #3498db;
            padding-left: 10px;
        }

        h3 {
            color: #2980b9;
            font-size: 1.3em;
            margin-top: 25px;
        }

        /* Mise en forme des paragraphes */
        p {
            margin-bottom: 15px;
            text-align: justify;
        }

        /* Style des tableaux */
        table {
            width: 100%;
            border-collapse: collapse;
            margin: 20px 0;
            box-shadow: 0 2px 3px rgba(0,0,0,0.1);
            background-color: white;
        }

        th, td {
            padding: 12px 15px;
            text-align: left;
            border-bottom: 1px solid #ddd;
        }

        th {
            background-color: #3498db;
            color: white;
            font-weight: 600;
        }

        tr:nth-child(even) {
            background-color: #f2f2f2;
        }

        /* Citation en évidence */
        blockquote {
            background-color: #e8f4fc;
            border-left: 4px solid #3498db;
            padding: 15px;
            margin: 20px 0;
            font-style: italic;
            color: #2c3e50;
        }

        /* Pied de page pour les sources */
        footer {
            margin-top: 50px;
            padding: 20px;
            background-color: #2c3e50;
            color: white;
            border-radius: 5px;
        }

        footer h3 {
            color: white;
            margin-top: 0;
        }

        footer ul {
            list-style-type: none;
            padding: 0;
        }

        footer li {
            margin-bottom: 8px;
        }

        footer a {
            color: #3498db;
            text-decoration: none;
        }

        footer a:hover {
            text-decoration: underline;
        }

        /* Responsive */
        @media (max-width: 768px) {
            table {
                display: block;
                overflow-x: auto;
            }

            th, td {
                padding: 8px 10px;
                font-size: 0.9em;
            }
        }
    </style>
</head>
<body>
    <header>
        <h1>TDM & Droit d'auteur à l'ère de l'IA générative</h1>
        <p><em>Analyse comparative : Rapport PE A10-0019/2026 · Directive DSM 2019/790 · AI Act 2024/1689</em></p>
    </header>

    <main>
        <section>
            <h2>Introduction</h2>
            <p>
                IA et droit d'auteur, parmi les confrontations avec les outils d'IA, celle avec ou contre les droits d'auteur mobilise les attentions.
            </p>
            <p>
                Trois instruments normatifs de portée et de nature différentes interagissent aujourd'hui pour réguler — ou tenter de réguler — les pratiques d'exploration de textes et de données (Text and Data Mining, TDM) dans le contexte de l'entraînement des grands modèles de langage (LLM) et des modèles à usage général (GPAI) :
            </p>
            <ul>
                <li>la directive DSM 2019/790,</li>
                <li>le règlement IA (AI Act) 2024/1689,</li>
                <li>et le rapport du Parlement européen A10-0019/2026 sur le droit d'auteur et l'IA générative, adopté sous la conduite du rapporteur Axel Voss.</li>
            </ul>
            <p>
                Ces trois textes ne se situent pas sur le même plan normatif : la directive DSM est contraignante pour les États membres via transposition nationale ; l'AI Act est un règlement d'applicabilité directe dans l'ensemble de l'Union ; le rapport du PE constitue un acte de soft law — une résolution d'initiative parlementaire qui préfigure probablement les orientations législatives à venir.
            </p>
            <p>
                Leur articulation dessine un cadre en construction, dont les lacunes et les tensions sont précisément au cœur des revendications exprimées par le Parlement européen.
            </p>
        </section>

        <section>
            <h2>Vue d'ensemble des trois instruments</h2>
            <table>
                <thead>
                    <tr>
                        <th>Instrument</th>
                        <th>Nature juridique</th>
                        <th>Champ d'application principal</th>
                        <th>Portée TDM/IA</th>
                    </tr>
                </thead>
                <tbody>
                    <tr>
                        <td>Rapport PE A10-0019/2026</td>
                        <td>Résolution (soft law / initiative législative)</td>
                        <td>Réforme du droit d'auteur UE dans le contexte GenAI</td>
                        <td>Propose clarifications, opt-out centralisé, transparence renforcée, licences, rémunération</td>
                    </tr>
                    <tr>
                        <td>Directive DSM 2019/790</td>
                        <td>Directive contraignante (transposition nationale)</td>
                        <td>Droit d'auteur et droits voisins dans le marché unique numérique</td>
                        <td>Crée les exceptions TDM (art. 3 recherche ; art. 4 général + opt-out)</td>
                    </tr>
                    <tr>
                        <td>AI Act 2024/1689</td>
                        <td>Règlement contraignant</td>
                        <td>Systèmes d'IA mis sur le marché</td>
                        <td>Obligations conformité (applicabilité directe UE, dont modèles GPAI copyright + résumé données d'entraînement (art. 53(1))</td>
                    </tr>
                </tbody>
            </table>
            <p><em>Sources : Rapport PE A10-0019/2026 · Directive DSM 2019/790 · AI Act 2024/1689</em></p>
        </section>

        <section>
            <h2>1°) Le régime TDM : une architecture à deux étages fragilisée par l'IA générative</h2>
            <p>
                La directive DSM a organisé le TDM en deux strates distinctes.
            </p>
            <ul>
                <li>L'article 3 réserve une exception spécifique aux organismes de recherche et aux institutions du patrimoine culturel opérant à des fins non commerciales, sans possibilité d'opt-out pour les titulaires.</li>
                <li>L'article 4, en revanche, ouvre une exception générale — incluant les usages commerciaux — mais subordonnée à l'absence de réserve expresse des droits par les titulaires, en format machine-readable pour les contenus en ligne.</li>
            </ul>
            <p>
                Deux constats au rapport PE A10-0019/2026 :
            </p>
            <ul>
                <li>Cette architecture n'était pas conçue pour l'entraînement massif de modèles génératifs aboutissant à des produits directement concurrentiels des œuvres originales.</li>
                <li>Il stigmatise l'ambiguïté persistante de l'application de l'article 4 dans ce contexte (points 1-2) et appelle à compléter le dispositif par un cadre de licences opérationnel restaurant le pouvoir de négociation des créateurs. Rappelons que l'AI Act, pour sa part, ne modifie pas l'architecture DSM mais rend la conformité à celle-ci obligatoire pour les fournisseurs de GPAI (article 53(1), considérant 106).</li>
            </ul>
        </section>

        <section>
            <h2>2°) L'opt-out : ne peut se limiter à une réserve formelle mais doit devenir un mécanisme effectif</h2>
            <p>
                Le mécanisme de réserve de droits prévu à l'article 4(3) DSM constitue la pierre angulaire du dispositif de protection des titulaires dans le contexte du TDM commercial. Son efficacité pratique est cependant largement contestée : le rapport PE qualifie les systèmes actuels d'opt-out de « peu pratiques », insuffisants dans leur couverture des actes de TDM et dépourvus de la transparence requise (considérant K).
            </p>
            <p>
                Que propose ce rapport ? La réponse proposée est structurelle : création de formats standardisés lisibles par machine et d'un registre européen géré par l'EUIPO comme intermédiaire de confiance (point 10, considérant X). L'EUIPO se verrait ainsi confier un triple rôle : gestionnaire du registre des opt-out, interface entre titulaires de droits et opérateurs IA, et évaluateur de conformité. L'AI Act s'aligne partiellement sur cette logique en imposant aux fournisseurs GPAI de disposer d'une politique permettant d'identifier et de respecter les réserves, y compris via des technologies « state-of-the-art » (article 53(1)©, considérant 106) — ce qui crée une incitation économique forte à l'adoption de solutions techniques interopérables.
            </p>
            <p>
                Attention pour les refus antérieurs : le rapport PE précise expressément que tout nouveau mécanisme d'exclusion ne doit pas invalider les refus antérieurement exprimés (point 12). Cette précision vise à éviter que la mise en place d'un registre centralisé soit interprétée comme une remise à zéro des réserves existantes.
            </p>
        </section>

        <section>
            <h2>3°) La transparence des données d'entraînement : du résumé à la présomption</h2>
            <p>
                L'AI Act impose aux fournisseurs de modèles GPAI de mettre à disposition un résumé public suffisamment détaillé des contenus utilisés pour l'entraînement, selon un modèle établi par l'AI Office (article 53(1)(d)). Cette obligation est significative mais reste en deçà des exigences formulées par le Parlement européen.
            </p>
            <p>
                Le rapport A10-0019/2026 pousse vers une transparence exhaustive :
            </p>
            <ul>
                <li>documentation source par source de tous les contenus protégés utilisés ;</li>
                <li>extension de l'obligation à l'inférence, au RAG (Retrieval-Augmented Generation) et au réglage fin ;</li>
                <li>identification des robots d'indexation auprès des opérateurs web ;</li>
                <li>tenue de registres détaillés (point 12, considérant Y).</li>
            </ul>
            <p>
                Le rapport propose également le watermarking numérique — marquage cryptographique des œuvres — comme outil de traçabilité, dont il appelle à normaliser les standards (considérant AA).
            </p>
            <p>
                La disposition la plus innovante — et la plus contraignante — est la présomption réfragable d'utilisation d'une œuvre protégée en cas de non-respect des obligations de transparence (point 24, considérant AB). En cas de succès d'un titulaire en justice, les dépens et frais seraient mis à la charge du fournisseur IA. Ce mécanisme inverserait partiellement la charge de la preuve dans les litiges en contrefaçon liés à l'entraînement — enjeu procédural majeur, notamment dans le contentieux avec les grands modèles américains.
            </p>
        </section>

        <section>
            <h2>4°) Faire sauter le verrou de l'extraterritorialité</h2>
            <p>
                L'un des points les plus importants tant en opportunité des décisions politiques à venir, que dans le mécanisme juridique à mettre en place : l'application du droit d'auteur à l'IA générative est la question de la territorialité des actes d'entraînement. La majorité des grands modèles (GPT, Gemini, Claude, Llama...) ont été entraînés hors de l'Union européenne, souvent avec des contenus européens, puis commercialisés sur le marché UE.
            </p>
            <p>
                Le considérant 106 de l'AI Act rend applicable l'obligation de respecter la politique copyright/opt-out DSM à tout fournisseur qui met un modèle GPAI sur le marché UE, quel que soit le lieu des actes d'entraînement sous-jacents.
            </p>
            <p>
                Le rapport PE va plus loin en proposant d'interpréter le principe de territorialité de sorte que le droit d'auteur UE s'applique dès lors que le modèle ou le système est mis sur le marché de l'Union, sous peine d'interdiction de commercialisation (point 16, considérant P). Cette position, si elle était consacrée, constituerait un mécanisme d'accès sous condition au marché comparable à celui utilisé dans d'autres régulations (RGPD, DSA, DMA).
            </p>
        </section>

        <section>
            <h2>5°) Vers un marché de licences : la rémunération en filigrane</h2>
            <p>
                Ni la directive DSM ni l'AI Act n'instituent de mécanisme de rémunération automatique au bénéfice des titulaires de droits pour l'utilisation de leurs œuvres à des fins de TDM ou d'entraînement.
            </p>
            <p>
                Le rapport du Parlement européen entend combler cette lacune en orientant résolument le cadre vers un marché de licences opérationnel.
            </p>
            <p>
                Plusieurs mécanismes sont envisagés :
            </p>
            <ul>
                <li>licences collectives volontaires sectorielles organisées via les sociétés de gestion collective (point 9) ;</li>
                <li>licences individuelles volontaires (point 19) ;</li>
                <li>extension du droit voisin de la presse aux détournements d'audience et de recettes générés par les systèmes d'IA (points 6-7) ;</li>
                <li>et, de manière particulièrement significative, une rémunération pour les utilisations passées depuis fin 2022 (point 21), avec une proposition de taux forfaitaire provisoire de 5 à 7% du chiffre d'affaires mondial en attendant la mise en place d'un système pérenne.</li>
            </ul>
            <p>
                L'EUIPO jouerait également un rôle de facilitateur : soutien aux processus sectoriels de licences volontaires, gestion d'un guichet unique associant registre opt-out et octroi de licences (points 11, 22-23).
            </p>
        </section>

        <section>
            <h2>Tableau comparatif thématique</h2>
            <table>
                <thead>
                    <tr>
                        <th>Thème</th>
                        <th>Rapport PE A10-0019/2026</th>
                        <th>Directive DSM 2019/790</th>
                        <th>AI Act 2024/1689</th>
                    </tr>
                </thead>
                <tbody>
                    <tr>
                        <td>TDM – finalité recherche</td>
                        <td>Préserve recherche/enseignement ; exploitation commerciale des résultats exige autorisations adéquates (pt. 4).</td>
                        <td>Art. 3 : exception TDM pour la recherche scientifique (organismes de recherche + patrimoine culturel) sur accès licite. Pas d'opt-out.</td>
                        <td>Renvoie à la conformité au droit d'auteur (DSM) ; ne crée pas d'exception autonome.</td>
                    </tr>
                    <tr>
                        <td>TDM – finalité générale / commerciale</td>
                        <td>Juge l'art. 4 DSM inadapté à l'entraînement GenAI massif ; appelle à un cadre de licences complémentaire (pts. 1-2).</td>
                        <td>Art. 4 : exception/limitation TDM générale sous réserve de réserve de droits machine-readable (opt-out).</td>
                        <td>Oblige les fournisseurs GPAI à identifier et respecter les réserves art. 4(3) DSM (art. 53(1)©, cons. 106).</td>
                    </tr>
                    <tr>
                        <td>Accès licite / contenus illicites</td>
                        <td>Rappelle que « accès licite » exclut les copies piratées/contrefaisantes (pt. 3) ; dénonce l'usage de sources piratées.</td>
                        <td>Condition de « lawful access » dans les art. 3 et 4.</td>
                        <td>Exige la conformité au droit d'auteur (donc respect du lawful access et des opt-out DSM).</td>
                    </tr>
                    <tr>
                        <td>Opt-out / réserve de droits</td>
                        <td>Juge l'opt-out actuel « peu pratique » ; propose formats standardisés + registre EUIPO (cons. K ; pt. 10).</td>
                        <td>Art. 4(3) : exception non applicable si droits réservés « de manière appropriée », notamment en machine-readable pour les contenus en ligne.</td>
                        <td>Obligation de politique de conformité pour identifier et respecter les réserves art. 4(3) DSM via technologies « state-of-the-art » (art. 53(1)©, cons. 106).</td>
                    </tr>
                    <tr>
                        <td>Standardisation / registre opt-out</td>
                        <td>Propose un registre européen : formats standardisés lisibles par machine, géré par l'EUIPO comme intermédiaire de confiance (pt. 10).</td>
                        <td>N'organise pas de registre central : seulement la condition de réserve « appropriée ».</td>
                        <td>Ne crée pas de registre ; incite aux solutions techniques/organisationnelles pour identifier les réserves.</td>
                    </tr>
                    <tr>
                        <td>Mesures techniques des ayants droit</td>
                        <td>Accent sur l'effectivité de l'opt-out ; propose le watermarking/marquage numérique comme outil de traçabilité (pt. 12).</td>
                        <td>Art. 3(3) : titulaires peuvent appliquer des mesures de sécurité/intégrité des réseaux/bases, sans excéder le nécessaire.</td>
                        <td>Ne traite pas des mesures techniques copyright ; vise conformité et transparence côté fournisseurs GPAI.</td>
                    </tr>
                    <tr>
                        <td>Transparence données d'entraînement</td>
                        <td>Demande une transparence très élevée : documentation exhaustive des sources, extension à inférence/RAG, identification des crawlers, tenue de logs (pt. 12 ; cons. Y).</td>
                        <td>Ne pose pas de devoir général de transparence dataset envers les titulaires ; organise l'exception et l'opt-out.</td>
                        <td>Impose un résumé public suffisamment détaillé des contenus d'entraînement (template AI Office) (art. 53(1)(d)).</td>
                    </tr>
                    <tr>
                        <td>Présomptions probatoires / enforcement</td>
                        <td>Propose une présomption réfragable d'utilisation d'œuvres en cas de non-transparence ; frais à la charge du fournisseur si succès du titulaire (pt. 24 ; cons. AB).</td>
                        <td>N'établit pas de présomption probatoire équivalente ; renvoie aux mécanismes nationaux.</td>
                        <td>Prévoit des mécanismes de conformité/contrôle IA ; les obligations (politique + résumé) sont utilisables indirectement comme éléments de preuve.</td>
                    </tr>
                    <tr>
                        <td>Territorialité / modèles hors UE</td>
                        <td>Veut que le droit d'auteur UE s'applique à tout système mis sur le marché UE, quel que soit le lieu d'entraînement (pt. 16 ; cons. P).</td>
                        <td>Application via le droit national (territorialité classique).</td>
                        <td>Cons. 106 : obligation pour tout fournisseur GPAI sur le marché UE de respecter la politique copyright/opt-out DSM, indépendamment du lieu d'entraînement.</td>
                    </tr>
                    <tr>
                        <td>Rémunération / licences</td>
                        <td>Oriente vers un marché de licences (collectif volontaire sectoriel + individuel) ; explore la rémunération pour usages passés (5-7% CA) ; focale presse (pts. 6-7, 9, 21).</td>
                        <td>Encadre la TDM par exceptions/opt-out, sans mécanisme de rémunération automatique dédié.</td>
                        <td>N'institue pas de rémunération ; la conformité et la transparence imposées peuvent faciliter la négociation de licences.</td>
                    </tr>
                </tbody>
            </table>
            <p><em>Sources : Rapport PE A10-0019/2026 · Directive DSM 2019/790 (EUR-Lex) · AI Act 2024/1689 (EUR-Lex)</em></p>
        </section>

        <section>
            <h2>Synthèse ponctuelle et provisoire sur ce conflit IA et droits d'auteur</h2>
            <p>
                L'analyse croisée de ces trois instruments montre trois dynamiques distinctes :
            </p>
            <blockquote>
                <p>
                    Une tension des mécanismes actuels : exception et/ou licence.
                    <br>La directive DSM a fait le choix de l'exception (TDM libre sous conditions),
                    <br>l'AI Act perpétue ce choix en rendant sa conformité obligatoire,
                    <br>mais le rapport PE remet fondamentalement en cause l'adéquation de ce modèle à l'IA générative et ouvre la voie à un système hybride exception/licence.
                </p>
            </blockquote>
            <blockquote>
                <p>
                    Une tension entre transparence insuffisante et présomption d'atteinte aux droits.
                    <br>L'AI Act impose un premier niveau de transparence (résumé des données d'entraînement),
                    <br>mais le Parlement européen considère ce niveau insuffisant et propose de le sanctionner par une présomption réfragable d'utilisation — mécanisme de droit processuel qui pourrait transformer radicalement le contentieux de la contrefaçon dans le domaine de l'IA.
                </p>
            </blockquote>
            <blockquote>
                <p>
                    Une tension géographique ou l'ambition de souveraineté : abandon de la territorialité classique vs. applicabilité aux acteurs mondiaux.
                    <br>Le droit international privé classique peine à appréhender des actes d'entraînement réalisés hors UE sur des contenus européens (voir sur ce point les développements au rapport du CSPLA).
                    <br>Le considérant 106 de l'AI Act et le point 16 du rapport PE convergent vers une solution d'accès au marché conditionné : tout modèle mis sur le marché UE doit respecter les règles UE, quel que soit le lieu d'entraînement.
                </p>
            </blockquote>
            <p>
                Ce rapport A10-0019/2026 dessine les contours d'un nouveau paradigme dans lequel le TDM pour l'entraînement de l'IA générative ne serait plus couvert par une simple exception mais soumis à un régime de licence obligatoire ou de gestion collective étendue, assorti d'une rémunération équitable des créateurs.
            </p>
            <p>
                Cette orientation, si elle se concrétise dans une proposition législative de la Commission, marquerait une rupture significative avec l'équilibre de 2019 et redéfinirait les relations entre l'industrie de l'IA et les secteurs culturels et créatifs européens.
            </p>
            <p>
                Se mesure ici l'ampleur pour les praticiens du droit de la propriété intellectuelle/industrielle : l'enjeu immédiat est double : comprendre la hiérarchisation des textes pour conseiller les titulaires de droits sur l'effectivité de leur opt-out actuel (formats, référencement, robots.txt, métadonnées machine-readable) et suivre de près l'évolution du cadre de licences sectorielles que l'EUIPO est appelé à faciliter.
            </p>
        </section>
    </main>

    <footer>
        <h3>Sources principales</h3>
        <ul>
            <li><a href="https://www.europarl.europa.eu/doceo/document/A-10-2026-0019_FR.html" target="_blank">Rapport PE A10-0019/2026 (Axel Voss) — Le droit d'auteur et l'IA générative</a></li>
            <li><a href="https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:32019L0790" target="_blank">Directive (UE) 2019/790 du Parlement européen et du Conseil (Directive DSM)</a></li>
            <li><a href="https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:32024R1689" target="_blank">Règlement (UE) 2024/1689 — AI Act (Règlement sur l'intelligence artificielle)</a></li>
        </ul>
    </footer>
</body>
</html>
				</div>
				</div>
					</div>
		</div>
					</div>
		</section>
				</div>
		<p>L’article <a href="https://www.schmitt-avocats.fr/ia-auteur-parlement-rapport-aiact-dsm/">Conflit IA et droits d&rsquo;auteurs : confrontation Rapport du Parlement, IA Acte et Directive DSM</a> est apparu en premier sur <a href="https://www.schmitt-avocats.fr">Philippe Schmitt Avocats</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Protection des auteurs face à l&#8217;IA: le Modèle 3T+O</title>
		<link>https://www.schmitt-avocats.fr/protection-auteurs-ia-modele-3to/</link>
		
		<dc:creator><![CDATA[Philippe Schmitt]]></dc:creator>
		<pubDate>Sat, 31 Jan 2026 20:33:28 +0000</pubDate>
				<category><![CDATA[Acteurs de la Propriété Industrielle]]></category>
		<category><![CDATA[Actualités]]></category>
		<category><![CDATA[AI Factory]]></category>
		<category><![CDATA[Auteur]]></category>
		<category><![CDATA[Avocat propriété intellectuelle IA]]></category>
		<category><![CDATA[Cabinet avocat propriété intellectuelle Paris]]></category>
		<category><![CDATA[Droit de retrait entraînement IA]]></category>
		<category><![CDATA[IA et droit d'auteur]]></category>
		<category><![CDATA[Litige droit d'auteur intelligence artificielle]]></category>
		<category><![CDATA[Modèle 3T+O]]></category>
		<category><![CDATA[Propriété intellectuelle IA]]></category>
		<category><![CDATA[Protection des auteurs intelligence artificielle]]></category>
		<category><![CDATA[Protéger ses créations contre l'entraînement IA]]></category>
		<category><![CDATA[Rémunération des auteurs IA]]></category>
		<category><![CDATA[Usage éthique de l'IA générative]]></category>
		<guid isPermaLink="false">https://www.schmitt-avocats.fr/?p=9620</guid>

					<description><![CDATA[<p>IA et auteurs : Le Modèle « 3T+O » – Schmitt Avocats Protection des auteurs face à l&#8217;IA : Le Modèle « 3T+O » L&#8217;essor fulgurant de l&#8217;intelligence artificielle générative a créé une rupture systémique dans l&#8217;économie de la création. Les modèles actuels de régulation, oscillant entre le « fair use » américain et les exceptions de fouille de données (TDM)</p>
<p class="more-link"><a href="https://www.schmitt-avocats.fr/protection-auteurs-ia-modele-3to/" class="themebutton2">READ MORE</a></p>
<p>L’article <a href="https://www.schmitt-avocats.fr/protection-auteurs-ia-modele-3to/">Protection des auteurs face à l&rsquo;IA: le Modèle 3T+O</a> est apparu en premier sur <a href="https://www.schmitt-avocats.fr">Philippe Schmitt Avocats</a>.</p>
]]></description>
										<content:encoded><![CDATA[		<div data-elementor-type="wp-post" data-elementor-id="9620" class="elementor elementor-9620">
						<section class="elementor-section elementor-top-section elementor-element elementor-element-d82d39e elementor-section-boxed elementor-section-height-default elementor-section-height-default" data-id="d82d39e" data-element_type="section" data-e-type="section">
						<div class="elementor-container elementor-column-gap-default">
					<div class="elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-b08ea58" data-id="b08ea58" data-element_type="column" data-e-type="column">
			<div class="elementor-widget-wrap elementor-element-populated">
						<div class="elementor-element elementor-element-d86734a elementor-widget elementor-widget-html" data-id="d86734a" data-element_type="widget" data-e-type="widget" data-widget_type="html.default">
				<div class="elementor-widget-container">
					<!DOCTYPE html>
<html lang="fr">
<head>
    <meta charset="UTF-8">
    <meta name="viewport" content="width=device-width, initial-scale=1.0">
    <meta name="description" content="Pritection des auteurs face IA: Le Modèle '3T+O' – Analyse juridique et économique pour une régulation équilibrée de l'IA générative en Europe.">
    <meta name="keywords" content="IA, protection des auteurs, droit d'auteur, modèle 3T+O, régulation IA, transparence, taxation, transformation, responsabilité, Europe, création, auteurs">
    <meta name="robots" content="index, follow">
    <title>IA et auteurs : Le Modèle "3T+O" – Schmitt Avocats</title>
    <style>
        body {
            font-family: 'Segoe UI', Roboto, 'Helvetica Neue', sans-serif;
            line-height: 1.6;
            color: #333;
            max-width: 1000px;
            margin: 0 auto;
            padding: 20px;
            background-color: #f9f9f9;
        }
        .container {
            background-color: white;
            padding: 30px;
            border-radius: 8px;
            box-shadow: 0 2px 10px rgba(0,0,0,0.1);
        }
        h1, h2, h3, h4 {
            color: #0056b3;
            margin-top: 1.5em;
            margin-bottom: 0.5em;
            font-weight: 600;
        }
        h1 {
            font-size: 2.2em;
            text-align: center;
            margin-bottom: 1em;
            border-bottom: 2px solid #0056b3;
            padding-bottom: 10px;
        }
        h2 {
            font-size: 1.6em;
            border-left: 4px solid #0056b3;
            padding-left: 10px;
        }
        h3 {
            font-size: 1.3em;
            color: #0077cc;
        }
        p {
            text-align: justify;
            margin-bottom: 1.2em;
        }
        a {
            color: #0056b3;
            text-decoration: none;
            font-weight: 500;
        }
        a:hover {
            text-decoration: underline;
        }
        table {
            width: 100%;
            border-collapse: collapse;
            margin: 1.5em 0;
            font-size: 0.95em;
        }
        th, td {
            border: 1px solid #ddd;
            padding: 10px;
            text-align: left;
        }
        th {
            background-color: #0056b3;
            color: white;
        }
        tr:nth-child(even) {
            background-color: #f2f7ff;
        }
        blockquote {
            border-left: 4px solid #0056b3;
            padding-left: 15px;
            margin-left: 0;
            color: #555;
            font-style: italic;
            background-color: #f8f9ff;
            padding: 10px;
            border-radius: 0 4px 4px 0;
        }
        .highlight {
            background-color: #e6f2ff;
            padding: 2px 5px;
            border-radius: 3px;
            font-weight: 500;
        }
        @media (max-width: 768px) {
            body {
                padding: 10px;
            }
            .container {
                padding: 15px;
            }
            table {
                font-size: 0.85em;
            }
        }
    </style>
</head>
<body>
    <div class="container">
        <h1>Protection des auteurs face à l'IA : Le Modèle "3T+O"</h1>

        <p>L'essor fulgurant de l'intelligence artificielle générative a créé une rupture systémique dans l'économie de la création. Les modèles actuels de régulation, oscillant entre le "fair use" américain et les exceptions de fouille de données (TDM) européennes, ne suffisent plus à endiguer le risque de substitution massive des créateurs humains par des systèmes automatisés. S'ajoute aux enjeux de la création, la souveraineté européenne.</p>

        <h2>Diagnostic : L'analyse des données juridiques et économiques révèle trois tensions majeures :</h2>

        <ul>
            <li>Un déséquilibre fondamental entre le droit exclusif des auteurs et la nécessité technique de l'entraînement des IA (input).</li>
            <li>Une opacité des données d'entraînement qui empêche toute traçabilité et rémunération effective.</li>
            <li>Une menace existentielle pour les industries créatives, confrontées à une concurrence déloyale de contenus générés à coût marginal nul (output).</li>
        </ul>

        <h2>Proposition Stratégique : Le Modèle "3T+O" en quatre piliers indissociables :</h2>

        <ul>
            <li><strong>Transparence</strong> : Rendre obligatoire la divulgation détaillée des sources d'entraînement et pour restaurer la confiance et permettre l'exercice des droits.</li>
            <li><strong>Taxation</strong> : Remplacer le système inefficace d'opt-out individuel par un droit à rémunération statutaire incessible financé par une redevance sur les systèmes d'IA générative (IA rémunération équitable unique).</li>
            <li><strong>Transformation</strong> : Réorienter l'IA comme un outil au service de la créativité humaine et non comme un substitut, en investissant massivement dans les infrastructures souveraines et la protection sociale des créateurs.</li>
            <li><strong>Output et Responsabilité</strong> : Prévenir la contrefaçon algorithmique en instaurant des mécanismes de filtrage obligatoire, de traçabilité des sorties et de clarification des responsabilités entre utilisateurs et fournisseurs d'IA.</li>
        </ul>

        <h2>Pour quel Impact ?</h2>

        <p>Ces quatre piliers permettront de garantir une rémunération pour le secteur créatif européen en quelques années (objectif 2030 par exemple), tout en sécurisant juridiquement le développement des entreprises d'IA européennes par une exception législative claire.</p>

        <p>Le volet Output et Responsabilité préviendra la contrefaçon algorithmique massive et protégera les utilisateurs de bonne foi. L'UE se positionnera ainsi comme le leader mondial d'une régulation éthique et durable de l'IA.</p>

        <p>Cette proposition prend appui sur la littérature académique récente (Geiger, Lucci, Senftleben, Nemitz) et des recommandations institutionnelles (UNESCO), et propose de dépasser l'opposition stérile entre innovation et régulation.</p>

        <p>Un principe gouverne ces lignes, la protection de la diversité culturelle et des droits fondamentaux est une condition <em>sine qua non</em> d'un développement technologique durable. Comme le souligne Paul Nemitz, l'intégration des principes de l'État de droit dès la conception ("Rule of Law by Design") est impérative pour éviter que la technologie ne dicte sa loi à la démocratie.</p>

        <p>Pour faciliter les débats, toutes les références sont accessibles en ligne :</p>

        <ul>
            <li><a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4634992" target="_blank">Christophe Geiger : « Elaborating a Human Rights-Friendly Copyright Framework for Generative AI », 2024.</a></li>
            <li><a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5330841" target="_blank">Christophe Geiger, Silvia Scalzini et Ludovico Bossi : « Time to (Finally) Reinstall the Author in EU Copyright Law: From Contractual Protection to Remuneration Rights », 2025.</a></li>
            <li><a href="https://www.cambridge.org/core/journals/european-journal-of-risk-regulation/article/chatgpt-a-case-study-on-copyright-challenges-for-generative-artificial-intelligence-systems/CEDCE34DED599CC4EB201289BB161965" target="_blank">Nicola Lucci : « ChatGPT: A Case Study on Copyright Challenges for Generative Artificial Intelligence Systems », 2024.</a></li>
            <li><a href="https://royalsocietypublishing.org/rsta/article-abstract/376/2133/20180089/115648/Constitutional-democracy-and-technology-in-the-age?redirectedFrom=fulltext" target="_blank">Paul Nemitz : « Constitutional democracy and technology in the age of artificial intelligence », 2018.</a></li>
            <li><a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4478370" target="_blank">Martin Senftleben : « Generative AI and Author Remuneration », 2023.</a></li>
            <lihttps://www.culture.gouv.fr/nous-connaitre/organisation-du-ministere/conseil-superieur-de-la-propriete-litteraire-et-artistique-cspla/travaux-et-publications-du-cspla/missions-du-cspla/publication-du-rapport-de-mission-sur-la-loi-applicable-aux-modeles-d-ia-generative-commercialises-dans-l-union-europeenne><a href="https://bit.ly/3TCSPLA2025" target="_blank">CSPLA « Rapport de mission sur la loi applicable aux modèles d'IA générative commercialisés dans l'Union européenne », 18 décembre 2025.</a></li>
            <li><a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4123309" target="_blank">Martin Senftleben : « A Tax on Machines for the Purpose of Giving a Bounty to the Dethroned Human Author – Towards an AI Levy for the Substitution of Human Literacy and Artistic Works », 2022.</a></li>
            <li><a href="https://www.unesco.org/reports/reshaping-creativity/2022/fr" target="_blank">UNESCO « RE | PENSER LES POLITIQUES EN FAVEUR DE LA CRÉATIVITÉ, La culture, un bien public mondial. 2022 ».</a></li>
        </ul>

        <h2>1°) DIAGNOSTIC ACTUEL</h2>

        <h3>1.1. Le risque de substitution des auteurs par l'IA</h3>

        <p>Martin Senftleben met en lumière un risque majeur : l'effet de substitution. Les systèmes d'IA, entraînés sur des œuvres humaines, sont désormais capables de générer des textes, images et musiques qui entrent en concurrence directe avec leurs propres sources d'entraînement. Cette concurrence est déloyale car le coût marginal de production par l'IA tend vers zéro, créant une pression déflationniste insoutenable pour les créateurs humains.</p>

        <p>Des acteurs essentiels sont affectés : les traducteurs, les métiers de la création publicitaire et les journalistes, sans parler des avocats et des métiers de l'éducation et de la formation.</p>

        <p>Au modèle économique de la destruction créatrice et à son corollaire son nécessaire accompagnement social, s'ajoutent ici des enjeux culturels et démocratiques.</p>

        <h3>1.2. L'Échec du Contrôle Exclusif (Input)</h3>

        <p>Le dogme du contrôle exclusif (droit d'autoriser ou d'interdire) est mis à l'épreuve.</p>

        <ul>
            <li>Impossibilité technique : Le volume de données nécessaires à l'entraînement (trillions de paramètres) rend la gestion des licences individuelles impossible ("transaction costs" prohibitifs selon Geiger et Scalzini).</li>
            <li>Inefficacité de l'Opt-Out : Le mécanisme de réservation des droits (Art. 4 DSM) est complexe, mal standardisé techniquement et souvent ignoré par les collecteurs de données (scrapers et autres outils de webscraping) situés hors juridiction UE.</li>
        </ul>

        <h3>1.3. L'Opacité Structurelle</h3>

        <p>L'absence de transparence sur les jeux de données d'entraînement (datasets) crée une "boîte noire". Sans savoir quelles œuvres ont été utilisées, les titulaires de droits ne peuvent ni exercer leur droit d'opposition, ni réclamer une juste rémunération.</p>

        <p>Pour s'opposer à cet effet boîte noire, deux approches sont à relever.</p>

        <ul>
            <li>Dès que l'œuvre est indirectement perceptible par des moyens techniques, la fixation sous forme de valeurs de probabilités n'empêche pas la qualification de copie, c'est la solution dégagée par le <a href="https://blip.education/jugement-du-11-novembre-2025-du-tribunal-de-munich-la-memorisation-le-critere-qui-contraint-les-entreprises-de-lia-a-solutionner-partiellement-les-droits-dauteur-a-l" target="_blank">Tribunal de Munich le 11 novembre 2025</a> (Ph. Schmitt « Jugement du 11 novembre 2025 du Tribunal de Munich : la mémorisation, le critère qui contraint les entreprises de l'IA à solutionner partiellement les droits d'auteur à l'entrée de l'IA »).</li>
            <li>Par un mécanisme de présomption avec la <a href="https://www.village-justice.com/articles/proposition-loi-senatoriale-sur-les-droits-des-auteurs-decembre-une-nouvelle,55569.html" target="_blank">proposition de loi de la Sénatrice Darcos</a> (Ph Schmitt « Proposition de loi sur l'IA et les droits des auteurs : tentative de rééquilibrage entre les acteurs de la création intellectuelle et les entreprises de l'IA »).</li>
        </ul>

        <p>Lucchi souligne que cette opacité favorise également les monopoles de données, créant des barrières à l'entrée pour les startups européennes.</p>

        <p>Le paradoxe de la valeur. L'IA générative tire sa valeur notamment des œuvres protégées qu'elle ingère, mais également par des entités en charge de la conservation du patrimoine humain. Pourtant, dans le modèle actuel, cette valeur est captée quasi-exclusivement par les développeurs technologiques, tandis que les "fournisseurs de données" (les créateurs) subissent la destruction de leur marché !</p>

        <h3>1.4. L'analyse comparative</h3>

        <p>L'étude comparative menée par Katharina de la Durantaye sur huit juridictions révèle une fragmentation mondiale qui menace la compétitivité européenne si elle n'est pas gérée stratégiquement.</p>

        <table>
            <thead>
                <tr>
                    <th>Modèle</th>
                    <th>Pays / Zone</th>
                    <th>Caractéristiques</th>
                </tr>
            </thead>
            <tbody>
                <tr>
                    <td>Absence de Contrôle</td>
                    <td>USA, Israël, Singapour</td>
                    <td>Doctrine du Fair Use (USA) ou exception spécifique (Singapour). Favorise l'innovation rapide mais crée une insécurité juridique élevée (multiplication des procès) et aucune compensation pour les auteurs.</td>
                </tr>
                <tr>
                    <td>Contrôle Conditionnel</td>
                    <td>Union Européenne, Japon</td>
                    <td>Système d'Opt-Out. Tentative d'équilibre, mais lourd administrativement et techniquement faillible. Ne génère pas de revenus significatifs pour les créateurs.</td>
                </tr>
                <tr>
                    <td>Contrôle Total</td>
                    <td>Chine (théorique), UK (partiel)</td>
                    <td>Priorité au contrôle étatique ou au copyright strict. Risque de freiner le développement de l'IA faute d'accès aux données.</td>
                </tr>
            </tbody>
        </table>

        <p>Constat Stratégique : L'Europe ne peut pas rivaliser avec les USA sur le terrain du "laisser-faire" (qui sacrifie les créateurs voir notamment à propos des décisions de l'été 2025 Ph. Schmitt <a href="https://www.village-justice.com/articles/entrainement-des-generatives-droit-auteur-sortir-confrontation-reconnaitre,54202.html" target="_blank">« Entrainement des IA génératives et droit d'auteur : sortir de la confrontation et reconnaître la chaine de valeur »</a>), ni adopter un protectionnisme rigide qui tuerait son industrie IA. La "troisième voie" européenne doit être celle de la Licence Légale à Rémunération Compensatoire. Cela offre la sécurité juridique aux entreprises (droit d'accès garanti) et la sécurité économique aux créateurs (rémunération garantie).</p>

        <h2>2 LE MODELE "3T+O": ARCHITECTURE DE LA SOLUTION</h2>

        <p>Ce modèle synthétise et structure les recommandations convergentes issues des huit documents académiques analysés (notamment Senftleben pour la taxation, Durantaye pour la transparence, Nemitz et Geiger pour la transformation anthropocentrée, l'UNESCO pour la dimension culturelle), complété par l'analyse du rapport du CSPLA sur la responsabilité des outputs.</p>

        <h3>2-1°) Pilier 1 : Transparence</h3>

        <p>La transparence est la précondition absolue de tout système de régulation. Elle doit s'opérer à deux niveaux :</p>

        <ul>
            <li>Transparence des Inputs (Entraînement) : Obligation légale pour tout fournisseur d'IA opérant dans l'UE de publier un résumé détaillé des datasets utilisés, conforme aux standards de l'AI Act, mais renforcé pour permettre l'identification des répertoires d'auteurs.</li>
            <li>Transparence des Outputs (Génération) : Marquage obligatoire (watermarking) et métadonnées inaltérables pour tout contenu généré par IA, garantissant le droit à l'information des consommateurs et la traçabilité. Toutefois, le déploiement de telles mesures seront à valider secteur par secteur et sous réserve de seuils comme il est dit ci-après §4-4-2.</li>
        </ul>

        <h3>2-2°) Pilier 2 : Taxation / Compensation</h3>

        <p>C'est le cœur économique de la réforme proposée par Senftleben et Geiger. Il s'agit de basculer d'une logique d'interdiction (droit exclusif) à une logique de partage de la valeur.</p>

        <ul>
            <li>Abandon de l'Opt-Out économique : Remplacer l'article 4 DSM par une exception de fouille de données (TDM) automatique à des fins créatives.</li>
            <li>Création d'un Droit à Rémunération Statutaire : En contrepartie de l'exception, une redevance (IA rémunération équitable unique) est prélevée sur les revenus des fournisseurs de systèmes d'IA générative.</li>
            <li>Gestion Collective Obligatoire : Les fonds sont collectés par des sociétés de gestion collective et redistribués aux créateurs (et non seulement aux producteurs/éditeurs) via des clés de répartition objectives et des fonds culturels.</li>
            <li>Bénéficiaires : les auteurs personnes physiques.</li>
        </ul>

        <h3>2-3°) Pilier 3 : Transformation</h3>

        <p>Suivant les recommandations de Nemitz et de l'UNESCO, l'IA doit être régulée pour servir l'humain.</p>

        <ul>
            <li>Approche Anthropocentrée : Refus du copyright pour les œuvres générées sans intervention humaine créative substantielle.</li>
            <li>Droits Moraux Renforcés : Maintien d'un droit d'opposition (opt-out) strictement moral, permettant aux auteurs de refuser l'association de leur œuvre à des contenus contraires à leurs valeurs (haineux, politiques, etc.).</li>
            <li>Soutien à la Création Humaine : Utilisation d'une part de la redevance pour financer la protection sociale des artistes et la formation aux outils numériques.</li>
        </ul>

        <h3>2-4°) Pilier 4 : Output et Responsabilité</h3>

        <p>Ce quatrième pilier, essentiel mais jusqu'ici insuffisamment traité dans la littérature académique, répond à la question critique : Qui est responsable lorsqu'une IA génère un contenu contrefaisant ?</p>

        <ul>
            <li>Filtrage Préventif : Obligation pour les fournisseurs d'IA d'intégrer des systèmes de détection de similarité avant livraison des outputs, avec avertissements automatiques si un risque de contrefaçon est détecté.</li>
            <li>Traçabilité Technique : Extension du watermarking (Pilier 1) pour inclure des métadonnées permettant l'identification en cas de litige (hash du prompt, modèle utilisé, date de génération) avec les réserves du §4-4-2.</li>
            <li>Clarification des Responsabilités : Répartition équilibrée entre l'utilisateur final (responsabilité directe pour l'exploitation) et le fournisseur d'IA (responsabilité contributive si défaillance des mécanismes de prévention).</li>
            <li>Base de Référence Européenne : Création d'une bibliothèque d'œuvres protégées (gérée par l'EUIPO) permettant la comparaison automatique et la protection proactive des créateurs. Pour mémoire, la directive 2012/28/UE du Parlement européen et du Conseil du 25 octobre 2012 sur certaines utilisations autorisées des œuvres orphelines attribue déjà à l'office une fonction analogue.</li>
        </ul>

        <h2>3 RECOMMANDATIONS LEGISLATIVES CONCRETES</h2>

        <p>Pour rendre opérationnel le Modèle 3T + O, quatre actions majeures sont à mener.</p>

        <h3>3-1°) Recommandation 1 : Révision Ciblée de la Directive Droit d'Auteur (DSM)</h3>

        <p><strong>Objectif :</strong> Instaurer le mécanisme de licence légale.</p>

        <ul>
            <li>Action A : Introduire un nouvel Article 4bis créant une exception obligatoire pour l'utilisation d'œuvres protégées dans l'entraînement des modèles d'IA générative.</li>
            <li>Action B : Introduire un nouvel Article 18bis instituant un "Droit à rémunération équitable incessible pour l'utilisation par l'IA", payable par les fournisseurs de modèles. Ce droit ne peut être transféré contractuellement et doit être géré collectivement.</li>
            <li>Les bénéficiaires ne sont que les auteurs personnes physiques.</li>
        </ul>

        <h3>3-2°) Recommendation 2 : Règlement sur la Transparence des Données d'IA</h3>

        <p><strong>Objectif :</strong> Rendre la "boîte noire" transparente.</p>

        <ul>
            <li>Imposer un standard technique européen pour la déclaration des datasets (format XML/JSON standardisé).</li>
            <li>Créer un Registre Européen des Données d'Entraînement géré par l'Office de l'Union européenne pour la propriété intellectuelle (EUIPO).</li>
        </ul>

        <h3>3-3°) Recommendation 3 : Directive sur la Rémunération de la Copie Algorithmique</h3>

        <p><strong>Objectif :</strong> Financer le système.</p>

        <ul>
            <li>Mise en place de l'assise de la redevance (IA rémunération équitable unique) : un pourcentage (différents travaux sont en cours, dans les documents académiques cités : 3-5%) du chiffre d'affaires réalisé par les services d'IA générative dans l'UE, ou une taxe forfaitaire sur la puissance de calcul (compute) dédiée à l'entraînement.</li>
        </ul>

        <h3>3-4°) Recommendation 4 : Protocole "Humain avant tout"</h3>

        <p><strong>Objectif :</strong> Protéger l'intégrité humaine.</p>

        <ul>
            <li>Obligation d'étiquetage clair "Généré par IA" pour les contenus animés visuels avec des tempéraments selon les secteurs voir §4-4-2.</li>
            <li>Clarification de la jurisprudence : seule une œuvre portant l'empreinte de la personnalité de l'auteur humain est protégée.</li>
        </ul>

        <h2>4 VOLET OUTPUT ET RESPONSABILITE : PREVENIR LA CONTREFAÇON ALGORITHMIQUE</h2>

        <p>Les sections précédentes ont principalement traité de l'input (entraînement des modèles). Cette section complémentaire aborde les conditions d'exploitation des outputs (sorties) générés par l'IA et leur qualification juridique potentielle comme contrefaçon d'œuvres antérieures.</p>

        <h3>4-1°) Une Zone Grise Juridique Majeure</h3>

        <p>Contrairement à l'input, relativement bien documenté par les 8 études académiques analysées, la question de la contrefaçon par les outputs reste insuffisamment encadrée. Or, c'est à ce stade que les risques juridiques se matérialisent pour les utilisateurs finaux et les fournisseurs d'IA.</p>

        <p>Des millions d'utilisateurs européens exploitent quotidiennement des outputs d'IA (textes, images, musiques) à des fins commerciales sans pouvoir évaluer le risque de contrefaçon. Cette insécurité juridique freine l'adoption de l'IA par les PME et expose les créateurs à une exploitation non rémunérée de leurs œuvres via des "copies algorithmiques" difficilement détectables.</p>

        <h3>4-2 Critères Juridiques de Qualification de la Contrefaçon</h3>

        <p>À partir des analyses de Lucchi (2023) et Geiger (2024), une grille d'évaluation à 5 critères cumulatifs pour déterminer si un output est proposé pour établir ce qui constitue une contrefaçon :</p>

        <table>
            <thead>
                <tr>
                    <th>N°</th>
                    <th>Critère</th>
                    <th>Test Juridique</th>
                    <th>Exemples</th>
                </tr>
            </thead>
            <tbody>
                <tr>
                    <td>1</td>
                    <td>Reconnaissance de l'œuvre source</td>
                    <td>Un observateur averti peut identifier l'œuvre spécifique (pas seulement le style général)</td>
                    <td>Image générée "à la manière de Banksy" reproduisant "Girl with Balloon"</td>
                </tr>
                <tr>
                    <td>2</td>
                    <td>Reproduction substantielle</td>
                    <td>Reprise d'éléments originaux protégés (qualitativement importants)</td>
                    <td>Texte reprenant la structure narrative et les personnages d'un roman</td>
                </tr>
                <tr>
                    <td>3</td>
                    <td>Absence de transformation</td>
                    <td>L'output n'ajoute pas de nouvelle signification artistique ou message distinct</td>
                    <td>Musique générée reprenant la mélodie exacte d'une chanson connue</td>
                </tr>
                <tr>
                    <td>4</td>
                    <td>Effet de substitution</td>
                    <td>L'output peut servir le même usage commercial que l'original</td>
                    <td>Image de stock générée par IA remplaçant une photo Getty Images</td>
                </tr>
                <tr>
                    <td>5</td>
                    <td>Usage commercial</td>
                    <td>Exploitation à des fins lucratives (facteur aggravant selon Warhol v. Goldsmith, 2023)</td>
                    <td>Vente de produits dérivés (t-shirts, posters) basés sur l'output</td>
                </tr>
            </tbody>
        </table>

        <h3>4-3. Répartition des Responsabilités</h3>

        <h4>4-3-1 Responsabilité de l'Utilisateur Final</h4>

        <table>
            <thead>
                <tr>
                    <th>Type</th>
                    <th>Conditions</th>
                    <th>Sanctions</th>
                </tr>
            </thead>
            <tbody>
                <tr>
                    <td>Directe</td>
                    <td>Publication, diffusion, vente de l'output contrefaisant</td>
                    <td>Dommages-intérêts + Retrait + Destruction des exemplaires</td>
                </tr>
                <tr>
                    <td>Atténuée</td>
                    <td>Usage privé, pédagogique, non commercial</td>
                    <td>Exception d'usage équitable possible (selon juridiction)</td>
                </tr>
                <tr>
                    <td>Aggravée</td>
                    <td>Prompts intentionnellement contrefaisants ("génère une copie de [oeuvre X]")</td>
                    <td>Dommages punitifs + Sanctions pénales (contrefaçon en bande organisée)</td>
                </tr>
            </tbody>
        </table>

        <h4>4-3-2 Responsabilité du Fournisseur d'IA</h4>

        <p>Le fournisseur (OpenAI, Midjourney, Stability AI) peut être tenu responsable selon deux théories juridiques :</p>

        <ul>
            <li>Contribution à la contrefaçon (Contributory Infringement) : Si le fournisseur avait connaissance (ou aurait dû avoir connaissance) que son système facilite des contrefaçons massives. Sa défense reposerait sur la mise en place de filtres anti-contrefaçon (ex: blocage de noms d'artistes).</li>
            <li>Responsabilité du produit défectueux (Directive 85/374/CEE) : L'IA serait qualifiée de "défectueuse" si elle génère systématiquement des outputs contrefaisants sans avertissement adéquat aux utilisateurs.</li>
        </ul>

        <h3>4-4 Directive sur la Prévention de la Contrefaçon Algorithmique</h3>

        <h4>4-4-1 : Filtrage Obligatoire et Avertissements</h4>

        <ul>
            <li><strong>Obligation</strong> : Tout fournisseur d'IA générative opérant dans l'UE doit intégrer un système de détection de similarité basé sur l'IA elle-même (méthodologie : empreintes numériques, hachage perceptuel).</li>
            <li><strong>Seuil d'Alerte</strong> : Si un output présente une similarité &gt; 70% avec une œuvre protégée identifiée dans une base de référence (à créer), le système affiche un avertissement obligatoire avant livraison.</li>
            <li><strong>Base de Référence Européenne</strong> : Création d'une "Bibliothèque Européenne des Œuvres Protégées" (gérée par l'EUIPO) alimentée volontairement par les titulaires de droits et les OGC. Les fournisseurs d'IA doivent interroger cette base avant chaque génération.</li>
        </ul>

        <h4>4-4-2 : Marquage Obligatoire et Traçabilité à tempérer</h4>

        <ul>
            <li><strong>Marquage Invisible</strong> : Chaque output d'images animées ou non, de sons doit porter une signature numérique (watermark) indélébile contenant :
                <ul>
                    <li>Identifiant du modèle d'IA utilisé</li>
                    <li>Date et heure de génération</li>
                    <li>Hash anonymisé du prompt (pour traçabilité en cas de litige)</li>
                </ul>
            </li>
            <li><strong>Métadonnées EXIF/XMP</strong> : Pour les images, vidéos et fichiers audio, ajout obligatoire de métadonnées standards indiquant l'origine IA et le niveau de contribution humaine (échelle 0-100%).</li>
            <li><strong>Détection Publique</strong> : Mise à disposition gratuite d'un outil en ligne (API) permettant à quiconque de détecter si un contenu est généré par IA.</li>
            <li><strong>Tempérament</strong> : De telles mesures amplement contraignantes dans le choix des idées et des modalités de leur communication ne devront être envisagées que secteur par secteur en fonction de seuils et que sous réserves effectives de protection des populations concernées et des consommateurs auxquels ces produits ou services seront destinées (sur la confrontation droits d'auteur et principes fondamentaux Ph. Schmitt <a href="https://www.schmitt-avocats.fr/ia-et-ip/droit-auteur-droit-propriete-droit-acces/" target="_blank">« Mutation du droit d'auteur dans l'économie des plateformes, d'un droit de propriété à un droit d'accès »</a>).</li>
        </ul>

        <h4>4-4-3 : Conditions Générales d'Utilisation (CGU) Types</h4>

        <ul>
            <li><strong>Standardisation Européenne</strong> : La Commission publie des CGU types obligatoires pour tous les services d'IA générative, incluant :
                <ul>
                    <li>Clause de Vérification : L'utilisateur s'engage à vérifier la licéité de l'output avant tout usage commercial.</li>
                    <li>Clause de Responsabilité : Le fournisseur n'est pas responsable des usages contrefaisants si l'avertissement a été affiché et ignoré.</li>
                    <li>Mécanisme de notification et de retrait adapté des œuvres adapté (Notice &amp; Takedown) : Si un titulaire de droits identifie un output contrefaisant, le fournisseur doit :
                        <ul>
                            <li>Bloquer la génération de prompts similaires (filtrage préventif)</li>
                            <li>Notifier l'utilisateur original</li>
                            <li>Conserver les logs pendant 3 ans pour preuve judiciaire</li>
                        </ul>
                    </li>
                </ul>
            </li>
        </ul>

        <h3>4-5 Clarification Jurisprudentielle</h3>

        <p><strong>Objectif :</strong> Harmoniser l'interprétation au niveau de l'UE.</p>

        <ul>
            <li>Question Préjudicielle à la CJUE : Un État membre (de préférence via une affaire française ou allemande) saisit la Cour de Justice de l'Union Européenne pour :
                <ul>
                    <li>Définir le seuil de "reproduction substantielle" applicable aux outputs d'IA</li>
                    <li>Trancher la question "style vs expression" : la reproduction d'un style artistique général (sans œuvre spécifique identifiable) est-elle licite ?</li>
                    <li>Clarifier le régime de responsabilité partagée utilisateur/fournisseur.</li>
                </ul>
            </li>
            <li>Les questions préjudicielles actuelles dans C-250/25 ne traitent pas toutes ces problématiques.</li>
            <li>Délai : Priorité absolue – compte tenu des effets économiques sur les secteurs de la création- Demande à déposer avant fin 2026 pour un arrêt attendu en 2028.</li>
        </ul>

        <h2>5 MECANISMES DE FINANCEMENT ET GOUVERNANCE</h2>

        <h3>5-1°) Un mécanisme de redevance</h3>

        <p>Contrairement à une licence négociée de gré à gré (impossible vu le volume), la redevance forfaitaire assure une prévisibilité pour les entreprises d'IA.</p>

        <ul>
            <li><strong>Assiette</strong> : Chiffre d'affaires des abonnements (ex: ChatGPT Plus, Midjourney) et des API commerciales.</li>
            <li><strong>Taux</strong> : Fixé par une commission indépendante, révisable tous les 2 ans.</li>
        </ul>

        <h3>5-2°) Gouvernance des Fonds</h3>

        <p>La gestion ne doit pas être laissée aux seuls acteurs privés, mais à une Autorité Européenne pour l'IA Culturelle composée de représentants :</p>

        <ul>
            <li>Des auteurs et artistes (40%)</li>
            <li>Des industries culturelles (20%)</li>
            <li>Des entreprises technologiques (20%)</li>
            <li>Des pouvoirs publics et experts (20%)</li>
        </ul>

        <p>Cette autorité supervisera la juste répartition des sommes perçues.</p>

        <h3>5-3 Destination des Fonds</h3>

        <p>Selon le modèle de Geiger/Scalzini/Bossi :</p>

        <ul>
            <li>50% : Répartition individuelle basée sur l'usage statistique des répertoires (détecté par échantillonnage).</li>
            <li>30% : Fonds Sociaux pour les auteurs (retraite, formation, assurance perte d'activité).</li>
            <li>20% : Soutien à la Création (bourses, financement de projets innovants, "Avant-garde" culturelle).</li>
        </ul>
    </div>
</body>
</html>
				</div>
				</div>
					</div>
		</div>
					</div>
		</section>
				</div>
		<p>L’article <a href="https://www.schmitt-avocats.fr/protection-auteurs-ia-modele-3to/">Protection des auteurs face à l&rsquo;IA: le Modèle 3T+O</a> est apparu en premier sur <a href="https://www.schmitt-avocats.fr">Philippe Schmitt Avocats</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
