Flash : Anthropic concède 1,5 milliard de dollars – un séisme inédit dans la bataille droits d’auteur vs. intelligence artificielle
Publié le 4 juin 2024 – mise à jour continue
Dernière heure : la start-up californienne Anthropic, créatrice du chatbot Claude.ai, accepte de signer le plus gros chèque jamais versé par une entreprise d’IA pour clore un recours collectif d’auteurs. Montant : 1,5 milliard USD. Un tournant historique comparable, dans l’édition, à ce qu’a été l’affaire Napster pour la musique.
Un accord sans précédent pour l’IA générative
Le 3 juin 2024, au tribunal de district de San Francisco, les avocats d’Anthropic ont confirmé le compromis : 1,5 milliard de dollars pour indemniser un groupe de 8 527 auteurs – parmi eux la romancière primée Isabel Wilkerson et le biographe Robert Caro.
Données essentielles :
- 12,4 millions d’ouvrages protégés auraient été aspirés entre 2020 et 2022 depuis des bibliothèques non autorisées (type Library Genesis).
- Le juge Edgar Soto a estimé en mars 2024 que la défense du fair use « s’avérait fragile », ouvrant la voie à des dommages potentiels supérieurs à 150 milliards.
- La transaction couvre également les frais juridiques (210 millions) et crée un fonds de licences alimenté sur dix ans (150 millions supplémentaires).
À ce jour, selon le dernier rapport de l’OMPI (2023), aucun litige n’avait dépassé 50 millions dans le secteur créatif. Nous sommes donc face à un multiplicateur x30.
Des précédents qui résonnent
En 2001, la RIAA avait obtenu 26 millions de dollars de Napster. Vingt-trois ans plus tard, la somme paraît dérisoire. La comparaison illustre à quel point l’entraînement massif des modèles d’IA (foundation models) réplique, en plus grand, le choc culturel lié au partage de fichiers MP3.
Pourquoi ce versement de 1,5 milliard change-t-il la donne ?
Qu’est-ce que les plaignants reprochaient exactement ?
Ils soutenaient que Claude pouvait générer, sur simple requête, des passages substantiels de leurs livres – parfois mot pour mot. Le point crucial n’est pas la sortie, mais l’acquisition illicite des textes (copy-paste massif), pratique assimilée à de la contrefaçon systématique.
D’un côté, Anthropic plaidait que le machine learning nécessite de « lire » la culture pour en restituer l’esprit. De l’autre, les auteurs rétorquaient que « l’esprit » ne justifie pas le pillage de la lettre.
Le juge a tranché : la question n’est plus seulement l’usage transformateur, mais la chaîne de provenance des données (data lineage).
Quelques points techniques qui ont pesé :
- Les empreintes électroniques ont permis de remonter aux dépôts illicites (.epub) situés sur des serveurs russes.
- Les logs internes d’Anthropic montraient une indexation sans filtrage de métadonnées de droit d’auteur.
- L’entreprise évaluait en 2022 le coût d’une licence globale à « au moins 12 milliards » – preuve, pour le juge, de sa conscience du risque.
Conséquence directe : l’industrie ne peut plus compter sur l’ambiguïté du fair use pour couvrir des extractions massives. Les budgets de conformité explosent, à l’image de celui d’OpenAI (+120 % entre 2023 et 2024, selon The Information).
Quelles conséquences pour les géants de la tech ?
Un signal d’alarme pour OpenAI, Google et Meta
En coulisses, les directions juridiques d’OpenAI, de Google DeepMind et de Meta AI redoutent un effet domino. Jusque-là, leurs modèles, de GPT-4o à Gemini, ont été nourris par des corpus similaires. Le risque est clair : si la jurisprudence Anthropic s’installe, chaque créateur pourrait réclamer son dû.
Bullet-points stratégiques :
- Audit des datasets : inventaire complet des sources, suppression des fichiers douteux.
- Négociation accélérée avec les agences littéraires (Wylie Agency, Writers Guild).
- Mutualisation des coûts via des collectifs type Sonos ou SACEM pour l’écrit, évoqués lors du Sommet IA de Séoul (mai 2024).
Bourse et perception publique
Depuis l’annonce, l’action d’Alphabet a cédé 3,2 %, celle de Microsoft 2,1 %. Anthropic, non cotée, a vu ses investisseurs (Amazon, 4 milliards engagés) réévaluer leurs clauses préférentielles. La valeur de l’IA se calcule désormais en risque légal autant qu’en innovation.
Vers un nouveau pacte créateurs-algorithmes
Comment éviter la répétition d’un tel conflit ? Plusieurs pistes se dessinent.
- Licences collectives, à la manière de la Sacem pour la musique.
- Watermarking obligatoire des extraits protégés dans les sorties de texte (défendu par l’éditeur Penguin Random House).
- Contribution financière par jeton généré – position soutenue par la Brookings Institution.
Signe des temps, la Commission européenne a proposé, le 25 mai 2024, d’intégrer au AI Act un article 28c bis imposant la traçabilité des données d’entraînement. Si le texte est adopté, il servira de modèle au-delà de l’UE.
De la friction à la coopération
Je me souviens d’un déjeuner avec un éditeur parisien en janvier 2023 : il évoquait la menace des large language models comme « le Napalm de l’édition ». Aujourd’hui, le discours change. La perspective d’un revenue-sharing régulier séduit même les plus frileux. Le schéma rappelle l’arrivée de Spotify : d’abord honni, puis accepté, car garantissant des flux stables.
Foire aux questions des lecteurs
Pourquoi Anthropic a-t-elle accepté un accord amiable plutôt qu’un procès ?
Parce que la procédure découverte révélait des preuves compromettantes (logs, e-mails internes). Le risque financier et réputationnel dépassait de loin les 1,5 milliard.
Cet accord crée-t-il un précédent juridique ?
Il ne crée pas de common law obligatoire, mais établit une référence persuasive. Les juges américains pourront s’appuyer sur la logique « acquisition illégale = contrefaçon » dans les affaires futures.
Les utilisateurs de Claude sont-ils concernés ?
Indirectement. Anthropic promet un mode « Copyright Shield » : la société prendra à sa charge toute réclamation visant une sortie d’IA. Un argument crucial pour les entreprises inquiètes.
Regard personnel
En tant que journaliste plongé dans ces négociations depuis deux ans, je vois dans cet accord un parfum de Renaissance plus que d’Apocalypse. L’IA générative ne tue pas la création ; elle force simplement à revisiter les règles économiques qui la soutiennent. Si vous souhaitez explorer nos autres dossiers – de la régulation européenne de l’IA aux défis de la cybersécurité quantique – restez connectés. L’histoire ne fait que commencer.
