Nouvelle loi française sur l'IA : qui doit prouver quoi ?
Le Sénat a voté le 8 avril une loi obligeant les entreprises d'IA à prouver l'origine de leurs données d'entraînement. La charge de la preuve est inversée : c'est désormais aux géants tech de démontrer qu'ils n'ont pas utilisé d'œuvres protégées. Le texte fait face à l'opposition des startups comme Mistral AI.
« « Dès lors qu’un outil d’IA citerait un texte original ou produirait quelque chose « à la manière de » un auteur identifiable, la présomption d’utilisation de son œuvre serait automatiquement établie. » » — Siecle Digital
Que faut-il retenir ?
- La loi adoptée le 8 avril inverse la charge de la preuve pour les entreprises d'IA.
- OpenAI, Google et Mistral utilisaient une exception d'une directive européenne de 2019.
- Mistral AI a proposé un fonds collectif financé par un pourcentage du CA des développeurs d'IA.
- La Sacem et le secteur culturel ont rejeté la proposition de Mistral AI.
Pourquoi cette nouvelle compte-t-elle ?
Cette loi change fondamentalement les règles du jeu pour l'entraînement des modèles d'IA générative. Les entreprises devront documenter scrupuleusement leurs données ou risquer des poursuites. Cela pourrait ralentir le développement des modèles européens face aux géants américains mieux capitalisés.
💬 Laure Darcos, Agnès Evren, Pierre Ouzoulias, Sénateurs porteurs du texte
Public concerné : entreprises
Comment les entreprises d'IA peuvent-elles prouver qu'elles n'ont pas utilisé une œuvre protégée ?
La loi ne précise pas encore les modalités exactes, mais les entreprises devront probablement documenter leurs jeux de données d'entraînement et mettre en place des systèmes de traçabilité. Certains proposent des solutions techniques comme le watermarking des données.
Commentaires (0)
💡 Aucun lien externe ni code HTML accepté. Soyez respectueux. Les commentaires sont modérés avant publication.
Aucun commentaire pour le moment. Soyez le premier !