En mai dernier, OpenAI a annoncé qu’elle développait un outil permettant aux créateurs de spécifier comment ils souhaitent que leurs œuvres soient incluses ou exclues de ses données de formation en IA. Mais 7 mois plus tard, cette fonctionnalité n’a toujours pas vu le jour.
Appelé Media Manager, l’outil « identifierait les textes, images, audio et vidéo protégés par le droit d’auteur », avait déclaré OpenAI à l’époque, pour refléter les préférences des créateurs « sur plusieurs sources ». L’objectif était de conjurer certains des critiques les plus féroces de l’entreprise et potentiellement de protéger OpenAI des contestations juridiques liées à la propriété intellectuelle.
Mais des personnes familières disent à TechCrunch que l’outil était rarement considéré comme un lancement important en interne. « Je ne pense pas que ce soit une priorité », a déclaré un ancien employé d’OpenAI. « Pour être honnête, je ne me souviens pas que quelqu’un ait travaillé dessus. »
Un non-employé qui coordonne le travail avec l’entreprise a déclaré à TechCrunch en décembre qu’il avait déjà discuté de l’outil avec OpenAI, mais qu’il n’y avait pas eu de mises à jour récentes. (Ces personnes ont refusé d’être identifiées publiquement lorsqu’elles discutaient de questions commerciales confidentielles.)
Et un membre de l’équipe juridique d’OpenAI qui travaillait sur Media Manager, Fred von Lohmann, est passé à un rôle de consultant à temps partiel en octobre. OpenAI PR a confirmé le passage de Von Lohmann à TechCrunch par e-mail.
OpenAI n’a pas encore fait le point sur les progrès de Media Manager, et la société n’a pas respecté la date limite qu’elle s’était imposée pour mettre l’outil en place d’ici 2025.
Problèmes de propriété intellectuelle
Les modèles d’IA comme les modèles d’apprentissage d’OpenAI dans des ensembles de données pour faire des prédictions – par exemple, cela une personne qui mord dans un hamburger laissera une marque de morsure. Cela permet aux modèles d’apprendre comment le monde fonctionne, dans une certaine mesure, en l’observant. ChatGPT peut rédiger des e-mails et des essais convaincants, tandis que Sora, le générateur vidéo d’OpenAI, peut créer des séquences relativement réalistes.
La capacité de s’appuyer sur des exemples d’écriture, de films et bien plus encore pour générer de nouvelles œuvres rend l’IA incroyablement puissante. Mais c’est aussi régurgitatif. Lorsqu’ils y sont invités d’une certaine manière, les modèles – dont la plupart sont formés sur d’innombrables pages Web, vidéos et images – produisent des quasi-copies de ces données qui, bien qu’elles soient « accessibles au public », ne sont pas destinées à être utilisées de cette façon.
Par exemple, Sora peut générer des clips comportant le logo de TikTok et des personnages de jeux vidéo populaires. Le New York Times a demandé à ChatGPT de citer textuellement ses articles (OpenAI a imputé ce comportement à un « »pirater« ).
Cela a naturellement bouleversé les créateurs dont les œuvres ont été intégrées dans une formation en IA sans leur permission. Beaucoup ont pris un avocat.
OpenAI lutte contre les recours collectifs intentés par des artistes, des écrivains, des YouTubers, des informaticiens et des agences de presse, qui affirment tous que la startup s’est formée illégalement à leurs travaux. Les plaignants comprennent les auteurs Sarah Silverman et Ta Nehisi-Coates, des artistes visuels et des conglomérats médiatiques comme le New York Times et Radio-Canada, pour n’en nommer que quelques-uns.
OpenAI a conclu des accords de licence avec des partenaires sélectionnés, mais tous les créateurs n’en voient pas les conséquences. termes aussi attrayant.
OpenAI propose aux créateurs plusieurs moyens ponctuels de « se désinscrire » de sa formation en IA. En septembre dernier, la société a lancé un formulaire de soumission pour permettre aux artistes de signaler leur travail afin de le retirer de ses futurs ensembles de formation. Et OpenAI permet depuis longtemps aux webmasters d’empêcher ses robots d’exploration du Web de récupérer des données sur leurs domaines.
Mais les créateurs ont critiqué ces méthodes comme étant aléatoires et inadéquates. Il n’existe pas de mécanismes de désinscription spécifiques pour les œuvres écrites, les vidéos ou les enregistrements audio. Et le formulaire de désinscription pour les images nécessite de soumettre une copie de chaque image à supprimer accompagnée d’une description, un processus onéreux.
Media Manager a été présenté comme une refonte complète – et une extension – des solutions de désinscription d’OpenAI aujourd’hui.
Dans le message d’annonce de mai, OpenAI a déclaré que Media Manager utiliserait « des recherches de pointe en matière d’apprentissage automatique » pour permettre aux créateurs et aux propriétaires de contenu de « dire » [OpenAI] ce qu’ils possèdent. OpenAI, qui a affirmé collaborer avec les régulateurs lors du développement de l’outil, a déclaré qu’il espérait que Media Manager « établirait une norme dans l’industrie de l’IA ».
Depuis, OpenAI n’a jamais mentionné publiquement Media Manager.
Un porte-parole a déclaré à TechCrunch que l’outil était « toujours en développement » en août, mais n’a pas répondu à une demande de commentaires ultérieure à la mi-décembre.
OpenAI n’a donné aucune indication sur le moment où Media Manager pourrait être lancé, ni même sur les fonctionnalités et capacités avec lesquelles il pourrait être lancé.
Utilisation équitable
En supposant que Media Manager arrive à un moment donné, les experts ne sont pas convaincus que cela dissipera les inquiétudes des créateurs – ni qu’il contribuera beaucoup à résoudre les questions juridiques entourant l’utilisation de l’IA et de l’IP.
Adrian Cyhan, avocat en propriété intellectuelle chez Stubbs Alderton & Markiles, a noté que Media Manager tel que décrit est une entreprise ambitieuse. Même des plateformes aussi grandes que YouTube et TikTok lutte avec ID de contenu à grande échelle. OpenAI pourrait-il vraiment faire mieux ?
« Garantir le respect des protections des créateurs légalement requises et des exigences d’indemnisation potentielles à l’étude présente des défis », a déclaré Cyhan à TechCrunch, « en particulier compte tenu de l’évolution rapide et du paysage juridique potentiellement divergent entre les juridictions nationales et locales ».
Ed Newton-Rex, fondateur de Fairly Trained, une organisation à but non lucratif qui certifie que les entreprises d’IA respectent les droits des créateurs, estime que Media Manager transférerait injustement le fardeau du contrôle de la formation en IA sur les créateurs ; en ne l’utilisant pas, ils pourraient sans doute donner leur approbation tacite à l’utilisation de leurs œuvres. « La plupart des créateurs n’en entendront jamais parler, et encore moins ne l’utiliseront pas », a-t-il déclaré à TechCrunch. « Mais il sera néanmoins utilisé pour défendre l’exploitation massive des œuvres de création contre la volonté des créateurs. »
Mike Borella, coprésident du groupe de pratique IA du MBHB, a souligné que les systèmes de désinscription ne tiennent pas toujours compte des transformations qui pourraient être apportées à une œuvre, comme une image sous-échantillonnée. Ils pourraient également ne pas répondre au scénario très courant des plates-formes tierces hébergeant des copies du contenu des créateurs, a ajouté Joshua Weigensberg, avocat spécialisé en propriété intellectuelle et en médias chez Pryor Cashman.
« Les créateurs et les titulaires de droits d’auteur ne contrôlent pas, et souvent ne savent même pas, où leurs œuvres apparaissent sur Internet », a déclaré Weigensberg. « Même si un créateur indique à chaque plateforme d’IA qu’il renonce à la formation, ces entreprises peuvent tout de même continuer à se former sur des copies de leurs œuvres disponibles sur des sites Web et des services tiers. »
Media Manager n’est peut-être même pas particulièrement avantageux pour OpenAI, du moins d’un point de vue jurisprudentiel. Evan Everist, associé chez Dorsey & Whitney spécialisé dans le droit d’auteur, a déclaré que même si OpenAI pourrait utiliser l’outil pour montrer à un juge qu’il atténue sa formation sur le contenu protégé par IP, Media Manager ne protégerait probablement pas l’entreprise contre des dommages s’il l’était. reconnu coupable de contrefaçon.
« Les titulaires de droits d’auteur n’ont pas l’obligation de dire de manière préventive aux autres de ne pas porter atteinte à leurs œuvres avant que cette violation ne se produise », a déclaré Everist. « Les principes fondamentaux de la loi sur le droit d’auteur s’appliquent toujours : il ne faut pas prendre ni copier les éléments d’autrui sans autorisation. Cette fonctionnalité concerne peut-être davantage les relations publiques et le positionnement d’OpenAI en tant qu’utilisateur éthique de contenu.
Un calcul
En l’absence de Media Manager, OpenAI a implémenté des filtres — quoique imparfaits — pour éviter que ses modèles régurgitent des exemples de formation. Et dans les procès auxquels elle est confrontée, l’entreprise continue de revendiquer des protections contre l’usage équitable, affirmant que ses modèles créent des œuvres transformatrices et non plagiat.
OpenAI pourrait bien l’emporter dans ses litiges en matière de droits d’auteur.
Les tribunaux pourraient décider que l’IA de l’entreprise a un « objectif transformateur », à la suite du précédent établi il y a environ dix ans dans le procès intenté par l’industrie de l’édition contre Google. Dans cette affaire, un tribunal a jugé que la copie par Google de millions de livres pour Google Books, une sorte d’archives numériques, était autorisée.
OpenAI a dit publiquement qu’il serait « impossible » de former des modèles d’IA compétitifs sans utiliser de matériel protégé par le droit d’auteur – autorisé ou non. « Limiter les données de formation aux livres et dessins du domaine public créés il y a plus d’un siècle pourrait donner lieu à une expérience intéressante, mais ne fournirait pas de systèmes d’IA répondant aux besoins des citoyens d’aujourd’hui », a écrit la société dans une soumission en janvier à la Chambre des Lords du Royaume-Uni. .
Si les tribunaux devaient finalement déclarer OpenAI victorieux, Media Manager ne servirait pas vraiment d’objectif juridique. OpenAI semble être prêt à faire ce pari – ou à reconsidérer sa stratégie de non-participation.