Microsoft utilise par défaut les données utilisateur Word et Excel pour la formation en IA (ou pas ?… Mise à jour)
Une patate chaude : La question controversée des entreprises qui entraînent leurs modèles d’IA sur le contenu généré par les utilisateurs est une fois de plus sous le feu des projecteurs. Cette fois, les programmes en question sont Microsoft Office et Excel, largement utilisés. La collecte de données est activée par défaut et la désinscription est un processus laborieux en plusieurs étapes.
Mise à jour / Correction (26 novembre, 16h) : Microsoft a confirmé qu’il n’utilisait pas les données des clients pour former ses grands modèles de langage. Ils ont également publié le tweet suivant sur leur compte X de Microsoft 365 :
Dans les applications M365, nous n’utilisons pas les données clients pour former les LLM. Ce paramètre active uniquement les fonctionnalités nécessitant un accès à Internet, comme la co-création d’un document. https://t.co/o9DGn9QnHb
– Microsoft 365 (@Microsoft365) 25 novembre 2024
de Microsoft expériences connectées dans Office analyse le contenu utilisateur pour fournir des recommandations de conception, des suggestions d’édition, des informations sur les données et des fonctionnalités similaires.
Sur X, nixCraft a souligné que la firme de Redmond a récemment activé une fonctionnalité qui récupère les documents Word et Excel des utilisateurs pour entraîner ses systèmes d’IA internes. Il est également activé par défaut.
Attention : Microsoft Office, comme de nombreuses entreprises ces derniers mois, a sournoisement activé une fonctionnalité de « désinscription » qui supprime vos documents Word et Excel pour entraîner ses systèmes d’IA internes. Ce paramètre est activé par défaut et vous devez décocher manuellement une case pour pouvoir opter… pic.twitter.com/wUfhBjcMOR
– nixCraft 🐧 (@nixcraft) 24 novembre 2024
Comme c’est souvent le cas lorsqu’une entreprise souhaite que ses clients conservent quelque chose d’activé, se désinscrire de la collecte de données est loin d’être simple et rapide. Sous Windows, cela nécessite d’accéder à Fichier > Options > Centre de confiance > Paramètres du Centre de confiance > Options de confidentialité > Paramètres de confidentialité > Expériences connectées facultatives et de décocher la case. De plus, une fois que vous avez décoché la case, une invite apparaît vous avertissant que la désactivation de l’option signifie que certaines expériences ne seront pas disponibles.
Pour ceux qui pensent que ce n’est pas grave, Tom’s Hardware remarques qu’une clause du contrat de services de Microsoft accorde à l’entreprise une licence de propriété intellectuelle mondiale et libre de redevances pour utiliser votre contenu.
« Dans la mesure nécessaire pour vous fournir les Services et pour autrui, pour vous protéger ainsi que les Services et pour améliorer les produits et services Microsoft, vous accordez à Microsoft une licence de propriété intellectuelle mondiale et libre de redevances pour utiliser Votre Contenu, par exemple, faire des copies, conserver, transmettre, reformater, afficher et distribuer via des outils de communication votre contenu sur les services », selon la clause.
Bien entendu, Microsoft n’est pas le seul à être coupable de ce genre de comportement sournois. Meta utilise également des publications publiques, des commentaires, des photos et des interactions avec les chatbots de Facebook, Instagram, Threads et WhatsApp pour entraîner ses modèles d’IA. Contrairement à l’UE et au Royaume-Uni, les Américains ne disposent pas d’un moyen simple de se désinscrire : configurer votre compte sur des aides privées, mais cela ne garantit toujours pas que cela n’arrivera pas.
En août, il a été révélé que Nvidia, la société dont le matériel alimente la révolution de l’IA générative, téléchargeait quotidiennement depuis 80 ans des vidéos de YouTube, Netflix et d’autres plateformes pour entraîner ses modèles d’IA.
Microsoft n’a pas commenté l’histoire. Il est possible que le tollé conduise à une clarification de ses conditions d’utilisation, un peu comme Adobe l’a fait après qu’une fenêtre contextuelle ait suggéré que l’entreprise pouvait accéder et revendiquer la propriété du contenu créé avec sa suite créative pour former des modèles d’IA.