PDG d’IBM : Washington devrait tenir les entreprises technologiques responsables de l’IA
Krishna a appelé Washington à demander des comptes aux développeurs d’IA pour les failles de leurs systèmes qui entraînent des préjudices réels. Pendant ce temps, les entreprises qui déploient l’IA devraient être responsables lorsque leur utilisation de la technologie pose problème. Par exemple, un employeur ne devrait pas être en mesure d’éviter les accusations de discrimination dans l’emploi simplement en utilisant l’IA, a-t-il déclaré.
Krishna soutient que l’IA ne devrait pas suivre l’exemple des médias sociaux, où les vastes protections juridiques établies à l’aube d’Internet continuent de protéger les entreprises de toute responsabilité juridique. Au lieu de cela, a-t-il déclaré, les sociétés d’IA seront plus susceptibles de créer des systèmes plus sûrs qui respectent les lois existantes, telles que le droit d’auteur et la propriété intellectuelle, si les contrevenants pouvaient se retrouver devant les tribunaux.
Il avance maintenant cet argument en faveur d’une plus grande responsabilité autour de Washington. Krishna a rejoint les PDG d’entreprises comme Meta, Google, Amazon et X le mois dernier lors d’un forum pour conseiller les sénateurs sur la manière de réglementer l’IA. IBM fait également partie des entreprises qui ont signé un engagement de la Maison Blanche visant à créer des modèles sûrs.
Les appels de Krishna à ce que les créateurs d’IA soient tenus responsables « ne me rendent probablement pas très populaire parmi tout le monde », a-t-il déclaré. « Mais je pense que les gens se rendent compte qu’à partir du moment où l’on parle d’infrastructure critique et de cas d’utilisation critiques, la barre à franchir est [AI] déployés augmente.
Il a également reconnu que sa propre entreprise serait exposée à un risque juridique en vertu des règles qu’il soutient, bien qu’il affirme que cela est limité en partie parce qu’IBM construit principalement des modèles d’IA pour d’autres entreprises, qui ont un intérêt financier à respecter la loi. En revanche, les modèles d’IA comme ChatGPT d’OpenAI ou Llama 2 de Meta sont plus accessibles au public et donc sensibles à un large éventail d’utilisateurs.
Krishna n’a pas expliqué comment les législateurs devraient faire respecter cette responsabilité, mais ses commentaires fait écho à un article de blog récent décrivant les recommandations politiques plus larges d’IBM pour l’IA. Il a également mis en garde les régulateurs contre l’exigence de licences pour développer la technologie – rompant avec des concurrents comme Microsoft – et contre le fait de permettre aux créateurs et aux déployeurs d’IA de contourner leur responsabilité légale en bénéficiant d’une immunité totale.
« Nous pouvons avoir une voix », mais en fin de compte, ce sont les législateurs qui doivent rédiger les règles, a déclaré Krishna. « Le Congrès et le gouvernement fédéral en sont les propriétaires. Et c’est pourquoi nous les encourageons à réfléchir aux règles de responsabilité.»
À la fin du mois dernier, IBM a annoncé qu’elle offrirait une couverture juridique aux clients professionnels accusés d’avoir involontairement violé les droits d’auteur ou de propriété intellectuelle en utilisant son IA générative. Cela fait suite à une décision similaire de Microsoft dans le but d’apaiser les inquiétudes concernant les modèles d’IA génératifs qui utilisent une mine de données provenant d’Internet et d’autres sources pour créer des images, du texte et d’autres contenus.
« Je crois que cela accélérera le marché et je pense que cela créera un précédent », a déclaré Krishna. « Nous insistons pour que tout le monde soit responsable. Maintenant, nous pouvons débattre de la manière de responsabiliser les gens.
Annie Rees a contribué à ce rapport.
Pour écouter des entretiens quotidiens avec des leaders technologiques, abonnez-vous à POLITICO Tech sur Pomme, Spotify, Google ou partout où vous obtenez vos podcasts.