Ce que les PDG du secteur technologique ont dit à propos de la réglementation de l’IA lors des audiences du Sénat américain
Les PDG de la Silicon Valley et les législateurs américains se sont rencontrés cette semaine lors d’une série d’auditions qui ont abouti à un consensus général : la réglementation de l’IA est nécessaire. Les leaders technologiques qui ont fait leur apparition constituaient un véritable who’s who de l’industrie en plein essor de l’IA, notamment Mark Zuckerberg de Meta, Elon Musk de X, Jensen Huang, PDG de Nvidia, et William Dally, scientifique en chef, Sam Altman d’OpenAI, Alex Karp de Palantir et Brad Smith de Microsoft. .
Voici un résumé de ce que disent plusieurs de ces dirigeants, dont certains ne sont pas particulièrement connus pour leur convivialité envers la réglementation en général, j’avais à dire sur la réglementation de l’IA :
Brad Smith, président de Microsoft
L’octroi de licences est « indispensable » dans les scénarios à haut risque, mais il a reconnu qu’il ne résoudra pas tous les problèmes. « Vous ne pouvez pas conduire une voiture avant d’avoir obtenu un permis », a déclaré Smith. « Vous ne pouvez pas rendre le modèle ou l’application disponible tant que vous n’avez pas franchi cette porte. »
William Dally, scientifique en chef de Nvidia
« De nombreuses utilisations des applications d’IA sont soumises aux lois et réglementations existantes qui régissent les secteurs dans lesquels elles opèrent. Les services basés sur l’IA et les secteurs à haut risque pourraient être soumis à des exigences renforcées en matière de licences et de certification si nécessaire.
Il a ajouté qu’aucun pays ni aucune entreprise ne contrôle le développement de l’IA. « Alors que les entreprises américaines sont peut-être actuellement les plus économes en énergie, les plus rentables et les plus faciles à utiliser. Ce ne sont pas les seules alternatives viables pour les développeurs à l’étranger », a déclaré Dally. « Une IA sûre et fiable nécessitera une coopération multilatérale et multipartite, sinon elle ne sera pas efficace. »
Mark Zuckerberg, PDG de Meta
Dans remarques préparées, Zuckerberg a écrit que le gouvernement devrait créer une réglementation qui soutient l’innovation. Il a ajouté que deux problèmes déterminants pour l’IA à l’heure actuelle sont 1) la sécurité : il appartient aux entreprises (et non au gouvernement) de construire et de déployer des produits de manière responsable et d’intégrer des garanties dans leurs modèles d’IA générative et 2) l’accès à l’état de l’art. IA artistique.
Elon Musk, PDG de Twitter
Musc a déclaré aux journalistes il était nécessaire d’avoir un « arbitre » pour garantir la sécurité de l’IA et a ajouté qu’un régulateur « veillerait à ce que les entreprises prennent des mesures sûres et dans l’intérêt du grand public ».
La réglementation de l’IA aux États-Unis est encore loin
On ne sait pas quand et comment le gouvernement américain réglementera les entreprises qui fournissent des applications d’IA. Étant donné le temps qu’il a fallu à l’UE pour agir grâce à ses propres lois sur l’IA, une action immédiate semble peu probable. Les sénateurs Richard Blumenthal et Josh Hawley ont proposé vendredi dernier un cadre d’IA axé sur le licence de modèles d’IA « à haut risque » et un organisme indépendant pour superviser l’octroi des licences.
Le défi de l’élaboration de lois sur l’IA est qu’il n’est pas toujours possible d’expliquer pourquoi un algorithme fait quelque chose. Universitaires qui étudient l’IA préconisent que la réglementation se concentre sur les résultats des systèmes d’IA, par exemple, lorsqu’il existe des preuves que les outils de recrutement d’IA ont discriminé un candidat à un emploi, en se concentrant sur la détermination des responsables.