Actualité Business | News 24

La peur de l’IA pourrait avoir conduit à l’éviction de Sam Altman à OpenAI

Sam Altman (à gauche) et Ilya Sutskever (à droite) ont peut-être eu des divergences sur la manière d’équilibrer l’innovation en matière d’IA et la réglementation.
JACK GUEZ

  • Les craintes concernant la vitesse de développement de l’IA chez OpenAI ont peut-être semé la discorde au sein de ses rangs supérieurs.
  • Certains membres du conseil d’administration d’OpenAI n’étaient peut-être pas d’accord avec l’approche d’Altman en matière d’innovation en matière d’IA.
  • Le cofondateur d’OpenAI, Ilya Sutskever, appelle depuis longtemps à la prudence, craignant que l’IA ne nuise à l’humanité.

Celui de Sam Altman Un éventuel bref licenciement d’OpenAI a révélé un schisme entre les principaux dirigeants de l’entreprise sur la manière de freiner la menace existentielle posée par l’IA.

Alors qu’Altman a parlé du dangers d’une IA “potentiellement effrayante” et la nécessité « critique » de la réglementer, l’ancien PDG d’OpenAI a été avant tout un modèle d’innovation rapide en matière d’IA.

Altman était connu pour positionner de manière agressive OpenAI pour rester en tête du peloton dans la course aux armements de l’IA, en recherchant de gros montants de financement et un développement rapide.

En septembre, Altman a tenté de gagner 1 milliard de dollars de financement de Softbank pour qu’un périphérique matériel exécute des outils comme ChatGPT, par exemple. Le PDG du conglomérat japonais, San Mayoshia déjà déclaré qu’il utilisait ChatGPT tous les jours et qu’il croyait au pouvoir de l’IA.

Ilya Sutskeverle cofondateur d’OpenAI, scientifique en chef et membre du conseil d’administration qui a joué un rôle dans le licenciement d’Altman, a préféré faire preuve de plus de prudence étant donné les menaces potentielles que l’IA représente pour la société.

Sutskever a créé une équipe « Super Alignement » au sein de l’entreprise pour garantir que les futures versions de GPT-4, la technologie derrière ChatGPT, ne seraient pas nocives pour l’humanité, selon le New York Times.

Deux autres membres du conseil d’administration d’OpenAI – Helen Toner, directrice du Centre pour la sécurité et les technologies émergentes de l’Université de Georgetown, et l’entrepreneur technologique Tasha McCauley – ont également des liens avec ce qu’on appelle mouvement altruiste efficacequi veille à ce que les progrès de l’intelligence artificielle soient alignés sur le meilleur intérêt des humains.

Si leur inquiétude quant à l’engagement d’Altman dans le mouvement altruiste efficace était à l’origine de son éviction, ce ne serait pas la première fois que de tels désaccords sur les dangers de l’IA poussent des gens à quitter l’entreprise.

En 2021, Dario Amodei et plusieurs autres employés d’OpenAI ont quitté l’entreprise pour fonder Anthropic, un rival d’OpenAI qui a placé la construction d’une IA plus sûre au cœur de sa mission.

Même Elon Muskqui a quitté le conseil d’administration d’OpenAI en 2018 en invoquant un conflit d’intérêts avec Tesla, s’inquiétait de savoir dans quelle mesure (ou peu) l’entreprise accordait la priorité à la sécurité, selon Wired.

Le conseil d’administration d’OpenAI n’a pas donné plus de détails sur ce qui l’a amené à licencier Altman, se contentant de noter qu’ils avaient « perdu confiance » en lui et qu’il n’était pas « toujours franc » dans ses communications.

Les conséquences de ce licenciement brutal ont cependant été rapides. Plusieurs dirigeants ont démissionné en signe de protestation et de nombreux employés d’OpenAI réclament désormais le retour d’Altman.