X

Un lanceur d’alerte d’OpenAI retrouvé mort par suicide apparent

  • Suchir Balaji, un ancien chercheur d’OpenAI, a été retrouvé mort le 26 novembre dans son appartement, selon des informations.

  • Balaji, 26 ans, était un chercheur OpenAI depuis quatre ans qui a quitté l’entreprise en août.

  • Il avait accusé son employeur d’avoir violé la loi sur le droit d’auteur avec son modèle ChatGPT très populaire.

Suchir Balaji, un ancien OpenAI chercheur depuis quatre ans, a été retrouvé mort dans son appartement de San Francisco le 26 novembre, selon plusieurs informations. Il avait 26 ans.

Balaji avait récemment critiqué OpenAI sur la façon dont la startup collecte des données sur Internet pour former ses modèles d’IA. L’une de ses tâches chez OpenAI consistait à rassembler ces informations pour le développement du puissant modèle d’IA GPT-4 de l’entreprise, et il s’inquiétait de la façon dont cela pourrait nuire à la façon dont le contenu est créé et partagé sur Internet.

Un porte-parole du département de police de San Francisco a déclaré à Business Insider qu’« aucune preuve d’acte criminel n’a été trouvée lors de l’enquête initiale ».

David Serrano Sewell, directeur exécutif du bureau du médecin légiste en chef de la ville, a déclaré au San Jose Mercury News que « les circonstances du décès ont été déterminées comme étant un suicide ». Un porte-parole du bureau du médecin légiste de la ville n’a pas immédiatement répondu à une demande de commentaires de BI.

« Nous sommes dévastés d’apprendre aujourd’hui cette incroyablement triste nouvelle et nos pensées vont aux proches de Suchir pendant cette période difficile », a déclaré un porte-parole d’OpenAI dans une déclaration à BI.

En octobre, Balaji a publié un essai sur son site personnel qui a soulevé des questions sur ce qui est considéré comme une « utilisation équitable » et si cela peut s’appliquer aux données de formation OpenAI utilisé pour son très populaire ChatGPT modèle.

« Bien que les modèles génératifs produisent rarement des résultats substantiellement similaires à leurs intrants de formation, le processus de formation d’un modèle génératif implique de faire des copies de données protégées par le droit d’auteur », a écrit Balaji. « Si ces copies ne sont pas autorisées, cela pourrait potentiellement être considéré comme une violation du droit d’auteur, selon que l’utilisation spécifique du modèle soit ou non qualifiée d' »utilisation équitable ». Parce que l’utilisation équitable est déterminée au cas par cas, aucune déclaration générale ne peut être faite sur le moment où l’IA générative est admissible à une utilisation équitable. »

Balaji a soutenu dans son essai personnel que la formation de modèles d’IA avec des masses de données copiées gratuitement à partir d’Internet est potentiellement préjudiciable aux communautés de connaissances en ligne.

Il a cité un document de recherche décrivant l’exemple de Stack Overflow, un site Web de questions-réponses sur le codage qui a connu une forte baisse du trafic et de l’engagement des utilisateurs après la sortie de ChatGPT et de modèles d’IA tels que GPT-4.

Related Post

Les grands modèles de langage et les chatbots répondent directement aux questions des utilisateurs, de sorte que les gens ont désormais moins besoin de se tourner vers les sources originales pour obtenir des réponses.

Dans le cas de Stack Overflow, les chatbots et les LLM répondent aux questions de codage, donc moins de personnes visitent Stack Overflow pour demander de l’aide à cette communauté. Cela signifie à son tour que le site Web de codage génère moins de nouveau contenu humain.

Elon Musk a mis en garde à ce sujet, qualifiant le phénomène « Mort par LLM. »

OpenAI fait face à plusieurs poursuites qui accusent l’entreprise de violation du droit d’auteur.

Le New York Times a poursuivi OpenAI l’année dernière, accusant la start-up et Microsoft d' »utiliser illégalement les travaux du Times pour créer des produits d’intelligence artificielle qui les concurrencent ».

Dans une interview accordée au Times publiée en octobre, Balaji a déclaré que les chatbots comme ChatGPT suppriment la valeur commerciale du travail et des services des gens.

« Ce n’est pas un modèle durable pour l’écosystème Internet dans son ensemble », a-t-il déclaré à la publication.

Dans une déclaration au Times concernant les accusations de Balaji, OpenAI a déclaré : « Nous construisons nos modèles d’IA en utilisant des données accessibles au public, d’une manière protégée par un usage équitable et des principes connexes, et soutenue par des précédents juridiques de longue date et largement acceptés. Nous considérons ce principe comme juste pour les créateurs, nécessaire pour les innovateurs et essentiel pour la compétitivité des États-Unis. »

Balaji a ensuite été désigné dans le procès du Times contre OpenAI comme un « dépositaire » ou une personne détenant des documents pertinents pour l’affaire, selon une lettre déposée le 18 novembre et consultée par BI.

Si vous ou quelqu’un que vous connaissez souffrez de dépression ou si vous avez pensé à vous faire du mal ou à vous suicider, demandez de l’aide. Aux États-Unis, appelez ou envoyez un SMS au 988 pour joindre la bouée de sauvetage en cas de suicide et de crisequi propose un accompagnement gratuit et confidentiel 24h/24 et 7j/7 aux personnes en détresse, ainsi que des bonnes pratiques pour les professionnels et des ressources pour aider à la prévention et aux situations de crise. L’aide est également disponible via le Ligne de texte de crise — envoyez simplement « HOME » au 741741. Le Association internationale pour la prévention du suicide offre des ressources pour ceux en dehors des États-Unis.

Lire l’article original sur Business Insider

Lien source