Google licencie l’ingénieur qui a averti que l’IA de l’entreprise avait atteint la sensibilité

Vendredi, Google a licencié Blake Lemoine, un ingénieur logiciel qui a rendu public ses inquiétudes quant au fait qu’une technologie conversationnelle que l’entreprise développait avait atteint la sensibilité.

Lemoine est sorti de l’entreprise pour consulter des experts sur la sensibilité potentielle de la technologie, puis a publiquement partagé ses préoccupations dans un moyen Publier Et subséquente interview avec le Washington Post. Google avait Lemoine suspendu en juin pour avoir enfreint une politique de confidentialité, et il a maintenant été licencié. Lemoine lui-même devrait expliquer ce qui s’est passé dans un prochain épisode du podcast pour Big Technology, une sous-pile qui a d’abord rapporté l’histoire.

Google continue de nier que sa technologie LaMDA, ou modèle de langage pour les applications de dialogue, a atteint la sensibilité. La société affirme que LaMDA a fait l’objet de 11 examens distincts, et la société publié un article de recherche sur la technologie en janvier. Mais l’infraction licenciable de Lemoine était le partage d’informations internes, a déclaré Google dans un communiqué.

“Il est regrettable qu’en dépit d’un long engagement sur ce sujet, Blake ait toujours choisi de violer de manière persistante des politiques claires en matière d’emploi et de sécurité des données qui incluent la nécessité de protéger les informations sur les produits”, a déclaré Google dans le communiqué. “Nous poursuivrons notre développement minutieux des modèles de langage, et nous souhaitons bonne chance à Blake.”

LaMDA est décrit comme un chatbot sophistiqué : envoyez-lui des messages et il générera automatiquement une réponse adaptée au contexte, a déclaré le porte-parole de Google, Brian Gabriel, dans une déclaration antérieure. “Si vous demandez ce que c’est que d’être un dinosaure de la crème glacée, ils peuvent générer un texte sur la fonte et le rugissement, etc.”