L’IA responsable a un problème d’épuisement professionnel

“La perte d’une seule personne a des ramifications massives dans des organisations entières”, déclare Mitchell, car l’expertise que quelqu’un a accumulée est extrêmement difficile à remplacer. Fin 2020, Google a limogé son co-responsable de l’IA éthique, Timnit Gebru, et a licencié Mitchell quelques mois plus tard. Plusieurs autres membres de son équipe responsable-IA sont partis en l’espace de quelques mois seulement.

Gupta dit que ce type de fuite des cerveaux pose un “risque grave” pour les progrès de l’éthique de l’IA et rend plus difficile pour les entreprises d’adhérer à leurs programmes.

L’année dernière, Google annoncé il doublait son personnel de recherche consacré à l’éthique de l’IA, mais il n’a pas commenté ses progrès depuis. La société a déclaré au MIT Technology Review qu’elle propose une formation sur la résilience en santé mentale, a une initiative de soutien en santé mentale entre pairs et donne aux employés l’accès à des outils numériques pour aider à la pleine conscience. Il peut également les mettre virtuellement en contact avec des prestataires de soins de santé mentale. Il n’a pas répondu aux questions sur le temps passé par Mitchell dans l’entreprise.

Meta a déclaré avoir investi dans des avantages tels qu’un programme qui donne aux employés et à leurs familles l’accès à 25 séances de thérapie gratuites chaque année. Et Twitter a déclaré qu’il propose des séances de conseil et de coaching aux employés et une formation à la prévention de l’épuisement professionnel. L’entreprise a également un programme de soutien par les pairs axé sur la santé mentale. Aucune des entreprises n’a déclaré offrir un soutien spécialement conçu pour l’éthique de l’IA.

Alors que la demande de conformité à l’IA et de gestion des risques augmente, les dirigeants de la technologie doivent s’assurer qu’ils investissent suffisamment dans des programmes d’IA responsable, déclare Gupta.

Le changement commence par le sommet. « Les cadres doivent parler de leur argent, de leur temps, de leurs ressources qu’ils allouent à cela », dit-il. Sinon, les personnes travaillant sur l’IA éthique “sont vouées à l’échec”.

Les équipes d’IA responsable qui réussissent ont besoin de suffisamment d’outils, de ressources et de personnes pour travailler sur les problèmes, mais elles ont également besoin d’agence, de relations au sein de l’organisation et du pouvoir de mettre en œuvre les changements qu’on leur demande d’apporter, ajoute Gupta.

De nombreuses ressources en santé mentale dans les entreprises technologiques se concentrent sur la gestion du temps et l’équilibre travail-vie personnelle, mais plus de soutien est nécessaire pour les personnes qui travaillent sur des sujets émotionnellement et psychologiquement choquants, dit Chowdhury. Des ressources en santé mentale spécifiquement destinées aux personnes travaillant sur des technologies responsables seraient également utiles, ajoute-t-elle.

“Il n’y a pas eu de reconnaissance des effets de travailler sur ce genre de choses, et certainement pas de soutien ou d’encouragement pour s’en détacher”, dit Mitchell.

“Le seul mécanisme dont disposent les grandes entreprises technologiques pour gérer cette réalité est d’ignorer cette réalité.”