GenAI impose-t-il une taxe sur la créativité ?
Sujets
-
Gestion de la technologie
-
IA et apprentissage automatique
Frontières
Un MIT SMR initiative explorant comment la technologie remodèle la pratique du management.
Plus dans cette série
Les systèmes d’IA générative qui modélisent le langage ont fait preuve d’une maîtrise remarquable dans diverses tâches, et les employés les ont adoptés pour accélérer notamment le travail d’écriture et de développement de logiciels. Les gains de productivité promis par ces outils, comme ChatGPT, conduisent de nombreux managers à les intégrer dans les workflows. Cependant, nos recherches révèlent que les améliorations potentielles de l’efficacité s’accompagnent d’inconvénients potentiels.
Une dépendance excessive à l’IA peut décourager les employés d’exprimer leur savoir-faire spécifique et de proposer leurs propres idées, et pourrait également entraîner des résultats de plus en plus homogénéisés qui limitent les avantages de la diversité des employés. À long terme, cela pourrait diminuer l’innovation et l’originalité. Les managers cherchant à gagner en efficacité grâce aux grands modèles de langage (LLM) devront aider les employés à équilibrer judicieusement productivité et créativité dans leur collaboration avec l’IA.
Obtenez des mises à jour sur le leadership avec l’IA et les données
Obtenez des informations mensuelles sur l’impact de l’intelligence artificielle sur votre organisation et ce qu’elle signifie pour votre entreprise et vos clients.
S’il vous plaît, mettez une adresse email valide
Merci de votre inscription
politique de confidentialité
Le compromis entre originalité et effort
Le contenu généré par l’IA imite de manière impressionnante la fluidité linguistique du contenu créé par l’homme, mais manque généralement des choix stylistiques spécifiques d’un utilisateur et de la pensée originale qu’il exprimerait naturellement en accomplissant la tâche sans l’IA. L’alignement des résultats de l’IA pour capturer avec succès l’intention des résultats humains peut nécessiter un affinement rapide et itératif qui prend du temps et que les utilisateurs peuvent décider n’en vaut pas la peine si les premiers résultats de l’IA sont considérés comme suffisamment bons. Ainsi, les utilisateurs sont confrontés à une décision : investir du temps dans la personnalisation des suggestions génératives d’IA pour refléter progressivement davantage leur style et leur savoir-faire uniques – un processus qui peut prendre du temps productif – ou se contenter de premières ébauches quelque peu sous-optimales.
Prenons l’exemple d’une équipe d’ingénieurs logiciels collaborant sur un projet logiciel à grande échelle. Pendant qu’ils travaillent sur la base de code, chaque membre de l’équipe prendra des décisions en matière de codage et de documentation qui sont conformes aux normes convenues, mais qui sont également motivées par l’expérience et les préférences de chaque individu concernant l’architecture des objets, la dénomination des fonctions, les choix de tests, etc. . Tout comme les auteurs de prose visent à créer des tournures de phrases brillantes, les ingénieurs logiciels s’efforcent de développer des solutions élégantes et originales aux problèmes de codage.
Une trop grande concentration sur les objectifs de productivité et les délais peut encourager les employés à accepter des résultats d’IA générative plus génériques.
Lorsque la productivité est une priorité, les outils basés sur LLM tels que GitHub Copilot facilitent la génération rapide d’un brouillon ou la saisie semi-automatique de gros blocs de code. Cela peut faire gagner beaucoup de temps, étant donné que les outils écrivent souvent du code décent et peuvent rapidement améliorer le code existant. Cependant, la première version de l’IA pourrait ne pas refléter les meilleures pratiques de l’équipe ou le savoir-faire et le style d’un ingénieur. Bien que les ingénieurs puissent affiner leurs invites d’IA ou modifier le code manuellement pour l’améliorer afin qu’il soit plus fidèle à leur intention, cela les ralentira. Cependant, négliger de le faire peut avoir des implications négatives sur la productivité future : plus tard, lorsqu’un programmeur doit revenir au code pour corriger un bug ou apporter des améliorations, les coûts et les efforts nécessaires pour remédier aux lacunes peuvent être considérablement plus élevés. En effet, recherche a constaté que les individus ont souvent du mal à réviser et à adapter le code généré par l’IA ; dans certains cas, il peut être plus efficace de repartir de zéro si des changements sont nécessaires.
Le risque qui en résulte pour les managers est que trop se concentrer sur les objectifs de productivité et les délais difficiles à respecter pourrait encourager les employés à éviter les efforts supplémentaires et à simplement accepter des résultats plus génériques. Cela pourrait avoir des répercussions négatives importantes : une étude de 2023 a révélé que les outils de codage basés sur LLM peuvent diminuer la qualité du code et la maintenabilité.
Ce scénario est déjà celui auquel sont déjà confrontés les travailleurs qui s’appuient sur des outils d’IA générative pour écrire à leur place. L’intégration de l’IA avec les suites logicielles d’entreprise a permis aux LLM de rédiger facilement des e-mails, de générer des rapports ou de concevoir des diapositives de présentation. Dans de tels cas, les utilisateurs sont confrontés à un compromis similaire entre accepter un résultat qu’ils pourraient juger sous-optimal en termes de précision ou d’originalité d’écriture, et faire un effort supplémentaire pour obtenir de meilleurs résultats des outils via des améliorations rapides. La pression temporelle jouera probablement un rôle important dans les choix des utilisateurs. Il n’y a rien de gratuit ici : plus les utilisateurs passent de temps à éditer eux-mêmes le contenu ou à affiner les invites itératives, plus le résultat de l’outil sera proche des préférences et des normes des utilisateurs. Si elles acceptent systématiquement les résultats initiaux de l’IA, l’organisation accumulera du contenu – ou du code – qui ne reflète pas vraiment le savoir-faire et l’expertise pour lesquels les employeurs apprécient les artistes talentueux.
Dans un document de travail, nous avons présenté un modèle mathématique simple conçu pour recréer et capturer aspects clés des interactions homme-IA. Nous décrivons ci-dessous ce que cela nous apprend sur les conséquences potentielles d’une large adoption de l’IA.
Mettre la créativité en danger
Nos recherches suggèrent que, à mesure que les gens tentent d’équilibrer le compromis entre l’obtention d’un résultat optimal et le travail plus efficace lorsqu’ils interagissent avec l’IA, la diversité de pensée et la créativité ont tendance à se perdre. Le fait d’utiliser par défaut la sortie non modifiée de l’outil peut donner lieu à un contenu plus homogène que celui qui serait créé par des humains individuels. Si les e-mails de tout le monde étaient rédigés par Microsoft Copilot, par exemple, ils se ressembleraient probablement tous. Une telle homogénéité à grande échelle peut mettre en péril l’originalité et la diversité des idées et des contenus essentiels à la croissance et à l’innovation.
Ce problème d’homogénéisation s’intensifie lorsque le contenu généré par l’IA est utilisé pour former des modèles d’IA ultérieurs. L’utilisation rationnelle de cette nouvelle technologie et le processus d’apprentissage de l’IA peuvent créer une boucle de rétroaction, conduisant potentiellement à une spirale mortelle d’homogénéisation, dans laquelle le contenu généré par l’IA perd sa diversité. Cette préoccupation s’accentue à mesure que de plus en plus de contenus générés par l’IA se retrouvent dans les pools de données utilisés pour former les LLM, qu’il s’agisse de contenu organisationnel propriétaire ou de matériel sur Internet. Si le Web devient saturé de contenu généré par l’IA et que nous intégrons de plus en plus l’IA dans nos processus de flux de travail et de génération de contenu, la créativité et la diversité de nos idées seront considérablement réduites. Certains chercheurs ont fait valoir que la formation des LLM sur davantage de contenu généré par le LLM que par le contenu généré par l’homme pourrait même conduire à l’effondrement des modèles LLM.
Mais à ce stade, étant donné que l’IA peut générer avec compétence une grande quantité de contenu de routine, il peut sembler que la perte de diversité de pensée n’a que peu de conséquences, surtout compte tenu des gains d’efficacité potentiellement importants. Cependant, l’habitude de se tourner par défaut vers les résultats du LLM pourrait avoir des implications considérables sur l’innovation, qui dépend de l’originalité et de la créativité. Les managers doivent trouver un équilibre entre l’accent mis sur les gains de productivité et la garantie que les outils d’IA améliorent plutôt que de limiter les idées et les perspectives exprimées dans les produits de travail.
L’homogénéité à grande échelle peut mettre en péril l’originalité et la diversité des idées et des contenus essentiels à la croissance et à l’innovation.
Les managers peuvent bénéficier des avantages de l’IA générative en matière de productivité de plusieurs manières tout en préservant la créativité et la diversité de pensée. Premièrement, ils devraient repenser leurs attentes en matière de productivité. Lorsqu’ils évaluent l’utilisation potentielle de l’IA générative pour une tâche donnée, les managers doivent tenir compte de la nature et des exigences de la tâche ainsi que du degré de supervision ou de réflexion originale que les employés sont censés apporter. Dans certains cas, les employés peuvent avoir besoin de plus de temps pour accomplir la tâche avec l’IA.
L’amélioration des interactions homme-IA en permettant aux utilisateurs de guider, modifier et corriger plus facilement les résultats du modèle peut jouer un rôle crucial dans leur réussite. Par exemple, la génération augmentée par récupération utilise des bases de connaissances externes pour améliorer la précision des résultats. Une formation complète en ingénierie rapide devrait également permettre aux utilisateurs de transmettre plus facilement leurs propres idées pour façonner des résultats LLM plus originaux.
Historiquement, les changements dans le monde des affaires, tels que l’automatisation et la délocalisation, ont transféré la charge de travail et les tâches de routine vers des machines ou des tiers. En retour, cela a permis aux entreprises d’augmenter leur productivité et de réduire leurs coûts. En revanche, si la technologie de l’IA générative promet également des améliorations de productivité et une réduction des coûts, elle affecte les entreprises dans un domaine différent : celui des idées, du contenu et de l’innovation. Cela peut réduire notre charge cognitive dans des tâches telles que la rédaction de documents de routine ou l’analyse de longs rapports. Cependant, comme nous l’avons expliqué plus haut, il existe des risques à externaliser une trop grande partie de notre propre pensée originale ou critique. Nous promouvons l’utilisation de l’IA comme un assistant qui enrichit nos vies et notre travail plutôt que comme un substitut qui érode la richesse de notre individualité et la diversité de nos pensées.
Pour atténuer ces préoccupations, il est essentiel que les dirigeants guident leurs équipes dans l’utilisation réfléchie des outils d’IA. Les managers doivent encourager leurs employés à exprimer authentiquement leurs points de vue distincts et à apporter activement leur créativité à l’entreprise. Cela garantira non seulement que les systèmes d’IA seront mieux utilisés pour réaliser des gains d’efficacité tout en préservant leur originalité ; cela protégera également contre les pièges potentiels d’une culture homogène influencée par l’IA. Cultiver une relation équilibrée entre les humains et l’IA, où les deux parties se complètent mutuellement, sera essentiel pour naviguer dans le paysage changeant de la production et de la création basées sur l’IA au sein de nos entreprises.