Tech

Le drame de Sam Altman révèle une division plus profonde dans le monde de la technologie

Tvoici peu doutant du dévouement de Sam Altman à Openaila firme à la pointe de l’intelligence artificielle (ai) révolution. En tant que co-fondateur et patron, il a semblé travailler aussi inlassablement à son succès que dans une startup précédente où sa détermination l’a conduit à une crise de scorbut, une maladie plus communément associée aux marins d’une époque révolue qui restaient trop longtemps en mer sans accès à nourriture fraîche. Son limogeage soudain, le 17 novembre, a donc été un choc. Les raisons pour lesquelles le conseil d’administration de l’entreprise a perdu confiance en M. Altman ne sont pas claires. Les rumeurs font état d’inquiétudes quant à ses projets parallèles et de craintes qu’il n’agisse trop rapidement pour développer Open.aisans tenir compte des implications en matière de sécurité, dans une entreprise qui s’est également engagée à développer la technologie pour le « bénéfice maximal de l’humanité ».

Les investisseurs de l’entreprise et certains de ses salariés demandent désormais la réintégration de M. Altman. Qu’ils réussissent ou non, il est clair que les événements d’Openai sont la manifestation la plus dramatique d’un fossé plus large au sein de la Silicon Valley. D’un côté se trouvent les « condamnés », qui croient que, si rien n’est fait, ai représente un risque existentiel pour l’humanité et préconise donc des réglementations plus strictes. En face d’eux se trouvent les « baby-boomers », qui minimisent les craintes d’une ai apocalypse et soulignent son potentiel à dynamiser le progrès. Le camp qui s’avère le plus influent pourrait soit encourager, soit contrecarrer des réglementations plus strictes, ce qui pourrait à son tour déterminer qui en profiterait le plus. ai à l’avenir.

OuvriraiLa structure de l’entreprise est à cheval sur le fossé. Fondée en tant qu’organisation à but non lucratif en 2015, l’entreprise a créé une filiale à but lucratif trois ans plus tard pour financer ses besoins en capacité de calcul coûteuse et en matière de matière grise afin de faire avancer la technologie. Il sera toujours difficile de satisfaire les objectifs concurrents des doomers et des baby-boomers.

Cette scission reflète en partie des différences philosophiques. De nombreux membres du camp catastrophique sont influencés par « l’altruisme efficace », un mouvement qui s’inquiète de la possibilité d’une ai anéantir toute l’humanité. Parmi les plus inquiets figure Dario Amodei, qui a quitté OpenAI pour lancer Anthropic, un autre modéliste. D’autres grandes entreprises technologiques, dont Microsoft et Amazon, font également partie de celles qui s’inquiètent. ai sécurité.

Les baby-boomers adoptent une vision du monde appelée « accélérationnisme efficace » qui va à l’encontre du fait que non seulement le développement de ai puisse se dérouler sans entrave, il convient de l’accélérer. Marc Andreessen, co-fondateur d’Andreessen Horowitz, une société de capital-risque, mène la charge. Autre ai les boffins semblent sympathiser avec la cause. Yann LeCun et Andrew Ng de Meta et de nombreuses startups, dont Hugging Face et Mistral ai ont plaidé pour une réglementation moins restrictive.

M. Altman semblait avoir de la sympathie pour les deux groupes, appelant publiquement à des « garde-fous » pour empêcher ai en toute sécurité tout en poussant simultanément Openai développer des modèles plus puissants et lancer de nouveaux outils, comme un magasin d’applications permettant aux utilisateurs de créer leurs propres chatbots. Son plus grand investisseur, Microsoft, qui a injecté plus de 10 milliards de dollars dans Openai pour une participation de 49% sans obtenir de siège au conseil d’administration de la société mère, serait mécontent, ayant appris le licenciement quelques minutes seulement avant M. Altman. S’il ne revient pas, il semble probable qu’Openai se rangera plus fermement du côté des pessimistes.

Pourtant, il semble qu’il y ait bien plus que de la philosophie abstraite. Il se trouve que les deux groupes sont également divisés selon des lignes plus commerciales. Les Doomers sont les premiers à avoir progressé dans le monde. ai race, ont des poches plus profondes et adoptent des modèles exclusifs. Les baby-boomers, en revanche, sont plus susceptibles d’être des entreprises en phase de rattrapage, de plus petite taille et préférant les logiciels open source.

Commencez par les premiers gagnants. OuvriraiLe chatgpt a ajouté 100 millions d’utilisateurs en seulement deux mois après son lancement, suivi de près par Anthropic, fondé par des transfuges d’Openai et désormais évalué à 25 milliards de dollars. Des chercheurs de Google ont rédigé l’article original sur les grands modèles de langage, des logiciels formés sur de grandes quantités de données et qui sous-tendent les chatbots, notamment Chat.gpt. La société propose des modèles plus grands et plus intelligents, ainsi qu’un chatbot appelé Bard.

L’avance de Microsoft, quant à elle, repose en grande partie sur son gros pari sur l’Openai. Amazon prévoit d’investir jusqu’à 4 milliards de dollars dans Anthropic. Mais dans le domaine technologique, agir en premier ne garantit pas toujours le succès. Dans un marché où la technologie et la demande évoluent rapidement, les nouveaux entrants ont de nombreuses opportunités de perturber les opérateurs historiques.

Cela pourrait donner une force supplémentaire aux pressions des pessimistes en faveur de règles plus strictes. Dans son témoignage devant le Congrès américain en mai, M. Altman a exprimé ses craintes que l’industrie puisse « causer un préjudice important au monde » et a exhorté les décideurs politiques à adopter des réglementations spécifiques pour ai. Le même mois, un groupe de 350 ai scientifiques et cadres technologiques, notamment d’OpenaiAnthropic et Google ont signé une déclaration d’une seule ligne mettant en garde contre un « risque d’extinction » posé par ai à égalité avec la guerre nucléaire et les pandémies. Malgré les perspectives terrifiantes, aucune des entreprises qui ont soutenu cette déclaration n’a interrompu son propre travail visant à créer des systèmes plus puissants. ai des modèles.

Les politiciens s’efforcent de montrer qu’ils prennent les risques au sérieux. En juillet, l’administration du président Joe Biden a donné un coup de pouce à sept grands modélistes, dont Microsoft, OpenaiMeta et Google, à prendre des « engagements volontaires », à avoir leur ai produits inspectés par des experts avant de les rendre publics. Le 1er novembre, le gouvernement britannique a demandé à un groupe similaire de signer un autre accord non contraignant permettant aux régulateurs de tester leurs ai produits pour leur fiabilité et leurs capacités nuisibles, telles que la mise en danger de la sécurité nationale. Quelques jours auparavant, M. Biden avait publié un décret beaucoup plus mordant. Cela oblige n’importe qui ai entreprise qui construit des modèles au-dessus d’une certaine taille – définie par la puissance de calcul requise par le logiciel – pour informer le gouvernement et partager ses résultats de tests de sécurité.

image: L’économiste

Une autre ligne de fracture entre les deux groupes est l’avenir de l’open source ai. llms ont été soit propriétaires, comme ceux d’Openai, Anthropic et Google, ou open-source. La sortie en février de lamaun modèle créé par Meta, a stimulé l’activité dans le domaine de l’open source ai (voir le tableau). Les partisans soutiennent que les modèles open source sont plus sûrs car ils sont ouverts à un examen minutieux.​ Les détracteurs craignent que la création de ces puissants ai les modèles publics permettront à de mauvais acteurs de les utiliser à des fins malveillantes.

Mais le conflit autour de l’open source peut aussi refléter des motivations commerciales. Les investisseurs en capital-risque, par exemple, en sont de grands fans, peut-être parce qu’ils espionnent un moyen pour les startups qu’ils soutiennent de rattraper la frontière ou d’accéder gratuitement aux modèles. Les opérateurs historiques peuvent craindre la menace concurrentielle. Un mémo rédigé par des initiés de Google et divulgué en mai admet que les modèles open source obtiennent des résultats sur certaines tâches comparables à ceux de leurs cousins ​​propriétaires et coûtent bien moins cher à construire. Le mémo conclut que ni Google ni Openai dispose d’un « fossé » défensif contre les concurrents open source.

Jusqu’à présent, les régulateurs semblent avoir été réceptifs aux arguments des pessimistes. Le décret de M. Biden pourrait freiner l’open source ai. La définition large des modèles « à double usage », qui peuvent avoir des objectifs à la fois militaires ou civils, impose des exigences de reporting complexes aux fabricants de ces modèles, qui pourraient à terme inclure également des modèles open source. On ne sait pas exactement dans quelle mesure ces règles peuvent être appliquées aujourd’hui. Mais ils pourraient gagner du terrain avec le temps, par exemple si de nouvelles lois étaient adoptées.

Toutes les grandes entreprises technologiques ne se situent pas clairement d’un côté ou de l’autre de la fracture. La décision de Meta d’ouvrir son système ai models en a fait un champion inattendu des startups en leur donnant accès à un modèle puissant sur lequel construire des produits innovants. Meta parie que la montée de l’innovation provoquée par les outils open source finira par l’aider en générant de nouvelles formes de contenu qui garderont ses utilisateurs accros et ses annonceurs satisfaits. Apple est une autre exception. La plus grande entreprise technologique du monde reste particulièrement silencieuse sur ai. Lors du lancement d’un nouvel iPhone en septembre, la société a présenté de nombreux ai-fonctionnalités pilotées sans mentionner le terme. Lorsqu’ils sont incités à le faire, ses dirigeants ont tendance à prôner « l’apprentissage automatique », un autre terme pour désigner ai.

Cela a l’air intelligent. L’effondrement à Openai montre à quel point les guerres culturelles sont dommageables ai peut être. Mais ce sont ces guerres qui façonneront la manière dont la technologie progressera, dont elle sera réglementée, et qui en repartira avec le butin.