Fei-Fei Li choisit Google Cloud, où elle dirigeait l’IA, comme principal fournisseur de calcul de World Labs
Les fournisseurs de cloud courent après les licornes de l’IA, et le dernier en date est World Labs de Fei-Fei Li. La startup vient de faire appel à Google Cloud comme principal fournisseur de calcul pour former des modèles d’IA, un accord qui pourrait valoir des centaines de millions de dollars. Mais le mandat de Li en tant que scientifique en chef de l’IA chez Google Cloud n’a pas été un facteur, affirme la société.
Lors du Google Cloud Startup Summit mardi, les entreprises annoncé World Labs utilisera une grande partie de son financement pour octroyer des licences aux serveurs GPU sur la plate-forme Google Cloud et, à terme, former des modèles d’IA « spatialement intelligents ».
Une poignée de startups bien financées qui construisent des modèles de base pour l’IA sont très recherchées dans le monde des services cloud. Certaines des transactions les plus importantes incluent OpenAI, qui forme et exécute exclusivement des modèles d’IA sur Microsoft Azure, et Anthropic, qui utilise AWS et Google Cloud. Ces entreprises paient régulièrement des millions de dollars pour des services informatiques et pourraient un jour avoir besoin d’encore plus à mesure que leurs modèles d’IA évoluent. Cela en fait des clients précieux avec lesquels Google, Microsoft et AWS peuvent établir des relations dès le début.
World Labs construit certainement des modèles d’IA multimodaux uniques avec des besoins de calcul importants. La startup vient de lever 230 millions de dollars pour une valorisation de plus d’un milliard de dollars, un accord dirigé par A16Z, afin de construire des modèles mondiaux d’IA. Le directeur général des startups et de l’IA chez Google Cloud, James Lee, a déclaré à TechCrunch que les modèles d’IA de World Labs seront un jour capables de traiter, générer et interagir avec des données vidéo et géospatiales. World Labs appelle ces modèles d’IA « intelligence spatiale ».
Li entretient des liens profonds avec Google Cloud, ayant dirigé les efforts de l’entreprise en matière d’IA en 2018. Cependant, Google nie que cet accord soit le produit de cette relation et rejette l’idée selon laquelle les services cloud ne sont que des produits de base. Au lieu de cela, Lee a déclaré que les services, tels que sa boîte à outils haute performance pour faire évoluer les charges de travail d’IA, et son offre importante de puces d’IA étaient un facteur plus important.
« Fei-Fei est évidemment un ami de GCP », a déclaré Lee dans une interview. « GCP n’était pas la seule option envisagée. Mais pour toutes les raisons dont nous avons parlé – notre infrastructure optimisée pour l’IA et la capacité à répondre à leurs besoins d’évolutivité – ils ont finalement fait appel à nous.
Google Cloud offre aux startups d’IA le choix entre ses puces d’IA propriétaires, ses unités de traitement tensoriel ou TPU, et les GPU de Nvidia, que Google achète et dont l’offre est plus limitée. Google Cloud essaie d’inciter davantage de startups à former des modèles d’IA sur des TPU, en grande partie pour réduire sa dépendance à l’égard de Nvidia. Tous les fournisseurs de cloud sont aujourd’hui limités par la rareté des GPU Nvidia, c’est pourquoi nombre d’entre eux construisent leurs propres puces d’IA pour répondre à la demande. Google Cloud affirme que certaines startups s’entraînent et infèrent uniquement sur les TPU, mais les GPU restent la puce de formation IA préférée de l’industrie.
World Labs a choisi de former ses modèles d’IA sur des GPU dans le cadre de cet accord. Cependant, Google Cloud n’a pas voulu dire ce qui a motivé cette décision.
« Nous avons travaillé avec Fei-Fei et son équipe produit, et à ce stade de leur feuille de route produit, il était plus logique pour eux de travailler avec nous sur la plate-forme GPU », a déclaré Lee dans une interview. « Mais cela ne veut pas nécessairement dire que c’est une décision permanente… Parfois [startups] passer à différentes plates-formes, telles que les TPU.
Lee n’a pas voulu révéler la taille du cluster GPU de World Labs, mais les fournisseurs de cloud consacrent souvent d’énormes superordinateurs aux startups qui forment des modèles d’IA. Google Cloud a promis une autre startup formant des modèles de base d’IA, Magic, un cluster avec « des dizaines de milliers de GPU Blackwell », dont chacun a plus de puissance qu’un PC de jeu haut de gamme.
Ces clusters sont plus faciles à promettre qu’à réaliser. Le concurrent des services cloud de Google, Microsoft, serait du mal à répondre aux demandes insensées de calcul d’OpenAI, obligeant la startup à exploiter d’autres options de puissance de calcul.
L’accord de World Labs avec Google Cloud n’est pas exclusif, ce qui signifie que la startup peut toujours conclure des accords avec d’autres fournisseurs de cloud. Cependant, Google Cloud héberge aujourd’hui la majorité des charges de travail de World Labs et affirme qu’il essaiera de maintenir cette activité à l’avenir.