Le rapport annuel de Microsoft souligne l’importance des GPU
Le PDG de Nvidia, Jensen Huang, prend la parole lors de la présentation liminaire de Supermicro lors de la conférence Computex à Taipei le 1er juin 2023.
Walid Berrazeg | Sopa Images | Fusée lumineuse | Getty Images
Microsoft souligne aux investisseurs que les unités de traitement graphique sont une matière première essentielle pour son activité cloud en pleine croissance. Dans son rapport annuel publié tard jeudi, le fabricant de logiciels a ajouté un langage sur les GPU à un facteur de risque de pannes pouvant survenir s’il ne peut pas obtenir l’infrastructure dont il a besoin.
Le langage reflète la demande croissante des plus grandes entreprises technologiques pour le matériel nécessaire pour fournir des capacités d’intelligence artificielle aux petites entreprises.
L’IA, et plus particulièrement l’IA générative qui consiste à générer du texte, de la parole, des vidéos et des images de type humain en réponse aux commentaires des utilisateurs, est devenue plus populaire cette année, après que le chatbot ChatGPT de la startup OpenAI est devenu un succès. Cela a profité aux fabricants de GPU tels que Nvidia et, dans une moindre mesure, DMLA.
« Nos centres de données dépendent de la disponibilité des terrains autorisés et constructibles, de l’énergie prévisible, des fournitures de réseau et des serveurs, y compris les unités de traitement graphique (« GPU ») et d’autres composants », a déclaré Microsoft dans son rapport pour l’exercice 2023, clos le 30 juin.
C’est l’un des trois passages mentionnant les GPU dans le dossier réglementaire. Ils n’ont pas été mentionnés une seule fois dans le rapport de l’année précédente. Un tel langage n’est pas apparu dans les récents rapports annuels d’autres grandes entreprises technologiques, telles que Alphabet, Pomme, Amazone et Méta.
OpenAI s’appuie sur le cloud Azure de Microsoft pour effectuer les calculs pour ChatGPT et divers modèles d’IA, dans le cadre d’un partenariat complexe. Microsoft a également commencé à utiliser les modèles d’OpenAI pour améliorer les produits existants, tels que ses applications Outlook et Word et le moteur de recherche Bing, avec l’IA générative.
Ces efforts et l’intérêt pour ChatGPT ont conduit Microsoft à rechercher plus de GPU qu’il ne l’avait prévu.
« Je suis ravi que Microsoft ait annoncé qu’Azure ouvre des aperçus privés de son supercalculateur H100 AI », a déclaré Jensen Huang, PDG de Nvidia, lors de la conférence des développeurs GTC de son entreprise en mars.
Microsoft a commencé à chercher en dehors de ses propres centres de données pour sécuriser une capacité suffisante, en signant un accord avec CoreWeave soutenu par Nvidia, qui loue des GPU à des développeurs tiers en tant que service cloud.
Dans le même temps, Microsoft a passé des années à créer son propre processeur d’IA personnalisé. Toute l’attention sur ChatGPT a conduit Microsoft à accélérer le déploiement de sa puce, L’information rapporté en avril, citant des sources anonymes. Alphabet, Amazon et Meta ont tous annoncé leurs propres puces IA au cours de la dernière décennie.
Microsoft prévoit d’augmenter ses dépenses en capital de manière séquentielle ce trimestre, pour payer les centres de données, les unités centrales de traitement standard, le matériel réseau et les GPU, a déclaré Amy Hood, chef des finances de la société, lors d’une conférence téléphonique avec des analystes. « Il s’agit d’augmentations globales de l’accélération de la capacité globale », a-t-elle déclaré.
MONTRE: Le GPU et le traitement parallèle de NVIDIA restent essentiels pour l’IA, déclare Dom Rizzo de T. Rowe