Le fabricant de plates-formes de calcul GPU Nvidia a annoncé ses résultats financiers pour son quatrième trimestre fiscal clos en janvier, qui a montré la même digestion de la capacité déjà acquise par les hyperscalers et les constructeurs de cloud et la même hésitation à dépenser par les entreprises que d’autres fabricants de moteurs de calcul pour l’informatique de centre de données. voir aussi.
Ce n’est pas une nouvelle, et ce n’est pas vraiment une grosse surprise. Et ne vous méprenez pas : les résultats financiers du quatrième trimestre et de l’exercice 2023 sont intéressants. Mais ce qui est vraiment intéressant – et ce dont Nvidia a très peu parlé lors de l’appel – était quelque chose appelé Nvidia DGX Cloud, qui, selon la société, le positionnera pour aider à démocratiser les capacités d’IA génératives pour toutes les organisations du monde, pas seulement l’hyperscale et le cloud. élite.
Nvidia n’est pas assez grand – ou assez stupide – pour essayer de construire sa propre infrastructure cloud avec son propre argent, et le co-fondateur et PDG Jensen Huang a sans aucun doute vu le collectif OpenStack, VMware, Dell et Hewlett Packard Enterprise tous essayer pour affronter Amazon Web Services et essayer de se frayer un chemin à côté de Microsoft Azure et Google Cloud au début de la dernière décennie.
VMware, Dell, HPE et Rackspace/OpenStack ont tous échoué, et pour la plupart, les deux derniers essayaient de rattraper AWS. (Azure s’est taillé une place, grâce à sa plate-forme Windows Server, et Google Cloud est vraiment un travail en cours, mais seul un imbécile compte Google.)
À un certain moment, aucune entreprise de technologie, à part celles qui ont des entreprises publicitaires absolument énormes – comme Google et Facebook – d’énormes entreprises de logiciels – comme Microsoft – et d’énormes opérations de vente au détail avec l’avantage du premier arrivé – comme Amazon et Apple – ne peut réellement créer son propre cloud. Facebook et Apple ont choisi de ne pas construire de grandes infrastructures et de ne pas y louer de capacité. Les autres voient la sagesse d’avoir des millions d’autres organisations qui leur donnent de l’argent pour emprunter de la capacité sur quoi ? – 100 à 10 000 fois plus de capacité que ce dont ils auraient besoin pour gérer leur propre entreprise. Et payez une prime pour le plaisir de le faire.
Mais comme nous l’avons dit, Nvidia, même avec plus de 13 milliards de dollars en espèces en banque, et même avec une capitalisation boursière suffisante pour pouvoir payer plus de 40 milliards de dollars pour acquérir Arm Holdings il y a quelques années, n’est pas assez riche pour jouer le gros lot. jeu de construction de nuages. Et en même temps, s’il veut capitaliser sur l’énorme cycle de battage médiatique que ChatGPT a créé au cours des trois derniers mois – le moteur de recherche Bing est la nouvelle marionnette à chaussettes Pets.com – alors il vaut mieux trouver une sorte de terrain d’entente.
Et donc, semble-t-il, Nvidia va faire la meilleure chose à faire pour construire son propre cloud. Et cela consiste à placer littéralement ses propres systèmes DGX à l’intérieur des grands nuages afin que les clients puissent utiliser exactement le même fer sur un nuage qu’ils pourraient installer dans leurs propres centres de données. Les mêmes processeurs et GPU, la même interconnexion NVSwitch dans le châssis, la même structure NVSwitch connectant jusqu’à 256 GPU dans un seul espace mémoire, les mêmes commutateurs Quantum 2 InfiniBand 400 Gbit/s et interfaces réseau ConnectX-7, le même Bluefield- 2 DPU pour l’isolation et la virtualisation, et les mêmes piles logicielles Linux et AI Enterprise, le tout à louer, tout comme l’autre infrastructure cloud.
Ceci est similaire à VMware jetant l’éponge sur la construction d’un cloud à l’automne 2016 et se connectant avec Amazon pour construire le VMware Cloud sur AWS, qui est le fer AWS prenant en charge la pile VMware SDDC. (Dell était trop occupé à rembourser les 60 milliards de dollars qu’il avait empruntés pour acquérir EMC et VMware pour devenir un constructeur de cloud de niveau 1.) Ou comme Cray installant ses supercalculateurs « Cascade » XC40 dans les centres de données Microsoft Azure à l’automne 2017.
Les détails sur le DGX Cloud sont un peu minces – Huang fournira plus d’informations lors de la conférence technique GPU du printemps 2023 le mois prochain – mais nous avons eu un petit aperçu.
« Pour aider à mettre l’IA à la portée de chaque entreprise cliente, nous nous associons à d’importants fournisseurs de services cloud pour offrir des services cloud Nvidia AI offerts directement par Nvidia et via notre réseau de partenaires de mise sur le marché et hébergés dans les plus grands clouds du monde », Huang expliqué lors de l’appel avec les analystes de Wall Street passant en revue les chiffres. « Nvidia AI as a service offre aux entreprises un accès facile à la plate-forme d’IA la plus avancée au monde tout en restant proche des services de stockage, de mise en réseau, de sécurité et de cloud offerts par les clouds les plus avancés au monde. Les clients peuvent utiliser les services cloud de Nvidia AI en tant que logiciel de bibliothèque d’accélération de supercalculateur d’IA ou couches de modèle d’IA pré-formées. Nvidia DGX est un supercalculateur d’IA et un modèle d’usines d’IA en cours de construction dans le monde. Les supercalculateurs IA sont difficiles et longs à construire, et nous annonçons aujourd’hui le Nvidia DGX Cloud, le moyen le plus rapide et le plus simple d’avoir votre propre supercalculateur DGX AI. Ouvrez simplement votre navigateur. Le cloud Nvidia DGX est déjà disponible via l’infrastructure Oracle Cloud et Microsoft Azure, Google GCP et d’autres en cours de route.
Huang a ajouté que les clients utilisant le cloud DGX peuvent accéder à Nvidia AI Enterprise pour former et déployer de grands modèles de langage ou d’autres charges de travail d’IA, ou ils peuvent utiliser les propres modèles d’IA générative pré-formés NeMo Megatron et BioNeMo de Nvidia et les personnaliser « pour créer une IA générative propriétaire modèles et services pour leurs entreprises.
Il sera intéressant de voir comment tout cela est emballé et tarifé.
Maintenant, revenons à Q4.
Au cours du trimestre de janvier, les revenus globaux de Nvidia étaient de 6,05 milliards de dollars, en baisse de 20,8%, et le bénéfice net a chuté de 52,9% à 1,14 milliard de dollars. Le trésor de trésorerie de Nvidia a diminué de 37,3% pour atteindre 13,3 milliards de dollars en glissement annuel, mais a en fait augmenté d’un peu séquentiellement. Les revenus ont légèrement augmenté séquentiellement par rapport au troisième trimestre de l’exercice 2023, et le bénéfice net a plus que doublé, ce fut donc un meilleur trimestre à bien des égards que le précédent. Mais ce n’était clairement pas aussi impressionnant que le trimestre de l’an dernier.
L’activité graphique, qui est assez étroitement liée à l’activité PC, a connu un trimestre terrible – encore une fois – avec des revenus en baisse de 46,2% à 2,38 milliards de dollars. Mais le groupe graphique s’est amélioré un peu séquentiellement alors que les inventaires de cartes GPU s’épuisent et se rééquilibrent pour la plupart et que les cartes de la série «Ada» GeForce 40 commencent à monter en puissance.
Le groupe Compute and Networking a enregistré des ventes de 3,67 milliards de dollars, en hausse de 13,9% en séquentiel et a réalisé un peu plus de 15 milliards de dollars de ventes pour l’année, en hausse de 36,4% pour l’année complète par rapport à l’exercice 2022.
Nvidia a fourni des bénéfices d’exploitation à ces deux groupes pendant un certain temps, mais ne le fait plus.
La division Datacenter a été la plus grande source de revenus de Nvidia au cours des quatre derniers trimestres et n’a pu augmenter ses revenus que de 10,8% au quatrième trimestre fiscal, car les hyperscalers et les constructeurs de cloud ont fortement réduit les dépenses en GPU et en cartes système, même s’ils ont dépensé beaucoup de temps. pâte sur les accélérateurs GPU H100. Colette Kress, directrice financière de Nvidia, a déclaré lors de l’appel que les revenus des GPU H100 étaient supérieurs à ceux des GPU A100 au cours du trimestre, ce qui est une rampe assez rapide pour le H100. Et bien que Nvidia soit catégorique sur le fait qu’elle vendra les A100 dans un avenir prévisible, il semble que personne – et en particulier pas les hyperscalers et les constructeurs de cloud – n’en veuille si les ventes ont diminué aussi rapidement. Si les H100 sont rares, alors le reste du monde devra se contenter des A100, nous présumons. Comme nous l’avons vu dans un certain nombre de constructions récentes de supercalculateurs, comme chez IBM Research et Meta Platforms.
Voici un tableau récapitulatif avec les chiffres réels des divisions Nvidia au cours des deux dernières années :
Kress a déclaré que sur les 15 milliards de dollars que la division Datacenter a rapportés au cours de l’exercice 2023, environ 40% des revenus – environ 6 milliards de dollars – provenaient des hyperscalers et des constructeurs de cloud. Notre meilleure estimation est que ces « titans du cloud », comme certains les appellent, représentaient presque des revenus au début de l’exercice 2023, mais au quatrième trimestre, ils ne représentaient qu’environ un quart des revenus pour que les chiffres fonctionnent. Cela signifie que les dépenses des hyperscalers et des constructeurs de cloud ont chuté d’environ 50 % en glissement annuel au quatrième trimestre. C’est une grosse baisse et c’est l’une des raisons pour lesquelles la division Datacenter n’a pas tourné au cours du trimestre que Nvidia attendait évidemment.
Dans la perspective du premier trimestre de l’exercice 2024, Kress a déclaré que Nvidia s’attendait à des ventes de 6,5 milliards de dollars, plus ou moins 2 %. Cela ressemble donc à une copie conforme du quatrième trimestre 2023. Il y a de pires destins.