La capitalisation boursière de Nvidia dépasse 1 billion de dollars US, un gagnant précoce dans le boom de l'IA, rapporte IDTechEx

Leo Charlton
3D rendering of cyberpunk AI. Circuit board. Technology background. Central Computer Processors CPU and GPU concept. Motherboard digital chip. Tech science background.
Alors que le boom actuel de l'IA ne fait que commencer, l'un des premiers gagnants est Nvidia, qui, le mardi 30 maith , a vu sa capitalisation boursière dépasser pour la première fois les 1 000 milliards de dollars américains. Pour un concepteur de puces qui ne dispose pas de ses propres capacités de fabrication, il s'agit d'un moment important. S'élevant à environ 970 milliards de dollars américains au 1st juin, l'augmentation momentanée du prix de l'action a permis à Nvidia de rejoindre un club d'élite occupé par seulement cinq autres entreprises à l'heure actuelle : Apple, Microsoft, Alphabet, Amazon et Saudi Aramco. Auparavant, seules trois autres entreprises (Tesla, Meta et PetroChina) avaient également franchi le seuil des 1 000 milliards de dollars.
 
Le cours de l'action Nvidia a augmenté d'environ 170 % depuis le début de l'année, une croissance supérieure à celle des autres membres de l'indice S&P 500. Cette croissance est directement liée à la sensibilisation et à l'utilisation croissantes des outils d'IA, ainsi qu'à leur impact potentiel sur les entreprises et les consommateurs.
 
Valeurs de marché de neuf concepteurs de puces américains au 30 maith , 2023. Cinq d'entre eux dépassent une capitalisation boursière de 1 000 milliards de dollars américains. Les valeurs de marché ont été calculées sur la base du dernier volume d'actions en circulation publié dans les états financiers de l'entreprise, le prix étant considéré comme le cours le plus élevé de la journée au NASDAQ le 30 maith , 2023. Source : IDTechEx : IDTechEx
 
ChatGPT a fait l'objet de discussions dans les salles de réunion et au refroidisseur d'eau depuis son lancement en novembre 2022. En janvier 2023, trois mois seulement après sa sortie, ChatGPT avait enregistré 100 millions d'utilisateurs. Le chatbot, qui repose sur un vaste modèle linguistique composé de 175 milliards de paramètres, a été formé à l'aide d'environ 10 000 unités de traitement graphique (GPU) Nvidia A100. Nvidia représente actuellement environ 80 % de tous les GPU au niveau mondial, où l'utilisation de ces GPU a été renforcée par l'IA et l'extraction de données (les avantages du traitement parallèle des GPU les rendent aussi utiles pour la formation des algorithmes d'IA que pour l'extraction de crypto-monnaies). La société d'études de marché IDTechEx a récemment publié unrapport qui prévoit la poursuite de la domination de Nvidia non seulement sur la scène des GPU, mais plus spécifiquement en tant que leader du matériel d'IA, l'entreprise s'arrogeant un pourcentage considérable des 257 milliards de dollars américains de revenus prévus pour les puces d'IA à partir de 2033.
 
Actuellement, Nvidia génère plus de revenus de son segment de marché des centres de données et des réseaux (qui comprend les plateformes de centres de données ainsi que les solutions de véhicules autonomes et les processeurs de minage de crypto-monnaies) que de son segment de reporting graphique. Au cours de l'exercice 2023, Nvidia a généré 15,01 milliards de dollars US de revenus provenant des centres de données, ce qui représente 55,6 % du total des revenus générés pour l'année. Cela représente une augmentation des revenus des centres de données de 41 % par rapport à 2022, alors que Nvidia a enregistré une croissance annuelle des revenus des centres de données de plus de 40 % depuis 2020. Si l'on compare ces chiffres à ceux d'autres concepteurs de puces d'IA, comme AMD (qui a récemment acquis Xilinx) et Qualcomm, il est clair que Nvidia est en train d'établir une domination précoce dans l'espace de l'IA pour les centres de données.
 
L'entreprise ne se repose pas non plus sur ses lauriers. Alors que l'A100 est actuellement la puce la plus utilisée pour l'IA dans les centres de données, Nvidia a annoncé en début d'année le GPU H100, basé sur sa nouvelle architecture Hopper. L'architecture Hopper est construite dans le processus 4N de TSMC (une version améliorée du nœud 5 nm), incorporant 80 milliards de transistors (l'A100 a 54,2 milliards de transistors, fabriqués dans un processus 7 nm). Avec des accélérations allant de 7X à 30X pour l'entraînement et l'inférence par rapport à l'A100 - ainsi qu'une puissance thermique comparable dans le facteur de forme PCIe - Nvidia fournira le matériel clé nécessaire à l'exécution des algorithmes d'IA de plus en plus complexes de demain.
 
Pourtant, si Nvidia acquiert une plus grande part du marché du traitement des centres de données, les concepteurs de puces ont encore des possibilités considérables à la périphérie, qui devrait connaître un taux de croissance annuel composé supérieur à celui de l'IA dans le nuage au cours des dix prochaines années, selon le dernierrapport d'IDTechExsur les puces d'IA. L'IA en périphérie a des exigences différentes de celles de l'informatique en nuage, notamment en ce qui concerne la consommation d'énergie des puces en raison des capacités thermiques des appareils dans lesquels elles sont intégrées. Comme les puces en périphérie ne consomment généralement pas plus de quelques watts, la complexité des modèles qu'elles exécutent doit être grandement simplifiée. Une puce telle que l'A100, avec sa grande empreinte et sa densité de transistors, serait un gaspillage ; au lieu de cela, les entreprises n'ont pas besoin de concevoir à l'avant-garde en termes de processus de nœuds et peuvent plutôt opter pour la fabrication à des nœuds plus matures, dont le prix (et donc la barrière à l'entrée) est inférieur à celui des nœuds d'avant-garde.
 
Il est difficile de déterminer l'emplacement précis du point d'inflexion de l'IA et de savoir à quel horizon il se situe. Même si les avis divergent, il est indéniable que l'essor de l'IA est en marche et que les outils d'IA ont la capacité de transformer les flux de travail dans tous les secteurs verticaux de l'industrie. Pour en savoir plus sur le marché mondial des puces d'IA, y compris les développements technologiques, les acteurs clés et les perspectives de marché pour le matériel compatible avec l'IA, veuillez consulter le rapport "Puces AI 2023-2033" d'IDTechEx.
 
Pour en savoir plus, et notamment pour télécharger des exemples de pages, veuillez consulter le site www.IDTechEx.com/AIChips.