- Nvidia vit en 2026, achetant des millions de HBM à Samsung, le roi du roi des puces AI Lives Lives
- TPU Push de Google en fait le rival le plus proche de Nvidia pour HBM
- Amazon, AMD et Microsoft se battent pour les restes tandis qu’Intel est disparu en ambiguïté
Une mémoire à large bande passante est requise pour l’IA et le cloud computing, offrant un transfert de données et une efficacité à grande vitesse pour exiger la charge de travail.
HBM Space domine actuellement le géant de la mémoire sud-coréenne SK Hynix et son principal rival (et voisin) Samsung, bien que d’autres joueurs tels que Micron cherchent également à augmenter leur part du marché.
Les géants de la technologie comme Nvidia, Google, Amazon et Microsoft sont parmi les plus grands acheteurs de HBM, et ont été vus par une feuille de route interne Samsung Ordinateur Donne un aperçu attrayant de sa liste d’achat estimée pour 2026.
Google à la deuxième place
Comme vous vous en doutez, AI Darling Nvidia reste le meilleur acheteur de HBM de Samsung, qui devrait passer de 5,8 millions d’unités à 11 millions d’unités d’ici 2026 en 2024.
Cette croissance est le carburant par la gamme d’expansion de l’accélérateur AI de NVIDIA, comme H200, équipé de 144 Go de HBM3, nécessitant 1,7 million d’unités en 2026. En utilisant B200 et GB200, 192 Go HBM3E (8HI), 3,15 millions d’unités seront nécessaires. , Avec B300 et GB300, 288 Go HBM3E (12HI), 2,7 millions d’unités sont prises pour être prises, tandis que GB300A, 1,8 million d’unités sont prises en utilisant 144 Go de HBM3E (12HI). Le R100 devrait arborer 384 Go de HBM4 (12HI), nécessitant 1,5 million d’unités.
Basé sur la feuille de route, qui Ordinateur « Peut-être dates du début de 2024 », donc pas entièrement mise à jour, Google devrait devenir le deuxième plus grand acheteur de HBM, inspiré par son investissement dans les unités de traitement Tenser (TPU).
La demande totale de Google pour HBM devrait passer de 2,4 millions d’unités à 2026 en 2024. TPU V7P nécessite à lui seul 1,7 million d’unités en 2026 d’ici 2026. L’alphabet a alloué 75 milliards de dollars de dépenses en capital cette année, dont une partie fera partie, dont une partie fera partie. Sera probablement dépensé pour l’approvisionnement en HBM et les infrastructures d’IA.
La demande d’Amazon pour HBM augmente également en continu, car les puces Infantia et Trainium de l’entreprise nécessitent 1,3 million d’unités de HBM d’ici 2026. Trainium 3 nécessite à lui seul 900 000 unités cette année-là.
AMD est largement considérée comme un rival de Nvidia, mais il est loin derrière. On estime que la demande de l’entreprise pour le HBM total atteint 820 000 puces en 2026. Le MI400 devrait être lancé avec 384 Go HBM4 (12HI) au début de 2026, sera responsable de 400 000 unités cette année-là.
Alors que Microsoft intègre HBM3 dans ses puces MAIA AI, sa demande totale de HBM devrait atteindre seulement 240 000 unités en 2026, il montre qu’il reste un acteur mineur à cet endroit.
Intel a également du mal à concourir. La feuille de route suggère que son accélérateur Gaudi3 perd du terrain, en 2025, il n’y a aucune prévision en 2026 avec une baisse de la demande de puce de 128 000 unités en 2026 (bien que cela ait pu changer depuis cette feuille de route).
Bien sûr, ce numéro couvre HBM fourni uniquement par Samsung. La prise en compte dans la mémoire fournie par SK Hynix et Micron peut peindre une image séparée, bien que celle dans laquelle Nividia est encore confortablement confortablement acheteur de HBM.