Google discute avec Meta pour utiliser ses puces d'IA et défier Nvidia
Actualité publiée le 25/11/25 14:46
| Cours | Graphes | News | Forum |
Google a amorcé un tournant majeur dans l’univers des puces d’intelligence artificielle (IA) en passant des usages internes à la vente externe : selon un rapport de The Information, Alphabet a engagé des discussions avec Meta Platforms pour que cette dernière utilise ses puces TPU dans ses propres data centers dès 2027, et peut-être en location via Google Cloud dès 2026.
Cette information tombe à un moment crucial, alors même que Nvidia règne jusqu’à maintenant quasi seul sur le marché des accélérateurs IA : les actions d’Alphabet ont bondi de plus de 3 % en avant-marché, tandis que celles de Nvidia reculaient, signe que les investisseurs anticipent un nouveau rapport de force.
Un changement stratégique pour Google et Meta
Depuis plusieurs années, Google exploite ses propres « TPU » (tensor processing units), conçues pour l’apprentissage automatique et utilisées au sein de ses infrastructures cloud. Jusqu’à présent, ces puces étaient principalement réservées à ses services internes. Or, cette nouvelle orientation engage Google à proposer ses TPU à d’autres acteurs majeurs. Un porte-parole du groupe a déclaré : « we are committed to supporting both our custom TPUs and Nvidia GPUs; we have for years. »
Pour Meta, lourd investisseur dans les infrastructures IA et cette option représente un moyen de diversifier ses fournisseurs et de réduire sa dépendance à Nvidia. Le rapport note que Meta envisage un investissement en milliards de dollars pour déployer les TPU de Google.
Pourquoi Nvidia pourrait perdre du terrain
Le poids de Nvidia dans le secteur de l’intelligence artificielle repose principalement sur ses GPU haut de gamme, devenus incontournables pour l’entraînement de modèles massifs.
Cependant, la possibilité que Meta adopte la solution TPU de Google crée des remous : le marché y voit le signe d’un déplacement stratégique d’un client majeur de Nvidia vers une alternative concurrente, d’autant que Google affirme pouvoir capter jusqu’à 10 % des revenus annuels de Nvidia grâce à ses propres puces.
Conçus spécifiquement pour l’IA, les TPU pourraient en effet offrir des avantages en matière de consommation énergétique ou de coûts lorsqu’il s’agit de très grands volumes de calcul. Si un tel accord venait à se concrétiser, il marquerait la première défection notable d’un géant hyperscale vis-à-vis de Nvidia et pourrait contribuer à faire évoluer le paysage des puces d’IA vers une architecture plus diversifiée.ée.