
Le fabricant de processeurs Cerebras s'envole jeudi pour son introduction à la Bourse de New York, dans un contexte d'engouement marqué des investisseurs pour les fournisseurs d'infrastructures pour l'intelligence artificielle.
Introduit à 185 dollars pièce, le titre a affiché une première cotation à 350 dollars, soit un bond de près de 90%. L'action conservait son avance en début de soirée, avec un gain de 95%, à 359 dollars, ce qui valoriserait la société à près de 80 milliards de dollars.
Au prix d'introduction, la société a levé au moins 5,6 milliards de dollars et affichait une valorisation de quelque 56 milliards de dollars. Le produit de l'opération en fait l'IPO la plus importante depuis le début de l'année aux Etats-Unis.
La société californienne avait indiqué mercredi soir dans un communiqué qu'elle avait vendu 30 millions de titres, hors options de surallocation, à un prix unitaire de 185 dollars, par rapport à une fourchette de 150 à 160 dollars proposée lors du placement. Face à la forte demande des investisseurs, Cerebras avait déjà relevé sa fourchette de prix de 35 dollars la semaine dernière.
Le succès de l'introduction de Cerebras confirme que les investisseurs restent prêts à payer le prix pour participer à la construction des infrastructures de centres de données, véritables autoroutes de l'IA, face à l'explosion de la demande pour des outils tels que Gemini, Claude et ChatGPT.
+ Intégration complète +
Cerebras développe des processeurs selon une architecture originale dite "wafer-scale", dans laquelle les unités de calcul, de mémoire et de communication entre elles sont regroupées sur une seule plaque de silicium. Cette approche se distingue de celle des grands fabricants traditionnels comme Nvidia, AMD ou Intel, qui conçoivent des processeurs sous forme de puces de taille plus limitée et constituées de plusieurs composants électroniques distincts.
Le processeur de Cerebras est ainsi bien plus imposant que ceux de ses concurrents - 58 fois la taille du processeur d'IA de dernière génération de Nvidia -, mais cette intégration complète réduit les échanges de données entre composants, ce qui diminue la latence et la consommation énergétique.
Ces caractéristiques deviennent cruciales alors que l'IA générative entre dans une phase d'utilisation massive. Après plusieurs années dominées par l'entraînement des modèles d'IA, l'inférence, c'est-à-dire l'exécution des demandes des utilisateurs en temps réel via leur outil, connaît une progression fulgurante avec plusieurs milliards de requêtes quotidiennes. Or dans l'inférence, la rapidité des transferts de données et l'efficacité énergétique deviennent déterminantes.
Dans son document d'introduction en Bourse, Cerebras estime que le marché mondial de l'inférence a atteint 251 milliards de dollars en 2025 et pourrait progresser de 28% par an pour atteindre 672 milliards de dollars en 2029. Selon la société, ce segment pourrait croître près de deux fois plus vite que celui des infrastructures dédiées à l'entraînement des modèles.
Le conglomérat G42 et l'institut d'intelligence artificielle MBZUAI, soutenus financièrement par les Emirats arabes unis, ont représenté l'an dernier 86% du chiffre d'affaires de Cerebras. Le fabricant de puces a conclu en janvier un accord majeur avec OpenAI, qui lui a promis 20 milliards de dollars au cours des prochaines années en échange de capacités de calcul pour son outil ChatGPT, selon les documents de l'entreprise. Amazon, qui dispose de ses propres puces d'inférence Trainium, a également conclu en mars un partenariat avec Cerebras pour la fourniture de capacités de calcul aux centres de données de sa filiale d'informatique dématérialisée AWS, mais sans en divulguer les conditions financières.
Agefi-Dow Jones The financial newswire
