Le fabricant de processeurs Cerebras s’envole
jeudi pour son introduction à la Bourse de New York, dans un
contexte d’engouement marqué des investisseurs pour les
fournisseurs d’infrastructures pour l’intelligence artificielle.
Introduit à 185 dollars pièce, le titre a affiché une
première cotation à 350 dollars, soit un bond de près de
90%. L’action conservait son avance en début de soirée, avec
un gain de 95%, à 359 dollars, ce qui valoriserait la
société à près de 80 milliards de dollars.
Au prix d’introduction, la société a levé au moins 5,6
milliards de dollars et affichait une valorisation de quelque 56
milliards de dollars. Le produit de l’opération en fait l’IPO la
plus importante depuis le début de l’année aux Etats-Unis.
La société californienne avait indiqué mercredi soir dans
un communiqué qu’elle avait vendu 30 millions de titres, hors
options de surallocation, à un prix unitaire de 185 dollars, par
rapport à une fourchette de 150 à 160 dollars proposée
lors du placement. Face à la forte demande des investisseurs,
Cerebras avait déjà relevé sa fourchette de prix de 35
dollars la semaine dernière.
Le succès de l’introduction de Cerebras confirme que les
investisseurs restent prêts à payer le prix pour participer
à la construction des infrastructures de centres de données,
véritables autoroutes de l’IA, face à l’explosion de la
demande pour des outils tels que Gemini, Claude et ChatGPT.
+ Intégration complète +
Cerebras développe des processeurs selon une architecture originale
dite « wafer-scale », dans laquelle les unités de calcul, de
mémoire et de communication entre elles sont regroupées sur
une seule plaque de silicium. Cette approche se distingue de celle des
grands fabricants traditionnels comme Nvidia, AMD ou Intel, qui
conçoivent des processeurs sous forme de puces de taille plus
limitée et constituées de plusieurs composants
électroniques distincts.
Le processeur de Cerebras est ainsi bien plus imposant que ceux de ses
concurrents – 58 fois la taille du processeur d’IA de dernière
génération de Nvidia -, mais cette intégration
complète réduit les échanges de données entre
composants, ce qui diminue la latence et la consommation
énergétique.
Ces caractéristiques deviennent cruciales alors que l’IA
générative entre dans une phase d’utilisation massive.
Après plusieurs années dominées par l’entraînement
des modèles d’IA, l’inférence, c’est-à-dire
l’exécution des demandes des utilisateurs en temps réel via
leur outil, connaît une progression fulgurante avec plusieurs
milliards de requêtes quotidiennes. Or dans l’inférence, la
rapidité des transferts de données et l’efficacité
énergétique deviennent déterminantes.
Dans son document d’introduction en Bourse, Cerebras estime que le
marché mondial de l’inférence a atteint 251 milliards de
dollars en 2025 et pourrait progresser de 28% par an pour atteindre 672
milliards de dollars en 2029. Selon la société, ce segment
pourrait croître près de deux fois plus vite que celui des
infrastructures dédiées à l’entraînement des
modèles.
Le conglomérat G42 et l’institut d’intelligence artificielle MBZUAI,
soutenus financièrement par les Emirats arabes unis, ont
représenté l’an dernier 86% du chiffre d’affaires de Cerebras.
Le fabricant de puces a conclu en janvier un accord majeur avec OpenAI,
qui lui a promis 20 milliards de dollars au cours des prochaines
années en échange de capacités de calcul pour son outil
ChatGPT, selon les documents de l’entreprise. Amazon, qui dispose de ses
propres puces d’inférence Trainium, a également conclu en mars
un partenariat avec Cerebras pour la fourniture de capacités de
calcul aux centres de données de sa filiale d’informatique
dématérialisée AWS, mais sans en divulguer les conditions
financières.
Agefi-Dow Jones The financial newswire
Vous avez aimé cet article ? Partagez-le avec vos amis avec les boutons ci-dessous.
