Intel et Google ont annoncé l’extension de leur partenariat stratégique afin de bâtir des systèmes plus robustes pour l’intelligence artificielle (IA), en mettant l’accent sur les processeurs centraux (CPU) et les puces d’infrastructure personnalisées.
Intel a précisé jeudi que Google continuera d’intégrer ses processeurs Xeon pour une vaste gamme de charges de travail. Cette décision intervient alors que les entreprises passent de la phase d’entraînement des modèles d’IA à leur exécution dans des applications concrètes, une étape cruciale appelée inférence.
Le retour en force des CPU pour l’inférence IA
Cette transition modifie radicalement la demande du marché. De plus en plus d’entreprises ont désormais besoin de puces capables de gérer des charges de travail lourdes et constantes, plutôt que de simples pics de puissance pour l’entraînement. Dans ce contexte, les CPU redeviennent essentiels, particulièrement pour les tâches d’inférence et les opérations nécessitant une mémoire vive importante.
Google va également adopter les derniers processeurs Xeon 6 d’Intel. Ces puces sont spécifiquement conçues pour améliorer l’efficacité énergétique et traiter des volumes de données massifs. Selon les deux partenaires, elles sont déjà déployées dans les machines virtuelles C4 de Google Cloud, où elles permettent d’obtenir des améliorations de coûts significatives lors de l’exécution de modèles d’IA open-source.
L’importance stratégique des IPU
Parallèlement, les deux firmes collaborent étroitement sur les unités de traitement d’infrastructure, connues sous le nom d’IPU (Infrastructure Processing Units). Ces puces spécialisées prennent en charge des tâches telles que la mise en réseau, le stockage et la sécurité, qui sont habituellement gérées par les CPU. En déchargeant ces fonctions, les processeurs centraux peuvent se concentrer exclusivement sur le calcul de cœur.
Lip-Bu Tan, directeur général d’Intel, a souligné : « Le passage à l’échelle de l’IA nécessite plus que de simples accélérateurs ; il faut des systèmes équilibrés. Les CPU et les IPU sont au cœur de la performance, de l’efficacité et de la flexibilité qu’exigent les charges de travail d’IA modernes. »
Une stratégie de reconquête pour Intel
L’utilisation croissante des systèmes d’IA basés sur des agents — capables d’exécuter des tâches complexes en plusieurs étapes — stimule également la demande. Ces systèmes nécessitent une puissance de traitement de fond accrue, une tâche qui incombe généralement aux CPU plutôt qu’aux accélérateurs spécialisés comme les GPU.
Pour Intel, ce partenariat est vital. L’entreprise cherche à regagner le terrain perdu au début du boom de l’IA face à des concurrents spécialisés dans les processeurs graphiques (GPU). En renforçant sa position dans l’informatique généraliste et d’infrastructure, Intel s’assure un ancrage solide dans le cloud computing, où la demande pour les services d’IA ne cesse de croître.
Intel multiplie d’ailleurs les initiatives. La société a récemment annoncé rejoindre un nouveau projet de puce IA lié à Elon Musk, collaborant avec SpaceX et Tesla pour soutenir le développement de la robotique et des centres de données. Côté production, Intel prévoit de reprendre le contrôle total de son usine en Irlande, un site primordial pour sa chaîne d’approvisionnement en processeurs serveurs Xeon.
Google et Intel devraient présenter les avancées de leurs travaux communs à la fin du mois lors de l’événement Google Cloud Next 2026 à Las Vegas, avec des mises à jour attendues sur l’infrastructure IA, la cybersécurité et l’edge computing.


