Google a récemment annoncé la disponibilité de Trillium, son dernier processeur dédié à l’intelligence artificielle. Utilisé pour l’entraînement du modèle de langage Gemini 2.0, Trillium répond à une demande croissante de puissance de calcul nécessaire pour les modèles d’IA de plus en plus complexes.
En parallèle du lancement de Gemini 2.0, Google a présenté Trillium, une puce de type Tensor Processing Unit (TPU). Conçu spécifiquement pour travailler avec TensorFlow, ce processeur permet à la fois d’entraîner des modèles d’IA et d’assurer leur fonctionnement en phase d’inférence, comme lorsqu’ils répondent à des requêtes.
Depuis le lancement de la première génération de TPU en 2015, Trillium représente la sixième évolution de cette technologie. Il alimente notamment l’AI Hypercomputer de Google Cloud, une architecture de supercalculateur combinant du matériel optimisé, des logiciels open source, des bibliothèques avancées d’apprentissage automatique et des options de déploiement flexibles.
Des performances accrues avec Trillium sur Google Cloud
Selon Google, Trillium offre des performances d’entraînement quatre fois supérieures à la génération précédente de TPU, avec une vitesse de traitement améliorée de 4,7 fois pour chaque puce. Parallèlement, l’efficacité énergétique a progressé de 67 %, ce qui réduit significativement la consommation électrique. Cette avancée arrive à point nommé alors que les besoins en puissance de calcul pour l’IA augmentent à un rythme soutenu. Google a déjà intégré 100 000 puces Trillium dans son réseau Jupiter, capable d’atteindre une bande passante de 13 pétabits par seconde.
Bien que Trillium soit désormais disponible au grand public, son utilisation se fait exclusivement via la plateforme Google Cloud. Cette accessibilité indirecte s’accompagne d’une baisse des coûts : grâce aux améliorations de performance, Trillium offre 2,5 fois plus de puissance pour l’entraînement des grands modèles de langage par dollar dépensé.
Google en concurrence avec les géants du secteur
Avec Trillium, Google montre que l’évolution de l’intelligence artificielle ne repose pas uniquement sur les avancées logicielles, mais aussi sur des composants matériels optimisés. Dans cette course à la performance, Google rivalise avec des acteurs majeurs comme Nvidia et ses processeurs graphiques, les puces Trainium d’Amazon Web Services, ou encore les processeurs Maia de Microsoft Azure.