Sundar Pichai sur les Gémeaux, les progrès de l’IA et plus encore

Sundar Pichai sur les Gémeaux, les progrès de l'IA et plus encore

Infrastructure pour l’ère de l’IA : Présentation de Trillium

La formation de modèles de pointe nécessite beaucoup de puissance de calcul. La demande de l’industrie en matière de calcul ML a été multipliée par 1 million au cours des six dernières années. Et chaque année, cela décuple.

Google a été conçu pour cela. Depuis 25 ans, nous investissons dans une infrastructure technique de classe mondiale. Du matériel de pointe qui alimente la recherche à nos unités de traitement tensoriel personnalisées qui alimentent nos avancées en matière d’IA.

Gemini a été formé et servi entièrement sur nos TPU de quatrième et cinquième génération. Et d’autres grandes sociétés d’IA, dont Anthropic, ont également formé leurs modèles sur les TPU.

Aujourd’hui, nous sommes ravis d’annoncer notre 6e génération de TPU, appelée Trillium. Trillium est notre TPU le plus performant et le plus efficace à ce jour, offrant une amélioration de 4,7 fois des performances de calcul par puce par rapport à la génération précédente, le TPU v5e.

Nous mettrons Trillium à la disposition de nos clients Cloud fin 2024.

En plus de nos TPU, nous sommes fiers de proposer des CPU et des GPU pour prendre en charge n’importe quelle charge de travail. Cela inclut les nouveaux processeurs Axion que nous avons annoncés le mois dernier, notre premier processeur personnalisé basé sur Arm qui offre des performances et une efficacité énergétique de pointe.

Nous sommes également fiers d’être l’un des premiers fournisseurs de cloud à proposer les GPU Blackwell de pointe de Nvidia, disponibles début 2025. Nous avons la chance d’avoir un partenariat de longue date avec NVIDIA et sommes ravis d’apporter les capacités révolutionnaires de Blackwell à nos clients. .

Les puces constituent un élément fondamental de notre système intégré de bout en bout. Du matériel aux performances optimisées et des logiciels ouverts aux modèles de consommation flexibles. Tout cela est réuni dans notre hyperordinateur AI, une architecture de superordinateur révolutionnaire.

Les entreprises et les développeurs l’utilisent pour relever des défis plus complexes, avec une efficacité deux fois supérieure à celle du simple achat de matériel brut et de puces. Notre Hyperordinateur IA les progrès sont rendus possibles en partie grâce à notre approche du refroidissement liquide dans nos centres de données.

Nous faisons cela depuis près d’une décennie, bien avant que cela ne devienne l’état de l’art pour l’industrie. Et aujourd’hui, la capacité totale de notre flotte déployée pour les systèmes de refroidissement liquide s’élève à près de 1 gigawatt et continue de croître, soit près de 70 fois la capacité de toute autre flotte.

À la base de cela se trouve l’ampleur de notre réseau, qui connecte notre infrastructure à l’échelle mondiale. Notre réseau s’étend sur plus de 3 millions de kilomètres de fibre terrestre et sous-marine : plus de 10 fois (!) la portée du prochain fournisseur cloud leader.

Nous continuerons à réaliser les investissements nécessaires pour faire progresser l’innovation en matière d’IA et offrir des capacités de pointe.

Source