AI Hypercomputer est le système de calcul intensif intégré qui sous-tend chaque charge de travail d'IA sur Google Cloud. Il se compose de modèles de matériel, de logiciels et de consommation conçus pour simplifier le déploiement de l'IA, améliorer l'efficacité au niveau du système et optimiser les coûts.
Présentation
Choisissez des options de calcul, de stockage et de gestion de réseaux optimisées pour remplir des objectifs précis au niveau des charges de travail, qu'il s'agisse d'augmenter le débit, de réduire la latence, d'accélérer le délai d'obtention des résultats ou de diminuer le coût total de possession. En savoir plus sur Google Cloud TPU, les GPU Google Cloud, ainsi que sur les dernières nouveautés en matière de stockage et de gestion de réseaux
Exploitez tout le potentiel de votre matériel grâce à des logiciels de pointe intégrés à des frameworks, des bibliothèques et des compilateurs ouverts pour rendre le développement, l'intégration et la gestion de l'IA plus efficaces.
Les options de consommation flexibles permettent aux clients de choisir des coûts fixes avec des remises sur engagement d'utilisation ou des modèles dynamiques à la demande pour répondre aux besoins de leur entreprise.Le programmeur de charge de travail dynamique et les VM Spot peuvent vous aider à obtenir la capacité dont vous avez besoin, sans surallouer les ressources.De plus, les outils d'optimisation des coûts de Google Cloud permettent d'automatiser l'utilisation des ressources afin de réduire les tâches manuelles des ingénieurs.
Fonctionnement
Google est un leader de l'intelligence artificielle grâce à l'invention de technologies comme TensorFlow. Saviez-vous que vous pouvez exploiter la technologie Google pour vos propres projets ? Découvrez l'historique de l'innovation de Google dans le domaine de l'infrastructure d'IA et comment vous pouvez l'exploiter pour vos charges de travail.
Utilisations courantes
Les charges de travail d'entraînement doivent s'exécuter en tant que jobs hautement synchronisés sur des milliers de nœuds dans des clusters fortement couplés. Un seul nœud dégradé peut perturber l'ensemble d'un job, ce qui retarde le délai de mise sur le marché. Vos tâches sont les suivantes :
Nous voulons que les clients puissent déployer et effectuer le scaling des charges de travail d'entraînement sur Google Cloud de façon extrêmement simple.
Pour créer un cluster d'IA, commencez par consulter l'un de nos tutoriels :
"Nous avons besoin de GPU pour générer des réponses aux messages des utilisateurs. Plus notre plate-forme compte d'utilisateurs, plus nous avons besoin de GPU pour répondre aux besoins. Nous pouvons donc faire des tests sur Google Cloud pour trouver la plate-forme adaptée à une charge de travail spécifique. C'est formidable de pouvoir choisir les solutions les plus intéressantes." Myle Ott, ingénieur fondateur, Character.AI
Les charges de travail d'entraînement doivent s'exécuter en tant que jobs hautement synchronisés sur des milliers de nœuds dans des clusters fortement couplés. Un seul nœud dégradé peut perturber l'ensemble d'un job, ce qui retarde le délai de mise sur le marché. Vos tâches sont les suivantes :
Nous voulons que les clients puissent déployer et effectuer le scaling des charges de travail d'entraînement sur Google Cloud de façon extrêmement simple.
Pour créer un cluster d'IA, commencez par consulter l'un de nos tutoriels :
"Nous avons besoin de GPU pour générer des réponses aux messages des utilisateurs. Plus notre plate-forme compte d'utilisateurs, plus nous avons besoin de GPU pour répondre aux besoins. Nous pouvons donc faire des tests sur Google Cloud pour trouver la plate-forme adaptée à une charge de travail spécifique. C'est formidable de pouvoir choisir les solutions les plus intéressantes." Myle Ott, ingénieur fondateur, Character.AI
Google Cloud fournit des images qui contiennent des systèmes d'exploitation, des frameworks, des bibliothèques et des pilotes courants. AI Hypercomputer optimise ces images préconfigurées pour prendre en charge vos charges de travail d'IA.
"En intégrant l'IA générative à notre chatbot en collaboration avec Google Cloud, nous avons pu créer un assistant de voyage sur mesure. Nous voulons révolutionner l'organisation de voyages afin de faire vivre des vacances uniques à nos clients." Martin Brodbeck, directeur de la technologie, Priceline
Google Cloud fournit des images qui contiennent des systèmes d'exploitation, des frameworks, des bibliothèques et des pilotes courants. AI Hypercomputer optimise ces images préconfigurées pour prendre en charge vos charges de travail d'IA.
"En intégrant l'IA générative à notre chatbot en collaboration avec Google Cloud, nous avons pu créer un assistant de voyage sur mesure. Nous voulons révolutionner l'organisation de voyages afin de faire vivre des vacances uniques à nos clients." Martin Brodbeck, directeur de la technologie, Priceline
L'inférence devient rapidement plus diverse et complexe, et évolue dans trois domaines principaux :
"Nos résultats expérimentaux montrent que Cloud TPU v5e est l'accélérateur le plus rentable pour exécuter des inférences à grande échelle pour notre modèle. Leurs performances par dollar sont 2,7 fois supérieures à celles de G2 et 4,2 fois plus élevées que les instances A2." Domenic Donato,
Vice-président de la technologie, AssemblyAI
L'inférence devient rapidement plus diverse et complexe, et évolue dans trois domaines principaux :
"Nos résultats expérimentaux montrent que Cloud TPU v5e est l'accélérateur le plus rentable pour exécuter des inférences à grande échelle pour notre modèle. Leurs performances par dollar sont 2,7 fois supérieures à celles de G2 et 4,2 fois plus élevées que les instances A2." Domenic Donato,
Vice-président de la technologie, AssemblyAI
Questions fréquentes
Pour la plupart des clients, une plate-forme d'IA gérée comme Vertex AI est le moyen le plus simple de se lancer dans l'IA, car elle intègre tous les outils, modèles et modèles prédéfinis nécessaires. De plus, Vertex AI s'appuie sur AI Hypercomputer en arrière-plan de manière optimisée pour vous. Vertex AI est le moyen le plus simple de vous lancer grâce à son expérience simplifiée. Si vous préférez configurer et optimiser chaque composant de votre infrastructure, vous pouvez accéder aux composants d'AI Hypercomputer en tant qu'infrastructure et les assembler selon vos besoins.
Si chaque service offre des fonctionnalités spécifiques, AI Hypercomputer fournit un système intégré où le matériel, les logiciels et les modèles d'utilisation sont conçus pour fonctionner de manière optimale ensemble. Cette intégration offre des gains d'efficacité au niveau du système en termes de performances, de coût et de délai de mise sur le marché, qui sont plus difficiles à atteindre en associant des services disparates. Il réduit la complexité et offre une approche globale de l'infrastructure d'IA.
Oui, AI Hypercomputer est conçu pour être flexible. Des technologies comme Cross-Cloud Interconnect offrent une connectivité à bande passante élevée aux centres de données sur site et à d'autres environnements cloud, ce qui facilite les stratégies d'IA hybrides et multicloud. Nous nous appuyons sur des normes ouvertes et intégrons des logiciels tiers populaires pour vous permettre de créer des solutions qui couvrent plusieurs environnements et de modifier les services selon vos besoins.
La sécurité est un aspect essentiel d'AI Hypercomputer. Il bénéficie du modèle de sécurité multicouche de Google Cloud. Les fonctionnalités spécifiques incluent les microcontrôleurs de sécurité Titan (qui garantissent que les systèmes démarrent à partir d'un état de confiance), le pare-feu RDMA (pour la mise en réseau zéro confiance entre les TPU/GPU pendant l'entraînement) et l'intégration à des solutions comme Model Armor pour la sécurité de l'IA. Ces mesures sont complétées par des règles et des principes de sécurité robustes pour l'infrastructure, comme le framework d'IA sécurisé.
Non. AI Hypercomputer peut être utilisé pour des charges de travail de toutes tailles. Les charges de travail de plus petite taille bénéficient également de tous les avantages d'un système intégré, comme l'efficacité et la simplification du déploiement. AI Hypercomputer accompagne également les clients à mesure que leur entreprise se développe, depuis des petites démonstrations de faisabilité et expérimentations jusqu'aux déploiements en production à grande échelle.
Oui, nous créons une bibliothèque de recettes dans GitHub. Vous pouvez également utiliser Cluster Toolkit pour accéder à des plans de cluster prédéfinis.
Matériel optimisé par l'IA
Stockage
Mise en réseau
Calcul : accédez aux TPU Google Cloud (Trillium), aux GPU NVIDIA (Blackwell) et aux CPU (Axion). Cela permet d'optimiser le débit, la latence ou le coût total de possession en fonction des besoins spécifiques de la charge de travail.
Principaux logiciels et frameworks Open Source
Modèles de consommation :