Le Centre d'architecture fournit des ressources de contenu sur une grande variété de sujets liés à l'IA et au machine learning. Cette page fournit des informations pour vous aider à faire vos premiers pas avec l'IA générative, l'IA traditionnelle et le machine learning. Elle fournit également une liste de tout le contenu d'IA et de machine learning (ML) du centre d'architecture.
Premiers pas
Les documents répertoriés sur cette page peuvent vous aider à commencer à concevoir, créer et déployer des solutions d'IA et de ML sur Google Cloud.
Découvrir l'IA générative
Commencez par découvrir les principes de base de l'IA générative sur Google Cloud:
- Pour apprendre les étapes de développement d'une application d'IA générative et explorer les produits et les outils correspondant à votre cas d'utilisation, consultez la page Créer une application d'IA générative sur Google Cloud.
- Pour identifier les cas d'utilisation de l'IA générative, de l'IA traditionnelle (qui inclut la prédiction et la classification) ou d'une combinaison des deux, consultez la page suivante: Quand utiliser l'IA générative ou l'IA traditionnelle?.
- Pour définir un cas d'utilisation métier d'IA avec une approche de décision basée sur la valeur, consultez la page Évaluer et définir votre cas d'utilisation métier d'IA générative.
- Pour relever les défis liés à la sélection, à l'évaluation, au réglage et au développement des modèles, consultez la page Développer une application d'IA générative.
Pour en savoir plus sur les offres d'IA générative de Google Cloud, consultez les pages Vertex AI, API Gemini et Exécuter votre modèle de base sur GKE.
Pour obtenir des exemples d'architectures utilisant l'IA générative, consultez les pages Synthèse des documents sur l'IA générative, Base de connaissances sur l'IA générative et Infrastructure pour une application d'IA générative compatible RAG avec Vertex AI..
Conception et fabrication
Pour choisir la meilleure combinaison d'options de stockage pour votre charge de travail d'IA, consultez la page Concevoir un stockage pour les charges de travail d'IA et de ML dans Google Cloud.
Google Cloud fournit une suite de services d'IA et de machine learning pour vous aider à résumer des documents avec l'IA générative, créer des pipelines de traitement d'images et innover avec des solutions d'IA générative.
Continuez à explorer le monde !
Les documents répertoriés plus loin sur cette page et dans le panneau de navigation de gauche peuvent vous aider à créer une solution d'IA ou de ML. Les documents sont organisés dans les catégories suivantes :
- IA générative: suivez ces architectures pour concevoir et créer des solutions d'IA générative.
- Entraînement des modèles: mettez en œuvre le machine learning, l'apprentissage fédéré et des expériences intelligentes personnalisées.
- MLOps: mettez en œuvre et automatisez l'intégration continue, la livraison continue et l'entraînement continu pour les systèmes de machine learning.
- Applications d'IA et de ML: créez sur Google Cloud des applications personnalisées pour vos charges de travail d'IA et de ML.
Ressources sur l'IA et le machine learning dans le Centre d'architecture
Vous pouvez filtrer la liste suivante de ressources d'IA et de machine learning en saisissant un nom de produit ou une expression figurant dans le titre ou la description de la ressource.
Ce document décrit l'architecture globale d'un système de machine learning (ML) utilisant des bibliothèques TensorFlow Extended (TFX). Il explique également comment configurer une intégration continue (CI), une livraison continue (CD) et un entraînement continu (CT) pour... Produits utilisés : Cloud Build |
Bonnes pratiques de mise en œuvre du machine learning sur Google Cloud Présente les bonnes pratiques de mise en œuvre du machine learning (ML) sur Google Cloud, en se concentrant sur l'utilisation de modèles personnalisés basés sur vos données et votre code. Produits utilisés : Vertex AI, Vertex AI, Vertex AI, Vertex Explainable AI, Vertex Feature Store, Vertex Pipelines, Vertex TensorBoard |
Créer une solution d'analyse ML Vision avec Dataflow et l'API Cloud Vision Découvrez comment déployer un pipeline Dataflow pour traiter des fichiers image à grande échelle avec Cloud Vision. Dataflow stocke les résultats dans BigQuery afin que vous puissiez vous en servir pour entraîner des modèles prédéfinis BigQuery ML. Produits utilisés : BigQuery, Cloud Build, Cloud Pub/Sub, Cloud Storage, Cloud Vision, Dataflow |
Data science avec R sur Google Cloud : analyse exploratoire des données Décrit comment utiliser la data science à grande échelle avec R sur Google Cloud. Ce document est destiné aux personnes qui maîtrisent le langage R et les notebooks Jupyter, et qui sont familiarisés avec SQL. Produits utilisés : BigQuery, Cloud Storage, Notebooks |
Concevoir un espace de stockage pour les charges de travail d'IA et de ML dans Google Cloud Mappez les étapes de charge de travail d'IA et de ML sur les options de stockage Google Cloud, puis sélectionnez les options de stockage recommandées pour vos charges de travail d'IA et de ML. Produits utilisés: Cloud Storage, Filestore, disque persistant |
Apprentissage fédéré sur Google Cloud Décrit une mise en œuvre pour un cas d'utilisation d'apprentissage fédéré. Ce document tient compte des considérations de sécurité et d'isolation que vous devez prendre à la fois pour les environnements multicloud et hybrides. Produits utilisés : Google Kubernetes Engine (GKE), TensorFlow |
Architecture de l'analyse géospatiale Découvrez les capacités géospatiales de Google Cloud et comment les utiliser dans vos applications d'analyse géospatiale. Produits utilisés : BigQuery, Dataflow |
Sauvegarde Google Workspace avec Afi.ai Décrit comment configurer une sauvegarde Google Workspace automatisée à l'aide d'Afi.ai. Produits utilisés : Cloud Storage |
Consignes pour le développement de solutions de ML de haute qualité Rassemble des consignes pour vous aider à évaluer, garantir et contrôler la qualité des solutions de machine learning (ML). |
Traitement d'images à l'aide de microservices et de la messagerie asynchrone Explique comment mettre en œuvre des microservices à l'aide de Google Kubernetes Engine (GKE) et Pub/Sub pour appeler de manière asynchrone des processus de longue durée. Produits utilisés : Artefact Registry, Cloud Pub/Sub, Cloud SQL, Cloud Storage, Cloud Vision, Compute Engine, Container Registry, Google Kubernetes Engine (GKE) |
Infrastructure pour une application d'IA générative compatible avec RAG à l'aide de Vertex AI Concevez une infrastructure pour exécuter une application d'IA générative avec une génération augmentée de récupération. Produits utilisés : Alloy Db, BigQuery, Cloud Pub/Sub, Cloud Run, Cloud Storage, Document AI, Logging, Monitoring, Vertex AI |
Architecture de référence Intelligent Products Essentials Ce document décrit une architecture de référence pour les décideurs techniques qui souhaitent connecter des appareils et créer des applications Cloud IoT sur Google Cloud en utilisant Intelligent Products Essentials. Produits utilisés : BigQuery, Cloud Pub/Sub, Firebase, Intelligent Products Essentials, Looker, Run, Scheduler |
Solution de démarrage : traitement d'images par IA/ML sur Cloud Functions Analysez des images à l'aide de modèles de machine learning pré-entraînés et d'une application de traitement d'images déployée sur Cloud Functions. |
Solution de démarrage rapide : lakehouse d'analyse de données Unifiez les lacs et les entrepôts de données en créant un lakehouse d'analyse de données à l'aide de BigQuery pour stocker, traiter, analyser et activer les données. |
Solution de démarrage rapide : entrepôt de données avec BigQuery Créer un entrepôt de données avec un tableau de bord et un outil de visualisation à l'aide de BigQuery |
Solution de démarrage rapide : résumé de documents par IA générative Traitez et résumez des documents à la demande à l'aide de l'IA générative de Vertex AI et de grands modèles de langage (LLM). |
Explore les architectures couramment utilisées sur Google Cloud pour générer des prédictions à partir de modèles de machine learning, ainsi que des techniques visant à minimiser la latence de diffusion des prédictions des systèmes de ML. Produits utilisés : AI Platform, Bigtable, Cloud Memorystore, Cloud Pub/Sub, Dataflow, Datastore, Google Kubernetes Engine (GKE) |
MLOps avec Intelligent Product Essentials Décrit une architecture de référence pour la mise en œuvre de MLOps à l'aide d'Intelligent Products Essentials et de Vertex AI. Produits utilisés : BigQuery, Cloud Scheduler, Dataflow, Dataproc, Intelligent Products Essentials, Vertex AI |
MLOps : pipelines de livraison continue et d'automatisation dans le machine learning Ce document traite des techniques de mise en œuvre et d'automatisation de l'intégration continue (CI), de la livraison continue (CD) et de l'entraînement continu (CT) pour les systèmes de machine learning (ML). |
Surveiller des données de séries temporelles avec OpenTSDB sur Bigtable et GKE Les données de séries temporelles constituent un atout précieux que vous pouvez exploiter pour différentes applications, en particulier dans les domaines de la surveillance, de l'analyse des tendances et du machine learning. Vous pouvez générer des données de séries temporelles à partir de l'infrastructure de serveurs, du code d'application ou d'autres sources. OpenTSDB… Produits utilisés : Bigtable, Google Kubernetes Engine (GKE) |
Protéger les données confidentielles dans les notebooks Vertex AI Workbench gérés par l'utilisateur Décrit les contrôles et les couches de sécurité que vous pouvez utiliser pour protéger les données confidentielles dans les notebooks Vertex AI Workbench gérés par l'utilisateur. Produits utilisés : BigQuery, Notebooks |
Réduisez votre empreinte carbone sur Google Cloud Explique l'approche de Google Cloud en termes de durabilité environnementale. Il comprend des informations et d'autres ressources que vous pouvez utiliser pour comprendre votre empreinte carbone sur Google Cloud. Produits utilisés : BigQuery, Compute Engine, Google Kubernetes Engine (GKE) |
Système d'inférence TensorFlow évolutif Décrit comment concevoir et déployer un système d'inférence en ligne hautes performances pour des modèles de deep learning à l'aide d'un GPU NVIDIA® T4 et du serveur d'inférence Triton. Produits utilisés : Cloud Load Balancing, Google Kubernetes Engine (GKE) |
Diffuser des modèles Spark ML à l'aide de Vertex AI Cette page explique comment diffuser (exécuter) des prédictions en ligne à partir de modèles de machine learning (ML) créés à l'aide de Spark MLlib et gérés à l'aide de Vertex AI. Produits utilisés : Vertex AI |
Utiliser Kubeflow Pipelines pour modéliser des tendances sur Google Cloud Décrit un exemple de pipeline automatisé dans Google Cloud qui effectue une modélisation des tendances. Produits utilisés : BigQuery, Cloud Functions, Vertex AI |