-
agent
- Dans le contexte de l'IA générative, un agent est un logiciel qui planifie et exécute de manière autonome une série d'actions en vue d'atteindre un objectif, potentiellement dans des situations nouvelles. Les agents peuvent être utilisés dans diverses applications, telles que le traitement du langage naturel, le machine learning et la robotique. Par exemple, un agent LLM utilise un modèle de langage pour évaluer l'environnement et choisir une action pour l'aider à atteindre son objectif. Les agents LLM peuvent être utilisés pour générer du texte, traduire des langues et répondre à des questions.
-
points de terminaison de l'API
- Les points de terminaison de l'API sont un aspect de la configuration du service qui spécifie les adresses réseau, à savoir les points de terminaison du service (par exemple, aiplatform.googleapis.com).
-
Identifiants par défaut de l'application (ADC)
- Les identifiants par défaut de l'application (ADC) permettent d'obtenir facilement des identifiants d'autorisation à utiliser pour appeler les API Google. Ils sont particulièrement adaptés lorsque l'appel doit disposer de la même identité et du même niveau d'autorisation pour l'application quel que soit l'utilisateur. Cette approche est recommandée pour autoriser les appels vers les API Google Cloud, en particulier lorsque vous créez une application qui est déployée sur des machines virtuelles Google App Engine (GAE) ou Compute Engine. Pour en savoir plus, consultez la section Fonctionnement des identifiants par défaut de l'application.
-
ANN (voisin le plus proche)
- Le service ANN (voisin le plus proche) est une solution à grande échelle et à faible latence permettant de trouver des vecteurs (ou plus précisément, des "représentations vectorielles continues") similaires pour un corpus volumineux. Pour en savoir plus, consultez Utiliser Vector Search pour la mise en correspondance sémantique.
-
artefact
- Un artefact est une entité discrète ou une donnée produite et consommée par un workflow de machine learning. Les ensembles de données, les modèles, les fichiers d'entrée et les journaux d'entraînement sont des exemples d'artefacts.
-
Artifact Registry
- Artifact Registry est un service universel de gestion d'artefacts. Il s'agit du service recommandé pour la gestion des conteneurs et d'autres artefacts sur Google Cloud. Pour en savoir plus, consultez la page Artifact Registry.
-
Intelligence artificielle (IA)
- L'intelligence artificielle (IA) est l'étude et la conception de machines qui semblent "intelligentes", c'est-à-dire qui imitent des fonctions humaines ou intellectuelles telles que le mouvement mécanique, le raisonnement ou la résolution de problèmes. Le machine learning est l'un des sous-domaines de l'IA les plus populaires. Il utilise une approche statistique et basée sur les données pour créer de l'IA. Toutefois, certaines personnes utilisent ces deux termes de manière interchangeable.
-
Réalité augmentée (RA)
- Mélange de contenus numériques affichés avec des contenus réels, via un écran (comme celui d'un téléphone) ou en superposition du monde vu à travers des optiques (comme des lunettes). Le contenu numérique doit être suivi en fonction du mouvement de la caméra ou des lunettes (selon la façon dont la scène est affichée) afin qu'il semble faire partie du monde réel.
-
authentication
- Processus de vérification de l'identité d'un client (qui peut être un utilisateur ou un autre processus) afin d'accéder à un système sécurisé. Un client qui a prouvé son identité est dit authentifié. Pour en savoir plus, consultez la page Méthodes d'authentification chez Google.
-
Automatic side-by-side (AutoSxS)
- L'outil d'évaluation automatique côte à côte (AutoSxS) est un outil d'évaluation assisté par un modèle qui compare deux grands modèles de langage (LLM) côte à côte. Il peut être utilisé pour évaluer les performances des modèles d'IA générative dans Vertex AI Model Registry ou des prédictions prégénérées. AutoSxS utilise un outil d'évaluation automatique pour choisir le modèle qui répond le mieux à une requête. AutoSxS est disponible à la demande et évalue les modèles de langage en offrant des performances comparables à celles des évaluateurs humains.
-
Reconnaissance vocale automatique (ASR,Speech to Text)
- Transcription automatique de la langue parlée (parole) en texte.
-
AutoML
- Algorithmes de machine learning qui "apprennent à apprendre" grâce à l'optimisation par boîte noire. Pour en savoir plus, consultez le glossaire de l'IA ML.
-
autorater
- Un outil d'évaluation automatique est un modèle de langage qui évalue la qualité des réponses du modèle en fonction d'une requête d'inférence d'origine. Il est utilisé dans le pipeline AutoSxS pour comparer les prédictions de deux modèles et déterminer celui qui a enregistré les meilleures performances. Pour en savoir plus, consultez L'outil d'automatisation de l'évaluation.
-
référence
- Modèle utilisé comme point de référence pour comparer les performances d'un autre modèle (généralement plus complexe). Par exemple, un modèle de régression logistique peut servir de référence pour un modèle profond. Pour un problème particulier, la référence aide les développeurs de modèles à quantifier les performances minimales attendues qu'un nouveau modèle doit atteindre pour être utile. Pour en savoir plus, consultez Ensembles de données de référence et cibles.
-
lot
- Ensemble d'exemples utilisés dans une itération d'entraînement. La taille de lot détermine le nombre d'exemples par lot.
-
taille de lot
- Nombre d'exemples d'un lot. Par exemple, la taille de lot de SGD est de 1, tandis que celle d'un mini-lot est généralement comprise entre 10 et 1 000. La taille de lot est habituellement fixée pendant les processus d'entraînement et d'inférence. Toutefois, TensorFlow accepte les tailles de lot dynamiques.
-
prédiction par lot
- La prédiction par lot extrait un groupe de requêtes de prédiction et génère les résultats dans un fichier. Pour en savoir plus, consultez la page Obtenir des prédictions par lot.
-
biais
- 1. Stéréotypes, préjugés ou favoritisme envers certains groupes, choses ou personnes par rapport à d'autres. Ces biais peuvent avoir une incidence sur la collecte et l'interprétation des données, ainsi que sur la conception d'un système et la manière dont les utilisateurs interagissent avec celui-ci. 2. Erreur systématique introduite par une procédure d'échantillonnage ou de rapport.
-
bidirectionnel
- Terme utilisé pour décrire un système qui évalue le texte qui précède et suit une section cible de texte. En revanche, un système unidirectionnel n'évalue que le texte qui précède une section cible de texte.
-
BERT (Bidirectional Encoder Representations from Transformers)
- BERT est une méthode permettant de pré-entraîner des représentations du langage. Autrement dit, nous entraînons un modèle de "compréhension du langage" à usage général sur un grand corpus de texte (comme Wikipédia), puis utilisons ce modèle pour les tâches de traitement du langage naturel en aval qui nous intéressent (comme la réponse aux questions). BERT surpasse les méthodes précédentes, car il s'agit du premier système non supervisé et profondément bidirectionnel pour le pré-entraînement du traitement du langage naturel.
-
BLEU (Bilingual Evaluation Understudy)
- Mesure populaire permettant d'évaluer la qualité d'un algorithme de traduction automatique en comparant son résultat à celui d'une ou de plusieurs traductions humaines.
-
boosting
- Dans l'entraînement de modèle: le boosting peut désigner des techniques d'augmentation des données utilisées pour augmenter la taille et la diversité des ensembles de données d'entraînement. Pour ce faire, les exemples existants sont transformés afin de créer des exemples supplémentaires et variés, ce qui peut améliorer les performances du modèle, en particulier lorsque l'ensemble de données d'origine est limité.
-
cadre de délimitation
- Un cadre de délimitation pour un objet dans l'image vidéo peut être spécifié de deux manières : (i) Utiliser deux sommets composés d'un ensemble de coordonnées x et y s'ils correspondent à des points diagonalement opposés du rectangle. Par exemple : x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Utiliser les quatre sommets. Pour en savoir plus, consultez la section Préparer des données vidéo.
-
bucket
- Dossier de niveau supérieur pour Cloud Storage. Les noms de bucket doivent être uniques pour tous les utilisateurs de Cloud Storage. Les buckets contiennent des fichiers. Pour en savoir plus, consultez la page Présentation du produit Cloud Storage.
-
Chaîne de pensée
- Dans l'IA générative, la chaîne de pensée est une technique d'incitation qui encourage le grand modèle de langage (LLM) à détailler explicitement son processus de raisonnement avant de parvenir à une conclusion. Pour ce faire, vous devez demander au modèle d'afficher les étapes intermédiaires qu'il suit pour résoudre un problème, plutôt que de fournir simplement la réponse finale. Cette méthode peut améliorer considérablement les performances du LLM pour les tâches de raisonnement complexes.
-
chat
- Contenu d'un dialogue avec un système de ML, généralement un grand modèle de langage. L'interaction précédente dans une discussion (ce que vous avez saisi et la réponse du grand modèle de langage) devient le contexte des parties suivantes de la discussion. Un chatbot est une application d'un grand modèle de langage.
-
point de contrôle
- Données qui capturent l'état des paramètres d'un modèle pendant l'entraînement ou une fois l'entraînement terminé. Par exemple, pendant l'entraînement, vous pouvez : Arrêtez l'entraînement, peut-être intentionnellement ou en raison de certaines erreurs. 2. Capturez le point de contrôle. 3. Plus tard, rechargez le point de contrôle, éventuellement sur un autre matériel. 4. Redémarrez l'entraînement. Dans Gemini, un point de contrôle fait référence à une version spécifique d'un modèle Gemini entraîné sur un ensemble de données spécifique.
-
modèle de classification
- Modèle dont la prédiction est une classe. Par exemple, les modèles suivants sont tous des modèles de classification: un modèle qui prédit la langue d'une phrase d'entrée (français ? Espagnol ? Italien ?). Un modèle qui prédit les espèces d'arbres (érable ? Chêne ? Baobab ?). Modèle qui prédit la classe positive ou négative pour une affection médicale particulière.
-
métriques de classification
- Les métriques de classification compatibles avec le SDK Vertex AI pour Python sont la matrice de confusion et la courbe ROC.
-
Cloud TPU
- Accélérateur matériel spécialisé conçu pour accélérer les charges de travail de machine learning sur Google Cloud.
-
clustering
- Dans le contexte de l'IA générative, le clustering est une technique de machine learning non supervisée qui permet de regrouper des points de données similaires en fonction de leurs caractéristiques. Pour ce faire, vous devez définir une mesure (ou métrique) de similarité pour comparer les points de données et regrouper ceux qui présentent une forte similarité dans le même cluster. Dans les applications d'IA générative, cela peut impliquer de regrouper des embeddings (représentations numériques de texte, d'images ou d'autres données) pour effectuer des tâches telles que la recherche, la classification ou la détection d'anomalies. Par exemple, vous pouvez segmenter vos clients en regroupant leurs données pour identifier des groupes présentant des comportements ou des caractéristiques similaires. Pour en savoir plus, consultez Qu'est-ce que le clustering ?
-
image du conteneur
- Une image de conteneur est un package qui fournit le code exécutable du composant et définit l'environnement dans lequel le code s'exécute. Pour en savoir plus, consultez la section Présentation de l'entraînement personnalisé.
-
context
- Un contexte permet de regrouper des artefacts et des exécutions sous une catégorie unique, interrogeable et typée. Les contextes peuvent servir à représenter des ensembles de métadonnées. Un exemple de contexte pourrait être une exécution d'un pipeline de machine learning.
-
cache de contexte
- Dans Vertex AI, un cache de contexte est une grande quantité de données qui peuvent être utilisées dans plusieurs requêtes adressées à un modèle Gemini. Le contenu mis en cache est stocké dans la région où la requête de création du cache est envoyée. Il peut s'agir de n'importe quel type MIME compatible avec les modèles multimodaux Gemini, comme du texte, de l'audio ou de la vidéo. Pour en savoir plus, consultez la page Présentation de la mise en cache de contexte.
-
fenêtre de contexte
- Nombre de jetons qu'un modèle peut traiter dans une requête donnée. Plus la fenêtre de contexte est grande, plus le modèle peut utiliser d'informations pour fournir des réponses cohérentes et cohérentes à la requête.
-
Clés de chiffrement gérées par le client (CMEK)
- Les clés de chiffrement gérées par le client (CMEK, Customer-Managed Encryption Keys) sont des intégrations qui permettent aux clients de chiffrer des données dans les services Google existants à l'aide d'une clé qu'ils gèrent dans Cloud KMS (alias Storky). La clé dans Cloud KMS est la clé de chiffrement de clé qui protège ses données. Pour en savoir plus, consultez Clés de chiffrement gérées par le client (CMEK).
-
analyse des données
- Procédure visant à comprendre des données en en étudiant les échantillons, les mesures et les visualisations. L'analyse de données peut s'avérer particulièrement utile à la réception d'un ensemble de données, avant la création du premier modèle. Elle est également cruciale pour interpréter les expériences et déboguer les problèmes affectant le système.
-
Augmentation des données
- Augmenter artificiellement l'éventail et le nombre d'exemples d'entraînement en transformant les exemples existants afin d'en créer de nouveaux. Supposons que votre ensemble de données contienne des exemples d'images, mais pas suffisamment pour que le modèle apprenne des associations utiles. Dans l'idéal, vous allez ajouter suffisamment d'images avec libellé à votre ensemble de données pour que votre modèle puisse s'entraîner correctement. Si ce n'est pas possible, l'augmentation des données peut faire pivoter, étirer et faire un reflet de chaque image afin de créer de nombreuses variantes de l'image originale, ce qui produira éventuellement suffisamment de données avec libellé pour un entraînement d'excellente qualité.
-
DataFrame
- Type de données pandas populaire utilisé pour représenter des ensembles de données en mémoire. Un DataFrame est analogue à un tableau ou à une feuille de calcul. Chaque colonne d'un DataFrame porte un nom (un en-tête) et chaque ligne est identifiée par un numéro unique.Chaque colonne d'un DataFrame est structurée comme un tableau 2D, à la différence que chaque colonne peut être associée à son propre type de données.
-
indexation des données
- Dans le contexte de l'IA générative, l'indexation de données consiste à structurer et à organiser une base de connaissances pour optimiser la recherche et la récupération. Pour ce faire, vous devez créer un indice, souvent appelé corpus, qui permet de rechercher efficacement les données. Ce processus est distinct de la création de corpus. Les données indexées peuvent être utilisées pour enrichir le contexte des grands modèles de langage (LLM), ce qui réduit les hallucinations et améliore la précision des réponses. Par exemple, dans le contexte d'un site Web, l'indexation des données peut impliquer d'ajouter des métadonnées telles que datePublished et dateModified pour améliorer la fonctionnalité de recherche. Il existe différentes méthodes d'indexation des données, y compris l'utilisation de la recherche vectorielle pour la recherche de similarité dans des applications telles que la récupération d'informations pertinentes pour les LLM au moment de la requête. Pour en savoir plus, consultez la présentation du moteur RAG .
-
ingestion de données
- L'ingestion de données consiste à extraire des données de diverses sources et à les intégrer dans un emplacement central pour les traiter et les analyser. Dans le contexte de l'IA générative, l'ingestion de données consiste à extraire des informations à partir de différentes sources de données, telles que des formulaires cliniques, des dossiers médicaux ou du texte non structuré, pour entraîner et affiner des modèles d'IA générative. Les données ingérées sont généralement traitées et transformées pour garantir leur qualité et leur cohérence avant d'être utilisées pour entraîner les modèles d'IA générative. Ce processus peut impliquer le nettoyage des données, l'ingénierie des caractéristiques et des techniques d'augmentation des données pour améliorer les performances et les capacités de généralisation du modèle. Pour en savoir plus, consultez Utiliser l'IA générative pour la gestion de l'utilisation.
-
parallélisme de données
- Méthode permettant de faire évoluer l'entraînement ou l'inférence en répliquant un modèle entier sur plusieurs appareils, puis en transmettant un sous-ensemble des données d'entrée à chaque appareil. Le parallélisme des données peut permettre l'entraînement et l'inférence sur de très grandes tailles de lot. Toutefois, il nécessite que le modèle soit suffisamment petit pour tenir sur tous les appareils. Le parallélisme des données accélère généralement l'entraînement et l'inférence.
-
ensemble de données
- Un ensemble de données est défini comme une collection d'enregistrements de données structurés ou non structurés. Ensemble de données brutes, généralement (mais pas exclusivement) organisées dans l'un des formats suivants: une feuille de calcul ou un fichier au format CSV (valeurs séparées par une virgule). Pour en savoir plus, voir Créer un ensemble de données
-
transformation des données
- Dans le contexte de la génération augmentée de récupération (RAG), la transformation de données désigne la conversion des données dans un format adapté à l'indexation et au traitement par un LLM. Cela implique souvent de diviser les données en petits morceaux pour les rendre plus faciles à intégrer et à indexer. D'autres transformations peuvent inclure des étapes de nettoyage et de validation pour garantir la qualité des données. Pour en savoir plus, consultez la présentation du moteur RAG.
-
décodeur
- En général, tout système de ML qui convertit une représentation traitée, dense ou interne en une représentation plus brute, sporadique ou externe. Les décodeurs sont souvent un composant d'un modèle plus vaste, où ils sont souvent associés à un encodeur. Dans les tâches de séquence à séquence, un décodeur commence par l'état interne généré par l'encodeur pour prédire la séquence suivante.
-
réseau de neurones profond (RNN)
- Réseau de neurones avec plusieurs couches cachées, généralement programmé à l'aide de techniques de deep learning.
-
depth
- Somme des éléments suivants dans un réseau de neurones: 1. le nombre de couches cachées ; 2. le nombre de couches de sortie, qui est généralement un ; 3. le nombre de couches d'encapsulation. Par exemple, un réseau de neurones avec cinq couches cachées et une couche de sortie a une profondeur de 6. Notez que la couche d'entrée n'a aucune influence sur la profondeur.
-
DevOps
- DevOps est une suite de produits Google Cloud Platform, comme Artifact Registry et Cloud Deploy.
-
arrêt prématuré
- Méthode de régularisation qui consiste à arrêter l'entraînement avant que la perte d'entraînement ait fini de baisser. Avec l'arrêt prématuré, vous arrêtez intentionnellement l'entraînement du modèle lorsque la perte d'un ensemble de données de validation commence à augmenter, c'est-à-dire lorsque les performances de généralisation se dégradent.
-
embedding
- Représentations numériques de mots ou de textes. Ces nombres capturent la signification sémantique et le contexte du texte. Les mots ou textes similaires ou connexes ont tendance à avoir des embeddings similaires, ce qui signifie qu'ils sont plus proches les uns des autres dans l'espace vectoriel de grande dimension.
-
espace d'encapsulation (espace latent)
- Dans l'IA générative, l'espace d'embedding désigne une représentation numérique du texte, des images ou des vidéos qui capture les relations entre les entrées. Les modèles de machine learning, en particulier les modèles d'IA générative, sont particulièrement doués pour créer ces embeddings en identifiant des tendances récurrentes dans de grands ensembles de données. Les applications peuvent utiliser des embeddings pour traiter et générer du langage, en reconnaissant des significations complexes et des relations sémantiques spécifiques au contenu.
-
vecteur d'embedding
- Représentation vectorielle dense, souvent à faible dimension, d'un élément, de sorte que, si deux éléments sont sémantiquement similaires, leurs embeddings respectifs se trouvent proches l'un de l'autre dans l'espace vectoriel d'embedding.
-
encodeur
- En général, tout système de ML qui convertit une représentation brute, clairsemée ou externe en une représentation plus traitée, plus dense ou plus interne. Les encodeurs sont souvent un composant d'un modèle plus vaste, où ils sont souvent associés à un décodeur. Certains transformateurs associent des encodeurs à des décodeurs, tandis que d'autres n'utilisent que l'encodeur ou que le décodeur. Certains systèmes utilisent la sortie de l'encodeur comme entrée d'un réseau de classification ou de régression. Dans les tâches de séquence à séquence, un encodeur prend une séquence d'entrée et renvoie un état interne (un vecteur). Le décodeur utilise ensuite cet état interne pour prédire la séquence suivante.
-
ensemble
- Ensemble de modèles entraînés indépendamment dont les prédictions sont agrégées ou moyennes. Dans de nombreux cas, un ensemble produit de meilleures prédictions qu'un seul modèle. Par exemple, une forêt d'arbres décisionnels est un ensemble construit à partir de plusieurs arbres de décision. Notez que toutes les forêts de décision ne sont pas des ensembles.
-
environnement
- Dans l'apprentissage par renforcement, monde qui contient l'agent et lui permet d'observer l'état de ce monde. Par exemple, le monde représenté peut être un jeu comme les échecs ou un monde physique comme un labyrinthe. Lorsque l'agent applique une action à l'environnement, l'environnement passe d'un état à un autre.
-
evaluation (eval)
- Une évaluation est un type de test dans lequel des requêtes enregistrées ou synthétiques sont envoyées via deux piles de recherche : une pile expérimentale qui inclut votre modification et une pile de base sans votre modification. Les évaluations génèrent des différences et des métriques qui vous permettent d'évaluer l'impact, la qualité et d'autres effets de votre modification sur les résultats de recherche et d'autres éléments de l'expérience utilisateur Google. Les évaluations sont utilisées lors du réglage ou des itérations de votre modification. Ils sont également utilisés pour lancer un changement dans le trafic utilisateur en direct.
-
exécution
- Une exécution est un enregistrement d'une étape individuelle de workflow de machine learning, généralement annoté avec ses paramètres d'exécution. Les exemples d'exécution incluent l'ingestion de données, la validation de données, l'entraînement de modèle, l'évaluation de modèle et le déploiement de modèle.
-
Score F1
- Le score F1 est une métrique utilisée pour évaluer la justesse de la sortie d'un modèle. Il est particulièrement utile pour évaluer les performances des modèles dans des tâches où la précision et le rappel sont importants, comme l'extraction d'informations. Pour les modèles d'IA générative, le score F1 peut être utilisé pour comparer les prédictions du modèle aux données de vérité terrain afin de déterminer sa précision. Toutefois, pour les tâches génératives telles que la synthèse et la génération de texte, d'autres métriques telles que le score Rough-L peuvent être plus appropriées.
-
fonctionnalité
- En machine learning (ML), une caractéristique est une caractéristique ou un attribut d'une instance ou d'une entité utilisée comme entrée pour entraîner un modèle de ML ou pour effectuer des prédictions.
-
extraction de caractéristiques
- Dans le contexte de l'IA générative, l'extraction de caractéristiques désigne le processus d'identification et de sélection des caractéristiques pertinentes à partir des données d'entrée à utiliser pour l'entraînement du modèle. Ces caractéristiques sont ensuite utilisées pour générer de nouvelles données qui ressemblent à l'entrée d'origine. Par exemple, dans la génération d'images, l'extraction de caractéristiques peut impliquer d'identifier les bords, les textures et les couleurs. Dans le traitement du langage naturel, cela peut impliquer d'extraire des mots clés, des expressions et des structures grammaticales. Le modèle génératif utilise ensuite les caractéristiques extraites pour créer de nouveaux contenus.
-
publication de caractéristiques
- La livraison de caractéristiques consiste à exporter ou récupérer des valeurs de caractéristiques pour l'entraînement ou l'inférence. Dans Vertex AI, il existe deux types de publication de caractéristiques : la diffusion en ligne et la diffusion hors connexion. La diffusion en ligne récupère les dernières valeurs de caractéristiques d'un sous-ensemble de la source de données de caractéristiques pour les prédictions en ligne. La diffusion hors connexion ou par lot exporte d'importants volumes de données de caractéristiques, y compris les données historiques, pour le traitement hors connexion, comme l'entraînement de modèles de ML.
-
Vue des caractéristiques
- Une vue de caractéristiques est une collection logique de caractéristiques matérialisées depuis une source de données BigQuery vers une instance de magasin en ligne. Une vue de caractéristiques stocke et actualise régulièrement les données des caractéristiques du client, qui sont actualisées périodiquement à partir de la source BigQuery. Une vue de caractéristiques est associée au stockage de données de caractéristiques, directement ou via des associations aux ressources de registre de caractéristiques.
-
Requête few-shot
- Dans l'IA générative, le terme "few-shot" désigne un type de requête qui inclut un petit nombre d'exemples pour guider la réponse du modèle. Ces exemples aident le modèle à comprendre le format de sortie, la formulation, le champ d'application ou la mise en forme générale souhaités pour la réponse. Les requêtes few-shot sont souvent utilisées pour réguler la sortie des modèles de langage, en veillant à ce qu'ils génèrent des réponses précises, de haute qualité et conformes aux attentes de l'utilisateur. En fournissant au modèle quelques exemples pertinents, l'utilisateur peut influencer son comportement et obtenir des résultats plus satisfaisants. Pour en savoir plus, consultez la section Inclure des exemples few-shot.
-
modèle de base (FM)
- Modèles entraînés sur des données générales afin qu'ils puissent être adaptés (par exemple, affinés) à un large éventail de tâches en aval.
-
Opérations de modèle de base (FMOP)
- Les FMOps étendent les fonctionnalités des MLOps et se concentrent sur la mise en production efficace des FM pré-entraînés (à partir de zéro) ou personnalisés (affinés).
-
Gemini
- Gemini est un ensemble de grands modèles multimodaux basés sur des séquences de Google. Cela signifie qu'ils peuvent accepter des entrées et produire des sorties dans plusieurs supports à la fois, y compris le texte, l'audio et les supports visuels. Elles sont conçues pour s'intégrer à des agents capables d'effectuer diverses tâches. Pour en savoir plus, consultez la section Modèles Google.
-
généralisation
- Capacité d'un modèle à effectuer des prédictions correctes pour des données nouvelles, qui n'ont encore jamais été vues. Un modèle qui peut généraliser est l'opposé d'un modèle qui surapprend.
-
génération
- Dans le contexte de l'IA générative, le terme "génération" désigne le processus de création de données ou de contenus à partir de données ou d'informations existantes. Les modèles d'IA générative sont entraînés sur de grands ensembles de données et peuvent apprendre des tendances et des relations dans ces données. Ils peuvent ensuite utiliser ces connaissances pour générer un contenu nouveau et unique, semblable aux données d'entraînement, mais pas un réplique exact. Pour en savoir plus, consultez https://cloud.google.com/docs/ai-ml/generative-ai/generative-ai-or-traditional-ai.
-
modèle génératif
- Type de modèle de machine learning capable de créer des sorties inédites en fonction de ses données d'entraînement. Dans sa forme la plus simple, le modèle génère de nouvelles données qui ressemblent à un certain ensemble de catégories sur lesquelles il a été entraîné. Généralement associé aux grands modèles de langage, mais d'autres types de modèles peuvent également être génératifs.
-
Google Embedded Modem System (GEMS)
- GEMS est un framework logiciel intégré ciblant les modems, ainsi qu'un ensemble d'infrastructures et de workflows de développement associés. L'objectif principal de GEMS est de fournir un code système de modem de haute qualité et haute réutilisation sur de nombreux appareils Google contenant des modems. Pour concrétiser cette vision globale, GEMS fournit aux développeurs un environnement complet composé des principaux composants illustrés ci-dessous.
-
dégradé
- Vecteur des dérivées partielles calculées pour l'ensemble des variables indépendantes. Dans le machine learning, le gradient correspond au vecteur des dérivées partielles de la fonction du modèle. Le gradient indique toujours la direction de la croissance maximale.
-
graphique
- Dans le contexte de l'IA générative, un graphique désigne une représentation structurée des informations qui organise et connecte les données en tant que réseau de nœuds et d'arêtes. Ces graphiques sont souvent utilisés pour représenter les connaissances et les relations entre les entités. Ils sont donc particulièrement utiles pour les systèmes d'IA générative qui nécessitent une compréhension approfondie du contexte et des relations dans les données. Les systèmes d'IA générative qui exploitent des graphes de connaissances peuvent les utiliser pour améliorer les performances des modèles de récupération. En intégrant des graphes de connaissances au système, l'IA générative peut accéder à des données riches en contexte et parcourir le graphique pour récupérer des sous-graphiques pertinents en fonction des requêtes des utilisateurs. Cela permet au système de fournir des réponses plus précises et informatives en générant du contenu pertinent d'un point de vue contextuel.
-
vérité terrain
- La vérité terrain est un terme utilisé dans divers domaines pour désigner la vérité absolue d'un problème de décision ou de mesure, par opposition à l'estimation d'un système. En machine learning, le terme "vérité terrain" fait référence à l'ensemble d'entraînement pour les techniques d'apprentissage supervisé.
-
hallucination
- Dans l'IA générative, une hallucination est une réponse confiante d'une IA qui ne peut pas être justifiée par ses données d'entraînement. Il est peut-être factuellement incorrect. Dans le contexte de la génération de texte, il s'agit de faussetés aléatoires plausibles dans le contenu textuel généré.
-
heuristique
- Solution simple et rapide à un problème. Par exemple, "Avec une heuristique, nous avons atteint une précision de 86 %. Lorsque nous avons opté pour un réseau de neurones profond, la précision a atteint 98%".
-
couche cachée
- Couche d'un réseau de neurones située entre la couche d'entrée (les caractéristiques) et la couche de sortie (la prédiction). Chaque couche cachée est composée d'un ou de plusieurs neurones. Un réseau de neurones profond contient plusieurs couches cachées.
-
histogram
- Affichage graphique de la variation d'un ensemble de données à l'aide de barres. Un histogramme permet de visualiser des modèles difficiles à détecter dans une simple table de nombres.
-
hyperparamètre
- Un hyperparamètre désigne une variable qui régit le processus d'entraînement d'un modèle de machine learning. Ces variables peuvent inclure les taux d'apprentissage, les valeurs de momentum dans l'optimiseur et le nombre d'unités dans la dernière couche cachée d'un modèle. Le réglage des hyperparamètres dans Vertex AI consiste à exécuter plusieurs essais d'une application d'entraînement avec différentes valeurs pour les hyperparamètres choisis, définies dans les limites spécifiées. L'objectif est d'optimiser les paramètres des hyperparamètres pour maximiser la précision des prédictions du modèle. Pour en savoir plus, consultez la page Présentation des réglages d'hyperparamètres.
-
Imagen
- Imagen est un service d'IA générative texte-vers-image disponible via la plate-forme Vertex AI. Il permet aux utilisateurs de générer des images originales, de les modifier, d'ajuster le style ou les modèles d'objets, de créer des légendes ou d'obtenir des réponses à des questions sur le contenu des images. Pour en savoir plus, consultez la présentation d'Imagen sur Vertex AI.
-
reconnaissance d'image
- La reconnaissance d'image est le processus de classification des objets, des formes ou des concepts dans une image. Elle est également appelée "classification d'images". La reconnaissance d'images est un sous-domaine du machine learning et de la vision par ordinateur.
-
index
- Un ensemble de vecteurs déployés pour la recherche de similarités. Les vecteurs peuvent être ajoutés à un index ou supprimés de celui-ci. Les requêtes de recherche de similarités sont émises sur un index spécifique et recherchent les vecteurs de cet index.
-
inférence
- Dans le contexte de la plate-forme Vertex AI, l'inférence désigne le processus consistant à exécuter des points de données via un modèle de machine learning pour calculer une sortie, telle qu'un score numérique unique. Ce processus est également appelé "opérationnalisation d'un modèle de machine learning" ou "mise en production d'un modèle de machine learning". L'inférence est une étape importante du workflow de machine learning, car elle permet d'utiliser les modèles pour effectuer des prédictions sur de nouvelles données. Dans Vertex AI, l'inférence peut être effectuée de différentes manières, y compris par prédiction par lot et en ligne. La prédiction par lot consiste à exécuter un groupe de requêtes de prédiction et à générer les résultats dans un fichier, tandis que la prédiction en ligne permet d'effectuer des prédictions en temps réel sur des points de données individuels.
-
recherche d'informations (IR)
- La récupération d'informations est un composant clé de Vertex AI Search. Il s'agit du processus consistant à trouver et à extraire des informations pertinentes à partir d'une grande collection de données. Dans le contexte de Vertex AI, l'IR permet de récupérer des documents à partir d'un corpus en fonction de la requête d'un utilisateur. Vertex AI propose une suite d'API pour vous aider à créer vos propres applications de génération augmentée par récupération (RAG, Retrieval Augmented Generation) ou à créer votre propre moteur de recherche. Pour en savoir plus, consultez Utiliser Vertex AI Search comme backend de récupération à l'aide du moteur RAG.
-
taux d'apprentissage (taille de l'étape)
- Le taux d'apprentissage est un hyperparamètre utilisé pour ajuster le processus d'optimisation d'un modèle de machine learning. Il détermine la taille de pas à laquelle le modèle met à jour ses pondérations pendant l'entraînement. Un taux d'apprentissage plus élevé peut entraîner une convergence plus rapide, mais peut aussi entraîner une instabilité ou une suradaptation. À l'inverse, un taux d'apprentissage plus faible peut entraîner une convergence plus lente, mais peut aider à éviter le surapprentissage. Pour en savoir plus, consultez la page Présentation des réglages d'hyperparamètres.
-
perte (coût)
- Lors de l'entraînement d'un modèle supervisé, mesure de l'écart entre la prédiction d'un modèle et son libellé. Une fonction de perte calcule la perte.
-
Ensemble de données géré
- Objet d'ensemble de données créé et hébergé par Vertex AI.
-
model
- Tout modèle pré-entraîné ou non. En général, toute construction mathématique qui traite les données d'entrée et renvoie une sortie. Autrement dit, un modèle est l'ensemble de paramètres et de structures nécessaires à un système pour effectuer des prédictions.
-
distillation de modèle (distillation de connaissances, modèles enseignant-élève)
- La distillation de modèle est une technique qui permet à un modèle élève plus petit d'apprendre à partir d'un modèle enseignant plus grand. Le modèle élève est entraîné pour imiter la sortie du modèle enseignant. Il peut ensuite être utilisé pour générer de nouvelles données ou effectuer des prédictions. La distillation de modèles est souvent utilisée pour rendre les grands modèles plus efficaces ou plus accessibles aux appareils dont les ressources sont limitées. Il peut également être utilisé pour améliorer la généralisation des modèles en réduisant le surapprentissage.
-
nom de ressource de modèle
- Nom de ressource pour un
model
, défini comme suit : projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>. Vous pouvez trouver l'ID du modèle dans la console Cloud, sur la page "Model Registry".
- Nom de ressource pour un
-
Network File System (NFS)
- Système client/serveur qui permet aux utilisateurs d'accéder aux fichiers via un réseau et de les traiter comme s'ils se trouvaient dans un répertoire de fichiers local.
-
encodage one-hot
- L'encodage one-hot est couramment utilisé pour représenter des chaînes ou des identifiants qui ont un ensemble fini de valeurs possibles. Pour en savoir plus, consultez Données catégorielles: vocabulaire et encodage one-hot.
-
requête one-shot
- Requête contenant un exemple illustrant comment le grand modèle de langage doit répondre. Pour en savoir plus, consultez la section Invite ponctuelle.
-
paramètre
- Les paramètres sont des valeurs d'entrée à clé qui configurent une exécution, régulent le comportement de l'exécution et affectent les résultats de l'exécution. Exemples : taux d'apprentissage, taux d'abandon et nombre d'étapes d'entraînement.
-
perplexité
- La perplexité est une métrique utilisée pour évaluer les performances des modèles de langage. Il mesure la probabilité que le modèle génère une séquence de texte donnée en fonction de la distribution du texte sur lequel il a été entraîné. La perplexité est une métrique couramment utilisée pour évaluer les modèles de langage. Elle permet souvent de comparer les performances de différents modèles ou de suivre la progression d'un modèle pendant l'entraînement.
-
pipeline
- Les pipelines de ML sont des workflows de ML portables et évolutifs basés sur des conteneurs. Pour en savoir plus, consultez la Présentation de Vertex AI Pipelines.
-
tâche de pipeline
- Une tâche de pipeline ou une exécution de pipeline correspond à la ressource PipelineJob dans l'API Vertex AI. Il s'agit d'une instance d'exécution de votre définition de pipeline de ML, qui est définie comme un ensemble de tâches de ML interconnectées par des dépendances d'entrée/sortie.
-
exécution de pipeline
- Un ou plusieurs PipelineJobs Vertex peuvent être associés à un test où chaque PipelineJob est représenté comme une seule exécution. Dans ce contexte, les paramètres de l'exécution sont déduits par les paramètres de la tâche PipelineJob. Les métriques sont déduits des artefacts system.Metric générés par cette tâche PipelineJob. Les artefacts de l'exécution sont déduits des artefacts produits par cette tâche PipelineJob.
-
Private Service Connect (PSC)
- Private Service Connect est une technologie qui permet aux clients Compute Engine de mapper les adresses IP privées de leur réseau à un autre réseau VPC ou aux API Google.
-
invite
- Une requête est une requête en langage naturel envoyée à un modèle de langage pour recevoir une réponse. Les requêtes peuvent contenir des questions, des instructions, des informations contextuelles, des exemples few-shot et des entrées partielles que le modèle doit terminer ou continuer. Une fois que le modèle a reçu une requête, en fonction du type de modèle utilisé, il peut générer du texte, des embeddings, du code, des images, des vidéos, de la musique, etc… Pour en savoir plus, consultez la section Présentation des stratégies d'invite.
-
Ingénierie des requêtes (conception de requêtes)
- L'ingénierie des requêtes dans l'IA générative consiste à créer des requêtes efficaces pour obtenir les résultats souhaités à partir de grands modèles de langage (LLM). Il s'agit d'un processus itératif, basé sur les tests, axé sur l'amélioration des entrées pour obtenir des résultats spécifiques. Cela implique de prendre en compte à la fois le contenu et la structure de la requête pour garantir des réponses précises et de haute qualité. Une ingénierie efficace des requêtes est cruciale pour les tâches complexes, même si les tâches plus simples peuvent ne pas en avoir besoin. L'objectif est de créer rapidement des prototypes d'applications basées sur des LLM. Pour en savoir plus, consultez la section Présentation de l'ingénierie des requêtes.
-
Réglage de la requête
- Le réglage des requêtes est une méthode d'ajustement fin efficace des paramètres utilisée pour améliorer les performances d'un modèle d'IA générative sur une tâche spécifique. Il s'agit d'apprendre un "préfixe" qui est ajouté au message d'invite, parfois à chaque couche. Cette approche est considérée comme moins coûteuse et plus rapide que les autres méthodes d'ajustement, et elle donne souvent de bons résultats. Le réglage des invites est particulièrement efficace lorsque vous avez une tâche spécifique et que vous souhaitez que le modèle l'exécute d'une certaine manière. On parle aussi parfois d'apprentissage par requête ou d'optimisation (ajustement) efficace des paramètres. Pour en savoir plus, consultez la section Présentation de l'ingénierie des requêtes.
-
Débit provisionné (DP)
- Le débit provisionné (DP) est un service premium pour les modèles d'IA générative de Vertex AI. Il offre une expérience garantie grâce à une assurance de capacité et à des tarifs prévisibles. Contrairement à l'option de paiement à l'utilisation (à la demande), le DP permet aux clients d'acheter un quota dédié, ce qui garantit que leurs requêtes ne sont pas en concurrence avec d'autres pour la capacité du modèle. Le débit provisionné est un abonnement mensuel ou hebdomadaire à coût fixe qui réserve du débit pour les modèles et les emplacements spécifiés. Pour en savoir plus, consultez la section Présentation du débit provisionné.
-
quantisation
- La quantification est une technique d'optimisation de modèle qui permet de réduire la précision des nombres utilisés pour représenter les paramètres d'un modèle. Cela peut entraîner des modèles plus petits, une consommation d'énergie réduite et une latence d'inférence réduite.
-
Forêt d'arbres décisionnels
- La forêt d'arbres aléatoires est un algorithme de machine learning utilisé à la fois pour la classification et la régression. Il ne s'agit pas directement d'un modèle d'IA générative, mais d'un composant pouvant être utilisé dans un système d'IA générative plus vaste. Une forêt aléatoire se compose de plusieurs arbres de décision, et sa prédiction est une agrégation des prédictions de ces arbres individuels. Par exemple, dans une tâche de classification, chaque arbre "vote" pour une classe, et la prédiction finale correspond à la classe ayant reçu le plus de votes. Pour en savoir plus, consultez la section Forêt d'arbres de décision.
-
Cluster Ray sur Vertex AI
- Un cluster Ray sur Vertex AI est un cluster géré de nœuds de calcul qui peut être utilisé pour exécuter des applications de machine learning (ML) et Python distribuées. Il fournit l'infrastructure nécessaire pour les opérations de calculs distribuées et de traitement en parallèle pour votre workflow de ML. Les clusters Ray sont intégrés à Vertex AI pour garantir la disponibilité de la capacité pour les charges de travail de ML critiques ou pendant les périodes de pics. Contrairement aux tâches personnalisées, où le service d'entraînement libère la ressource une fois la tâche terminée, les clusters Ray restent disponibles jusqu'à leur suppression. Pour en savoir plus, consultez la présentation de Ray sur Vertex AI.
-
Ray sur Vertex AI (RoV)
- Ray sur Vertex AI est conçu pour que vous puissiez utiliser le même code Ray Open Source pour écrire des programmes et développer des applications sur Vertex AI avec un minimum de modifications. Pour en savoir plus, consultez la présentation de Ray sur Vertex AI.
-
SDK Ray sur Vertex AI pour Python
- Le SDK Ray sur Vertex AI pour Python est une version du SDK Vertex AI pour Python qui inclut les fonctionnalités du client Ray, du connecteur BigQuery pour Ray, de la gestion des clusters Ray sur Vertex AI et des prédictions sur Vertex AI. Pour en savoir plus, consultez la Présentation du SDK Vertex AI pour Python.
-
recall
- Le pourcentage de vrais voisins les plus proches renvoyé par l'index. Par exemple, si une requête de 20 voisins les plus proches renvoie un résultat de 19 voisins les plus proches de "vérité terrain", le rappel est de 19 / 20 x 100 = 95 %.
-
système de recommandation
- Un système de recommandation est un système basé sur le machine learning qui aide les utilisateurs à trouver du contenu intéressant dans un corpus volumineux. Il génère un sous-ensemble plus restreint de candidats à partir d'un corpus potentiellement énorme, évalue et classe les candidats, puis reclasse le classement final pour tenir compte de contraintes supplémentaires. Pour en savoir plus, consultez la page Présentation des systèmes de recommandation.
-
régularisation
- La régularisation est une technique utilisée pour éviter le surapprentissage dans les modèles de machine learning. Le surapprentissage se produit lorsqu'un modèle apprend trop bien les données d'entraînement, ce qui entraîne de mauvaises performances sur les données inconnues. Un type spécifique de régularisation est mentionné : l'arrêt prématuré, où l'entraînement est interrompu avant que la perte d'un ensemble de données de validation ne commence à augmenter, ce qui indique une baisse des performances de généralisation. Pour en savoir plus, consultez Sur-ajustement: régularisation L2.
-
compte de service
- Dans Google Cloud, un compte de service est un type de compte particulier utilisé par une application ou une instance de machine virtuelle (VM), et non par une personne. Les applications effectuent des appels d'API autorisés à l'aide de comptes de service.
-
service agemt
- Un agent de service désigne un compte de service géré par Google. Il est utilisé lorsqu'un service nécessite l'accès à des ressources créées par un autre service. Par exemple, lorsque les services Dataflow ou Dataproc doivent créer des instances pendant l'exécution ou lorsqu'une fonction Cloud souhaite utiliser le service Key Management Service (KMS) pour la protéger. Les agents de service sont créés automatiquement par Google Cloud lorsqu'un service en a besoin. Ils sont généralement utilisés pour gérer l'accès aux ressources et effectuer diverses tâches au nom du service. Pour en savoir plus, consultez la page Agents de service.
-
métriques récapitulatives
- Les métriques récapitulatives sont une valeur unique pour chaque clé de métrique lors d'une exécution de test. Par exemple, la justesse d'un test est la justesse calculée à partir d'un ensemble de données de test à la fin de l'entraînement et pouvant être capturée en tant que métrique récapitulative à valeur unique.
-
TensorBoard
- TensorBoard est une suite d'applications Web permettant de visualiser et de comprendre les exécutions et les modèles TensorFlow. Pour en savoir plus, consultez la page sur TensorBoard.
-
Instance TensorBoard
- Une instance TensorBoard est une ressource régionalisée qui stocke les tests Vertex AI TensorBoard associés à un projet. Vous pouvez créer plusieurs instances TensorBoard dans un projet si, par exemple, vous souhaitez plusieurs instances configurées pour utiliser les CMEK. Elle correspond à la ressource TensorBoard dans l'API.
-
Nom de ressource TensorBoard
- Le nom de la ressource TensorBoard permet d'identifier complètement une instance Vertex AI TensorBoard. Le format est le suivant : projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
-
horodatage
- L'horodatage fait référence au début d'une vidéo.
-
métriques de séries temporelles
- Les métriques de séries temporelles sont des valeurs de métriques longitudinales où chaque valeur représente une étape de la partie routine d'entraînement d'une exécution. Les métriques de séries temporelles sont stockées dans Vertex AI TensorBoard. Vertex AI Experiments stocke une référence à la ressource Vertex TensorBoard.
-
token
- Dans un modèle de langage, le jeton est l'unité atomique sur laquelle le modèle effectue l'entraînement et les prédictions (c'est-à-dire les mots, les morphèmes et les caractères). Dans les domaines autres que les modèles de langage, les jetons peuvent représenter d'autres types d'unités atomiques. Par exemple, dans les applications de vision par ordinateur, un jeton peut être un sous-ensemble d'une image. Pour en savoir plus, consultez la section Lister et compter les jetons.
-
trajectoire
- Une "trajectoire" désigne une séquence d'étapes ou d'actions effectuées par un agent ou un modèle. Il est souvent utilisé pour évaluer des modèles génératifs, où la capacité du modèle à générer du texte, du code ou d'autres contenus est évaluée. Plusieurs types de métriques de trajectoire peuvent être utilisés pour évaluer les modèles génératifs, y compris la correspondance exacte de la trajectoire, la correspondance dans l'ordre de la trajectoire, la correspondance dans n'importe quel ordre de la trajectoire et la précision de la trajectoire. Ces métriques mesurent la similarité entre la sortie du modèle et un ensemble de sorties de référence générées par l'humain.
-
Transformateur
- Un "Transformer" est une architecture de réseau de neurones qui sous-tend la plupart des modèles génératifs de pointe. Il est utilisé dans diverses applications de modèles de langage, y compris la traduction. Les Transformer se composent d'un encodeur et d'un décodeur. L'encodeur convertit le texte d'entrée en représentation intermédiaire, et le décodeur le convertit en sortie utile. Ils utilisent un mécanisme d'auto-attention pour recueillir le contexte des mots entourant le mot en cours de traitement. Bien que l'entraînement d'un Transformer nécessite des ressources importantes, l'ajustement fin d'un Transformer pré-entrainé pour des applications spécifiques est plus efficace.
-
Apprentissage par renforcement avec des transformateurs
- L'apprentissage par renforcement Transformer (TRL) consiste à appliquer des techniques d'apprentissage par renforcement (RL) pour entraîner des modèles basés sur des transformateurs pour des tâches génératives. Cette approche répond aux limites des modèles génératifs traditionnels, qui sont souvent entraînés sur la prédiction du prochain jeton sans optimisation explicite pour des qualités souhaitables telles que la cohérence, la sécurité et la sensibilité. La TRL optimise directement le modèle de langage en fonction d'objectifs complexes à l'aide de l'apprentissage par renforcement, en intégrant souvent des commentaires humains (RLHF) pour guider le processus d'apprentissage. Par exemple, vous pouvez affiner des modèles pour générer du contenu moins toxique à l'aide de modèles de récompense et utiliser TRL pour affiner Gemma, un modèle génératif. Pour en savoir plus, consultez DLC Hugging Face: ajustement fin de Gemma avec l'apprentissage par renforcement Transformer (TRL) sur Vertex AI.
-
vrai positif
- Un "vrai positif" désigne une prédiction dans laquelle le modèle identifie correctement une classe positive. Par exemple, si un modèle est entraîné pour identifier les clients qui achèteront un blouson, un vrai positif consisterait à prédire correctement qu'un client effectuera un tel achat.
-
validation
- La validation vérifie la qualité des prédictions d'un modèle par rapport à l'ensemble de validation. Il s'agit de définir des métriques pour mesurer la qualité, la rapidité, le respect des instructions et la sécurité du contenu généré. La validation utilise souvent des données libellées (invites d'entrée et résultats attendus) pour comparer les prédictions du modèle à la vérité terrain. Des métriques telles que le score F1 (pour la classification) et le score ROUGE-L (pour la synthèse) peuvent être utilisées. Le processus comprend également des tests de cas spéciaux et de scénarios inhabituels pour assurer la robustesse. Pour les modèles déployés, la surveillance et la capture continues des points de données courants et des cas particuliers contribuent à améliorer les futures validations.
-
vecteur
- Un vecteur désigne une représentation numérique de texte, d'images ou de vidéos qui capture les relations entre les entrées. Les modèles de machine learning permettent de créer des embeddings en identifiant des tendances dans de grands ensembles de données. Les applications peuvent utiliser des embeddings pour traiter et produire du langage, en reconnaissant des significations complexes et des relations sémantiques spécifiques au contenu. Pour en savoir plus, consultez la Présentation des API d'embeddings.
-
Vertex AI Experiments
- Vertex AI Experiments permet aux utilisateurs de suivre les éléments suivants: 1. Étapes d'une exécution de test (par exemple, prétraitement et entraînement). 2. les entrées (par exemple, l'algorithme, les paramètres et les ensembles de données) ; 3. Les résultats de ces étapes (par exemple, les modèles, les points de contrôle et les métriques).
-
Vertex AI Model Registry
- Vertex AI Model Registry est un dépôt central dans lequel vous pouvez gérer le cycle de vie de vos modèles de ML. Vertex AI Model Registry vous offre un aperçu de vos modèles afin de mieux organiser, suivre et entraîner les nouvelles versions. Lorsque vous souhaitez déployer une version de modèle, vous pouvez l'attribuer à un point de terminaison directement à partir du registre ou, à l'aide d'alias, déployer des modèles sur un point de terminaison. Pour en savoir plus, consultez la Présentation de Vertex AI Model Registry.
-
segment vidéo
- Un segment vidéo est identifié par l'horodatage de début et de fin d'une vidéo.
-
Cloud privé virtuel (VPC)
- Un cloud privé virtuel est un pool configurable de ressources informatiques partagées à la demande, alloué dans un environnement cloud public et fournissant un niveau d'isolation entre différentes organisations utilisant ces ressources.
-
Embedding de mots
- Les embeddings de mots permettent de représenter les mots sous la forme de vecteurs denses de valeurs à virgule flottante. Cela permet aux mots similaires d'avoir des encodages similaires. Les embeddings de mots sont souvent utilisés dans l'IA générative pour capturer les relations entre les mots et générer du texte ou du code sans sources. Dans l'IA générative, les embeddings de mots peuvent être utilisés pour entraîner des modèles capables de générer du texte ou du code. En comprenant les relations entre les mots, les modèles d'IA générative peuvent créer des contenus à la fois cohérents et pertinents.
-
Requête zero-shot (invite directe)
- Dans l'IA générative, une requête zéro-shot permet à un grand modèle de langage (LLM) d'effectuer une tâche sans entraînement ni exemples supplémentaires. Contrairement aux méthodes telles que les requêtes few-shot, qui fournissent au modèle des exemples d'entrées et de sorties, Une requête sans échantillon s'appuie uniquement sur les connaissances préexistantes du modèle pour générer une réponse. Pour en savoir plus, consultez la section Invite sans entraînement.