Glossario di Vertex AI

  • set di annotazioni
    • Un set di annotazioni contiene le etichette associate ai file di origine caricati all'interno di un set di dati. Un set di annotazioni è associato sia a un tipo di dati sia a un obiettivo (ad es. video/classificazione).
  • Endpoint API
    • Endpoint API è un aspetto della configurazione del servizio che specifica gli indirizzi di rete, noti anche come endpoint di servizio (ad esempio, aiplatform.googleapis.com).
  • Credenziali predefinite dell'applicazione (ADC)
    • Le credenziali predefinite dell'applicazione (ADC) offrono un modo semplice per ottenere le credenziali di autorizzazione da utilizzare per chiamare le API di Google. Sono ideali per i casi in cui la chiamata deve avere lo stesso livello di identità e autorizzazione per l'applicazione indipendentemente dall'utente. Questo è l'approccio consigliato per autorizzare le chiamate alle API Google Cloud, in particolare quando crei un'applicazione di cui viene eseguito il deployment su macchine virtuali Google App Engine (GAE) o Compute Engine. Per ulteriori informazioni, vedi Come funzionano le credenziali predefinite dell'applicazione.
  • Algoritmo Approximate Nearest Neighbor (ANN)
  • elemento
    • Un artefatto è un'entità o un frammento di dati discreti prodotto e consumato da un flusso di lavoro di machine learning. Alcuni esempi di artefatti sono set di dati, modelli, file di input e log di addestramento.
  • Artifact Registry
    • Artifact Registry è un servizio di gestione degli artefatti universale. È il servizio consigliato per la gestione di container e altri elementi su Google Cloud. Per ulteriori informazioni, consulta Artifact Registry.
  • Intelligenza artificiale (AI)
    • L'intelligenza artificiale (IA) è lo studio e la progettazione di macchine che sembrano "intelligenti", ovvero che simulano funzioni umane o intellettuali come il movimento meccanico, il ragionamento o la risoluzione dei problemi. Uno dei sottocampi più popolari dellAI è il machine learning, che utilizza un approccio statistico e basato sui dati per creare AI;IA. Tuttavia, alcune persone usano questi due termini in modo intercambiabile.
  • autenticazione
    • La procedura di verifica dell'identità di un client (che può essere un utente o un altro processo) allo scopo di ottenere l'accesso a un sistema protetto. Un cliente che ha dimostrato la propria identità è autenticato. Per ulteriori informazioni, consulta Metodi di autenticazione di Google.
  • Lato a lato automatico (AutoSxS)
    • Automatic Side-by-Side (AutoSxS) è uno strumento di valutazione assistita da modello che confronta due modelli linguistici di grandi dimensioni (LLM) affiancati. Può essere utilizzato per valutare le prestazioni dei modelli di AI generativa in Vertex AI Model Registry o delle previsioni pregenerate. AutoSxS utilizza uno strumento di valutazione automatica per decidere quale modello fornisce la risposta migliore a un prompt. AutoSxS è disponibile on demand e valuta i modelli linguistici con prestazioni paragonabili a quelle degli valutatori umani.
  • AutoML
    • Algoritmi di machine learning che "imparano ad apprendere" tramite l'ottimizzazione black box. Per ulteriori informazioni, consulta il Glossario di ML.
  • autorater
    • Un autore è un modello linguistico che valuta la qualità delle risposte del modello in base a un prompt di inferenza originale. Viene utilizzato nella pipeline AutoSxS per confrontare le previsioni di due modelli e determinare quale ha avuto il rendimento migliore. Per ulteriori informazioni, consulta la sezione Il sistema di classificazione automatica.
  • base di riferimento
    • Un modello utilizzato come punto di riferimento per confrontare il rendimento di un altro modello (in genere più complesso). Ad esempio, un modello di regressione logistica potrebbe essere un buon punto di riferimento per un modello di deep learning. Per un problema specifico, la linea di base aiuta gli sviluppatori di modelli a quantificare il rendimento minimo previsto che un nuovo modello deve raggiungere per essere utile. Per ulteriori informazioni, consulta Set di dati di riferimento e target.
  • batch
    • L'insieme di esempi utilizzati in un'iterazione di addestramento. La dimensione del batch determina il numero di esempi in un batch.
  • batch size
    • Il numero di esempi in un batch. Ad esempio, la dimensione del batch di SGD è 1, mentre la dimensione del batch di un mini-batch è in genere compresa tra 10 e 1000. La dimensione del batch è solitamente fissa durante l'addestramento e l'inferenza, ma TensorFlow consente dimensioni dei batch dinamiche.
  • previsione in batch
    • La previsione batch accetta un gruppo di richieste di previsione e restituisce i risultati in un file. Per ulteriori informazioni, consulta Ottenere le previsioni in batch.
  • bias
    • 1. Stereotipare, mostrare preconcetti o favoritismi verso determinate cose, persone o gruppi rispetto ad altri. Questi bias possono influire sulla raccolta e sull'interpretazione dei dati, sulla progettazione di un sistema e sul modo in cui gli utenti interagiscono con un sistema. 2. Errore sistematico introdotto da una procedura di campionamento o reporting.
  • bidirezionale
    • Termine utilizzato per descrivere un sistema che valuta il testo che precede e segue una sezione di testo target. Al contrario, un sistema unidirezionale valuta solo il testo che precede una sezione di testo target.
  • Bidirectional Encoder Representations from Transformers (BERT)
    • BERT è un metodo di preaddestramento delle rappresentazioni linguistiche, il che significa che addestriamo un modello di "comprensione del linguaggio" generico su un corpus di testo di grandi dimensioni (come Wikipedia) e poi lo utilizziamo per le attività di NLP a valle che ci interessano (come la risposta alle domande). BERT supera i metodi precedenti perché è il primo sistema non supervisionato e profondamente bidirezionale per l'addestramento pre-training del NLP.
  • Bilingual Evaluation Understudy (BLEU)
    • Una misura molto utilizzata per valutare la qualità di un algoritmo di traduzione automatica confrontando il suo output con quello di una o più traduzioni umane.
  • riquadro di delimitazione
    • Un riquadro di delimitazione per un oggetto nell'inquadratura del video può essere specificato in due modi: (i) utilizzando due vertici costituiti da un insieme di coordinate x,y se si trovano in diagonale rispetto ai punti opposti del rettangolo. Ad esempio: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Utilizza tutti e quattro i vertici. Per ulteriori informazioni, vedi Preparare i dati video.
  • bucket
    • Cartella di primo livello per Cloud Storage. I nomi dei bucket devono essere univoci per tutti gli utenti di Cloud Storage. I bucket contengono file. Per ulteriori informazioni, consulta la Panoramica del prodotto Cloud Storage.
  • chat
    • I contenuti di un dialogo con un sistema di ML, in genere un modello linguistico di grandi dimensioni. L'interazione precedente in una chat (ciò che hai digitato e la risposta del modello linguistico di grandi dimensioni) diventa il contesto per le parti successive della chat. Un chatbot è un'applicazione di un modello linguistico di grandi dimensioni.
  • checkpoint
    • Dati che acquisiscono lo stato dei parametri di un modello durante l'addestramento o al termine dell'addestramento. Ad esempio, durante l'addestramento, puoi: 1. Interrompere l'addestramento, magari intenzionalmente o a causa di determinati errori. 2. Acquisisci il checkpoint. 3. In un secondo momento, ricarica il checkpoint, eventualmente su hardware diverso. 4. Riavvia l'addestramento. In Gemini, un checkpoint fa riferimento a una versione specifica di un modello Gemini addestrato su un set di dati specifico.
  • modello di classificazione
    • Un modello la cui previsione è una classe. Ad esempio, di seguito sono riportati tutti i modelli di classificazione: un modello che prevede la lingua di una frase di input (francese? Spagnolo? Italiano?). Un modello che prevede le specie di alberi (acero? Rovere? Baobab?). Un modello che prevede la classe positiva o negativa per una determinata condizione medica.
  • Metriche di classificazione
    • Le metriche di classificazione supportate nell'SDK Vertex AI per Python sono la matrice di confusione e la curva ROC.
  • Cloud TPU
    • Un acceleratore hardware specializzato progettato per velocizzare i carichi di lavoro di machine learning su Google Cloud.
  • immagine container
    • Un'immagine container è un pacchetto che include il codice eseguibile del componente e una definizione dell'ambiente in cui viene eseguito il codice. Per ulteriori informazioni, consulta la Panoramica dell'addestramento personalizzato.
  • context
    • Un contesto viene utilizzato per raggruppare elementi e esecuzioni in una singola categoria di tipo interrogabile. I contesti possono essere utilizzati per rappresentare insiemi di metadati. Un esempio di contesto è l'esecuzione di una pipeline di machine learning.
  • cache del contesto
    • Una cache di contesto in Vertex AI è una grande quantità di dati che può essere utilizzata in più richieste a un modello Gemini. I contenuti memorizzati nella cache vengono archiviati nella regione in cui viene effettuata la richiesta di creazione della cache. Può essere qualsiasi tipo MIME supportato dai modelli multimodali Gemini, ad esempio testo, audio o video. Per ulteriori informazioni, vedi Panoramica della memorizzazione nella cache del contesto.
  • Finestra contestuale
    • Il numero di token che un modello può elaborare in un determinato prompt. Maggiore è la finestra di contesto, più informazioni può utilizzare il modello per fornire risposte coerenti e coese al prompt.
  • Chiavi di crittografia gestite dal cliente (CMEK)
    • Le chiavi di crittografia gestite dal cliente (CMEK) sono integrazioni che consentono ai clienti di criptare i dati nei servizi Google esistenti utilizzando una chiave che gestiscono in Cloud KMS (noto anche come Storky). La chiave in Cloud KMS è la chiave di crittografia della chiave che protegge i dati. Per saperne di più, consulta Chiavi di crittografia gestite dal cliente (CMEK).
  • CustomJob
    • Un CustomJob è una delle tre risorse Vertex AI che un utente può creare per addestrare modelli personalizzati su Vertex AI. I job di addestramento personalizzato sono il modo di base per eseguire il codice di addestramento di machine learning (ML) personalizzato in Vertex AI. Per ulteriori informazioni, consulta Creare job di addestramento personalizzati.
  • Dask
    • Dask è una piattaforma di calcolo distribuito spesso utilizzata con TensorFlow, Pytorch e altri framework ML per gestire job di addestramento distribuiti. Per ulteriori informazioni, visita Wikipedia.
  • analisi dei dati
    • Ottenere una comprensione dei dati tenendo conto di campioni, misurazioni e visualizzazione. L'analisi dei dati può essere particolarmente utile quando viene ricevuto un set di dati per la prima volta, prima di creare il primo modello. È inoltre fondamentale per comprendere gli esperimenti e i problemi di debug del sistema.
  • Aumento dei dati
    • Aumentare artificialmente l'intervallo e il numero di esempi di addestramento trasformando gli esempi esistenti per creare esempi aggiuntivi. Ad esempio, supponiamo che le immagini siano una delle tue funzionalità, ma che il tuo set di dati non contenga esempi di immagini sufficienti per consentire al modello di apprendere associazioni utili. Idealmente, dovresti aggiungere al set di dati un numero sufficiente di immagini etichettate per consentire l'addestramento corretto del modello. Se non è possibile, l'aumento dei dati può ruotare, allungare e riflettere ogni immagine per produrre molte varianti dell'immagine originale, producendo eventualmente dati etichettati sufficienti per consentire un'eccellente addestramento.
  • DataFrame
    • Un tipo di dati pandas molto utilizzato per rappresentare i set di dati in memoria. Un DataFrame è analogo a una tabella o a un foglio di lavoro. Ogni colonna di un DataFrame ha un nome (un'intestazione) e ogni riga è identificata da un numero univoco.Ogni colonna di un DataFrame è strutturata come un array 2D, tranne per il fatto che a ogni colonna può essere assegnato un proprio tipo di dati.
  • dataset (set di dati)
    • Un set di dati è definito in generale come una raccolta di record di dati strutturati o non strutturati. Una raccolta di dati non elaborati, comunemente (ma non esclusivamente) organizzata in uno dei seguenti formati: un foglio di lavoro o un file in formato CSV (valori separati da virgole). Per ulteriori informazioni, vedi Creare un set di dati.
  • decoder
    • In generale, qualsiasi sistema di ML che converte da una rappresentazione elaborata, densa o interna a una rappresentazione più grezza, sparsa o esterna. I decodificatori sono spesso un componente di un modello più grande, in cui vengono spesso accoppiati a un codificatore. Nelle attività di sequenza a sequenza, un decodificatore inizia con lo stato interno generato dall'encoder per prevedere la sequenza successiva.
  • Rete neurale profonda (DNN)
    • Una rete neurale con più strati nascosti, in genere programmata tramite tecniche di deep learning.
  • depth
    • La somma di quanto segue in una rete neurale: 1. il numero di strati nascosti 2. il numero di strati di output, che in genere è uno 3. il numero di eventuali strati di embedding. Ad esempio, una rete neurale con cinque strati nascosti e uno di output ha una profondità di 6. Tieni presente che il livello di input non influisce sulla profondità.
  • DevOps
    • DevOps è una suite di prodotti Google Cloud Platform, ad esempio Artifact Registry e Cloud Deploy.
  • interruzione anticipata
    • Un metodo di regolarizzazione che prevede l'interruzione dell'addestramento prima che la perdita di addestramento termini di diminuire. Con l'interruzione anticipata, interrompi intenzionalmente l'addestramento del modello quando la perdita in un set di dati di convalida inizia ad aumentare, ovvero quando le prestazioni di generalizzazione peggiorano.
  • Incorporamento
    • Rappresentazioni numeriche di parole o parti di testo. Questi numeri riflettono il significato semantico e il contesto del testo. Parole o testo simili o correlati tendono ad avere incorporamenti simili, il che significa che sono più vicini nello spazio vettoriale di alta dimensione.
  • spazio di embedding (spazio latente)
    • Nell'IA generativa, lo spazio di embedding si riferisce a una rappresentazione numerica di testo, immagini o video che acquisisce le relazioni tra gli input. I modelli di machine learning, in particolare quelli di AI generativa, sono abili a creare questi embedding identificando pattern all'interno di set di dati di grandi dimensioni. Le applicazioni possono utilizzare gli embedding per elaborare e generare il linguaggio, riconoscendo significati complessi e relazioni semantiche specifiche dei contenuti.
  • vettore di embedding
    • Una rappresentazione vettoriale densa, spesso di bassa dimensione, di un elemento tale che, se due elementi sono semanticamente simili, i rispettivi incorporamenti si trovano vicini nello spazio vettoriale dell'embedding.
  • encoder
    • In generale, qualsiasi sistema di ML che converte da una rappresentazione non elaborata, sparsa o esterna in una rappresentazione più elaborata, più densa o più interna. Gli encoder sono spesso un componente di un modello più grande, dove vengono spesso accoppiati a un decodificatore. Alcuni trasformatori accoppiano gli encoder ai decoder, mentre altri utilizzano solo l'encoder o solo il decoder. Alcuni sistemi utilizzano l'output dell'encoder come input di una rete di classificazione o regressione. Nelle attività di sequenza a sequenza, un encoder prende una sequenza di input e restituisce uno stato interno (un vettore). Il decoder utilizza questo stato interno per prevedere la sequenza successiva.
  • ensemble
    • Una raccolta di modelli addestrati in modo indipendente le cui previsioni vengono medie o aggregate. In molti casi, un ensemble produce previsioni migliori di un singolo modello. Ad esempio, una foresta casuale è un insieme costituito da più alberi decisionali. Tieni presente che non tutte le foreste di decisione sono insiemi.
  • environment
    • Nell'apprendimento tramite rinforzo, il mondo che contiene l'agente e gli consente di osservarne lo stato. Ad esempio, il mondo rappresentato può essere un gioco come gli scacchi o un mondo fisico come un labirinto. Quando l'agente applica un'azione all'ambiente, l'ambiente passa da uno stato all'altro.
  • evaluation (eval)
    • Un eval, abbreviazione di "valutazione", è un tipo di esperimento in cui le query registrate o sintetiche vengono inviate tramite due stack di ricerca: uno sperimentale che include la modifica e uno di base senza la modifica. Le valutazioni producono differenze e metriche che ti consentono di valutare l'impatto, la qualità e altri effetti della modifica sui risultati di ricerca e su altre parti dell'esperienza utente di Google. Le valutazioni vengono utilizzate durante la messa a punto o le iterazioni della modifica. Vengono utilizzati anche nell'ambito del lancio di una modifica al traffico degli utenti in tempo reale.
  • event
    • Un evento descrive la relazione tra gli elementi e le esecuzioni. Ogni elemento può essere prodotto da un'esecuzione e utilizzato da altre esecuzioni. Gli eventi ti aiutano a determinare la provenienza degli artefatti nei flussi di lavoro di ML collegando tra loro artefatti ed esecuzioni.
  • esecuzione
    • Un'esecuzione è un record di un singolo passaggio del flusso di lavoro di machine learning, in genere annotato con i relativi parametri di runtime. Alcuni esempi di esecuzioni sono l'importazione dati, la convalida dei dati, l'addestramento del modello, la valutazione del modello e il deployment del modello.
  • esperimento
    • Un esperimento è un contesto che può contenere un insieme di n esecuzioni dell'esperimento, oltre alle esecuzioni della pipeline, in cui un utente può esaminare, come gruppo, configurazioni diverse come gli elementi di input o gli iperparametri.
  • esecuzione esperimento
    • Un'esecuzione dell'esperimento può contenere metriche, parametri, esecuzioni, artefatti e risorse Vertex (ad esempio PipelineJob) definiti dall'utente.
  • analisi esplorativa dei dati
    • In statistica, l'analisi esplorativa dei dati (o EDA) è un approccio per analizzare i set di dati al fine di riassumerne le loro caratteristiche principali, spesso con metodi visivi. Si può utilizzare o meno un modello statistico, ma principalmente l'EDA serve a vedere cosa possono dirci i dati al di là della modellazione formale o della verifica delle ipotesi.
  • Punteggio F1
    • Il punteggio F1 è una metrica utilizzata per valutare l'accuratezza dell'output di un modello. È particolarmente utile per valutare le prestazioni dei modelli in attività in cui sono importanti sia la precisione sia il richiamo, come l'estrazione di informazioni. Per i modelli di AI generativa, il punteggio F1 può essere utilizzato per confrontare le previsioni del modello con i dati empirici reali al fine di determinare la sua accuratezza. Tuttavia, per attività generative come il riepilogo e la generazione di testo, potrebbero essere più appropriate altre metriche come il punteggio Rough-L.
  • funzionalità
    • Nel machine learning (ML), una funzionalità è una caratteristica o un attributo di un'istanza o entità che viene utilizzata come input per addestrare un modello di ML o fare previsioni.
  • feature engineering
    • La creazione di funzionalità è il processo di trasformazione dei dati non elaborati di machine learning (ML) in funzionalità che possono essere utilizzate per addestrare i modelli di ML o per fare previsioni.
  • gruppo di funzionalità
    • Un gruppo di caratteristiche è una risorsa del registro di caratteristiche che corrisponde a una tabella o vista di origine BigQuery contenente dati delle caratteristiche. Una visualizzazione delle caratteristiche può contenere caratteristiche e può essere considerata un raggruppamento logico delle colonne delle caratteristiche nell'origine dati.
  • record della funzionalità
    • Un record delle funzionalità è un'aggregazione di tutti i valori delle funzionalità che descrivono gli attributi di un'entità univoca in un determinato momento.
  • Registro di funzionalità
    • Un registry delle funzionalità è un'interfaccia centrale per registrare le origini dati delle funzionalità che vuoi pubblicare per le previsioni online. Per ulteriori informazioni, consulta la configurazione di Feature Registry.
  • Pubblicazione delle funzionalità
    • La distribuzione delle caratteristiche è il processo di esportazione o recupero dei valori delle caratteristiche per l'addestramento o l'inferenza. In Vertex AI esistono due tipi di pubblicazione delle funzionalità: online e offline. La pubblicazione online recupera gli ultimi valori delle funzionalità di un sottoinsieme dell'origine dati delle funzionalità per le previsioni online. Il recupero dati offline o in batch esporta grandi volumi di dati sulle funzionalità, inclusi i dati storici, per l'elaborazione offline, ad esempio l'addestramento di modelli ML.
  • feature timestamp
    • Un timestamp della caratteristica indica quando è stato generato l'insieme di valori della caratteristica in un record della caratteristica specifico per un'entità.
  • valore della funzionalità
    • Un valore della funzionalità corrisponde al valore effettivo e misurabile di una funzionalità (attributo) di un'istanza o entità. Una raccolta di valori delle caratteristiche per l'entità univoca rappresenta il record della caratteristica corrispondente all'entità.
  • Visualizzazione elemento
    • Una visualizzazione delle caratteristiche è una raccolta logica di funzionalità materializzate da un'origine dati BigQuery a un'istanza del negozio online. Una vista elemento archivia e aggiorna periodicamente i dati delle funzionalità del cliente, che vengono aggiornati periodicamente dall'origine BigQuery. Una visualizzazione delle caratteristiche è associata allo spazio di archiviazione dei dati delle caratteristiche direttamente o tramite associazioni alle risorse del registry delle caratteristiche.
  • modello di base (FM)
    • Modelli addestrati su dati ampi in modo che possano essere adattati (ad esempio perfezionati) a un'ampia gamma di attività a valle.
  • Operazioni del modello di base (FMOP)
    • FMOps amplia le funzionalità di MLOps e si concentra sulla produzione efficiente di modelli di machine learning preaddestrati (addestrati da zero) o personalizzati (ottimizzati).
  • generazione
    • Nel contesto dell'IA generativa, "generazione" si riferisce al processo di creazione di nuovi dati o contenuti a partire da dati o informazioni esistenti. I modelli di AI generativa vengono addestrati su set di dati di grandi dimensioni e possono apprendere pattern e relazioni all'interno dei dati. Possono quindi utilizzare queste conoscenze per generare contenuti nuovi e unici simili ai dati di addestramento, ma non una replica esatta. Per ulteriori informazioni, visita la pagina https://cloud.google.com/docs/ai-ml/generative-ai/generative-ai-or-traditional-ai.
  • SDK dei componenti della pipeline di Google Cloud
    • L'SDK Google Cloud Pipeline Components (GCPC) fornisce un insieme di componenti Kubeflow Pipelines predefiniti di qualità di produzione, performanti e facili da usare. Puoi utilizzare i componenti della pipeline di Google Cloud per definire ed eseguire pipeline di ML in Vertex AI Pipelines e in altri backend di esecuzione di pipeline di ML conformi a Kubeflow Pipelines. Per ulteriori informazioni, consulta Introduzione a Google Cloud Pipeline Components.
  • Google Embedded Modem System (GEMS)
    • GEMS è un framework software embedded destinato ai modem e un insieme aggiuntivo di workflow e infrastruttura di sviluppo. La visione di base di GEMS è fornire codice di sistema del modem di alta qualità con elevata riutilizzabilità su molti dispositivi Google contenenti modem. Per realizzare questa visione ampia, GEMS offre agli sviluppatori un ambiente completo composto dai principali componenti di base descritti di seguito.
  • gradient
    • Il vettore delle derivate parziali rispetto a tutte le variabili indipendenti. Nel machine learning, il gradiente è il vettore delle derivate parziali della funzione del modello. Il gradiente indica la direzione della salita più ripida.
  • graph
    • Nel contesto di Vertex AI, un grafo fa riferimento a una struttura di dati che rappresenta le relazioni tra le entità e i relativi attributi. Viene utilizzato per modellare e analizzare dati complessi, come knowledge graph, social network e processi aziendali. Per ulteriori informazioni, consulta Introduzione a Vertex ML Metadata.
  • Dati di fatto (GT)
    • La risposta basata su dati di fatto è un termine utilizzato in vari campi per fare riferimento alla verità assoluta di un problema di decisione o misurazione, al contrario della stima di un sistema. Nel machine learning, il termine "ground truth" si riferisce al set di addestramento per le tecniche di apprendimento supervisionato.
  • allucinazione
    • Un'allucinazione nell'IA generativa è una risposta sicura di un'IA che non può essere basata sui suoi dati di addestramento. Potrebbe essere oggettivamente errata. Nel contesto della generazione di testo, si tratta di falsità casuali plausibili all'interno dei contenuti di testo generati.
  • euristica
    • Una soluzione semplice e rapida per un problema. Ad esempio, "Con un'euristica abbiamo raggiunto un'accuratezza dell'86%. Quando abbiamo adottato una rete neurale profonda, l'accuratezza è aumentata fino al 98%".
  • Livello nascosto
    • Uno strato in una rete neurale tra lo strato di input (le funzionalità) e lo strato di output (la previsione). Ogni strato nascosto è costituito da uno o più neuroni. Una rete neurale profonda contiene più di uno strato nascosto.
  • istogramma
    • Una visualizzazione grafica della variazione in un insieme di dati mediante barre. Un istogramma visualizza schemi difficili da rilevare in una semplice tabella di numeri.
  • iperparametro
    • Un iperparametro si riferisce a una variabile che regola il processo di addestramento di un modello di machine learning. Queste variabili possono includere i tassi di apprendimento, i valori di momentum nell'ottimizzatore e il numero di unità nell'ultimo strato nascosto di un modello. L'ottimizzazione degli iperparametri in Vertex AI prevede l'esecuzione di più prove di un'applicazione di addestramento con valori diversi per gli iperparametri scelti, impostati entro limiti specificati. L'obiettivo è ottimizzare le impostazioni degli iperparametri per massimizzare l'accuratezza predittiva del modello. Per ulteriori informazioni, consulta la panoramica dell'ottimizzazione degli iperparametri.
  • Imagen
    • Imagen è un servizio di IA generativa da testo a immagine disponibile tramite la piattaforma Vertex AI. Consente agli utenti di generare nuove immagini, modificarle, perfezionare modelli di stili o soggetti, aggiungere didascalie alle immagini o ricevere risposte a domande sui contenuti delle immagini. Per ulteriori informazioni, consulta la Panoramica di Imagen su Vertex AI.
  • Riconoscimento delle immagini
    • Il riconoscimento delle immagini è il processo di classificazione di oggetti, schemi o concetti in un'immagine. È nota anche come classificazione delle immagini. Il riconoscimento delle immagini è una branca secondaria del machine learning e della visione artificiale.
  • index
    • Una raccolta di vettori implementati insieme per la ricerca di similarità. I vettori possono essere aggiunti o rimossi da un indice. Le query di ricerca di somiglianza vengono inviate a un indice specifico e vengono eseguite ricerche nei vettori di quell'indice.
  • Inferenza
    • Nel contesto della piattaforma Vertex AI, l'inferenza si riferisce al processo di esecuzione di punti dati in un modello di machine learning per calcolare un output, ad esempio un singolo punteggio numerico. Questo processo è noto anche come "implementazione di un modello di machine learning" o "messa in produzione di un modello di machine learning". L'inferenza è un passaggio importante nel flusso di lavoro del machine learning, poiché consente di utilizzare i modelli per fare previsioni su nuovi dati. In Vertex AI, l'inferenza può essere eseguita in vari modi, tra cui la previsione batch e la previsione online. La previsione batch prevede l'esecuzione di un gruppo di richieste di previsione e l'output dei risultati in un file, mentre la previsione online consente di effettuare previsioni in tempo reale su singoli punti dati.
  • retrieval delle informazioni (IR)
    • Il recupero delle informazioni (IR) è un componente chiave di Vertex AI Search. È il processo di ricerca e recupero di informazioni pertinenti da una grande raccolta di dati. Nel contesto di Vertex AI, l'IR viene utilizzato per recuperare i documenti da un corpus in base alla query di un utente. Vertex AI offre una suite di API per aiutarti a creare le tue applicazioni di Retrieval-Augmented Generation (RAG) o il tuo motore di ricerca. Per ulteriori informazioni, consulta Utilizzare Vertex AI Search come backend di recupero utilizzando il motore RAG.
  • learning rate (step size)
    • Il tasso di apprendimento è un iperparametro utilizzato per ottimizzare il processo di ottimizzazione di un modello di machine learning. Determina il numero di passaggi dopo i quali il modello aggiorna i pesi durante l'addestramento. Un tasso di apprendimento più elevato può portare a una convergenza più rapida, ma potrebbe causare instabilità o overfitting. Al contrario, un tasso di apprendimento più basso può portare a una convergenza più lenta, ma può contribuire a evitare il sovraadattamento. Per ulteriori informazioni, consulta la panoramica dell'ottimizzazione degli iperparametri.
  • perdita (costo)
    • Durante l'addestramento di un modello supervisionato, una misura della distanza tra la previsione di un modello e la relativa etichetta. Una funzione di perdita calcola la perdita.
  • Metadati del machine learning
    • ML Metadata (MLMD) è una libreria per la registrazione e il recupero dei metadati associati ai flussi di lavoro di sviluppatori ML e data scientist. MLMD è parte integrante di TensorFlow Extended (TFX), ma è progettato per essere utilizzato in modo indipendente. Nell'ambito della piattaforma TFX più ampia, la maggior parte degli utenti interagisce con MLMD solo quando esamina i risultati dei componenti della pipeline, ad esempio nei notebook o in TensorBoard.
  • set di dati gestito
    • Un oggetto set di dati creato e ospitato da Vertex AI.
  • risorse di metadati
    • Vertex ML Metadata espone un modello di dati simile a un grafo per rappresentare i metadati prodotti e consumati dai flussi di lavoro di ML. I concetti principali sono elementi, esecuzioni, eventi e contesti.
  • MetadataSchema
    • Un MetadataSchema descrive lo schema per determinati tipi di elementi, esecuzioni o contesti. MetadataSchemas viene utilizzato per convalidare le coppie chiave-valore durante la creazione delle risorse di metadati corrispondenti. La convalida dello schema viene eseguita solo sui campi corrispondenti tra la risorsa e MetadataSchema. Gli schemi di tipo sono rappresentati utilizzando oggetti schema OpenAPI, che devono essere descritti utilizzando YAML.
  • MetadataStore
    • Un MetadataStore è il contenitore di primo livello per le risorse di metadati. MetadataStore è regionalizzato e associato a un progetto Google Cloud specifico. In genere, un'organizzazione utilizza un MetadataStore condiviso per le risorse dei metadati all'interno di ogni progetto.
  • Pipeline di ML
    • Le pipeline ML sono flussi di lavoro ML portatili e scalabili basati su container.
  • model
    • Qualsiasi modello, preaddestrato o meno. In generale, qualsiasi costrutto matematico che elabora i dati di input e restituisce l'output. In altre parole, un modello è l'insieme di parametri e strutture necessari per consentire a un sistema di fare previsioni.
  • Distillazione del modello (distillazione della conoscenza, modelli insegnante-studente)
    • La distillazione del modello è una tecnica che consente a un modello studente più piccolo di apprendere da un modello insegnante più grande. Il modello dello studente viene addestrato per imitare l'output del modello dell'insegnante e può quindi essere utilizzato per generare nuovi dati o fare previsioni. La distillazione del modello viene spesso utilizzata per rendere più efficienti i modelli di grandi dimensioni o per renderli più accessibili a dispositivi con risorse limitate. Può essere utilizzato anche per migliorare la generalizzazione dei modelli riducendo il fenomeno di overfitting.
  • nome risorsa modello
    • Il nome della risorsa per un model è il seguente: projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>. Puoi trovare l'ID del modello nella console Cloud nella pagina "Model Registry" (Registro modelli).
  • Network File System (NFS)
    • Un sistema client/server che consente agli utenti di accedere ai file su una rete e trattarli come se si trovassero in una directory di file locale.
  • Negozio offline
    • Lo spazio di archiviazione offline è un'area di archiviazione che memorizza i dati delle funzionalità recenti e storici, in genere utilizzati per l'addestramento dei modelli di ML. Un archivio offline contiene anche i valori delle caratteristiche più recenti, che puoi pubblicare per le previsioni online.
  • Negozio online
    • Nella gestione delle funzionalità, un archivio online è uno spazio di archiviazione per i valori delle funzionalità più recenti da pubblicare per le previsioni online.
  • Negozio online
    • Nella gestione delle funzionalità, un archivio online è uno spazio di archiviazione per i valori delle funzionalità più recenti da pubblicare per le previsioni online.
  • parameter
    • I parametri sono valori di input con chiave che configurano un'esecuzione, regolano il relativo comportamento e influiscono sui risultati. Alcuni esempi sono il tasso di apprendimento, il tasso di abbandono e il numero di passaggi di addestramento.
  • pipeline
  • Componente della pipeline
    • Un insieme di codice autonomo che esegue un passaggio nel flusso di lavoro di una pipeline, ad esempio il pretrattamento dei dati, la trasformazione dei dati e l'addestramento di un modello.
  • job della pipeline
    • Un job della pipeline o un'esecuzione della pipeline corrisponde alla risorsa PipelineJob nell'API Vertex AI. Si tratta di un'istanza di esecuzione della definizione della pipeline ML, che è definita come un insieme di attività ML interconnesse da dipendenze di input-output.
  • pipeline run
    • A un esperimento possono essere associati uno o più Vertex PipelineJob, in cui ogni PipelineJob è rappresentato come una singola esecuzione. In questo contesto, i parametri dell'esecuzione vengono dedotti dai parametri di PipelineJob. Le metriche vengono dedotte dagli elementi system.Metric prodotti da PipelineJob. Gli artefatti dell'esecuzione vengono dedotti dagli artefatti prodotti da PipelineJob.
  • Modello di pipeline
    • Una definizione di flusso di lavoro di ML che un singolo utente o più utenti possono riutilizzare per creare più esecuzioni della pipeline.
  • classe positiva
    • "Classe positiva" si riferisce al risultato o alla categoria che un modello viene addestrato a prevedere. Ad esempio, se un modello prevede se un cliente acquisterà una giacca, la classe positiva sarà "il cliente acquista una giacca". Analogamente, in un modello che prevede la registrazione dei clienti per un deposito a termine, la classe positiva sarà "cliente registrato". L'opposto è la "classe negativa".
  • Private Service Connect (PSC)
    • Private Service Connect è una tecnologia che consente ai clienti di Compute Engine di mappare gli IP privati nella loro rete a un'altra rete VPC o alle API di Google.
  • Interfaccia Private Service Connect (PSC-I)
    • L'interfaccia Private Service Connect consente ai producer di avviare connessioni private a qualsiasi risorsa di rete nella VPC del consumer.
  • quantizzazione
    • La quantizzazione è una tecnica di ottimizzazione del modello utilizzata per ridurre la precisione dei numeri utilizzati per rappresentare i parametri di un modello. Ciò può portare a modelli più piccoli, a un minor consumo energetico e a una latenza di inferenza ridotta.
  • Foresta casuale
    • Random Forest è un algoritmo di machine learning utilizzato sia per la classificazione che per la regressione. Non è direttamente un modello di AI generativa, ma è un componente che può essere utilizzato all'interno di un sistema di AI generativa più grande. Una foresta casuale è composta da più alberi decisionali e la sua previsione è un'aggregazione delle previsioni di questi singoli alberi. Ad esempio, in un'attività di classificazione, ogni albero "vota" per una classe e la previsione finale è la classe con il maggior numero di voti. Per ulteriori informazioni, consulta la sezione Foresta di regressione.
  • Ray cluster su Vertex AI
    • Un cluster Ray su Vertex AI è un cluster gestito di nodi di calcolo che può essere utilizzato per eseguire applicazioni di machine learning (ML) e Python distribuite. Fornisce l'infrastruttura per eseguire il calcolo distribuito e l'elaborazione in parallelo per il tuo flusso di lavoro ML. I cluster Ray sono integrati in Vertex AI per garantire la disponibilità della capacità per i carichi di lavoro di ML critici o durante le stagioni di picco. A differenza dei job personalizzati, in cui il servizio di addestramento rilascia la risorsa al termine del job, i cluster Ray rimangono disponibili fino all'eliminazione. Per ulteriori informazioni, consulta la panoramica di Ray su Vertex AI.
  • Ray on Vertex AI (RoV)
    • Ray su Vertex AI è progettato in modo da poter utilizzare lo stesso codice open source di Ray per scrivere programmi e sviluppare applicazioni su Vertex AI con modifiche minime. Per ulteriori informazioni, consulta la panoramica di Ray su Vertex AI.
  • SDK Ray on Vertex AI per Python
    • L'SDK Ray on Vertex AI per Python è una versione dell'SDK Vertex AI per Python che include le funzionalità di Ray Client, del connettore Ray BigQuery, della gestione del cluster Ray su Vertex AI e delle previsioni su Vertex AI. Per ulteriori informazioni, consulta Introduzione all'SDK Vertex AI per Python.
  • richiamo
    • La percentuale di vicini più vicini veri restituiti dall'indice. Ad esempio, se una query sul vicino più prossimo per 20 vicini più prossimi ha restituito 19 dei vicini più prossimi "del vero e proprio", il valore di recupero è 19/20 x 100 = 95%.
  • regolarizzazione
    • La regolarizzazione è una tecnica utilizzata per evitare il sovraadattamento nei modelli di machine learning. L'overfitting si verifica quando un modello apprende troppo bene i dati di addestramento, con un conseguente calo delle prestazioni sui dati non rilevati. Un tipo specifico di regolarizzazione menzionato è l'interruzione anticipata, in cui l'addestramento viene interrotto prima che la perdita in un set di dati di convalida inizi ad aumentare, indicando un calo del rendimento della generalizzazione. Per ulteriori informazioni, consulta Overfitting: regolarizzazione L2.
  • limita
    • Funzionalità per "limitare" le ricerche a un sottoinsieme dell'indice utilizzando regole booleane. La limitazione è nota anche come "filtro". Con la ricerca vettoriale, puoi utilizzare i filtri numerici e di attributi di testo.
  • account di servizio
    • In Google Cloud, un account di servizio è un particolare tipo di account utilizzato da un'applicazione o da un'istanza di macchina virtuale (VM), non da una persona. Le applicazioni utilizzano account di servizio per effettuare chiamate API autorizzate.
  • service agemt
    • Un agente di servizio fa riferimento a un account di servizio gestito da Google. Viene utilizzato quando un servizio richiede l'accesso alle risorse create da un altro servizio. Ad esempio, quando i servizi Dataflow o Dataproc devono creare istanze durante l'esecuzione o quando una funzione cloud vuole utilizzare Key Management Service (KMS) per proteggerla. Gli agenti di servizio vengono creati automaticamente da Google Cloud quando un servizio li richiede. In genere vengono utilizzati per gestire l'accesso alle risorse ed eseguire varie attività per conto del servizio. Per ulteriori informazioni, consulta Agenti di servizio.
  • metriche di riepilogo
    • Le metriche di riepilogo sono un singolo valore per ogni chiave di metrica in un'esecuzione dell'esperimento. Ad esempio, l'accuratezza del test di un esperimento è l'accuratezza calcolata in base a un set di dati di test al termine dell'addestramento e può essere acquisita come metrica di riepilogo di un singolo valore.
  • TensorBoard
    • TensorBoard è una suite di applicazioni web per visualizzare e comprendere le esecuzioni e i modelli TensorFlow. Per ulteriori informazioni, consulta TensorBoard.
  • Istanza TensorBoard
    • Un'istanza di TensorBoard è una risorsa regionalizzata che archivia gli esperimenti Vertex AI TensorBoard associati a un progetto. Puoi creare più istanze TensorBoard in un progetto se, ad esempio, vuoi più istanze con CMEK abilitato. È la stessa risorsa TensorBoard nell'API.
  • Nome risorsa TensorBoard
    • Un nome della risorsa TensorBoard viene utilizzato per identificare completamente un'istanza Vertex AI TensorBoard. Il formato è il seguente: projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
  • TensorFlow Extended (TFX)
    • TensorFlow Extended (TFX) è una piattaforma end-to-end per il deployment di pipeline di machine learning di produzione basate sulla piattaforma TensorFlow.
  • offset di tempo
    • Il ritardo è relativo all'inizio di un video.
  • segmento di tempo
    • Un segmento di tempo è identificato dagli offset di inizio e di fine.
  • Metriche delle serie temporali
    • Le metriche delle serie temporali sono valori delle metriche longitudinali in cui ogni valore rappresenta un passaggio nella parte della routine di addestramento di un'esecuzione. Le metriche delle serie temporali vengono archiviate in Vertex AI TensorBoard. Vertex AI Experiments memorizza un riferimento alla risorsa Vertex TensorBoard.
  • token
    • Un token in un modello linguistico è l'unità atomica su cui il modello viene addestrato e fa previsioni, ovvero parole, morfemi e caratteri. In domini diversi dai modelli linguistici, i token possono rappresentare altri tipi di unità atomiche. Ad esempio, nella visione artificiale, un token potrebbe essere un sottoinsieme di un'immagine. Per ulteriori informazioni, consulta Elenca e conteggia i token.
  • set di addestramento
    • In Vertex AI, il set di addestramento è la parte più grande dei dati (in genere l'80%) utilizzata per addestrare un modello di machine learning. Il modello apprende i pattern e le relazioni all'interno di questi dati per fare previsioni. Il set di addestramento è distinto dai set di convalida e test, che vengono utilizzati per valutare le prestazioni del modello durante e dopo l'addestramento.
  • trajetoria
    • Per "trajetoria" si intende una sequenza di passaggi o azioni intraprese da un agente o un modello. Viene spesso utilizzato nella valutazione dei modelli generativi, in cui viene valutata la capacità del modello di generare testo, codice o altri contenuti. Esistono diversi tipi di metriche di traiettoria che possono essere utilizzate per valutare i modelli generativi, tra cui la corrispondenza esatta della traiettoria, la corrispondenza in ordine della traiettoria, la corrispondenza in qualsiasi ordine della traiettoria e la precisione della traiettoria. Queste metriche misurano la somiglianza tra l'output del modello e un insieme di output di riferimento generati da persone.
  • Trasformatore
    • Un "Transformer" è un'architettura di rete neurale alla base della maggior parte dei modelli generativi all'avanguardia. Viene utilizzato in varie applicazioni di modelli linguistici, inclusa la traduzione. I Transformer sono composti da un codificatore e un decodificatore; il codificatore converte il testo di input in una rappresentazione intermedia e il decodificatore la converte in un output utile. Utilizzano un meccanismo di auto-attenzione per raccogliere il contesto dalle parole che circondano la parola in fase di elaborazione. Sebbene l'addestramento di un Transformer richieda risorse significative, la messa a punto di un Transformer pre-addestrato per applicazioni specifiche è più efficiente.
  • Risultato positivo vero
    • Un "vero positivo" si riferisce a una previsione in cui il modello identifica correttamente una classe positiva. Ad esempio, se un modello viene addestrato per identificare i clienti che acquisteranno una giacca, un vero positivo prevederebbe correttamente che un cliente effettuerà un acquisto di questo tipo.
  • Elementi non gestiti
    • Un artefatto esistente al di fuori del contesto di Vertex AI.
  • vettore
    • Un vettore si riferisce a una rappresentazione numerica di testo, immagini o video che acquisisce le relazioni tra gli input. I modelli di machine learning sono adatti per creare embedding identificando pattern in grandi set di dati. Le applicazioni possono utilizzare gli embedding per elaborare e produrre il linguaggio, riconoscendo significati complessi e relazioni semantiche specifiche dei contenuti. Per ulteriori informazioni, consulta la panoramica delle API di incorporamento.
  • Tipo di dati Vertex AI
    • I tipi di dati Vertex AI sono "image", "text", "tabular" e "video".
  • Vertex AI Experiments
    • Vertex AI Experiments consente agli utenti di monitorare quanto segue: 1. Passaggi di un'esecuzione dell'esperimento (ad esempio, pre-elaborazione e addestramento). 2. Input (ad esempio algoritmo, parametri e set di dati). 3. Gli output di questi passaggi (ad esempio modelli, checkpoint e metriche).
  • Registro dei modelli di Vertex AI
    • Vertex AI Model Registry è un repository centrale in cui puoi gestire il ciclo di vita dei tuoi modelli ML. In Vertex AI Model Registry hai una panoramica dei tuoi modelli, in modo da poter organizzare, monitorare e addestrare meglio le nuove versioni. Quando hai una versione del modello da eseguire, puoi assegnarla a un endpoint direttamente dal registry o utilizzare gli alias per eseguire il deployment dei modelli in un endpoint. Per ulteriori informazioni, consulta Introduzione al registro dei modelli di Vertex AI.
  • SDK Vertex AI per Python
    • L'SDK Vertex AI per Python offre funzionalità simili a quelle della libreria client Vertex AI Python, tranne per il fatto che l'SDK è di livello superiore e meno granulare.
  • Esperimento TensorBoard di Vertex AI
    • I dati associati a un esperimento possono essere visualizzati nell'applicazione web TensorBoard (scalari, istogrammi, distribuzioni e così via). Gli scalari delle serie temporali possono essere visualizzati nella Google Cloud Console. Per ulteriori informazioni, vedi Confrontare e analizzare le esecuzioni.
  • segmento video
    • Un segmento di video viene identificato dall'offset temporale di inizio e di fine di un video.
  • virtual private cloud (VPC)
    • Il virtual cloud privato è un pool configurabile e on demand di risorse di calcolo condivise che viene allocato in un ambiente cloud pubblico e fornisce un livello di isolamento tra le diverse organizzazioni che utilizzano queste risorse.