Glossario dell'IA generativa

  • agent
    • Un agente AI è un sistema software che utilizza l'intelligenza artificiale (IA) per raggiungere obiettivi e completare attività per gli utenti. Dimostra capacità di ragionamento, pianificazione e memoria e possiede un livello di autonomia tale da essere in grado di prendere decisioni, apprendere e adattarsi.
  • Endpoint API
    • Endpoint API è un aspetto di configurazione del servizio che specifica gli indirizzi di rete, noti anche come endpoint di servizio (ad esempio, aiplatform.googleapis.com).
  • Credenziali predefinite dell'applicazione (ADC)
    • Le credenziali predefinite dell'applicazione (ADC) offrono un modo semplice per ottenere le credenziali di autorizzazione da utilizzare per chiamare le API di Google. Sono ideali per i casi in cui la chiamata deve avere lo stesso livello di identità e autorizzazione per l'applicazione indipendentemente dall'utente. Questo è l'approccio consigliato per autorizzare le chiamate alle API Google Cloud, in particolare quando crei un'applicazione di cui viene eseguito il deployment su macchine virtuali Google App Engine (GAE) o Compute Engine. Per ulteriori informazioni, vedi Come funzionano le credenziali predefinite dell'applicazione.
  • Algoritmo Approximate Nearest Neighbor (ANN)
  • elemento
    • Un artefatto è un'entità o un frammento di dati discreti prodotto e consumato da un flusso di lavoro di machine learning. Alcuni esempi di artefatti sono set di dati, modelli, file di input e log di addestramento.
  • Artifact Registry
    • Artifact Registry è un servizio di gestione degli artefatti universale. È il servizio consigliato per la gestione di container e altri elementi su Google Cloud. Per ulteriori informazioni, consulta Artifact Registry.
  • Intelligenza artificiale (AI)
    • L'intelligenza artificiale (AI) è lo studio e la progettazione di macchine che sembrano "intelligenti", ovvero che simulano funzioni umane o intellettuali come il movimento meccanico, il ragionamento o la risoluzione dei problemi. Uno dei sottocampi più popolari dellAI è il machine learning, che utilizza un approccio statistico e basato sui dati per creare AI;IA. Tuttavia, alcune persone usano questi due termini in modo intercambiabile.
  • Realtà aumentata (AR)
    • Combinazione di contenuti digitali visualizzati con contenuti reali, tramite un display come quello di uno smartphone o come overlay del mondo visto attraverso ottiche come gli occhiali. I contenuti digitali devono essere monitorati in base al movimento della fotocamera o degli occhiali (a seconda di come viene visualizzata la scena) in modo che sembrino parte del mondo reale.
  • autenticazione
    • La procedura di verifica dell'identità di un client (che può essere un utente o un altro processo) allo scopo di ottenere l'accesso a un sistema protetto. Un cliente che ha dimostrato la propria identità è autenticato. Per ulteriori informazioni, consulta Metodi di autenticazione di Google.
  • Lato a lato automatico (AutoSxS)
    • Automatic Side-by-Side (AutoSxS) è uno strumento di valutazione assistita da modello che confronta due modelli linguistici di grandi dimensioni (LLM) affiancati. Può essere utilizzato per valutare le prestazioni dei modelli di AI generativa in Vertex AI Model Registry o delle previsioni pregenerate. AutoSxS utilizza uno strumento di valutazione automatica per decidere quale modello fornisce la risposta migliore a un prompt. AutoSxS è disponibile on demand e valuta i modelli linguistici con prestazioni paragonabili a quelle degli valutatori umani.
  • Riconoscimento vocale automatico (ASR,Speech-to-Text)
    • Trascrizione automatica della lingua parlata (voce) in testo.
  • AutoML
    • Algoritmi di machine learning che "imparano ad apprendere" tramite l'ottimizzazione black box. Per ulteriori informazioni, consulta il Glossario di ML.
  • autorater
    • Un autore è un modello linguistico che valuta la qualità delle risposte del modello in base a un prompt di inferenza originale. Viene utilizzato nella pipeline AutoSxS per confrontare le previsioni di due modelli e determinare quale ha avuto il rendimento migliore. Per ulteriori informazioni, consulta la sezione Il sistema di classificazione automatica.
  • base di riferimento
    • Un modello utilizzato come punto di riferimento per confrontare il rendimento di un altro modello (in genere più complesso). Ad esempio, un modello di regressione logistica potrebbe essere un buon punto di riferimento per un modello di deep learning. Per un problema specifico, la linea di base aiuta gli sviluppatori di modelli a quantificare il rendimento minimo previsto che un nuovo modello deve raggiungere per essere utile. Per ulteriori informazioni, consulta Set di dati di riferimento e target.
  • batch
    • L'insieme di esempi utilizzati in un'iterazione di addestramento. La dimensione del batch determina il numero di esempi in un batch.
  • batch size
    • Il numero di esempi in un batch. Ad esempio, la dimensione del batch di SGD è 1, mentre la dimensione del batch di un mini-batch è in genere compresa tra 10 e 1000. La dimensione del batch è solitamente fissa durante l'addestramento e l'inferenza, ma TensorFlow consente dimensioni dei batch dinamiche.
  • previsione in batch
    • La previsione batch accetta un gruppo di richieste di previsione e restituisce i risultati in un file. Per ulteriori informazioni, consulta Ottenere le previsioni in batch.
  • bias
    • 1. Stereotipare, mostrare preconcetti o favoritismi verso determinate cose, persone o gruppi rispetto ad altri. Questi bias possono influire sulla raccolta e sull'interpretazione dei dati, sulla progettazione di un sistema e sul modo in cui gli utenti interagiscono con un sistema. 2. Errore sistematico introdotto da una procedura di campionamento o reporting.
  • bidirezionale
    • Termine utilizzato per descrivere un sistema che valuta il testo che precede e segue una sezione di testo target. Al contrario, un sistema unidirezionale valuta solo il testo che precede una sezione di testo di destinazione.
  • Bidirectional Encoder Representations from Transformers (BERT)
    • BERT è un metodo di preaddestramento delle rappresentazioni linguistiche, il che significa che addestriamo un modello di "comprensione del linguaggio" generico su un corpus di testo di grandi dimensioni (come Wikipedia) e poi lo utilizziamo per le attività di NLP a valle che ci interessano (come la risposta alle domande). BERT supera i metodi precedenti perché è il primo sistema non supervisionato e profondamente bidirezionale per l'addestramento pre-training del NLP.
  • Bilingual Evaluation Understudy (BLEU)
    • Una misura molto utilizzata per valutare la qualità di un algoritmo di traduzione automatica confrontando il suo output con quello di una o più traduzioni umane.
  • boosting
    • Nell'addestramento del modello: l'aumento può fare riferimento alle tecniche di aumento dei dati utilizzate per aumentare le dimensioni e la diversità dei set di dati di addestramento. Ciò viene fatto trasformando gli esempi esistenti per creare esempi aggiuntivi e diversificati, che possono migliorare le prestazioni del modello, in particolare quando il set di dati originale è limitato.
  • riquadro di delimitazione
    • Un riquadro di delimitazione per un oggetto nell'inquadratura del video può essere specificato in due modi: (i) utilizzando due vertici costituiti da un insieme di coordinate x,y se si trovano in diagonale rispetto ai punti opposti del rettangolo. Ad esempio: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Utilizza tutti e quattro i vertici. Per ulteriori informazioni, vedi Preparare i dati video.
  • bucket
    • Cartella di primo livello per Cloud Storage. I nomi dei bucket devono essere univoci per tutti gli utenti di Cloud Storage. I bucket contengono file. Per ulteriori informazioni, consulta la Panoramica del prodotto Cloud Storage.
  • Chain-of-Thought
    • Nell'AI generativa, la catena di pensieri (CoT) è una tecnica di prompt che incoraggia il modello linguistico di grandi dimensioni (LLM) a descrivere esplicitamente il proprio processo di ragionamento prima di giungere a una conclusione. Ciò comporta l'invito al modello a mostrare i passaggi intermedi necessari per risolvere un problema, anziché fornire solo la risposta finale. Questo metodo può migliorare notevolmente le prestazioni dell'LLM nelle attività di ragionamento complesso.
  • chat
    • I contenuti di un dialogo con un sistema di ML, in genere un modello linguistico di grandi dimensioni. L'interazione precedente in una chat (ciò che hai digitato e la risposta del modello linguistico di grandi dimensioni) diventa il contesto per le parti successive della chat. Un chatbot è un'applicazione di un modello linguistico di grandi dimensioni.
  • checkpoint
    • Dati che acquisiscono lo stato dei parametri di un modello durante l'addestramento o al termine dell'addestramento. Ad esempio, durante l'addestramento, puoi: 1. Interrompere l'addestramento, magari intenzionalmente o a causa di determinati errori. 2. Acquisisci il checkpoint. 3. In un secondo momento, ricarica il checkpoint, eventualmente su hardware diverso. 4. Riavvia l'addestramento. In Gemini, un checkpoint fa riferimento a una versione specifica di un modello Gemini addestrato su un set di dati specifico.
  • modello di classificazione
    • Un modello la cui previsione è una classe. Ad esempio, di seguito sono riportati tutti i modelli di classificazione: un modello che prevede la lingua di una frase di input (francese? Spagnolo? Italiano?). Un modello che prevede le specie di alberi (acero? Rovere? Baobab?). Un modello che prevede la classe positiva o negativa per una determinata condizione medica.
  • Metriche di classificazione
    • Le metriche di classificazione supportate nell'SDK Vertex AI per Python sono la matrice di confusione e la curva ROC.
  • Cloud TPU
    • Un acceleratore hardware specializzato progettato per velocizzare i carichi di lavoro di machine learning su Google Cloud.
  • clustering
    • Nel contesto dell'AI generativa, il clustering è una tecnica di machine learning non supervisionata utilizzata per raggruppare punti dati simili in base alle loro caratteristiche. Ciò si ottiene definendo una misura (o metrica) di somiglianza per confrontare i punti dati e raggruppando quelli con elevata somiglianza nello stesso cluster. Nelle applicazioni di AI generativa, ciò potrebbe comportare l'aggregazione di embedding (rappresentazioni numeriche di testo, immagini o altri dati) per eseguire attività come ricerca, classificazione o rilevamento di valori anomali. Ad esempio, la segmentazione dei clienti può essere ottenuta raggruppando i dati dei clienti per identificare gruppi con comportamenti o caratteristiche simili. Per ulteriori informazioni, vedi Che cos'è il clustering?.
  • immagine container
    • Un'immagine container è un pacchetto che include il codice eseguibile del componente e una definizione dell'ambiente in cui viene eseguito il codice. Per ulteriori informazioni, consulta la Panoramica dell'addestramento personalizzato.
  • context
    • Un contesto viene utilizzato per raggruppare elementi e esecuzioni in una singola categoria interrogabile e con tipo. I contesti possono essere utilizzati per rappresentare insiemi di metadati. Un esempio di contesto è l'esecuzione di una pipeline di machine learning.
  • cache del contesto
    • Una cache di contesto in Vertex AI è una grande quantità di dati che può essere utilizzata in più richieste a un modello Gemini. I contenuti memorizzati nella cache vengono archiviati nella regione in cui viene effettuata la richiesta di creazione della cache. Può essere qualsiasi tipo MIME supportato dai modelli multimodali Gemini, ad esempio testo, audio o video. Per ulteriori informazioni, vedi Panoramica della memorizzazione nella cache del contesto.
  • Finestra contestuale
    • Il numero di token che un modello può elaborare in un determinato prompt. Maggiore è la finestra di contesto, più informazioni può utilizzare il modello per fornire risposte coerenti e coese al prompt.
  • Chiavi di crittografia gestite dal cliente (CMEK)
    • Le chiavi di crittografia gestite dal cliente (CMEK) sono integrazioni che consentono ai clienti di criptare i dati nei servizi Google esistenti utilizzando una chiave che gestiscono in Cloud KMS (noto anche come Storky). La chiave in Cloud KMS è la chiave di crittografia della chiave che protegge i dati. Per saperne di più, consulta Chiavi di crittografia gestite dal cliente (CMEK).
  • analisi dei dati
    • Ottenere una comprensione dei dati tenendo conto di campioni, misurazioni e visualizzazione. L'analisi dei dati può essere particolarmente utile quando viene ricevuto un set di dati per la prima volta, prima di creare il primo modello. È inoltre fondamentale per comprendere gli esperimenti e i problemi di debug del sistema.
  • Aumento dei dati
    • Aumentare artificialmente l'intervallo e il numero di esempi di addestramento trasformando gli esempi esistenti per creare esempi aggiuntivi. Ad esempio, supponiamo che le immagini siano una delle tue funzionalità, ma che il tuo set di dati non contenga esempi di immagini sufficienti per consentire al modello di apprendere associazioni utili. Idealmente, dovresti aggiungere al set di dati un numero sufficiente di immagini etichettate per consentire l'addestramento corretto del modello. Se non è possibile, l'aumento dei dati può ruotare, allungare e riflettere ogni immagine per produrre molte varianti dell'immagine originale, producendo eventualmente dati etichettati sufficienti per consentire un'eccellente addestramento.
  • DataFrame
    • Un tipo di dati pandas molto utilizzato per rappresentare i set di dati in memoria. Un DataFrame è analogo a una tabella o a un foglio di lavoro. Ogni colonna di un DataFrame ha un nome (un'intestazione) e ogni riga è identificata da un numero univoco.Ogni colonna di un DataFrame è strutturata come un array 2D, tranne per il fatto che a ogni colonna può essere assegnato un proprio tipo di dati.
  • Indicizzazione dei dati
    • Nel contesto dell'AI generativa, l'indicizzazione dei dati è il processo di strutturazione e organizzazione di una knowledge base per ottimizzare la ricerca e il recupero. Ciò comporta la creazione di un indice, spesso chiamato corpus, che consente una ricerca efficiente dei dati. Il processo è separato dalla creazione del corpus e i dati indicizzati possono essere utilizzati per arricchire il contesto dei modelli linguistici di grandi dimensioni (LLM), riducendo le allucinazioni e migliorando l'accuratezza delle risposte. Ad esempio, in un contesto di sito web, l'indicizzazione dei dati potrebbe comportare l'aggiunta di metadati come datePublished e dateModified per migliorare la funzionalità di ricerca. Esistono diversi metodi per indicizzare i dati, tra cui l'utilizzo della ricerca vettoriale per la ricerca di similarità in applicazioni come il recupero di informazioni pertinenti per gli LLM al momento della query. Per ulteriori informazioni, consulta la panoramica di RAG Engine .
  • Importazione dati
    • L'importazione dei dati è il processo di estrazione dei dati da varie origini e di integrazione in un'unica posizione per ulteriori elaborazioni e analisi. Nel contesto dell'AI generativa, l'importazione dati comporta l'estrazione di informazioni da diverse origini dati, come moduli clinici, cartelle dei pazienti o testo non strutturato, per addestrare e perfezionare i modelli di AI generativa. I dati importati vengono in genere elaborati e trasformati per garantirne la qualità e la coerenza prima di essere utilizzati per addestrare i modelli di AI generativa. Questo processo può includere la pulizia dei dati, feature engineering e le tecniche di aumento dei dati per migliorare le prestazioni e le capacità di generalizzazione del modello. Per ulteriori informazioni, consulta Utilizzare l'AI generativa per la gestione dell'utilizzo.
  • parallismo dei dati
    • Un modo per scalare l'addestramento o l'inferenza che replica un intero modello su più dispositivi e poi passa un sottoinsieme dei dati di input a ciascun dispositivo. Il parallelismo dei dati può abilitare l'addestramento e l'inferenza su batch di dimensioni molto grandi. Tuttavia, il parallelismo dei dati richiede che il modello sia abbastanza piccolo da adattarsi a tutti i dispositivi. In genere, il parallelismo dei dati velocizza l'addestramento e l'inferenza.
  • dataset (set di dati)
    • Un set di dati è definito in generale come una raccolta di record di dati strutturati o non strutturati. Una raccolta di dati non elaborati, comunemente (ma non esclusivamente) organizzata in uno dei seguenti formati: un foglio di lavoro o un file in formato CSV (valori separati da virgole). Per ulteriori informazioni, vedi Creare un set di dati.
  • Trasformazione dei dati
    • Nel contesto della Retrieval Augmented Generation (RAG), la trasformazione dei dati si riferisce alla conversione dei dati in un formato adatto per l'indicizzazione e l'elaborazione da parte di un LLM. Spesso, questo comporta la suddivisione dei dati in blocchi più piccoli per renderli gestibili per l'embedding e l'indicizzazione. Altre trasformazioni potrebbero includere passaggi di pulizia e convalida per garantire la qualità dei dati. Per ulteriori informazioni, consulta la panoramica di RAG Engine.
  • decoder
    • In generale, qualsiasi sistema di ML che converte da una rappresentazione elaborata, densa o interna a una rappresentazione più grezza, sparsa o esterna. I decodificatori sono spesso un componente di un modello più grande, in cui vengono spesso accoppiati a un codificatore. Nelle attività di sequenza a sequenza, un decodificatore inizia con lo stato interno generato dall'encoder per prevedere la sequenza successiva.
  • Rete neurale profonda (DNN)
    • Una rete neurale con più strati nascosti, in genere programmata tramite tecniche di deep learning.
  • depth
    • La somma di quanto segue in una rete neurale: 1. il numero di strati nascosti 2. il numero di strati di output, che in genere è uno 3. il numero di eventuali strati di embedding. Ad esempio, una rete neurale con cinque strati nascosti e uno di output ha una profondità di 6. Tieni presente che il livello di input non influisce sulla profondità.
  • DevOps
    • DevOps è una suite di prodotti Google Cloud Platform, ad esempio Artifact Registry e Cloud Deploy.
  • interruzione anticipata
    • Un metodo di regolarizzazione che prevede l'interruzione dell'addestramento prima che la perdita di addestramento termini di diminuire. Con l'interruzione anticipata, interrompi intenzionalmente l'addestramento del modello quando la perdita in un set di dati di convalida inizia ad aumentare, ovvero quando le prestazioni di generalizzazione peggiorano.
  • Incorporamento
    • Rappresentazioni numeriche di parole o parti di testo. Questi numeri riflettono il significato semantico e il contesto del testo. Parole o testo simili o correlati tendono ad avere incorporamenti simili, il che significa che sono più vicini nello spazio vettoriale ad alta dimensione.
  • spazio di embedding (spazio latente)
    • Nell'IA generativa, lo spazio di embedding si riferisce a una rappresentazione numerica di testo, immagini o video che acquisisce le relazioni tra gli input. I modelli di machine learning, in particolare i modelli di AI generativa, sono abili a creare questi embedding identificando pattern all'interno di grandi set di dati. Le applicazioni possono utilizzare gli embedding per elaborare e generare il linguaggio, riconoscendo significati complessi e relazioni semantiche specifiche dei contenuti.
  • vettore di embedding
    • Una rappresentazione vettoriale densa, spesso di bassa dimensione, di un elemento tale che, se due elementi sono semanticamente simili, i rispettivi incorporamenti si trovano vicini nello spazio vettoriale dell'embedding.
  • encoder
    • In generale, qualsiasi sistema di ML che converte da una rappresentazione non elaborata, sparsa o esterna in una rappresentazione più elaborata, più densa o più interna. Gli encoder sono spesso un componente di un modello più grande, in cui vengono spesso accoppiati a un decodificatore. Alcuni trasformatori accoppiano gli encoder ai decoder, mentre altri utilizzano solo l'encoder o solo il decoder. Alcuni sistemi utilizzano l'output dell'encoder come input di una rete di classificazione o regressione. Nelle attività di sequenza a sequenza, un encoder prende una sequenza di input e restituisce uno stato interno (un vettore). Il decoder utilizza questo stato interno per prevedere la sequenza successiva.
  • ensemble
    • Una raccolta di modelli addestrati in modo indipendente le cui previsioni vengono medie o aggregate. In molti casi, un ensemble produce previsioni migliori di un singolo modello. Ad esempio, una foresta casuale è un insieme costituito da più alberi decisionali. Tieni presente che non tutte le foreste di decisione sono insiemi.
  • environment
    • Nell'apprendimento tramite rinforzo, il mondo che contiene l'agente e gli consente di osservarne lo stato. Ad esempio, il mondo rappresentato può essere un gioco come gli scacchi o un mondo fisico come un labirinto. Quando l'agente applica un'azione all'ambiente, l'ambiente passa da uno stato all'altro.
  • evaluation (eval)
    • Un eval, abbreviazione di "valutazione", è un tipo di esperimento in cui le query registrate o sintetiche vengono inviate tramite due stack di ricerca: uno sperimentale che include la modifica e uno di base senza la modifica. Le valutazioni producono differenze e metriche che ti consentono di valutare l'impatto, la qualità e altri effetti della modifica sui risultati di ricerca e su altre parti dell'esperienza utente di Google. Le valutazioni vengono utilizzate durante la messa a punto o le iterazioni della modifica. Vengono utilizzati anche nell'ambito del lancio di una modifica al traffico degli utenti in tempo reale.
  • esecuzione
    • Un'esecuzione è un record di un singolo passaggio del flusso di lavoro di machine learning, in genere annotato con i relativi parametri di runtime. Alcuni esempi di esecuzioni sono l'importazione dati, la convalida dei dati, l'addestramento del modello, la valutazione del modello e il deployment del modello.
  • funzionalità
    • Nel machine learning (ML), una funzionalità è una caratteristica o un attributo di un'istanza o entità che viene utilizzata come input per addestrare un modello di ML o fare previsioni.
  • Estrazione di funzionalità
    • Nel contesto dell'AI generativa, l'estrazione delle funzionalità si riferisce al processo di identificazione e selezione delle funzionalità pertinenti dai dati di input da utilizzare nell'addestramento del modello. Queste funzionalità vengono poi utilizzate per generare nuovi dati simili all'input originale. Ad esempio, nella generazione di immagini, l'estrazione di funzionalità potrebbe comportare l'identificazione di bordi, trame e colori. Nell'elaborazione del linguaggio naturale, potrebbe comportare l'estrazione di parole chiave, frasi e strutture grammaticali. Le funzionalità estratte vengono poi utilizzate dal modello generativo per creare nuovi contenuti.
  • Pubblicazione delle funzionalità
    • La distribuzione delle caratteristiche è il processo di esportazione o recupero dei valori delle caratteristiche per l'addestramento o l'inferenza. In Vertex AI esistono due tipi di pubblicazione delle funzionalità: online e offline. La pubblicazione online recupera gli ultimi valori delle funzionalità di un sottoinsieme dell'origine dati delle funzionalità per le previsioni online. Il recupero dati offline o in batch esporta grandi volumi di dati sulle funzionalità, inclusi i dati storici, per l'elaborazione offline, ad esempio l'addestramento di modelli ML.
  • Visualizzazione elemento
    • Una visualizzazione delle caratteristiche è una raccolta logica di funzionalità materializzate da un'origine dati BigQuery a un'istanza del negozio online. Una vista elemento archivia e aggiorna periodicamente i dati delle funzionalità del cliente, che vengono aggiornati periodicamente dall'origine BigQuery. Una visualizzazione delle caratteristiche è associata allo spazio di archiviazione dei dati delle caratteristiche direttamente o tramite associazioni alle risorse del registry delle caratteristiche.
  • prompt few-shot (few-shot)
    • Nell'AI generativa, "few-shot" si riferisce a un tipo di prompt che include un numero limitato di esempi per guidare la risposta del modello. Questi esempi aiutano il modello a comprendere il formato, la formulazione, l'ambito o la struttura generale della risposta desiderata. I prompt con pochi esempi vengono spesso utilizzati per regolare l'output dei modelli linguistici, garantendo che generino risposte accurate, di alta qualità e coerenti con le aspettative dell'utente. Fornendo al modello alcuni esempi pertinenti, l'utente può influenzarne il comportamento e ottenere risultati più soddisfacenti. Per ulteriori informazioni, consulta Includere esempi con pochi esempi.
  • modello di base (FM)
    • Modelli addestrati su dati ampi in modo che possano essere adattati (ad esempio perfezionati) a un'ampia gamma di attività a valle.
  • Operazioni del modello di base (FMOP)
    • FMOps amplia le funzionalità di MLOps e si concentra sulla produzione efficiente di modelli di machine learning preaddestrati (addestrati da zero) o personalizzati (ottimizzati).
  • Gemini
    • Gemini è un insieme di modelli multimodali di grandi dimensioni basati su sequenze di Google. Ciò significa che possono accettare input e produrre output in più di un mezzo contemporaneamente, inclusi testo, audio e contenuti visivi. Sono progettati per essere integrati con agenti in grado di svolgere varie attività. Per ulteriori informazioni, consulta Modelli Google.
  • generalizzazione
    • La capacità di un modello di fare previsioni corrette su dati nuovi e non ancora visti. Un modello che può generalizzare è l'opposto di un modello in overfitting.
  • generazione
    • Nel contesto dell'AI generativa, "generazione" si riferisce al processo di creazione di nuovi dati o contenuti a partire da dati o informazioni esistenti. I modelli di IA generativa vengono addestrati su set di dati di grandi dimensioni e possono apprendere pattern e relazioni all'interno dei dati. Possono quindi utilizzare queste conoscenze per generare contenuti nuovi e unici simili ai dati di addestramento, ma non una replica esatta. Per ulteriori informazioni, visita la pagina https://cloud.google.com/docs/ai-ml/generative-ai/generative-ai-or-traditional-ai.
  • modello generativo
    • Un tipo di modello di machine learning che può creare nuovi output in base ai dati di addestramento. Nella sua forma più semplice, il modello genera nuovi dati che assomigliano a un determinato insieme di categorie su cui è stato addestrato. In genere sono associati ai modelli linguistici di grandi dimensioni, ma anche altri tipi di modelli possono essere generativi.
  • Google Embedded Modem System (GEMS)
    • GEMS è un framework software embedded destinato ai modem e un insieme aggiuntivo di workflow e infrastruttura di sviluppo. La visione di base di GEMS è fornire codice di sistema del modem di alta qualità con elevata riutilizzabilità su molti dispositivi Google contenenti modem. Per realizzare questa visione ampia, GEMS offre agli sviluppatori un ambiente completo composto dai principali componenti di base descritti di seguito.
  • gradient
    • Il vettore delle derivate parziali rispetto a tutte le variabili indipendenti. Nel machine learning, il gradiente è il vettore delle derivate parziali della funzione del modello. Il gradiente indica la direzione della salita più ripida.
  • graph
    • Nel contesto dell'AI generativa, un grafo si riferisce a una rappresentazione strutturata delle informazioni che organizza e collega i dati come una rete di nodi ed archi. Questi grafici vengono spesso utilizzati per rappresentare le conoscenze e le relazioni tra le entità, il che li rende particolarmente utili per i sistemi di AI generativa che richiedono una conoscenza approfondita del contesto e delle relazioni all'interno dei dati. I sistemi di IA generativa che sfruttano i Knowledge Graph possono utilizzarli per migliorare le prestazioni dei modelli di recupero. Incorporando i knowledge graph nel sistema, l'AI generativa può accedere a dati ricchi di contesto e attraversare il grafo per recuperare sottografi pertinenti in base alle query degli utenti. In questo modo, il sistema può fornire risposte più accurate e informative generando contenuti contestualmente pertinenti.
  • Dati di fatto (GT)
    • La risposta basata su dati di fatto è un termine utilizzato in vari campi per fare riferimento alla verità assoluta di un problema di decisione o misurazione, al contrario della stima di un sistema. Nel machine learning, il termine "ground truth" si riferisce al set di addestramento per le tecniche di apprendimento supervisionato.
  • allucinazione
    • Un'allucinazione nell'AI generativa è una risposta sicura di un'AI che non può essere basata sui suoi dati di addestramento. Potrebbe essere oggettivamente errata. Nel contesto della generazione di testo, si tratta di falsità casuali plausibili all'interno dei contenuti di testo generati.
  • euristica
    • Una soluzione semplice e rapida per un problema. Ad esempio, "Con un'euristica abbiamo raggiunto un'accuratezza dell'86%. Quando abbiamo adottato una rete neurale profonda, l'accuratezza è aumentata fino al 98%".
  • Livello nascosto
    • Uno strato in una rete neurale tra lo strato di input (le funzionalità) e lo strato di output (la previsione). Ogni strato nascosto è costituito da uno o più neuroni. Una rete neurale profonda contiene più di uno strato nascosto.
  • istogramma
    • Una visualizzazione grafica della variazione in un insieme di dati mediante barre. Un istogramma visualizza schemi difficili da rilevare in una semplice tabella di numeri.
  • iperparametro
    • Un iperparametro si riferisce a una variabile che regola il processo di addestramento di un modello di machine learning. Queste variabili possono includere i tassi di apprendimento, i valori di momentum nell'ottimizzatore e il numero di unità nell'ultimo strato nascosto di un modello. L'ottimizzazione degli iperparametri in Vertex AI prevede l'esecuzione di più prove di un'applicazione di addestramento con valori diversi per gli iperparametri scelti, impostati entro limiti specificati. L'obiettivo è ottimizzare le impostazioni degli iperparametri per massimizzare l'accuratezza predittiva del modello. Per ulteriori informazioni, consulta la panoramica dell'ottimizzazione degli iperparametri.
  • Imagen
    • Imagen è un servizio di IA generativa da testo a immagine disponibile tramite la piattaforma Vertex AI. Consente agli utenti di generare nuove immagini, modificarle, perfezionare modelli di stili o soggetti, aggiungere didascalie alle immagini o ricevere risposte a domande sui contenuti delle immagini. Per ulteriori informazioni, consulta la Panoramica di Imagen su Vertex AI.
  • Riconoscimento delle immagini
    • Il riconoscimento delle immagini è il processo di classificazione di oggetti, schemi o concetti in un'immagine. È nota anche come classificazione delle immagini. Il riconoscimento delle immagini è una branca secondaria del machine learning e della visione artificiale.
  • index
    • Una raccolta di vettori implementati insieme per la ricerca di similarità. I vettori possono essere aggiunti o rimossi da un indice. Le query di ricerca di somiglianza vengono inviate a un indice specifico e vengono eseguite ricerche nei vettori di quell'indice.
  • Inferenza
    • Nel contesto della piattaforma Vertex AI, l'inferenza si riferisce al processo di esecuzione di punti dati in un modello di machine learning per calcolare un output, ad esempio un singolo punteggio numerico. Questo processo è noto anche come "implementazione di un modello di machine learning" o "messa in produzione di un modello di machine learning". L'inferenza è un passaggio importante nel flusso di lavoro del machine learning, poiché consente di utilizzare i modelli per fare previsioni su nuovi dati. In Vertex AI, l'inferenza può essere eseguita in vari modi, tra cui la previsione batch e la previsione online. La previsione batch prevede l'esecuzione di un gruppo di richieste di previsione e l'output dei risultati in un file, mentre la previsione online consente di effettuare previsioni in tempo reale su singoli punti dati.
  • retrieval delle informazioni (IR)
    • Il recupero delle informazioni (IR) è un componente chiave di Vertex AI Search. È il processo di ricerca e recupero di informazioni pertinenti da una grande raccolta di dati. Nel contesto di Vertex AI, l'IR viene utilizzato per recuperare i documenti da un corpus in base alla query di un utente. Vertex AI offre una suite di API per aiutarti a creare le tue applicazioni di Retrieval-Augmented Generation (RAG) o il tuo motore di ricerca. Per ulteriori informazioni, consulta Utilizzare Vertex AI Search come backend di recupero utilizzando il motore RAG.
  • perdita (costo)
    • Durante l'addestramento di un modello supervisionato, una misura della distanza tra la previsione di un modello e la relativa etichetta. Una funzione di perdita calcola la perdita.
  • set di dati gestito
    • Un oggetto set di dati creato e ospitato da Vertex AI.
  • model
    • Qualsiasi modello, preaddestrato o meno. In generale, qualsiasi costrutto matematico che elabora i dati di input e restituisce l'output. In altre parole, un modello è l'insieme di parametri e strutture necessari per consentire a un sistema di fare previsioni.
  • Distillazione del modello (distillazione della conoscenza, modelli insegnante-studente)
    • La distillazione del modello è una tecnica che consente a un modello studente più piccolo di apprendere da un modello insegnante più grande. Il modello dello studente viene addestrato per imitare l'output del modello dell'insegnante e può quindi essere utilizzato per generare nuovi dati o fare previsioni. La distillazione del modello viene spesso utilizzata per rendere più efficienti i modelli di grandi dimensioni o per renderli più accessibili a dispositivi con risorse limitate. Può essere utilizzato anche per migliorare la generalizzazione dei modelli riducendo il fenomeno di overfitting.
  • nome risorsa modello
    • Il nome della risorsa per un model è il seguente: projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>. Puoi trovare l'ID del modello nella console Cloud nella pagina "Model Registry" (Registro modelli).
  • Network File System (NFS)
    • Un sistema client/server che consente agli utenti di accedere ai file su una rete e trattarli come se si trovassero in una directory di file locale.
  • Codifica one-hot
  • prompt one-shot
    • Un prompt che contiene un esempio che mostra come deve rispondere il modello linguistico di grandi dimensioni. Per ulteriori informazioni, consulta la sezione Prompt una tantum.
  • parameter
    • I parametri sono valori di input con chiave che configurano un'esecuzione, regolano il relativo comportamento e influiscono sui risultati. Alcuni esempi sono il tasso di apprendimento, il tasso di abbandono e il numero di passaggi di addestramento.
  • perplexity
    • La complessità è una metrica utilizzata per valutare le prestazioni dei modelli linguistici. Misura la probabilità che il modello generi una determinata sequenza di testo in base alla distribuzione del testo su cui è stato addestrato. La perplessità è una metrica di uso comune per la valutazione dei modelli linguistici e viene spesso utilizzata per confrontare le prestazioni di diversi modelli o per monitorare l'avanzamento di un modello durante l'addestramento.
  • pipeline
  • job della pipeline
    • Un job della pipeline o un'esecuzione della pipeline corrisponde alla risorsa PipelineJob nell'API Vertex AI. Si tratta di un'istanza di esecuzione della definizione della pipeline ML, che è definita come un insieme di attività ML interconnesse da dipendenze di input-output.
  • pipeline run
    • A un esperimento possono essere associati uno o più Vertex PipelineJob, in cui ogni PipelineJob è rappresentato come una singola esecuzione. In questo contesto, i parametri dell'esecuzione vengono dedotti dai parametri di PipelineJob. Le metriche vengono dedotte dagli elementi system.Metric prodotti da PipelineJob. Gli artefatti dell'esecuzione vengono dedotti dagli artefatti prodotti da PipelineJob.
  • Private Service Connect (PSC)
    • Private Service Connect è una tecnologia che consente ai clienti di Compute Engine di mappare gli IP privati nella loro rete a un'altra rete VPC o alle API di Google.
  • prompt
    • Un prompt è una richiesta in linguaggio naturale presentata a un modello linguistico per ricevere una risposta. I prompt possono contenere domande, istruzioni, informazioni contestuali, esempi few-shot e input parziali da completare o proseguire dal modello. Dopo aver ricevuto un prompt, il modello può generare testo, embedding, codice, immagini, video, musica e altro ancora, a seconda del tipo di modello utilizzato. Per ulteriori informazioni, consulta la sezione Panoramica delle strategie di prompt.
  • progettazione di prompt (design dei prompt)
    • Il prompt engineering nell'AI generativa è il processo di creazione di prompt efficaci per ottenere gli output desiderati dai modelli linguistici di grandi dimensioni (LLM). Si tratta di un processo iterativo basato su test incentrato sul perfezionamento degli input per ottenere risultati specifici. Ciò comporta la considerazione sia dei contenuti che della struttura del prompt per garantire risposte accurate e di alta qualità. La progettazione efficace dei prompt è fondamentale per le attività complesse, anche se quelle più semplici potrebbero non richiederla. L'obiettivo è realizzare rapidamente prototipi di applicazioni basate su LLM. Per ulteriori informazioni, consulta Introduzione all'ingegneria dei prompt.
  • ottimizzazione del prompt
    • L'ottimizzazione dei prompt è un metodo di ottimizzazione fine efficiente per i parametri utilizzato per migliorare le prestazioni di un modello di AI generativa in un'attività specifica. Richiede l'apprendimento di un "prefisso" che viene anteposto al prompt effettivo, a volte a ogni livello. Questo approccio è considerato più economico e veloce rispetto ad altri metodi di ottimizzazione e spesso produce buoni risultati. L'ottimizzazione dei prompt è particolarmente efficace quando hai un'attività specifica e vuoi che il modello la esegua in un determinato modo. A volte viene anche definita apprendimento dei prompt o ottimizzazione (fine) efficiente in termini di parametri. Per saperne di più, consulta Introduzione al prompt engineering.
  • quantizzazione
    • La quantizzazione è una tecnica di ottimizzazione del modello utilizzata per ridurre la precisione dei numeri utilizzati per rappresentare i parametri di un modello. Ciò può portare a modelli più piccoli, a un minor consumo energetico e a una latenza di inferenza ridotta.
  • Foresta casuale
    • Random Forest è un algoritmo di machine learning utilizzato sia per la classificazione che per la regressione. Non è direttamente un modello di AI generativa, ma è un componente che può essere utilizzato all'interno di un sistema di AI generativa più grande. Una foresta casuale è composta da più alberi decisionali e la sua previsione è un'aggregazione delle previsioni di questi singoli alberi. Ad esempio, in un'attività di classificazione, ogni albero "vota" per una classe e la previsione finale è la classe con il maggior numero di voti. Per ulteriori informazioni, consulta la sezione Foresta di alberi decisionali.
  • Ray cluster su Vertex AI
    • I cluster Ray su Vertex AI sono integrati per garantire la disponibilità della capacità per i carichi di lavoro ML critici o durante le stagioni di picco. A differenza dei job personalizzati, in cui il servizio di addestramento rilascia la risorsa al termine del job, i cluster Ray rimangono disponibili fino all'eliminazione. Per ulteriori informazioni, consulta la panoramica di Ray su Vertex AI.
  • Ray on Vertex AI (RoV)
    • Ray su Vertex AI è progettato in modo da poter utilizzare lo stesso codice open source di Ray per scrivere programmi e sviluppare applicazioni su Vertex AI con modifiche minime. Per ulteriori informazioni, consulta la panoramica di Ray su Vertex AI.
  • SDK Ray on Vertex AI per Python
    • L'SDK Ray on Vertex AI per Python è una versione dell'SDK Vertex AI per Python che include le funzionalità di Ray Client, del connettore Ray BigQuery, della gestione del cluster Ray su Vertex AI e delle previsioni su Vertex AI. Per ulteriori informazioni, consulta Introduzione all'SDK Vertex AI per Python.
  • richiamo
    • La percentuale di vicini più vicini veri restituiti dall'indice. Ad esempio, se una query sul vicino più prossimo per 20 vicini più prossimi ha restituito 19 dei vicini più prossimi "del vero e proprio", il valore di recupero è 19/20 x 100 = 95%.
  • sistema di consigli
    • Un sistema di suggerimenti è un sistema basato sul machine learning che aiuta gli utenti a trovare contenuti interessanti in un vasto corpus. Genera un sottoinsieme più piccolo di candidati da un corpus potenzialmente enorme, assegna un punteggio e un ranking ai candidati e rielabora il ranking finale per tenere conto di vincoli aggiuntivi. Per ulteriori informazioni, consulta la Panoramica dei sistemi di consigli.
  • regolarizzazione
    • La regolarizzazione è una tecnica utilizzata per evitare il sovraadattamento nei modelli di machine learning. L'overfitting si verifica quando un modello apprende troppo bene i dati di addestramento, con un conseguente calo delle prestazioni sui dati non rilevati. Un tipo specifico di regolarizzazione menzionato è l'interruzione anticipata, in cui l'addestramento viene interrotto prima che la perdita in un set di dati di convalida inizi ad aumentare, indicando un calo del rendimento della generalizzazione. Per ulteriori informazioni, consulta Overfitting: regolarizzazione L2.
  • account di servizio
    • In Google Cloud, un account di servizio è un particolare tipo di account utilizzato da un'applicazione o da un'istanza di macchina virtuale (VM), non da una persona fisica. Le applicazioni utilizzano account di servizio per effettuare chiamate API autorizzate.
  • metriche di riepilogo
    • Le metriche di riepilogo sono un singolo valore per ogni chiave di metrica in un'esecuzione dell'esperimento. Ad esempio, l'accuratezza del test di un esperimento è l'accuratezza calcolata in base a un set di dati di test al termine dell'addestramento e può essere acquisita come metrica di riepilogo di un singolo valore.
  • TensorBoard
    • TensorBoard è una suite di applicazioni web per visualizzare e comprendere le esecuzioni e i modelli TensorFlow. Per ulteriori informazioni, consulta TensorBoard.
  • Istanza TensorBoard
    • Un'istanza di TensorBoard è una risorsa regionalizzata che archivia gli esperimenti Vertex AI TensorBoard associati a un progetto. Puoi creare più istanze TensorBoard in un progetto se, ad esempio, vuoi più istanze con CMEK abilitato. È la stessa risorsa TensorBoard nell'API.
  • Nome risorsa TensorBoard
    • Un nome della risorsa TensorBoard viene utilizzato per identificare completamente un'istanza Vertex AI TensorBoard. Il formato è il seguente: projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
  • offset di tempo
    • Il ritardo è relativo all'inizio di un video.
  • Metriche delle serie temporali
    • Le metriche delle serie temporali sono valori delle metriche longitudinali in cui ogni valore rappresenta un passaggio nella parte della routine di addestramento di un'esecuzione. Le metriche delle serie temporali vengono archiviate in Vertex AI TensorBoard. Vertex AI Experiments memorizza un riferimento alla risorsa Vertex TensorBoard.
  • token
    • Un token in un modello linguistico è l'unità atomica su cui il modello viene addestrato e fa previsioni, ovvero parole, morfemi e caratteri. In domini diversi dai modelli linguistici, i token possono rappresentare altri tipi di unità atomiche. Ad esempio, nella visione artificiale, un token potrebbe essere un sottoinsieme di un'immagine. Per ulteriori informazioni, consulta Elenca e conteggia i token.
  • trajetoria
    • Per "trajetoria" si intende una sequenza di passaggi o azioni intraprese da un agente o un modello. Viene spesso utilizzato nella valutazione dei modelli generativi, in cui viene valutata la capacità del modello di generare testo, codice o altri contenuti. Esistono diversi tipi di metriche di traiettoria che possono essere utilizzate per valutare i modelli generativi, tra cui la corrispondenza esatta della traiettoria, la corrispondenza in ordine della traiettoria, la corrispondenza in qualsiasi ordine della traiettoria e la precisione della traiettoria. Queste metriche misurano la somiglianza tra l'output del modello e un insieme di output di riferimento generati da persone.
  • Trasformatore
    • Un "Transformer" è un'architettura di rete neurale alla base della maggior parte dei modelli generativi all'avanguardia. Viene utilizzato in varie applicazioni di modelli linguistici, inclusa la traduzione. I Transformer sono composti da un encoder e un decoder; l'encoder converte il testo di input in una rappresentazione intermedia, che il decoder converte in un output utile. Utilizzano un meccanismo di auto-attenzione per raccogliere il contesto dalle parole che circondano la parola in fase di elaborazione. Sebbene l'addestramento di un Transformer richieda risorse significative, la messa a punto di un Transformer pre-addestrato per applicazioni specifiche è più efficiente.
  • Apprendimento per rinforzo con transformer
    • L'apprendimento per rinforzo con transformer (TRL) si riferisce all'applicazione di tecniche di apprendimento per rinforzo (RL) per addestrare modelli basati su transformer per attività generative. Questo approccio risolve le limitazioni dei modelli generativi tradizionali, che spesso vengono addestrati sulla previsione del token successivo senza ottimizzazione esplicita per qualità desiderabili come coerenza, sicurezza e sensibilità. L'approccio TRL ottimizza direttamente il modello linguistico per obiettivi complessi utilizzando l'apprendimento per rinforzo, spesso incorporando il feedback umano (RLHF) per guidare il processo di apprendimento. Alcuni esempi sono la messa a punto dei modelli per generare contenuti meno dannosi utilizzando i modelli di incentivazione e l'utilizzo del TRL per ottimizzare Gemma, un modello generativo. Per saperne di più, consulta DLC di Hugging Face: ottimizzazione fine di Gemma con il machine learning con rinforzo di transformer (TRL) su Vertex AI.
  • Risultato positivo vero
    • Un "vero positivo" si riferisce a una previsione in cui il modello identifica correttamente una classe positiva. Ad esempio, se un modello viene addestrato per identificare i clienti che acquisteranno una giacca, un vero positivo prevederebbe correttamente che un cliente effettuerà un acquisto di questo tipo.
  • convalida
    • La convalida controlla la qualità delle previsioni di un modello rispetto al set di convalida. Ciò comporta la definizione di metriche per misurare la qualità, la velocità, la conformità alle istruzioni e la sicurezza dei contenuti generati. La convalida utilizza spesso dati etichettati (prompt di input e output previsti) per confrontare le previsioni del modello con i dati empirici reali. Potrebbero essere utilizzate metriche come il punteggio F1 (per la classificazione) e il punteggio ROUGE-L (per il riepilogo). Il processo include anche il test di casi limite e scenari insoliti per garantire la robustezza. Per i modelli di cui è stato eseguito il deployment, il monitoraggio e l'acquisizione continui di punti dati comuni e casi limite contribuiscono a migliorare le attività di convalida future.
  • vettore
    • Un vettore si riferisce a una rappresentazione numerica di testo, immagini o video che acquisisce le relazioni tra gli input. I modelli di machine learning sono adatti per creare embedding identificando pattern in grandi set di dati. Le applicazioni possono utilizzare gli embedding per elaborare e produrre il linguaggio, riconoscendo significati complessi e relazioni semantiche specifiche dei contenuti. Per ulteriori informazioni, consulta la panoramica delle API di incorporamento.
  • Vertex AI Experiments
    • Vertex AI Experiments consente agli utenti di monitorare quanto segue: 1. Passaggi di un'esecuzione dell'esperimento (ad esempio, pre-elaborazione e addestramento). 2. Input (ad esempio algoritmo, parametri e set di dati). 3. Gli output di questi passaggi (ad esempio modelli, checkpoint e metriche).
  • segmento video
    • Un segmento di video viene identificato dall'offset temporale di inizio e di fine di un video.
  • virtual private cloud (VPC)
    • Il virtual cloud privato è un pool configurabile e on demand di risorse di calcolo condivise che viene allocato in un ambiente cloud pubblico e fornisce un livello di isolamento tra le diverse organizzazioni che utilizzano queste risorse.
  • word embedding
    • Gli incorporamenti di parole sono un modo per rappresentare le parole come vettori densi di valori con virgola mobile. In questo modo, parole simili hanno codifiche simili. Gli embedding di parole vengono spesso utilizzati nell'AI generativa per acquisire le relazioni tra le parole e generare nuovo testo o codice, senza origini. Nell'AI generativa, gli embedding di parole possono essere utilizzati per addestrare modelli in grado di generare nuovo testo o codice. Comprendendo le relazioni tra le parole, i modelli di AI generativa possono creare nuovi contenuti coerenti e pertinenti.
  • prompt zero-shot (prompt diretto)
    • Nell'AI generativa, un prompt zero-shot è un prompt che consente a un modello linguistico di grandi dimensioni (LLM) di eseguire un'attività senza alcun addestramento o esempio aggiuntivo. Ciò è in contrasto con metodi come il prompt few-shot, che fornisce al modello input e output di esempio. Un prompt zero-shot si basa esclusivamente sulle conoscenze preesistenti del modello per generare una risposta. Per ulteriori informazioni, consulta Prompt senza esempi.