Questo documento contiene un elenco di tutorial sui blocchi note per l'IA generativa su Vertex AI. Sono tutorial end-to-end che mostrano come utilizzare alcuni degli LLM di IA generativa.
Tutorial in primo piano
-
Casi d'uso multimodali con Gemini
Esplora vari casi d'uso con la multimodalità con Gemini.
-
chiamate di funzione con l'API Gemini di Vertex AI e SDK Python
Utilizza l'API Vertex AI Gemini con SDK Vertex AI per Python per effettuare chiamate di funzione utilizzando il metodo Modello Gemini 1.0 Pro (
gemini-1.0-pro
). -
Inizia a utilizzare il grounding con Gemini in Vertex AI
Utilizza i modelli di testo generativi per generare contenuti basati sui tuoi documenti e dati.
Elenco dei tutorial
Gemini Multimodal |
Utilizza Gemini 1.5 Pro per analizzare file audio, comprendere i video, estrarre informazioni da un PDF ed elaborare contemporaneamente più tipi di contenuti multimediali. |
|
Gemini Multimodal |
Usa questo blocco note per imparare a generare codice, riassumere un codebase, eseguire il debug, migliorare il codice e valutare il codice con Gemini 1.5 Pro. |
|
Gemini Multimodal |
Inizia a utilizzare Gemini (cUrl) Utilizza l'API Gemini, che ti consente di accedere agli ultimi modelli linguistici di grandi dimensioni di Google, con REST/curl. |
|
Gemini Multimodal |
Inizia a utilizzare Gemini (SDK Python) Utilizza l'API Gemini, che ti consente di accedere agli ultimi modelli linguistici di grandi dimensioni di Google, con l'SDK Vertex AI per Python. |
|
Multimodale Gemini |
Casi d'uso multimodali con Gemini Il modello Gemini è un rivoluzionario modello linguistico multimodale sviluppato dall'IA di Google, in grado di estrarre informazioni significative da una vasta gamma di formati di dati, tra cui immagini e video. Questo notebook esplora vari casi d'uso con prompt multimodali. |
|
Valutazione di Gemini |
Introduzione al servizio di valutazione dell'IA generativa nell'SDK Vertex AI per Python Utilizza l'SDK Gen AI Evaluation Service per valutare il modello Gemini in un'attività di valutazione con l'SDK Vertex AI per Python. |
|
Valutazione di Gemini |
Progettazione, valutazione e creazione di modelli di prompt con Gemini Utilizza l'SDK Gen AI Evaluation Service per il prompt engineering e la valutazione con il modello Gemini tramite l'SDK Vertex AI per Python. |
|
Valutazione di Gemini |
Confrontare e selezionare i modelli generativi Utilizza l'SDK del servizio di valutazione dell'IA generativa per confrontare e valutare diversi modelli generativi in un'attività di valutazione specifica, quindi visualizza e confronta i risultati della valutazione per l'attività con l'SDK Vertex AI per Python. |
|
Valutazione di Gemini |
Valutare e confrontare le impostazioni di generazione del modello Gemini Utilizza l'SDK del servizio di valutazione dell'IA generativa per valutare e selezionare la temperatura e altre configurazioni di generazione di modelli di Gemini e confrontare i risultati delle metriche di diverse impostazioni di generazione con l'SDK Vertex AI per Python. |
|
Valutazione di Gemini |
Eseguire il confronto e la migrazione da PaLM al modello Gemini Questo notebook illustra come utilizzare l'SDK di Gen AI Evaluation Service per valutare i modelli di base PaLM e Gemini con più metriche di valutazione, al fine di supportare le decisioni relative alla migrazione da un modello all'altro. Queste metriche vengono visualizzate per aiutarti a comprendere i punti di forza e di debolezza di ciascun modello e, in ultima analisi, a prendere una decisione consapevole su quale sia il modello più adatto ai requisiti specifici del tuo caso d'uso. |
|
Valutazione di Gemini |
Guida alla migrazione dall'anteprima dell'SDK del servizio di valutazione dell'IA generativa a GA In questo tutorial otterrai indicazioni dettagliate su come eseguire la migrazione dalla versione di anteprima all'ultima versione GA dell'SDK Vertex AI per Python per Gen AI Evaluation Service per valutare la RAG (Retrieval-Augmented Generation) e confrontare due modelli affiancati (SxS). |
|
Valutazione di Gemini |
Valuta e confronta le impostazioni di generazione del modello Gemini Utilizza l'SDK Gen AI Evaluation Service per valutare e selezionare la temperatura e altre configurazioni di generazione del modello di Gemini e confrontare i risultati delle metriche delle diverse impostazioni di generazione, con l'SDK Vertex AI per Python. |
|
Valutazione di Gemini |
Personalizza le metriche basate su modelli per valutare un modello di IA generativa Utilizza l'SDK Gen AI Evaluation Service per personalizzare le metriche basate su modello e valutare un modello di IA generativa in base ai tuoi criteri con l'SDK Vertex AI per Python. |
|
Valutazione di Gemini |
Utilizza le metriche personalizzate per valutare un modello di IA generativa Utilizza l'SDK Gen AI Evaluation Service per valutare i modelli di IA generativa con metriche personalizzate definite a livello locale e utilizza il tuo modello di valutazione automatica per eseguire la valutazione delle metriche basata sul modello con l'SDK Vertex AI per Python. |
|
Valutazione di Gemini |
Sfrutta le tue metriche personalizzate basate sul calcolo per valutare un modello di IA generativa Utilizza l'SDK Gen AI Evaluation Service per valutare i modelli di IA generativa con le metriche personalizzate basate sul calcolo definite localmente, con l'SDK Vertex AI per Python. |
|
Valutazione di Gemini |
Valutare la qualità delle chiamate alle funzioni del modello Gemini 1.0 Pro Genera chiamate di funzione con il modello Gemini 1.0 Pro e utilizza l'SDK Gen AI Evaluation Service per valutare la qualità delle chiamate di funzione del modello Gemini 1.0 Pro con l'SDK Vertex AI per Python. |
|
Valutazione di Gemini |
Utilizza l'SDK Gen AI Evaluation Service per valutare le risposte generate con la generazione basata sul recupero (RAG) per un'attività di risposta alle domande (QA) con l'SDK Vertex AI per Python. |
|
Gemini multimodale - Streamlit |
Esegui il deployment di un'app Streamlit in Cloud Run con Gemini Pro App di esempio per il deployment di una semplice app di chatbot utilizzando Streamlit in Cloud Run con Gemini Pro. |
|
Retrieval-Augmented Generation multimodale di Gemini |
A partire dall'RAG, che viene tradizionalmente eseguito sui dati di testo, questo notebook mostra come eseguire l'RAG su dati multimodali per rispondere a domande in un articolo scientifico contenente testo e immagini. |
|
Multimodale Gemini |
Utilizzare Gemini in ambito didattico Utilizzo del modello Gemini nell'istruzione, con vari esempi di prompt e in diverse modalità, tra cui immagini e video. |
|
Gemini Multimodal |
Utilizzare Gemini per i consigli di vendita al dettaglio multimodali Nel mondo del retail, i consigli svolgono un ruolo fondamentale nell'influenzare le decisioni dei clienti e vendite. In questo notebook, scoprirai come sfruttare la potenza della multimodalità per fornire consigli di vendita al dettaglio per aiutare un cliente a scegliere la sedia migliore tra quattro immagini di sedie, in base a un'immagine del suo salotto. |
|
Chiamata di funzioni multimodali di Gemini |
Introduzione alle chiamate di funzione con Gemini Utilizza il modello Gemini Pro per:
|
|
Ottimizzazione |
Ottimizzare i modelli di base con Vertex AI Segui l'intera procedura di configurazione e integrazione. Da dell'ambiente di configurazione, alla selezione di base del modello dell'ottimizzazione con Vertex AI. |
|
Valutazione |
Servizi di valutazione di LLM di Vertex AI Utilizza i servizi di valutazione LLM di Vertex AI in combinazione con altri servizi Vertex AI. |
|
LangChain |
Gestisci una catena LangChain e stampa i dettagli di ciò che accade in ogni passaggio della catena e con punti di interruzione di debug facoltativi. |
|
Testo |
Formazione avanzata sull'ingegneria dei prompt Usa la catena di pensiero e reazione (ragionamento e azione) per progettare dei prompt e ridurre le allucinazioni. |
|
Incorporamenti |
Utilizzare Vertex AI Embeddings per la ricerca multimodale e vettoriale Crea incorporamenti da testo a immagine utilizzando il set di dati DiffusionDB e il modello Vertex AI Embeddings per multimodali. Gli incorporamenti vengono caricati nel servizio di ricerca vettoriale, una soluzione a larga scala e bassa latenza per trovare vettori simili per un corpus di grandi dimensioni. |
|
Incorporamenti |
Ricerca semantica mediante incorporamenti Crea un embedding generato dal testo ed esegui una ricerca semantica. Gli incorporamenti vengono generati utilizzando Google ScaNN: ricerca vettoriale efficiente per la somiglianza. |
|
Valutazione |
AutoSxS: valuta un LLM in Vertex AI Model Registry rispetto a un modello di terze parti Usa Vertex AI automatico affiancato (AutoSxS) per valutare le prestazioni di un modello di IA generativa nel registro dei modelli di Vertex AI e un modello linguistico di terze parti. |
|
Valutazione |
AutoSxS: verifica l'allineamento dell'autoregista rispetto a un set di dati con preferenze umane Utilizza la funzionalità Automatic Side-by-Side (AutoSxS) di Vertex AI per determinare il grado di corrispondenza dello strumento di valutazione automatica con i valutatori umani. |
|
Ottimizzazione |
Apprendimento per rinforzo con feedback umano di Vertex AI LLM Utilizza Vertex AI RLHF per ottimizzare un modello linguistico di grandi dimensioni (LLM). Questo flusso di lavoro migliora l'accuratezza di un modello perfezionando un modello di base con un set di dati di addestramento. |
|
Ottimizzazione |
Inferenza batch di Vertex AI con modelli ottimizzati con RLHF Questo tutorial mostra come eseguire l'inferenza su modelli LLM (LLM) ottimizzati per RLHF con Vertex AI. |
|
Incorporamenti |
Prova i nuovi modelli di embedding del testo. |
|
Ottimizzazione |
Ottimizzazione di un modello PEFT con Vertex AI Ottimizza un modello linguistico di grandi dimensioni (LLM) PEFT ed effettua una previsione. Questo flusso di lavoro migliora l'accuratezza di un modello perfezionando un modello di base con un set di dati di addestramento. |
|
Testo |
Utilizzare l'SDK Vertex AI con i modelli linguistici di grandi dimensioni Utilizzare l'SDK Vertex AI per eseguire modelli linguistici di grandi dimensioni (LLM) su Vertex AI. Testa, ottimizza ed esegui il deployment di modelli linguistici di AI generativa. Inizia esplorando esempi di riepilogo dei contenuti, analisi del sentiment, chat, incorporamento del testo e ottimizzazione dei prompt. |
|
Indicizzazione dei datastore della conversazione di ricerca |
Controllo dello stato del datastore di Vertex AI Search and Conversation Lo strumento di controllo dello stato del datastore di Vertex AI Search and Conversation è un blocco note che utilizza l'API Cloud Discovery Engine per controllare la presenza di documenti indicizzati in un datastore. Consente all'utente di eseguire le seguenti attività:
|
|
Chirp di riconoscimento vocale |
Guida introduttiva a Chirp su Google Cloud Questo notebook è un'introduzione a Chirp, un servizio di conversione da voce a testo che utilizza la tecnologia di riconoscimento vocale all'avanguardia di Google. Fornisce un'interfaccia semplice e facile da usare per consentire agli sviluppatori di creare applicazioni basate sulla voce. |
|
Filtra ricerca metadati |
Vertex AI Search con filtri e metadati Vertex AI Search è un servizio completamente gestito che ti consente di creare e implementare applicazioni di ricerca su Google Cloud. Questo blocco note mostra come utilizzare i filtri e i metadati nelle richieste di ricerca a Vertex AI Search. |
|
Document Question-answering - Generazione potenziata del recupero |
Domande e risposte su un documento con una generazione aumentata per il recupero Questo notebook mostra come utilizzare la Retrieval Augmented Generation (RAG) per creare un sistema di risposta alle domande per la documentazione di Google. Mostra come utilizzare la RAG per generare un testo che risponda a una determinata domanda e come utilizzare la RAG per migliorare le prestazioni di un sistema di risposta alle domande. |
|
Ricerca di recupero della generazione di contratti |
Questo notebook mostra come utilizzare la generazione basata sul recupero per generare il testo del contratto. Utilizza i modelli Palm2 e LangChain, preaddestrati su grandi corpora di testo legale e finanziario. |
|
LangChain di ricerca con generazione basata sul recupero per la risposta alle domande |
Risposta a domande sui documenti Questo notebook mostra come porre e rispondere a domande sui tuoi dati combinando un motore di ricerca Vertex AI con LLM. In particolare, ci concentriamo sulle query "non strutturati" come PDF e file HTML. Per eseguire questo notebook, devi aver creato un motore di ricerca non strutturato e aver importato documenti PDF o HTML. |
|
Domande in blocco su Vertex AI Search - Question-answering Search |
Risposta collettiva alle domande con Vertex AI Search Questo blocco note mostra come rispondere alle domande da un file CSV utilizzando un datastore di Vertex AI Search. Può essere eseguito in Colab o Vertex AI Workbench. |
|
Orchestrazione linguistica: LangChain PaLM |
Introduzione a LangChain 🦜️🔗 + API PaLM Questo blocco note fornisce un'introduzione a LangChain, un framework di orchestrazione di modelli linguistici. Mostra come utilizzare LangChain con l'API PaLM per creare ed eseguire il deployment di un modello di generazione da testo a testo. |
|
LangChain di BigQuery Data Loader |
Come utilizzare il caricatore di dati BigQuery di LangChain 🦜️🔗 Questo notebook mostra come utilizzare il caricatore di dati BigQuery di LangChain per caricare i dati da BigQuery in un modello LangChain. Il notebook fornisce istruzioni dettagliate su come configurare il caricatore di dati, caricare i dati nel modello e addestrare il modello. |
|
Codice Generazione di codice Generazione basata sul recupero Codey |
Utilizzare la Retrieval Augmented Generation (RAG) con le API Codey Questo notebook mostra come utilizzare la Retrieval Augmented Generation (RAG) con le API Codey. RAG è una tecnica che combina il recupero del codice con la generazione del codice per produrre suggerimenti di completamento del codice più accurati e informativi. |
|
Linguaggio di generazione codice Codey |
Iniziare a utilizzare le API Vertex AI Codey - Generazione del codice Questo blocco note fornisce un'introduzione alle API Vertex AI Codey per la generazione del codice. Copre le nozioni di base su come utilizzare le API, tra cui come creare ed eseguire il deployment di modelli di generazione di codice e come utilizzarli per generare codice. |
|
Completamento del codice Codey - Generazione del codice |
Introduzione alle API Codey di Vertex AI - Completamento del codice Questo notebook mostra come utilizzare le API Vertex AI Codey per ricevere suggerimenti di completamento del codice per il codice Python. Inoltre, mostra come utilizzare le API per generare e eseguire snippet di codice in un ambiente remoto. |
|
Chat Codey - Chat del codice - Generazione di codici - Generazione di testi |
Introduzione alle API Codey di Vertex AI - Code Chat Questo blocco note è un'introduzione alle API Vertex AI Codey. Copre le nozioni di base su come utilizzare le API, tra cui come creare e implementare i modelli e come interagire con loro utilizzando Codey CLI. |
|
SDK Python PaLM del linguaggio |
Introduzione all'API PaLM e all'SDK Python Questo blocco note fornisce un'introduzione all'API PaLM e all'SDK per Python. Descrive le nozioni di base su come utilizzare l'API, tra cui come creare ed eseguire il deployment dei modelli e come utilizzare l'API per generare testo, tradurre lingue e scrivere diversi tipi di contenuti creativi. |
|
Prompt relativi alla lingua |
Progettazione dei prompt - Best practice Questo blocco note fornisce un'introduzione alla progettazione di prompt per i modelli linguistici basati su testo. Illustra le nozioni di base sui prompt, incluso il loro funzionamento e come scriverli. Il blocco note fornisce anche suggerimenti su come migliorare i prompt ed evitare gli errori più comuni. |
|
Estrazione di testo |
Estrazione del testo con i modelli generativi su Vertex AI Questo blocco note mostra come utilizzare i modelli generativi per estrarre testo dalle immagini. Utilizza il modello di conversione da testo a immagine della libreria di IA generativa di Vertex AI e il modello di estrazione del testo della libreria di estrazione del testo di Vertex AI. |
|
Classificazione del testo |
Classificazione di testo con modelli generativi su Vertex AI Questo blocco note mostra come utilizzare i modelli generativi per eseguire la classificazione del testo su Vertex AI. e tratta i seguenti argomenti: * Preparazione dei dati * Addestramento di un modello * Il deployment di un modello * Usare un modello per classificare il testo |
|
Reazione della catena di pensiero |
Questo blocco note presenta Chain of Thought and ReAct, due strumenti che possono essere utilizzati per migliorare le prestazioni degli algoritmi di apprendimento per rinforzo. La catena di pensiero è una tecnica che può essere utilizzata per migliorare l'efficienza dell'iterazione del valore, mentre ReAct è una tecnica che può essere utilizzata per migliorare la stabilità degli algoritmi attore-critico. |
|
Ideazione dei prompt di linguaggio |
Ideazione con modelli generativi su Vertex AI Questo blocco note mostra come utilizzare modelli generativi per generare testo, immagini e codice. Inoltre, mostra come utilizzare Vertex AI per eseguire il deployment e gestire i modelli generativi. |
|
Riassunto |
Riassunto di testi con modelli generativi su Vertex AI Questo blocco note mostra come utilizzare Vertex AI per addestrare ed eseguire il deployment di un modello di riassunto del testo. Utilizza il modello BART, un modello linguistico di grandi dimensioni (LLM) preaddestrato su un enorme set di dati di testo. Il modello viene poi ottimizzato su un set di dati di riepiloghi di testo e può essere utilizzato per generare riepiloghi di nuovo testo. |
|
Risposta a domande |
Risposta alle domande con i modelli generativi su Vertex AI Questo notebook mostra come utilizzare i modelli generativi per rispondere a domande aperte. Utilizza il modello Transformer di Vertex AI per generare testo in base a una determinata domanda. |
|
Deployment dell'ottimizzazione del modello di base per la generazione di testo |
Ottimizzazione ed deployment di un modello di base Questo blocco note mostra come ottimizzare un modello di base utilizzando Vertex AI. Mostra anche come eseguire il deployment del modello ottimizzato su un endpoint Vertex AI. |
|
Document-summarization Summarization |
Riassunto di documenti di grandi dimensioni Questo notebook mostra come utilizzare il modello t5 large per riassumere documenti di grandi dimensioni. Il modello viene addestrato su un enorme set di dati di testo e codice e può generare riassunti sia precisi che concisi. |
|
Riassunto di documenti - Riassunto LangChain |
Riassunto testuale di documenti di grandi dimensioni con LangChain 🦜🔗 Questo blocco note mostra come utilizzare il modello LangChain per riassumere documenti di grandi dimensioni. LangChain è un modello linguistico di grandi dimensioni (LLM) in grado di generare testi, tradurre lingue, scrivere diversi tipi di contenuti creativi e rispondere alle tue domande in modo informativo. |
|
Document-summarization Document AI Language-model Summarization Text-summarization |
Riassumi documenti di grandi dimensioni utilizzando le API Document AI e PaLM Questo notebook mostra come utilizzare le API Document AI e PaLM per riassumere documenti di grandi dimensioni. Mostra anche come utilizzare l'API Document AI per estrarre entità e frasi chiave da un documento. |
|
Generazione di testo dei chatbot |
GroceryBot, un assistente per ricette e acquisti di generi alimentari di esempio - RAG + ReAct Questo blocco note riguarda un esempio di assistente per la spesa e le ricette che utilizza RAG e ReAct. Può aiutarti a trovare ricette, creare liste della spesa e rispondere a domande sul cibo. |
|
LangChain per il question answering e la valutazione della qualità dei documenti |
Risposta alle domande con documenti di grandi dimensioni utilizzando LangChain 🦜🔗 Questo blocco note mostra come utilizzare il modello LangChain per creare un sistema di question answering in grado di rispondere a domande su documenti lunghi. Il modello viene addestrato su un grande corpus di testo e può essere utilizzato per rispondere a domande su qualsiasi argomento. |
|
Ricerca vettoriale LangChain Question-answering Document-QA LangChain |
Risposta alle domande con i documenti utilizzando LangChain 🦜️🔗 e Vertex AI Vector Search Questo notebook mostra come utilizzare LangChain e Vertex AI Vector Search (in precedenza Matching Engine) per creare un sistema di risposta alle domande per i documenti. Il sistema può rispondere a domande su entità, date e numeri nei documenti. |
|
PaLM per la risposta alle domande di Document AI |
Risposta alle domande con Documenti utilizzando Document AI, Pandas e PaLM Questo notebook mostra come utilizzare Document AI, Pandas e PaLM per creare un sistema di risposta alle domande. Utilizza prima Document AI per estrarre dati strutturati da un documento, poi usa Pandas per creare un dataframe dai dati estratti e infine usa PaLM per generare risposte alle domande sui dati. |
|
QA del documento per la risposta alle domande |
Risposta alle domande con documenti di grandi dimensioni Questo blocco note mostra come utilizzare il servizio di risposta alle domande di Vertex AI per creare un modello di question answering in grado di rispondere a domande da documenti di grandi dimensioni. Il modello è addestrato su un set di dati di articoli di Wikipedia e può rispondere a domande su una serie di argomenti. |
|
Generazione di immagini |
Generatore di descrizione prodotto dall'immagine Questo notebook mostra come generare descrizioni dei prodotti dalle immagini utilizzando un modello di conversione da testo a immagine. Il modello viene addestrato su un set di dati di immagini dei prodotti e delle relative descrizioni. |
|
LangChain per la vendita al dettaglio di generazione |
Questo notebook mostra come utilizzare il modello LangChain per generare descrizioni dei prodotti ottimizzate per la SEO per la vendita al dettaglio. Il modello utilizza come input un elenco di attributi del prodotto e genera una breve descrizione che evidenzia le caratteristiche chiave del prodotto. |
|
Generazione di testo di BigQuery DataFrames |
BigQuery DataFrames ML: generazione di nomi di farmaci Questo blocco note mostra come utilizzare BigQuery DataFrames ML per generare nomi di farmaci. Utilizza un modello linguistico preaddestrato per generare il testo e poi filtra i risultati per rimuovere i nomi dei farmaci già in uso. |
|
Generazione del codice di BigQuery DataFrames |
Utilizzare BigQuery DataFrames con l'IA generativa per la generazione di codice Questo blocco note mostra come utilizzare BigQuery DataFrames con l'IA generativa per la generazione di codice. Mostra come utilizzare un modello linguistico preaddestrato per generare codice che trasforma una tabella BigQuery in un DataFrame Pandas. |
|
Modello linguistico BigQuery |
Utilizzare i modelli LLM di Vertex AI con i dati in BigQuery Questo blocco note mostra come utilizzare gli LLM di Vertex AI con i dati in BigQuery. Mostra come caricare i dati da BigQuery, creare un modello LLM e quindi utilizzare il modello per generare testo in base ai dati. |
|
Visualizzazione della somiglianza degli incorporamenti |
Visualizzare la somiglianza di incorporamento da documenti di testo utilizzando i grafici t-SNE Questo blocco note mostra come visualizzare la somiglianza di incorporamento dai documenti di testo utilizzando i grafici t-SNE. Utilizza un set di dati di recensioni di film del [set di dati IMDB](https://datasets.imdbws.com/). |
|
Ricerca vettoriale con incorporamenti di testo |
Introduzione a Text Embeddings + Vertex AI Vector Search Questo notebook fornisce un'introduzione agli embedding di testo e a come utilizzarli con la ricerca vettoriale di Vertex AI. Copre le nozioni di base sugli embedding di testo, su come addestrarli e su come utilizzarli per eseguire la ricerca vettoriale. |
|
Ricerca vettoriale degli incorporamenti |
Guida introduttiva a Vertex AI Vector Search Questo blocco note è una guida rapida per l'utilizzo di Vertex AI Vector Search. Copre le nozioni di base della ricerca vettoriale, tra cui come creare un indice vettoriale, come caricare i dati nell'indice e come eseguire query di ricerca vettoriale. |
|
Generazione di immagini con Imagen 3 |
Generazione di immagini con Imagen su Vertex AI In questo blocco note, esplorerai le funzionalità di generazione di immagini Imagen utilizzando l'SDK Vertex AI per Python e Modelli Imagen 3 standard e a bassa latenza. Scopri di più sulla funzionalità di generazione di immagini di Imagen. |
|
Generazione di immagini Imagen 2 |
Generazione di immagini con Imagen su Vertex AI In questo blocco note, esplorerai le funzionalità di generazione di immagini Imagen utilizzando l'SDK Vertex AI per Python. Scopri di più sulla funzionalità di generazione di immagini di Imagen. |
|
Generazione di immagini di Imagen 3 |
Creare asset visivi di alta qualità con Imagen 3 e Gemini 1.5 Pro In questo blocco note, crei asset visivi di alta qualità per il menu di un ristorante utilizzando Imagen 3 e Gemini 1.5 Pro. Scopri di più sulla generazione di immagini e sui modelli multimodali. |
|
Modifica delle immagini di Imagen 2 |
In questo blocco note, esplorerai le funzionalità di modifica delle immagini Imagen utilizzando l'SDK Vertex AI per Python. |
|
Imagen Imagen Visual Question Answering (VQA) |
Risposta a domande visive (VQA) con Imagen su Vertex AI Questo notebook mostra come utilizzare Imagen per generare immagini che rispondono a determinate domande. Mostra anche come eseguire il deployment di un modello in Vertex AI e utilizzarlo per generare immagini in risposta alle domande fornite dall'utente. |
|
Generazione di didascalie per le immagini Imagen |
Sottotitoli codificati visivi con Imagen su Vertex AI Questo notebook mostra come utilizzare Imagen, un modello linguistico di grandi dimensioni per la generazione di immagini, per generare didascalie per le immagini. Mostra anche come eseguire il deployment del modello su Vertex AI. |
Passaggi successivi
- Scopri di più su LLM, Vertex AI e modelli PaLM con i tutorial sui notebook.
- Esplora altre risorse nel repository GitHub dell'IA generativa.
- Consulta altri tutorial sui notebook Vertex AI nella Panoramica dei tutorial.