Tutorial sui blocchi note per l'IA generativa di Vertex AI

Questo documento contiene un elenco di tutorial sui blocchi note per l'IA generativa su Vertex AI. Sono tutorial end-to-end che mostrano come utilizzare alcuni degli LLM di IA generativa.

  • Casi d'uso multimodali con Gemini

    Esplora vari casi d'uso con la multimodalità con Gemini.

    Colab | Colab Enterprise | GitHub

  • chiamate di funzione con l'API Gemini di Vertex AI e SDK Python

    Utilizza l'API Vertex AI Gemini con SDK Vertex AI per Python per effettuare chiamate di funzione utilizzando il metodo Modello Gemini 1.0 Pro (gemini-1.0-pro).

    Colab | Colab Enterprise | GitHub

  • Inizia a utilizzare il grounding con Gemini in Vertex AI

    Utilizza i modelli di testo generativi per generare contenuti basati sui tuoi documenti e dati.

    Colab | Colab Enterprise | GitHub

Elenco dei tutorial

Filtra per:
Gemini Multimodal

Introduzione a Gemini 1.5 Pro

Utilizza Gemini 1.5 Pro per analizzare file audio, comprendere i video, estrarre informazioni da un PDF ed elaborare contemporaneamente più tipi di contenuti multimediali.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Gemini Multimodal

Analizzare un codebase

Usa questo blocco note per imparare a generare codice, riassumere un codebase, eseguire il debug, migliorare il codice e valutare il codice con Gemini 1.5 Pro.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Gemini Multimodal

Inizia a utilizzare Gemini (cUrl)

Utilizza l'API Gemini, che ti consente di accedere agli ultimi modelli linguistici di grandi dimensioni di Google, con REST/curl.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Gemini Multimodal

Inizia a utilizzare Gemini (SDK Python)

Utilizza l'API Gemini, che ti consente di accedere agli ultimi modelli linguistici di grandi dimensioni di Google, con l'SDK Vertex AI per Python.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Multimodale Gemini

Casi d'uso multimodali con Gemini

Il modello Gemini è un rivoluzionario modello linguistico multimodale sviluppato dall'IA di Google, in grado di estrarre informazioni significative da una vasta gamma di formati di dati, tra cui immagini e video. Questo notebook esplora vari casi d'uso con prompt multimodali.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Valutazione di Gemini

Introduzione al servizio di valutazione dell'IA generativa nell'SDK Vertex AI per Python

Utilizza l'SDK Gen AI Evaluation Service per valutare il modello Gemini in un'attività di valutazione con l'SDK Vertex AI per Python.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Valutazione di Gemini

Progettazione, valutazione e creazione di modelli di prompt con Gemini

Utilizza l'SDK Gen AI Evaluation Service per il prompt engineering e la valutazione con il modello Gemini tramite l'SDK Vertex AI per Python.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Valutazione di Gemini

Confrontare e selezionare i modelli generativi

Utilizza l'SDK del servizio di valutazione dell'IA generativa per confrontare e valutare diversi modelli generativi in un'attività di valutazione specifica, quindi visualizza e confronta i risultati della valutazione per l'attività con l'SDK Vertex AI per Python.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Valutazione di Gemini

Valutare e confrontare le impostazioni di generazione del modello Gemini

Utilizza l'SDK del servizio di valutazione dell'IA generativa per valutare e selezionare la temperatura e altre configurazioni di generazione di modelli di Gemini e confrontare i risultati delle metriche di diverse impostazioni di generazione con l'SDK Vertex AI per Python.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Valutazione di Gemini

Eseguire il confronto e la migrazione da PaLM al modello Gemini

Questo notebook illustra come utilizzare l'SDK di Gen AI Evaluation Service per valutare i modelli di base PaLM e Gemini con più metriche di valutazione, al fine di supportare le decisioni relative alla migrazione da un modello all'altro. Queste metriche vengono visualizzate per aiutarti a comprendere i punti di forza e di debolezza di ciascun modello e, in ultima analisi, a prendere una decisione consapevole su quale sia il modello più adatto ai requisiti specifici del tuo caso d'uso.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Valutazione di Gemini

Guida alla migrazione dall'anteprima dell'SDK del servizio di valutazione dell'IA generativa a GA

In questo tutorial otterrai indicazioni dettagliate su come eseguire la migrazione dalla versione di anteprima all'ultima versione GA dell'SDK Vertex AI per Python per Gen AI Evaluation Service per valutare la RAG (Retrieval-Augmented Generation) e confrontare due modelli affiancati (SxS).

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Valutazione di Gemini

Valuta e confronta le impostazioni di generazione del modello Gemini

Utilizza l'SDK Gen AI Evaluation Service per valutare e selezionare la temperatura e altre configurazioni di generazione del modello di Gemini e confrontare i risultati delle metriche delle diverse impostazioni di generazione, con l'SDK Vertex AI per Python.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Valutazione di Gemini

Personalizza le metriche basate su modelli per valutare un modello di IA generativa

Utilizza l'SDK Gen AI Evaluation Service per personalizzare le metriche basate su modello e valutare un modello di IA generativa in base ai tuoi criteri con l'SDK Vertex AI per Python.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Valutazione di Gemini

Utilizza le metriche personalizzate per valutare un modello di IA generativa

Utilizza l'SDK Gen AI Evaluation Service per valutare i modelli di IA generativa con metriche personalizzate definite a livello locale e utilizza il tuo modello di valutazione automatica per eseguire la valutazione delle metriche basata sul modello con l'SDK Vertex AI per Python.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Valutazione di Gemini

Sfrutta le tue metriche personalizzate basate sul calcolo per valutare un modello di IA generativa

Utilizza l'SDK Gen AI Evaluation Service per valutare i modelli di IA generativa con le metriche personalizzate basate sul calcolo definite localmente, con l'SDK Vertex AI per Python.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Valutazione di Gemini

Valutare la qualità delle chiamate alle funzioni del modello Gemini 1.0 Pro

Genera chiamate di funzione con il modello Gemini 1.0 Pro e utilizza l'SDK Gen AI Evaluation Service per valutare la qualità delle chiamate di funzione del modello Gemini 1.0 Pro con l'SDK Vertex AI per Python.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Valutazione di Gemini

Valutare le risposte generate dalla Retrieval-Augmented Generation (RAG) per la risposta alle domande con l'SDK Gen AI Evaluation Service

Utilizza l'SDK Gen AI Evaluation Service per valutare le risposte generate con la generazione basata sul recupero (RAG) per un'attività di risposta alle domande (QA) con l'SDK Vertex AI per Python.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Gemini multimodale - Streamlit

Esegui il deployment di un'app Streamlit in Cloud Run con Gemini Pro

App di esempio per il deployment di una semplice app di chatbot utilizzando Streamlit in Cloud Run con Gemini Pro.

Visualizza su GitHub

Retrieval-Augmented Generation multimodale di Gemini

RAG multimodale

A partire dall'RAG, che viene tradizionalmente eseguito sui dati di testo, questo notebook mostra come eseguire l'RAG su dati multimodali per rispondere a domande in un articolo scientifico contenente testo e immagini.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Multimodale Gemini

Utilizzare Gemini in ambito didattico

Utilizzo del modello Gemini nell'istruzione, con vari esempi di prompt e in diverse modalità, tra cui immagini e video.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Gemini Multimodal

Utilizzare Gemini per i consigli di vendita al dettaglio multimodali

Nel mondo del retail, i consigli svolgono un ruolo fondamentale nell'influenzare le decisioni dei clienti e vendite. In questo notebook, scoprirai come sfruttare la potenza della multimodalità per fornire consigli di vendita al dettaglio per aiutare un cliente a scegliere la sedia migliore tra quattro immagini di sedie, in base a un'immagine del suo salotto.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Chiamata di funzioni multimodali di Gemini

Introduzione alle chiamate di funzione con Gemini

Utilizza il modello Gemini Pro per:

  • Generare chiamate di funzione da un prompt di testo per ottenere le previsioni meteo per una determinata località
  • Generare chiamate di funzione da un prompt di testo e chiamare un'API esterna per geocodificare gli indirizzi
  • Generare chiamate di funzione da un prompt di chat per aiutare gli utenti retail

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Ottimizzazione

Ottimizzare i modelli di base con Vertex AI

Segui l'intera procedura di configurazione e integrazione. Da dell'ambiente di configurazione, alla selezione di base del modello dell'ottimizzazione con Vertex AI.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Valutazione

Servizi di valutazione di LLM di Vertex AI

Utilizza i servizi di valutazione LLM di Vertex AI in combinazione con altri servizi Vertex AI.

Visualizza su GitHub

LangChain

Conduci una catena Langchain

Gestisci una catena LangChain e stampa i dettagli di ciò che accade in ogni passaggio della catena e con punti di interruzione di debug facoltativi.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Testo

Formazione avanzata sull'ingegneria dei prompt

Usa la catena di pensiero e reazione (ragionamento e azione) per progettare dei prompt e ridurre le allucinazioni.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Incorporamenti

Utilizzare Vertex AI Embeddings per la ricerca multimodale e vettoriale

Crea incorporamenti da testo a immagine utilizzando il set di dati DiffusionDB e il modello Vertex AI Embeddings per multimodali. Gli incorporamenti vengono caricati nel servizio di ricerca vettoriale, una soluzione a larga scala e bassa latenza per trovare vettori simili per un corpus di grandi dimensioni.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Incorporamenti

Ricerca semantica mediante incorporamenti

Crea un embedding generato dal testo ed esegui una ricerca semantica. Gli incorporamenti vengono generati utilizzando Google ScaNN: ricerca vettoriale efficiente per la somiglianza.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Valutazione

AutoSxS: valuta un LLM in Vertex AI Model Registry rispetto a un modello di terze parti

Usa Vertex AI automatico affiancato (AutoSxS) per valutare le prestazioni di un modello di IA generativa nel registro dei modelli di Vertex AI e un modello linguistico di terze parti.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Valutazione

AutoSxS: verifica l'allineamento dell'autoregista rispetto a un set di dati con preferenze umane

Utilizza la funzionalità Automatic Side-by-Side (AutoSxS) di Vertex AI per determinare il grado di corrispondenza dello strumento di valutazione automatica con i valutatori umani.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Ottimizzazione

Apprendimento per rinforzo con feedback umano di Vertex AI LLM

Utilizza Vertex AI RLHF per ottimizzare un modello linguistico di grandi dimensioni (LLM). Questo flusso di lavoro migliora l'accuratezza di un modello perfezionando un modello di base con un set di dati di addestramento.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Ottimizzazione

Inferenza batch di Vertex AI con modelli ottimizzati con RLHF

Questo tutorial mostra come eseguire l'inferenza su modelli LLM (LLM) ottimizzati per RLHF con Vertex AI.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Incorporamenti

API Text Embedding

Prova i nuovi modelli di embedding del testo.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Ottimizzazione

Ottimizzazione di un modello PEFT con Vertex AI

Ottimizza un modello linguistico di grandi dimensioni (LLM) PEFT ed effettua una previsione. Questo flusso di lavoro migliora l'accuratezza di un modello perfezionando un modello di base con un set di dati di addestramento.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Testo

Utilizzare l'SDK Vertex AI con i modelli linguistici di grandi dimensioni

Utilizzare l'SDK Vertex AI per eseguire modelli linguistici di grandi dimensioni (LLM) su Vertex AI. Testa, ottimizza ed esegui il deployment di modelli linguistici di AI generativa. Inizia esplorando esempi di riepilogo dei contenuti, analisi del sentiment, chat, incorporamento del testo e ottimizzazione dei prompt.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Indicizzazione dei datastore della conversazione di ricerca

Controllo dello stato del datastore di Vertex AI Search and Conversation

Lo strumento di controllo dello stato del datastore di Vertex AI Search and Conversation è un blocco note che utilizza l'API Cloud Discovery Engine per controllare la presenza di documenti indicizzati in un datastore. Consente all'utente di eseguire le seguenti attività:

  • Controlla lo stato di indicizzazione dell'ID datastore specificato.
  • Elenca tutti i documenti in un determinato ID datastore.
  • Elenca tutti gli URL indicizzati per un determinato ID datastore.
  • Cerca un URL specifico in tutti gli URL indicizzati all'interno di un determinato ID del Data Store.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Chirp di riconoscimento vocale

Guida introduttiva a Chirp su Google Cloud

Questo notebook è un'introduzione a Chirp, un servizio di conversione da voce a testo che utilizza la tecnologia di riconoscimento vocale all'avanguardia di Google. Fornisce un'interfaccia semplice e facile da usare per consentire agli sviluppatori di creare applicazioni basate sulla voce.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Filtra ricerca metadati

Vertex AI Search con filtri e metadati

Vertex AI Search è un servizio completamente gestito che ti consente di creare e implementare applicazioni di ricerca su Google Cloud. Questo blocco note mostra come utilizzare i filtri e i metadati nelle richieste di ricerca a Vertex AI Search.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Document Question-answering - Generazione potenziata del recupero

Domande e risposte su un documento con una generazione aumentata per il recupero

Questo notebook mostra come utilizzare la Retrieval Augmented Generation (RAG) per creare un sistema di risposta alle domande per la documentazione di Google. Mostra come utilizzare la RAG per generare un testo che risponda a una determinata domanda e come utilizzare la RAG per migliorare le prestazioni di un sistema di risposta alle domande.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Ricerca di recupero della generazione di contratti

Retrieval Augmented Generation (utilizzando Open Source Vector Store) - Analista dei contratti di approvvigionamento - Palm2 e LangChain

Questo notebook mostra come utilizzare la generazione basata sul recupero per generare il testo del contratto. Utilizza i modelli Palm2 e LangChain, preaddestrati su grandi corpora di testo legale e finanziario.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

LangChain di ricerca con generazione basata sul recupero per la risposta alle domande

Risposta a domande sui documenti

Questo notebook mostra come porre e rispondere a domande sui tuoi dati combinando un motore di ricerca Vertex AI con LLM. In particolare, ci concentriamo sulle query "non strutturati" come PDF e file HTML. Per eseguire questo notebook, devi aver creato un motore di ricerca non strutturato e aver importato documenti PDF o HTML.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Domande in blocco su Vertex AI Search - Question-answering Search

Risposta collettiva alle domande con Vertex AI Search

Questo blocco note mostra come rispondere alle domande da un file CSV utilizzando un datastore di Vertex AI Search. Può essere eseguito in Colab o Vertex AI Workbench.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Orchestrazione linguistica: LangChain PaLM

Introduzione a LangChain 🦜️🔗 + API PaLM

Questo blocco note fornisce un'introduzione a LangChain, un framework di orchestrazione di modelli linguistici. Mostra come utilizzare LangChain con l'API PaLM per creare ed eseguire il deployment di un modello di generazione da testo a testo.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

LangChain di BigQuery Data Loader

Come utilizzare il caricatore di dati BigQuery di LangChain 🦜️🔗

Questo notebook mostra come utilizzare il caricatore di dati BigQuery di LangChain per caricare i dati da BigQuery in un modello LangChain. Il notebook fornisce istruzioni dettagliate su come configurare il caricatore di dati, caricare i dati nel modello e addestrare il modello.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Codice Generazione di codice Generazione basata sul recupero Codey

Utilizzare la Retrieval Augmented Generation (RAG) con le API Codey

Questo notebook mostra come utilizzare la Retrieval Augmented Generation (RAG) con le API Codey. RAG è una tecnica che combina il recupero del codice con la generazione del codice per produrre suggerimenti di completamento del codice più accurati e informativi.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Linguaggio di generazione codice Codey

Iniziare a utilizzare le API Vertex AI Codey - Generazione del codice

Questo blocco note fornisce un'introduzione alle API Vertex AI Codey per la generazione del codice. Copre le nozioni di base su come utilizzare le API, tra cui come creare ed eseguire il deployment di modelli di generazione di codice e come utilizzarli per generare codice.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Completamento del codice Codey - Generazione del codice

Introduzione alle API Codey di Vertex AI - Completamento del codice

Questo notebook mostra come utilizzare le API Vertex AI Codey per ricevere suggerimenti di completamento del codice per il codice Python. Inoltre, mostra come utilizzare le API per generare e eseguire snippet di codice in un ambiente remoto.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Chat Codey - Chat del codice - Generazione di codici - Generazione di testi

Introduzione alle API Codey di Vertex AI - Code Chat

Questo blocco note è un'introduzione alle API Vertex AI Codey. Copre le nozioni di base su come utilizzare le API, tra cui come creare e implementare i modelli e come interagire con loro utilizzando Codey CLI.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

SDK Python PaLM del linguaggio

Introduzione all'API PaLM e all'SDK Python

Questo blocco note fornisce un'introduzione all'API PaLM e all'SDK per Python. Descrive le nozioni di base su come utilizzare l'API, tra cui come creare ed eseguire il deployment dei modelli e come utilizzare l'API per generare testo, tradurre lingue e scrivere diversi tipi di contenuti creativi.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Prompt relativi alla lingua

Progettazione dei prompt - Best practice

Questo blocco note fornisce un'introduzione alla progettazione di prompt per i modelli linguistici basati su testo. Illustra le nozioni di base sui prompt, incluso il loro funzionamento e come scriverli. Il blocco note fornisce anche suggerimenti su come migliorare i prompt ed evitare gli errori più comuni.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Estrazione di testo

Estrazione del testo con i modelli generativi su Vertex AI

Questo blocco note mostra come utilizzare i modelli generativi per estrarre testo dalle immagini. Utilizza il modello di conversione da testo a immagine della libreria di IA generativa di Vertex AI e il modello di estrazione del testo della libreria di estrazione del testo di Vertex AI.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Classificazione del testo

Classificazione di testo con modelli generativi su Vertex AI

Questo blocco note mostra come utilizzare i modelli generativi per eseguire la classificazione del testo su Vertex AI. e tratta i seguenti argomenti: * Preparazione dei dati * Addestramento di un modello * Il deployment di un modello * Usare un modello per classificare il testo

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Reazione della catena di pensiero

Chain of Thought e ReAct

Questo blocco note presenta Chain of Thought and ReAct, due strumenti che possono essere utilizzati per migliorare le prestazioni degli algoritmi di apprendimento per rinforzo. La catena di pensiero è una tecnica che può essere utilizzata per migliorare l'efficienza dell'iterazione del valore, mentre ReAct è una tecnica che può essere utilizzata per migliorare la stabilità degli algoritmi attore-critico.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Ideazione dei prompt di linguaggio

Ideazione con modelli generativi su Vertex AI

Questo blocco note mostra come utilizzare modelli generativi per generare testo, immagini e codice. Inoltre, mostra come utilizzare Vertex AI per eseguire il deployment e gestire i modelli generativi.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Riassunto

Riassunto di testi con modelli generativi su Vertex AI

Questo blocco note mostra come utilizzare Vertex AI per addestrare ed eseguire il deployment di un modello di riassunto del testo. Utilizza il modello BART, un modello linguistico di grandi dimensioni (LLM) preaddestrato su un enorme set di dati di testo. Il modello viene poi ottimizzato su un set di dati di riepiloghi di testo e può essere utilizzato per generare riepiloghi di nuovo testo.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Risposta a domande

Risposta alle domande con i modelli generativi su Vertex AI

Questo notebook mostra come utilizzare i modelli generativi per rispondere a domande aperte. Utilizza il modello Transformer di Vertex AI per generare testo in base a una determinata domanda.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Deployment dell'ottimizzazione del modello di base per la generazione di testo

Ottimizzazione ed deployment di un modello di base

Questo blocco note mostra come ottimizzare un modello di base utilizzando Vertex AI. Mostra anche come eseguire il deployment del modello ottimizzato su un endpoint Vertex AI.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Document-summarization Summarization

Riassunto di documenti di grandi dimensioni

Questo notebook mostra come utilizzare il modello t5 large per riassumere documenti di grandi dimensioni. Il modello viene addestrato su un enorme set di dati di testo e codice e può generare riassunti sia precisi che concisi.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Riassunto di documenti - Riassunto LangChain

Riassunto testuale di documenti di grandi dimensioni con LangChain 🦜🔗

Questo blocco note mostra come utilizzare il modello LangChain per riassumere documenti di grandi dimensioni. LangChain è un modello linguistico di grandi dimensioni (LLM) in grado di generare testi, tradurre lingue, scrivere diversi tipi di contenuti creativi e rispondere alle tue domande in modo informativo.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Document-summarization Document AI Language-model Summarization Text-summarization

Riassumi documenti di grandi dimensioni utilizzando le API Document AI e PaLM

Questo notebook mostra come utilizzare le API Document AI e PaLM per riassumere documenti di grandi dimensioni. Mostra anche come utilizzare l'API Document AI per estrarre entità e frasi chiave da un documento.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Generazione di testo dei chatbot

GroceryBot, un assistente per ricette e acquisti di generi alimentari di esempio - RAG + ReAct

Questo blocco note riguarda un esempio di assistente per la spesa e le ricette che utilizza RAG e ReAct. Può aiutarti a trovare ricette, creare liste della spesa e rispondere a domande sul cibo.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

LangChain per il question answering e la valutazione della qualità dei documenti

Risposta alle domande con documenti di grandi dimensioni utilizzando LangChain 🦜🔗

Questo blocco note mostra come utilizzare il modello LangChain per creare un sistema di question answering in grado di rispondere a domande su documenti lunghi. Il modello viene addestrato su un grande corpus di testo e può essere utilizzato per rispondere a domande su qualsiasi argomento.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Ricerca vettoriale LangChain Question-answering Document-QA LangChain

Risposta alle domande con i documenti utilizzando LangChain 🦜️🔗 e Vertex AI Vector Search

Questo notebook mostra come utilizzare LangChain e Vertex AI Vector Search (in precedenza Matching Engine) per creare un sistema di risposta alle domande per i documenti. Il sistema può rispondere a domande su entità, date e numeri nei documenti.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

PaLM per la risposta alle domande di Document AI

Risposta alle domande con Documenti utilizzando Document AI, Pandas e PaLM

Questo notebook mostra come utilizzare Document AI, Pandas e PaLM per creare un sistema di risposta alle domande. Utilizza prima Document AI per estrarre dati strutturati da un documento, poi usa Pandas per creare un dataframe dai dati estratti e infine usa PaLM per generare risposte alle domande sui dati.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

QA del documento per la risposta alle domande

Risposta alle domande con documenti di grandi dimensioni

Questo blocco note mostra come utilizzare il servizio di risposta alle domande di Vertex AI per creare un modello di question answering in grado di rispondere a domande da documenti di grandi dimensioni. Il modello è addestrato su un set di dati di articoli di Wikipedia e può rispondere a domande su una serie di argomenti.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Generazione di immagini

Generatore di descrizione prodotto dall'immagine

Questo notebook mostra come generare descrizioni dei prodotti dalle immagini utilizzando un modello di conversione da testo a immagine. Il modello viene addestrato su un set di dati di immagini dei prodotti e delle relative descrizioni.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

LangChain per la vendita al dettaglio di generazione

DescriptionGen: generazione di descrizioni dei prodotti ottimizzate per la SEO per la vendita al dettaglio utilizzando LangChain 🦜🔗

Questo notebook mostra come utilizzare il modello LangChain per generare descrizioni dei prodotti ottimizzate per la SEO per la vendita al dettaglio. Il modello utilizza come input un elenco di attributi del prodotto e genera una breve descrizione che evidenzia le caratteristiche chiave del prodotto.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Generazione di testo di BigQuery DataFrames

BigQuery DataFrames ML: generazione di nomi di farmaci

Questo blocco note mostra come utilizzare BigQuery DataFrames ML per generare nomi di farmaci. Utilizza un modello linguistico preaddestrato per generare il testo e poi filtra i risultati per rimuovere i nomi dei farmaci già in uso.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Generazione del codice di BigQuery DataFrames

Utilizzare BigQuery DataFrames con l'IA generativa per la generazione di codice

Questo blocco note mostra come utilizzare BigQuery DataFrames con l'IA generativa per la generazione di codice. Mostra come utilizzare un modello linguistico preaddestrato per generare codice che trasforma una tabella BigQuery in un DataFrame Pandas.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Modello linguistico BigQuery

Utilizzare i modelli LLM di Vertex AI con i dati in BigQuery

Questo blocco note mostra come utilizzare gli LLM di Vertex AI con i dati in BigQuery. Mostra come caricare i dati da BigQuery, creare un modello LLM e quindi utilizzare il modello per generare testo in base ai dati.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Visualizzazione della somiglianza degli incorporamenti

Visualizzare la somiglianza di incorporamento da documenti di testo utilizzando i grafici t-SNE

Questo blocco note mostra come visualizzare la somiglianza di incorporamento dai documenti di testo utilizzando i grafici t-SNE. Utilizza un set di dati di recensioni di film del [set di dati IMDB](https://datasets.imdbws.com/).

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Ricerca vettoriale con incorporamenti di testo

Introduzione a Text Embeddings + Vertex AI Vector Search

Questo notebook fornisce un'introduzione agli embedding di testo e a come utilizzarli con la ricerca vettoriale di Vertex AI. Copre le nozioni di base sugli embedding di testo, su come addestrarli e su come utilizzarli per eseguire la ricerca vettoriale.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Ricerca vettoriale degli incorporamenti

Guida introduttiva a Vertex AI Vector Search

Questo blocco note è una guida rapida per l'utilizzo di Vertex AI Vector Search. Copre le nozioni di base della ricerca vettoriale, tra cui come creare un indice vettoriale, come caricare i dati nell'indice e come eseguire query di ricerca vettoriale.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Generazione di immagini con Imagen 3

Generazione di immagini con Imagen su Vertex AI

In questo blocco note, esplorerai le funzionalità di generazione di immagini Imagen utilizzando l'SDK Vertex AI per Python e Modelli Imagen 3 standard e a bassa latenza. Scopri di più sulla funzionalità di generazione di immagini di Imagen.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Generazione di immagini Imagen 2

Generazione di immagini con Imagen su Vertex AI

In questo blocco note, esplorerai le funzionalità di generazione di immagini Imagen utilizzando l'SDK Vertex AI per Python. Scopri di più sulla funzionalità di generazione di immagini di Imagen.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Generazione di immagini di Imagen 3

Generazione di testo di Gemini 1.5 Pro

Formattazione del testo in uscita di Gemini 1.5 Pro

Creare asset visivi di alta qualità con Imagen 3 e Gemini 1.5 Pro

In questo blocco note, crei asset visivi di alta qualità per il menu di un ristorante utilizzando Imagen 3 e Gemini 1.5 Pro. Scopri di più sulla generazione di immagini e sui modelli multimodali.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Modifica delle immagini di Imagen 2

Creare asset visivi di alta qualità con Imagen 2 Modifica utilizzando le aree con maschere generate automaticamente

In questo blocco note, esplorerai le funzionalità di modifica delle immagini Imagen utilizzando l'SDK Vertex AI per Python.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Imagen Imagen Visual Question Answering (VQA)

Risposta a domande visive (VQA) con Imagen su Vertex AI

Questo notebook mostra come utilizzare Imagen per generare immagini che rispondono a determinate domande. Mostra anche come eseguire il deployment di un modello in Vertex AI e utilizzarlo per generare immagini in risposta alle domande fornite dall'utente.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Generazione di didascalie per le immagini Imagen

Sottotitoli codificati visivi con Imagen su Vertex AI

Questo notebook mostra come utilizzare Imagen, un modello linguistico di grandi dimensioni per la generazione di immagini, per generare didascalie per le immagini. Mostra anche come eseguire il deployment del modello su Vertex AI.

Apri in Colab

Apri in Colab Enterprise

Visualizza su GitHub

Passaggi successivi