I modelli linguistici di grandi dimensioni (LLM) sono modelli di deep learning addestrati su enormi quantità di dati di testo. Gli LLM possono tradurre la lingua, riassumere il testo, riconoscere oggetti e testo nelle immagini e integrare i motori di ricerca e i sistemi di consigli.
Google offre la tecnologia Gemini famiglia di modelli di AI generativa progettati per casi d'uso multimodali; in grado di l'elaborazione delle informazioni da varie modalità, tra cui immagini, video, e testo.
Per visualizzare altre risorse di apprendimento, sfoglia il repository GitHub per l'IA generativa. Dati di Google scienziati, sviluppatori e sostenitori degli sviluppatori gestiscono questi contenuti.
Inizia
Ecco alcuni notebook, tutorial e altri esempi per aiutarti a iniziare. Vertex AI offre tutorial sulla console Google Cloud e tutorial sui Jupyter Notebook che utilizzano l'SDK Vertex AI per Python. Puoi aprire un tutorial del notebook in Colab o scaricarlo nell'ambiente che preferisci.
Inizia a utilizzare Gemini
Il modello Gemini è un rivoluzionario modello linguistico multimodale sviluppato dall'IA di Google, in grado di estrarre informazioni approfondimenti provenienti da una vasta gamma di formati di dati, tra cui immagini e video. Questo notebook esplora vari casi d'uso con prompt multimodali.
Notebook Jupyter: puoi eseguire questo tutorial come notebook Jupyter. |
Inizia a utilizzare Vertex AI Studio
Utilizza Vertex AI Studio tramite la console Google Cloud senza dover utilizzare l'API o l'SDK Vertex AI per Python. |
Best practice per la progettazione dei prompt
Scopri come progettare prompt per migliorare la qualità delle risposte del modello. Questo tutorial illustra gli elementi essenziali della e il machine learning, incluse alcune best practice.
Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter. |
LangChain 🦜️🔗
LangChain è un framework per lo sviluppo di applicazioni basate su LLM come i modelli Gemini. Utilizza LangChain per trasferire dati esterni, come i file o altri e dati delle API ai tuoi LLM.
Per scoprire di più su LangChain e su come funziona con Vertex AI, consulta la documentazione ufficiale di LangChain e Vertex AI.
RAG (Retrieval Augmented Generation) multimodale con Gemini, ricerca vettoriale e LangChain
RAG (Retrieval Augmented Generation) è diventato un paradigma popolare per consentire agli LLM di accedere a dati esterni e anche come meccanismo per per mitigare le allucinazioni. Scopri come eseguire una RAG multimodale in cui eseguire domande e risposte su un documento finanziario contenente testo e immagini.
Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter. |
Migliorare la generazione di domande e risposte utilizzando LangChain 🦜️🔗 e la ricerca vettoriale di BigQuery
Scopri come implementare un sistema di question answering (QA) per migliorare un modello LLM risposta aumentando le conoscenze dell'LLM con origini dati esterne come i documenti. Questo esempio utilizza Vertex AI Gemini 1.0 Pro per il testo, l'API Embedding per il testo, la ricerca vettoriale di BigQuery e LangChain
Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter. |
Passaggi successivi
- Esplora altre risorse nel repository GitHub per l'IA generativa.
- Consulta altri tutorial sui notebook Vertex AI nella Panoramica dei tutorial.