I modelli linguistici di grandi dimensioni (LLM) sono modelli di deep learning addestrati su quantità enormi dei dati di testo. Gli LLM possono tradurre un linguaggio, riassumere testi, riconoscere oggetti e testo nelle immagini e completa i motori di ricerca e sistemi di consigli.
Google offre la tecnologia Gemini famiglia di modelli di AI generativa progettati per casi d'uso multimodali; in grado di l'elaborazione delle informazioni da varie modalità, tra cui immagini, video, e testo.
Per visualizzare altre risorse di apprendimento, sfoglia il repository GitHub dell'IA generativa. Dati di Google scienziati, sviluppatori e sostenitori degli sviluppatori gestiscono questi contenuti.
Inizia
Ecco alcuni blocchi note, tutorial e altre esempi per aiutarti a iniziare. Vertex AI offre la console Google Cloud e sui blocchi note Jupyter che utilizzano l'SDK Vertex AI per Python. Tu puoi aprire un tutorial sul blocco note in Colab o scaricarlo sul tuo preferito completamente gestito di Google Cloud.
Inizia a utilizzare Gemini
Il modello Gemini è un rivoluzionario modello linguistico multimodale sviluppato dall'IA di Google, in grado di estrarre informazioni approfondimenti provenienti da una vasta gamma di formati di dati, tra cui immagini e video. Questo blocco note esplora vari casi d'uso con prompt multimodali.
Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter. |
Inizia a utilizzare Vertex AI Vertex AI Studio
Usa Vertex AI Studio tramite la console Google Cloud senza la necessità dell'API o dell'SDK Vertex AI per Python. |
Best practice per la progettazione dei prompt
Scopri come progettare prompt per migliorare la qualità delle risposte dal modello. Questo tutorial illustra gli elementi essenziali della e il machine learning, incluse alcune best practice.
Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter. |
LangChain 🦜️🔗
LangChain è un framework per lo sviluppo di applicazioni basate su LLM come Modelli Gemini. Utilizza LangChain per trasferire dati esterni, come i file o altri e dati delle API ai tuoi LLM.
Per scoprire di più su LangChain e su come funziona con Vertex AI, consulta la documentazione ufficiale di LangChain e Vertex AI.
RAG (Multimodal Retrieval Augmented Generation) con Gemini, Vector Search e LangChain
RAG (Retrieval Augmented Generation) è diventato un paradigma popolare per consentire agli LLM di accedere a dati esterni e anche come meccanismo per per mitigare le allucinazioni. Scopri come eseguire una RAG multimodale in cui eseguire domande e risposte su un documento finanziario contenente testo e immagini.
Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter. |
Aumenta la generazione di domande e risposte con LangChain 🦜️🔗 e BigQuery Vector Search
Scopri come implementare un sistema di question answering (QA) per migliorare un modello LLM risposta aumentando le conoscenze dell'LLM con origini dati esterne come i documenti. Questo esempio utilizza Vertex AI Gemini 1.0 Pro per testo, rappresentazioni distribuite per l'API di testo, BigQuery Vector Search e LangChain
Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter. |
Passaggi successivi
- Esplora altre risorse nel repository GitHub per l'IA generativa.
- Consulta altri tutorial sui blocchi note di Vertex AI nella panoramica dei tutorial.