Scopri di più sugli LLM, sui modelli Gemini e su Vertex AI

I modelli linguistici di grandi dimensioni (LLM) sono modelli di deep learning addestrati su enormi quantità di dati di testo. Gli LLM possono tradurre la lingua, riassumere il testo, riconoscere oggetti e testo nelle immagini e integrare i motori di ricerca e i sistemi di consigli.

Google offre la tecnologia Gemini famiglia di modelli di AI generativa progettati per casi d'uso multimodali; in grado di l'elaborazione delle informazioni da varie modalità, tra cui immagini, video, e testo.

Per visualizzare altre risorse di apprendimento, sfoglia il repository GitHub per l'IA generativa. Dati di Google scienziati, sviluppatori e sostenitori degli sviluppatori gestiscono questi contenuti.

Inizia

Ecco alcuni notebook, tutorial e altri esempi per aiutarti a iniziare. Vertex AI offre tutorial sulla console Google Cloud e tutorial sui Jupyter Notebook che utilizzano l'SDK Vertex AI per Python. Puoi aprire un tutorial del notebook in Colab o scaricarlo nell'ambiente che preferisci.

Inizia a utilizzare Gemini

Inizia a utilizzare Gemini

Il modello Gemini è un rivoluzionario modello linguistico multimodale sviluppato dall'IA di Google, in grado di estrarre informazioni approfondimenti provenienti da una vasta gamma di formati di dati, tra cui immagini e video. Questo notebook esplora vari casi d'uso con prompt multimodali.

Notebook Jupyter: puoi eseguire questo tutorial come notebook Jupyter.
Esegui in Colab | Visualizza su GitHub

Inizia a utilizzare Vertex AI Studio

Logo di Gen AI Studio

Utilizza Vertex AI Studio tramite la console Google Cloud senza dover utilizzare l'API o l'SDK Vertex AI per Python.

Visualizza su GitHub

Best practice per la progettazione dei prompt

Logo Model Garden

Scopri come progettare prompt per migliorare la qualità delle risposte del modello. Questo tutorial illustra gli elementi essenziali della e il machine learning, incluse alcune best practice.

Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter.
Esegui in Colab | Visualizza su GitHub

LangChain 🦜️🔗

LangChain è un framework per lo sviluppo di applicazioni basate su LLM come i modelli Gemini. Utilizza LangChain per trasferire dati esterni, come i file o altri e dati delle API ai tuoi LLM.

Per scoprire di più su LangChain e su come funziona con Vertex AI, consulta la documentazione ufficiale di LangChain e Vertex AI.

RAG (Retrieval Augmented Generation) multimodale con Gemini, ricerca vettoriale e LangChain

RAG (Multimodal Retrieval Augmented Generation) con Gemini, Vector Search e LangChain

RAG (Retrieval Augmented Generation) è diventato un paradigma popolare per consentire agli LLM di accedere a dati esterni e anche come meccanismo per per mitigare le allucinazioni.

Scopri come eseguire una RAG multimodale in cui eseguire domande e risposte su un documento finanziario contenente testo e immagini.

Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter.
Esegui in Colab | Visualizza su GitHub

Migliorare la generazione di domande e risposte utilizzando LangChain 🦜️🔗 e la ricerca vettoriale di BigQuery

Migliorare la generazione di domande e risposte utilizzando LangChain 🦜️🔗 e la ricerca vettoriale di BigQuery

Scopri come implementare un sistema di question answering (QA) per migliorare un modello LLM risposta aumentando le conoscenze dell'LLM con origini dati esterne come i documenti. Questo esempio utilizza Vertex AI Gemini 1.0 Pro per il testo, l'API Embedding per il testo, la ricerca vettoriale di BigQuery e LangChain

Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter.
Esegui in Colab | Visualizza su GitHub

Passaggi successivi