Scopri di più su LLM, modelli Gemini e Vertex AI

I modelli linguistici di grandi dimensioni (LLM) sono modelli di deep learning addestrati su quantità enormi dei dati di testo. Gli LLM possono tradurre un linguaggio, riassumere testi, riconoscere oggetti e testo nelle immagini e completa i motori di ricerca e sistemi di consigli.

Google offre la tecnologia Gemini famiglia di modelli di AI generativa progettati per casi d'uso multimodali; in grado di l'elaborazione delle informazioni da varie modalità, tra cui immagini, video, e testo.

Per visualizzare altre risorse di apprendimento, sfoglia il repository GitHub dell'IA generativa. Dati di Google scienziati, sviluppatori e sostenitori degli sviluppatori gestiscono questi contenuti.

Inizia

Ecco alcuni blocchi note, tutorial e altre esempi per aiutarti a iniziare. Vertex AI offre la console Google Cloud e sui blocchi note Jupyter che utilizzano l'SDK Vertex AI per Python. Tu puoi aprire un tutorial sul blocco note in Colab o scaricarlo sul tuo preferito completamente gestito di Google Cloud.

Inizia a utilizzare Gemini

Inizia a utilizzare Gemini

Il modello Gemini è un rivoluzionario modello linguistico multimodale sviluppato dall'IA di Google, in grado di estrarre informazioni approfondimenti provenienti da una vasta gamma di formati di dati, tra cui immagini e video. Questo blocco note esplora vari casi d'uso con prompt multimodali.

Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter.
Esegui in Colab | Visualizza su GitHub

Inizia a utilizzare Vertex AI Vertex AI Studio

Logo di GenAI Studio

Usa Vertex AI Studio tramite la console Google Cloud senza la necessità dell'API o dell'SDK Vertex AI per Python.

Visualizza su GitHub

Best practice per la progettazione dei prompt

Logo Model Garden

Scopri come progettare prompt per migliorare la qualità delle risposte a partire dal modello. Questo tutorial illustra gli elementi essenziali della e il machine learning, incluse alcune best practice.

Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter.
Esegui in Colab | Visualizza su GitHub

LangChain 🦜️🔗

LangChain è un framework per lo sviluppo di applicazioni basate su LLM come Modelli Gemini. Utilizza LangChain per trasferire dati esterni, come i file o altri e dati delle API ai tuoi LLM.

Per scoprire di più su LangChain e su come funziona con Vertex AI, consulta la documentazione ufficiale di LangChain e Vertex AI.

RAG (Multimodal Retrieval Augmented Generation) con Gemini, Vector Search e LangChain

RAG (Multimodal Retrieval Augmented Generation) con Gemini, Vector Search e LangChain

RAG (Retrieval Augmented Generation) è diventato un paradigma popolare per consentire agli LLM di accedere a dati esterni e anche come meccanismo per per mitigare le allucinazioni.

Scopri come eseguire una RAG multimodale in cui eseguire domande e risposte su un documento finanziario pieno di testo e immagini.

Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter.
Esegui in Colab | Visualizza su GitHub

Aumenta la generazione di domande e risposte con LangChain 🦜️🔗 e BigQuery Vector Search

Aumenta la generazione di domande e risposte con LangChain 🦜️🔗 e BigQuery Vector Search

Scopri come implementare un sistema di question answering (QA) per migliorare un modello LLM risposta aumentando le conoscenze dell'LLM con origini dati esterne come i documenti. Questo esempio utilizza Vertex AI Gemini 1.0 Pro per testo, rappresentazioni distribuite per l'API di testo, BigQuery Vector Search e LangChain

Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter.
Esegui in Colab | Visualizza su GitHub

Passaggi successivi