Scopri di più su LLM, modelli Gemini e Vertex AI

I modelli linguistici di grandi dimensioni (LLM) sono modelli di deep learning addestrati su quantità enormi dei dati di testo. Gli LLM possono tradurre un linguaggio, riassumere testi, riconoscere oggetti e testo nelle immagini e completa i motori di ricerca e sistemi di consigli.

Google offre la tecnologia Gemini famiglia di modelli di AI generativa progettati per casi d'uso multimodali; in grado di l'elaborazione delle informazioni da varie modalità, tra cui immagini, video, e testo.

Per visualizzare altre risorse di apprendimento, sfoglia il repository GitHub dell'IA generativa. Dati di Google scienziati, sviluppatori e sostenitori degli sviluppatori gestiscono questi contenuti.

Inizia

Ecco alcuni blocchi note, tutorial e altre esempi per aiutarti a iniziare. Vertex AI offre la console Google Cloud e sui blocchi note Jupyter che utilizzano l'SDK Vertex AI per Python. Tu puoi aprire un tutorial sul blocco note in Colab o scaricarlo sul tuo preferito completamente gestito di Google Cloud.

Inizia a utilizzare Gemini

Inizia a utilizzare Gemini

Il modello Gemini è un rivoluzionario modello linguistico multimodale sviluppato dall'IA di Google, in grado di estrarre informazioni approfondimenti provenienti da una vasta gamma di formati di dati, tra cui immagini e video. Questo blocco note esplora vari casi d'uso con prompt multimodali.

Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter.
Esegui in Colab | Visualizza su GitHub

Inizia a utilizzare Vertex AI Vertex AI Studio

Logo di GenAI Studio

Usa Vertex AI Studio tramite la console Google Cloud senza la necessità dell'API o dell'SDK Vertex AI per Python.

Visualizza su GitHub

Best practice per la progettazione dei prompt

Logo Model Garden

Scopri come progettare prompt per migliorare la qualità delle risposte dal modello. Questo tutorial illustra gli elementi essenziali della e il machine learning, incluse alcune best practice.

Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter.
Esegui in Colab | Visualizza su GitHub

LangChain 🦜️🔗

LangChain è un framework per lo sviluppo di applicazioni basate su LLM come Modelli Gemini. Utilizza LangChain per trasferire dati esterni, come i file o altri e dati delle API ai tuoi LLM.

Per scoprire di più su LangChain e su come funziona con Vertex AI, consulta la documentazione ufficiale di LangChain e Vertex AI.

RAG (Multimodal Retrieval Augmented Generation) con Gemini, Vector Search e LangChain

RAG (Multimodal Retrieval Augmented Generation) con Gemini, Vector Search e LangChain

RAG (Retrieval Augmented Generation) è diventato un paradigma popolare per consentire agli LLM di accedere a dati esterni e anche come meccanismo per per mitigare le allucinazioni.

Scopri come eseguire una RAG multimodale in cui eseguire domande e risposte su un documento finanziario contenente testo e immagini.

Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter.
Esegui in Colab | Visualizza su GitHub

Aumenta la generazione di domande e risposte con LangChain 🦜️🔗 e BigQuery Vector Search

Aumenta la generazione di domande e risposte con LangChain 🦜️🔗 e BigQuery Vector Search

Scopri come implementare un sistema di question answering (QA) per migliorare un modello LLM risposta aumentando le conoscenze dell'LLM con origini dati esterne come i documenti. Questo esempio utilizza Vertex AI Gemini 1.0 Pro per testo, rappresentazioni distribuite per l'API di testo, BigQuery Vector Search e LangChain

Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter.
Esegui in Colab | Visualizza su GitHub

Passaggi successivi