I modelli linguistici di grandi dimensioni (LLM) sono modelli di deep learning addestrati su enormi quantità di dati di testo. Gli LLM sono in grado di tradurre lingue, riepilogare il testo e integrare i motori di ricerca e i sistemi di suggerimenti. PaLM 2 è l'LLM di Google di nuova generazione che si basa sull'eredità di ricerca di Google nell'ambito del machine learning e dell'AI responsabile.
I modelli PaLM 2 eccellono per attività di ragionamento avanzate, classificazione e risposta alle domande, traduzione e generazione del linguaggio naturale. Le sue grandi dimensioni consentono di apprendere pattern e relazioni complessi nel linguaggio e generare testo di alta qualità per varie applicazioni. È per questo che i modelli PaLM 2 vengono denominati modelli di base.
Per utilizzare i modelli PaLM 2 in Vertex AI, Google ha sviluppato l'API Vertex AI PaLM. con l'API Vertex AI PaLM, puoi testare, personalizzare ed eseguire il deployment delle istanze dei modelli per le tue applicazioni e ottimizzarle utilizzando casi d'uso specifici.
Per visualizzare altre risorse di apprendimento, sfoglia il repository GitHub di IA generativa. I data scientist, gli sviluppatori e i consulenti per gli sviluppatori di Google gestiscono questi contenuti.
Inizia
Per iniziare, fai riferimento ad alcuni blocchi note, tutorial e altri esempi. Vertex AI offre tutorial sulla console Google Cloud e tutorial sul blocco note Jupyter che utilizzano l'SDK Vertex AI per Python. Puoi aprire un tutorial sul blocco note in Colab o scaricare il blocco note nell'ambiente che preferisci.
Inizia a utilizzare l'API Vertex AI PaLM e l'SDK Vertex AI per Python
![]() |
Scopri come utilizzare l'API PaLM con l'SDK Vertex AI per Python. Alla fine del blocco note, dovresti comprendere le varie sfumature dei parametri dei modelli generativi, come
Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter. |
Inizia a utilizzare Vertex AI Generative AI Studio
![]() |
Utilizza Generative AI Studio tramite la console Google Cloud senza bisogno dell'API o dell'SDK Vertex AI per Python. |
Best practice per la progettazione dei prompt
![]() |
Scopri come progettare prompt per migliorare la qualità delle risposte dal modello. Questo tutorial illustra gli elementi essenziali dell'ingegneria del prompt, incluse alcune best practice.
Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter. |
LangChain 🦜️🔗
LangChain è un framework per lo sviluppo di applicazioni basate su LLM come i modelli PaLM. Utilizza LangChain per trasferire dati esterni, come file, altre applicazioni e dati API, agli LLM.
Per scoprire di più su LangChain e sul suo funzionamento con Vertex AI, consulta la documentazione ufficiale di LangChain e Vertex AI.
API LangChain e Vertex AI PaLM
![]() |
Questo tutorial fornisce un'introduzione alla comprensione dei componenti di LangChain e alcuni casi d'uso comuni per lavorare con LangChain e l'API Vertex AI PaLM. Alcuni esempi e demo di questo tutorial includono:
Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter. |
Ottieni un riepilogo del testo da documenti di grandi dimensioni utilizzando LangChain
![]() |
Il riepilogo del testo è un'attività di elaborazione del linguaggio naturale (NLP) che crea un riepilogo conciso e informativo di un testo più lungo. Puoi utilizzare gli LLM per creare riepiloghi di articoli di notizie, articoli di ricerca, documenti tecnici e altri tipi di testo. In questo blocco note, utilizzi LangChain per applicare strategie di riepilogo. Il blocco note contiene diversi esempi di come riepilogare documenti di grandi dimensioni.
Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter. |
Rispondi alle domande da documenti di grandi dimensioni con LangChain
![]() |
Questo blocco note utilizza LangChain con l'API Vertex AI PaLM per creare un sistema di risposta alle domande che estrae informazioni da documenti di grandi dimensioni.
Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter. |
Rispondi alle domande dai documenti con LangChain e Matching Engine
![]() |
Questo blocco note mostra come implementare un sistema di domande e risposte (QA) che migliora la risposta LLM. Scopri come ampliare le sue conoscenze con origini dati esterne come documenti e siti web. Questo blocco note utilizza l'API Matching Engine, LangChain e Vertex AI PaLM per la creazione di testo e incorporamento.
Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter. |
Passaggi successivi
- Esplora altre risorse nel repository GitHub di IA generativa.
- Vedi altri tutorial su Vertex AI Notebooks nella panoramica dei tutorial.