Questa pagina documenta gli aggiornamenti di produzione di Generative AI su Vertex AI e Vertex AI Model Garden. Consulta periodicamente questa pagina per annunci sulle funzionalità nuove o aggiornate, correzioni di bug, problemi noti e funzionalità deprecate.
29 marzo 2024
È stato eseguito l'upgrade dell'infrastruttura del modello MedLM-large per migliorare la latenza e la stabilità. Le risposte del modello potrebbero essere leggermente diverse.
22 marzo 2024
I PDF sono ora supportati come input per il modello linguistico multimodale Gemini 1.0 Pro Vision. Puoi chiamare le API direttamente con i PDF o provarle in Vertex AI Studio. Per saperne di più, consulta Inviare richieste di prompt multimodali con immagini o PDF.
19 marzo 2024
I modelli Claude 3 Sonnet e Claude 3 Haiku di Anthropic su Vertex AI sono generalmente disponibili in Vertex AI.
I modelli gestiti Claude 3 Haiku e Claude 3 Sonnet di Anthropic sono disponibili su Vertex AI. Per utilizzare un modello Claude su Vertex AI, invia una richiesta direttamente all'endpoint APIPI Vertex AI. Per ulteriori informazioni, consulta Utilizzare i modelli Claude di Anthropic e le schede dei modelli Claude in Model Garden:
21 febbraio 2024
Sono disponibili i modelli open Gemma.
I modelli Gemma, una famiglia di modelli aperti leggeri creati sulla base della stessa ricerca e tecnologia utilizzata per creare i modelli Gemini, sono disponibili per l'esecuzione su hardware, dispositivi mobili o servizi ospitati. Per saperne di più, consulta Utilizzare i modelli open di Gemma e la scheda di Model Garden per il modello Gemma.
15 febbraio 2024
Modelli Vertex AI Gemini 1.0 Pro e Gemini 1.0 Pro Vision
I modelli linguistici multimodali Vertex AI Gemini 1.0 Pro e Gemini 1.0 Pro Vision sono disponibili a livello generale. Sono state rese disponibili anche nelle seguenti regioni: europe-west1, europe-west2, europe-west3, europe-west4 ed europe-west9.
Per maggiori informazioni, consulta i seguenti argomenti:
- Panoramica dell'API Gemini
- Progettazione di prompt multimodali
- Riferimento dell'API Vertex AI Gemini
- Riferimento all'SDK Gemini Python
- Eseguire la migrazione dall'API PaLM all'API Gemini
9 febbraio 2024
Il supporto video per gli embedding multimodali è disponibile a livello generale
Gli incorporamenti per i dati video sono ora disponibili a livello generale utilizzando il modello di incorporamento multimodale (multimodalembedding
). Per maggiori informazioni, consulta la documentazione del prodotto.
Questa funzionalità comporta prezzi in base alla modalità che utilizzi. Per ulteriori informazioni, consulta la sezione Prezzi.
7 febbraio 2024
Aggiornamenti di Model Garden:
Funzionalità
Sono stati aggiunti i seguenti modelli:
- Stable Diffusion XL LCM: il modello di coerenza latente (LCM) migliora la generazione di immagini da testo nei modelli di diffusione latente, consentendo una creazione di immagini più rapida e di alta qualità con meno passaggi.
- LLaVA 1.5: esegui il deployment dei modelli LLaVA 1.5.
- PyTorch-ZipNeRF: il modello Pytorch-ZipNeRF è un'implementazione all'avanguardia dell'algoritmo ZipNeRF nel framework Pytorch, progettato per la ricostruzione 3D efficiente e accurata da immagini 2D.
- LLaMA 2 (quantizzato): una versione quantizzata dei modelli Llama 2 di Meta.
- WizardLM: WizardLM è un modello linguistico di grandi dimensioni (LLM) sviluppato da Microsoft, ottimizzato per istruzioni complesse adattando il metodo Evol-Instruct.
- WizardCoder: WizardCoder è un modello linguistico di grandi dimensioni (LLM) sviluppato da Microsoft, ottimizzato per istruzioni complesse adattando il metodo Evol-Instruct al dominio del codice.
- AutoGluon: con AutoGluon puoi addestrare ed eseguire il deployment di modelli di machine learning e deep learning ad alta precisione per dati tabellari.
- Lama (Large mask inpainting): utilizza Large Mask Inpainting con convoluzioni di Fourier veloci (FFC), una perdita percettiva del campo ricettivo elevata e maschere di addestramento di grandi dimensioni per l'inpainting di immagini robuste alla risoluzione.
Modificato
- È stato aggiunto un pulsante di ottimizzazione con un clic e blocchi note dedicati per il deployment, l'ottimizzazione, la quantizzazione e la valutazione di Llama 2.
- È stato aggiunto un pulsante di deployment con un solo clic per più di 20 modelli con artefatti OSS preaddestrati, tra cui
Salesforce/blip-image-captioning-base
etimbrooks/instruct-pix2pix
. - Supporto di CodeLlaMA70b con blocchi note e pulsante di deployment con un solo clic.
- Sono stati aggiunti notebook di ottimizzazione per i modelli Mistral.
- Sono stati aggiunti notebook di pubblicazione per Stable Video Diffusion Img2Vid XT (a scopo di ricerca).
12 gennaio 2024
L'ottimizzazione dei modelli textembedding-gecko
e textembedding-gecko-multilingual
è disponibile in GA.
Puoi utilizzare l'ottimizzazione supervisionata per ottimizzare il modello textembedding-gecko
.
Per maggiori informazioni, consulta la pagina Ottimizzare gli incorporamenti di testo.
8 gennaio 2024
AutoSxS valuta gli LLM affiancati
Lo strumento di valutazione automatica side-by-side (AutoSxS) è disponibile in anteprima per eseguire test A/B sul rendimento dei tuoi LLM o delle previsioni pregenerate. È paragonabile agli esaminatori umani, ma più veloce, disponibile on demand e più conveniente.
5 gennaio 2024
Espansione regionale dell'AI generativa su Vertex AI
Le funzionalità di IA generativa su Vertex AI per la previsione batch e la valutazione dei modelli sono disponibili in 12 regioni aggiuntive Google Cloud .
18 dicembre 2023
Aggiornamenti di Model Garden:
- Supporto dell'ottimizzazione degli iperparametri e di set di dati personalizzati per i modelli OpenLLaMA utilizzando il formato del set di dati utilizzato dall'ottimizzazione supervisionata in Vertex AI.
- Supporto per le conversioni GPTQ per i modelli falcon-instruct.
- Aggiungi Latent Consistent Models e modelli SDXL-Turbo solo a scopo di ricerca ai blocchi note di Stable Diffusion XL.
- Aggiungi i modelli Mixtral 8x7B nel notebook Mistral.
13 dicembre 2023
Modelli Vertex AI Gemini Pro e Gemini Pro Vision
I modelli linguistici multimodali Vertex AI Gemini Pro e Gemini Pro Vision sono disponibili in anteprima. Per maggiori informazioni, consulta i seguenti argomenti:
- Panoramica dell'API Gemini
- Progettazione di prompt multimodali
- Riferimento dell'API Vertex AI Gemini
- Riferimento all'SDK Gemini Python
- Eseguire la migrazione dall'API PaLM all'API Gemini
Disponibilità generale di Imagen 2
La versione 005 del modello di generazione di immagini di Imagen (imagegeneration@005
) è
disponibile a livello generale per le attività di generazione di immagini. Questa versione del modello è quella
predefinita per le attività di generazione di immagini. Per ulteriori informazioni, consulta la documentazione
del prodotto.
Per informazioni generali sui modelli e sulle versioni di Imagen, consulta Versioni e ciclo di vita del modello Imagen.
12 dicembre 2023
Modello di incorporamento di testo 003 (textembedding-gecko@003
) disponibile
È disponibile la versione stabile aggiornata del modello di base di incorporamento di testo, textembedding-gecko@003
. textembedding-gecko@003
hanno una qualità migliorata rispetto alle versioni stabili precedenti,
textembedding-gecko@001
e textembedding-gecko@002
.
Per ulteriori informazioni sulle versioni del modello, vedi Versioni e ciclo di vita del modello.
8 dicembre 2023
Aggiornamento del controllo di sicurezza dell'AI generativa su Vertex AI
Il controllo di sicurezza Access Transparency (AXT) è disponibile per le seguenti funzionalità:
- Incorporamenti per la previsione online multimodale
- Imagen su Vertex AI online prediction
- Ottimizzazione di Imagen su Vertex AI
6 dicembre 2023
Modelli di testo aggiornati
È disponibile la versione @002
dei modelli per testo, chat, codice e chat di codice. Le versioni del modello @002
includono risposte ai prompt migliorate.
I modelli @002
sono:
text-bison@002
chat-bison@002
code-bison@002
codechat-bison@002
Per assicurarti di utilizzare sempre la versione del modello stabile, specifica l'identificatore del modello con il numero di versione. Ad esempio, text-bison@002
. Per ulteriori informazioni, consulta Versioni e ciclo di vita del modello.
5 dicembre 2023
Funzionalità
La base del modello è disponibile in anteprima. Utilizza il grounding per
collegare i modelli text-bison
e chat-bison
ai datastore non strutturati in Vertex AI Search.
Il grounding consente ai modelli di accedere e utilizzare le informazioni nei repository di dati per generare risposte più avanzate e sfumate.
Per saperne di più, consulta la panoramica del grounding.
1° dicembre 2023
Cambia
Sono disponibili i seguenti aggiornamenti di model_garden_name:
- Aggiornamento delle impostazioni di deployment dei modelli predefinite con GPU L4, come LLaMA2, falcon-instruct, openllama, Stable Diffusion 1.5, 2.1 e modelli XL.
- Supporto per l'ottimizzazione degli iperparametri e per set di dati personalizzati per i modelli LLaMA2 utilizzando il formato del set di dati utilizzato dall'ottimizzazione supervisionata in Vertex AI.
- Impostazioni LoRA e QLoRA consigliate per l'ottimizzazione di modelli linguistici di grandi dimensioni in Vertex AI. Per maggiori dettagli, vedi Consigli su LoRA e QLoRA per i LLM.
- Supporto delle conversioni AWQ e GPTQ per i modelli LLaMA2 e OpenLLaMA.
- Report sui benchmark per l'addestramento di ViT pytorch e JAX, l'ottimizzazione degli iperparametri OpenLLaMA 3b/7b/13b e l'ottimizzazione e l'erogazione di Stable Diffusion 1.5.
30 novembre 2023
Funzionalità
Una dimensione del modello per PaLM 2 per il testo è disponibile pubblicamente
(GA). Il modello text-unicorn
offre
una qualità delle risposte migliore per un insieme di attività di ragionamento complesse rispetto
al modello text-bison
. Per maggiori dettagli, vedi
Informazioni sul modello.
17 novembre 2023
L'API ComputeToken è disponibile in anteprima
L'API ComputeToken è disponibile in (anteprima). Puoi utilizzare questa API per ottenere un elenco di token per un determinato prompt. Un token è un modo per rappresentare una sequenza comune di caratteri trovata in un input di testo. Per scoprire di più, vedi Ottenere un elenco di token.
10 novembre 2023
IA generativa su Vertex AI
Sono disponibili controlli di sicurezza per funzionalità aggiuntive di AI generativa su Vertex AI.
3 novembre 2023
Aggiornamenti di Model Garden
Funzionalità
I seguenti modelli sono stati aggiunti a Model Garden:
- ImageBind: modello di embedding multimodale.
- Vicuna v1.5: LLM ottimizzato in base a llama2.
- OWL-ViT v2: modello per il rilevamento di oggetti con vocabolario aperto all'avanguardia.
- DITO: modello di rilevamento di oggetti con vocabolario aperto all'avanguardia.
- NLLB: modello di traduzione multilingue.
- Mistral-7B: LLM all'avanguardia di dimensioni ridotte.
- BioGPT: LLM perfezionato per il dominio biomedico.
- BiomedCILP: modello di base multimodale ottimizzato per il dominio biomedico.
Per visualizzare un elenco di tutti i modelli disponibili, consulta Esplora i modelli in Model Garden.
Modificato
- Miglioramento del throughput di pubblicazione del modello linguistico. Per maggiori dettagli, consulta Eseguire l'hosting di modelli linguistici di grandi dimensioni open source in modo efficiente su Model Garden. Notebooks nelle schede dei modelli pertinenti sono stati aggiornati di conseguenza.
- Velocità di inferenza fino a 2 volte più rapida rispetto all'implementazione originale per i modelli Stable Diffusion 1.5, 2.1 e XL.
- È stato migliorato il flusso di lavoro del pulsante Esegui il deployment in tutte le schede del modello supportate.
- Notebook aggiornati per Llama2, OpenLlama e Falcon Instruct con specifiche della macchina suggerite per la pubblicazione del modello e docker di EleutherAI's evaluation harness per la valutazione del modello.
Nuove versioni stabili dei modelli textembedding-gecko
e textembedding-gecko-multilingual
Le seguenti versioni stabili del modello sono disponibili nell'AI generativa su Vertex AI:
textembedding-gecko@002
textembedding-gecko-multilingual@001
Per ulteriori informazioni sulle versioni del modello, vedi Versioni e ciclo di vita del modello.
2 novembre 2023
È possibile accedere all'AI generativa su Vertex AI tramite 12 API regionali in Nord America, Europa e Asia. Le API regionali consentono ai clienti di controllare dove vengono archiviati i dati inattivi.
3 novembre 2023
L'ottimizzazione del modello per chat-bison@001
è disponibile pubblicamente (GA).
L'ottimizzazione chat-bison@001
supporta le visualizzazioni delle metriche di TensorBoard. Per
maggiori dettagli, consulta
Metriche di ottimizzazione e valutazione.
4 ottobre 2023
L'ottimizzazione del modello per textembedding-gecko
è disponibile in anteprima
Puoi utilizzare l'ottimizzazione supervisionata per ottimizzare il modello textembedding-gecko
. Questa funzionalità è in anteprima.
Per maggiori informazioni, consulta la pagina Ottimizzare gli incorporamenti di testo.
1° settembre 2023
Aggiornamento dei prezzi
Il prezzo per text-bison
è stato ridotto a 0,0005 $per 1000 caratteri di input e output. Per maggiori dettagli, consulta la pagina Prezzi di Vertex AI.
29 agosto 2023
Nuovi modelli di AI generativa su Vertex AI e supporto linguistico esteso
L'AI generativa su Vertex AI è stata aggiornata per includere nuovi candidati per i modelli linguistici (modelli più recenti), modelli linguistici che supportano token di input e output fino a 32.000 e altre lingue supportate. Per maggiori dettagli, vedi Modelli disponibili e Versioni e ciclo di vita dei modelli.
Streaming delle risposte dei modelli di AI generativa
Lo streaming dei modelli di AI generativa è in disponibilità generale (GA). Dopo aver inviato un prompt, il modello restituisce i token di risposta man mano che vengono generati invece di attendere che l'intero output sia disponibile.
I modelli supportati sono:
text-bison
chat-bison
code-bison
codechat-bison
Per saperne di più, consulta Trasmettere in streaming le risposte dei modelli di AI generativa.
L'ottimizzazione supervisionata per il modello text-bison
è disponibile pubblicamente (GA)
L'ottimizzazione supervisionata per il modello text-bison
è disponibile pubblicamente (GA).
L'ottimizzazione del modello chat-bison
è disponibile in anteprima
Puoi utilizzare l'ottimizzazione supervisionata per ottimizzare il modello chat-bison
. Questa funzionalità è in anteprima.
Per saperne di più, vedi Ottimizzare i modelli di testo.
Nuovo modello di incorporamento disponibile in anteprima
Gli utenti di Generative AI su Vertex AI possono creare embedding utilizzando un nuovo modello addestrato su un'ampia gamma di lingue non inglesi. Il modello è in anteprima.
textembedding-gecko-multilingual
Per saperne di più, consulta Ottenere incorporamenti di testo.
L'ottimizzazione del soggetto e dello stile di Imagen è disponibile pubblicamente (GA)
Imagen su Vertex AI offre le seguenti funzionalità GA:
- Ottimizzazione del modello di soggetto (ottimizzazione standard)*
- Ottimizzazione del modello di stile*
* Funzionalità ad accesso limitato.
Per saperne di più su Imagen su Vertex AI o su come ottenere l'accesso alla GA con limitazioni, consulta la panoramica di Imagen su Vertex AI.
Ottimizzazione dell'apprendimento per rinforzo con feedback umano (RLHF) per text-bison
Il modello di base per la generazione di testo dell'AI generativa su Vertex AI (text-bison
) supporta l'ottimizzazione RLHF. La funzionalità di ottimizzazione RLHF è in anteprima.
Per ulteriori informazioni, consulta Utilizzare l'ottimizzazione del modello RLHF.
Supporto delle lingue per le API Codey di Vertex AI
Le API Codey di Vertex AI supportano altri linguaggi di programmazione. Per ulteriori informazioni, vedi Linguaggi di programmazione supportati.
Le API Codey di Vertex AI supportano l'ottimizzazione supervisionata
La chat di codice (codechat-bison
) e la generazione di codice (code-bison
)
I modelli delle API Vertex AI Codey supportano l'ottimizzazione supervisionata. La funzionalità di ottimizzazione supervisionata
per i modelli delle API Vertex AI Codey è in
(anteprima). Per saperne di più, consulta Ottimizzare
i modelli di codice.
Valutazione del modello basata su metriche
Puoi valutare le prestazioni dei modelli di base e di quelli ottimizzati rispetto a un set di dati di valutazione per la classificazione, il riepilogo, il question answering e la generazione di testo generale. Questa funzionalità è disponibile in (anteprima)
Per scoprire di più, vedi Valutare le prestazioni del modello.
API CountToken disponibile in anteprima
L'API CountToken è disponibile in (anteprima). Puoi utilizzare questa API per ottenere il conteggio dei token e il numero di caratteri fatturabili per un prompt. Per saperne di più, consulta Ottenere il conteggio dei token.
9 agosto 2023
Embedding multimodali di Imagen disponibili in GA
Imagen su Vertex AI offre la seguente funzionalità GA:
- Embedding multimodali
Questa funzionalità comporta prezzi diversi a seconda che utilizzi l'input di immagini o di testo. Per ulteriori informazioni, consulta la pagina delle funzionalità Incorporamenti multimodali.
21 agosto 2023
Aggiornamento del parametro di ottimizzazione del modello
I job di ottimizzazione del modello accettano parametri facoltativi per la valutazione del modello e l'integrazione di Vertex AI TensorBoard. Ciò ti consente di valutare il modello e generare visualizzazioni con un singolo comando. Per saperne di più, vedi Creare un job di ottimizzazione del modello.
28 luglio 2023
Aggiornamento del parametro di ottimizzazione del modello
Il parametro learning_rate
nell'ottimizzazione del modello è learning_rate_multiplier
.
Per utilizzare il tasso di apprendimento predefinito del modello o del metodo di ottimizzazione, utilizza il valore predefinito
learning_rate_multiplier
di 1.0
.
Se non hai mai configurato learning_rate
, non è richiesta alcuna azione.
Se utilizzi tuning_method=tune_v2
con il modello di pipeline v2.0.0
(SDK Python v1.28.1+), il tasso di apprendimento consigliato è 0,0002. Per convertire il tuo
learning_rate
personalizzato in learning_rate_multiplier
, calcola come segue:
learing_rate_multiplier = custom_learning_rate_value / 0.0002
18 luglio 2023
Aggiornamenti dell'ottimizzazione del modello per text-bison
- La pipeline di ottimizzazione aggiornata offre un'ottimizzazione più efficiente e prestazioni migliori su text-bison.
- Nuova regione di ottimizzazione (
us-central1
) disponibile con il supporto della GPU. - Il nuovo parametro
learning_rate
consente di regolare la dimensione del passo a ogni iterazione.
Per maggiori dettagli, vedi Ottimizzare i modelli di base del linguaggio.
Chirp GA
Chirp è disponibile pubblicamente (GA). Per maggiori dettagli, consulta le seguenti pagine:
17 luglio 2023
Funzionalità di Imagen su Vertex AI in disponibilità generale
Imagen su Vertex AI offre le seguenti funzionalità GA:
- Generazione di immagini (generazione da testo a immagine)*
- Modifica delle immagini*
- Didascalia visiva dell'immagine
- Visual Question Answering (VQA)
* Funzionalità ad accesso limitato.
Per saperne di più su Imagen o su come accedere alle funzionalità GA o di anteprima con limitazioni, consulta la panoramica di Imagen su Vertex AI.
Generazione di volti umani supportata
Imagen supporta la generazione di volti umani per le seguenti funzionalità:
* Funzionalità ad accesso limitato.
La generazione di volti umani è attivata per impostazione predefinita, ad eccezione delle immagini con bambini o celebrità. Per ulteriori informazioni, consulta le linee guida per l'utilizzo.
Supporto di lingue aggiuntive
L'API Vertex AI PaLM ha aggiunto il supporto per le seguenti lingue:
- Spagnolo (es)
- Coreano (ko)
- Hindi (hi)
- Chinese (zh)
Per l'elenco completo delle lingue supportate, vedi Lingue supportate.
13 luglio 2023
Supporto batch per PaLM 2 per il testo
Il supporto per le richieste di testo batch (text-bison
)
è disponibile in (GA).
Puoi esaminare i prezzi del modello chat-bison
nella
pagina dei prezzi di Vertex AI.
10 luglio 2023
PaLM 2 per Chat
Il supporto per Chat (chat-bison
)
è disponibile in (GA).
Puoi esaminare i prezzi del modello chat-bison
nella
pagina dei prezzi di Vertex AI.
29 giugno 2023
API Vertex AI Codey
Le API Vertex AI Codey sono disponibili al pubblico generale (GA). Utilizza le API Vertex AI Codey per creare soluzioni con generazione, completamento e chat per il codice. Poiché le API Vertex AI Codey sono GA, se le utilizzi, ti vengono addebitati costi di utilizzo. Per informazioni sui prezzi, consulta la pagina dei prezzi dell'AI generativa su Vertex AI.
I modelli in questa release includono:
code-bison
(generazione di codice)codechat-bison
(chat di codice)code-gecko
(completamento del codice)
Il numero massimo di token per l'input è stato aumentato da 4096 a 6144 token per
code-bison
e codechat-bison
per consentire prompt e cronologia della chat più lunghi. Il numero massimo di token per l'output è stato aumentato da 1024 a 2048 per code-bison
e
codechat-bison
per consentire risposte più lunghe.
Sono supportati altri linguaggi di programmazione. Per ulteriori informazioni, vedi Linguaggi di programmazione supportati.
Sono stati rimossi diversi set di dati di perfezionamento dai modelli code-bison
e
codechat-bison
per implementare i seguenti miglioramenti:
- Eccessiva loquacità.
- Artefatti, come i caratteri NBSP (spazio unificatore).
- Risposte di codice di bassa qualità.
Per scoprire di più sulle certificazioni cloud, consulta la pagina Certificazioni Vertex AI.
15 giugno 2023
PaLM 2 per Chat
Il modello chat-bison
è stato aggiornato per seguire meglio le istruzioni nel campo context
. Per informazioni dettagliate su come creare prompt di chat per
chat-bison
, vedi
Progettare prompt di chat.
7 giugno 2023
API PaLM Text e Embeddings e Vertex AI Studio
L'AI generativa su Vertex AI è disponibile in (GA).
Con il lancio di questa funzionalità, puoi utilizzare l'API Vertex AI PaLM per generare
modelli di AI che puoi testare, ottimizzare ed eseguire il deployment nelle tue applicazioni basate sull'AI.
Poiché queste funzionalità sono disponibili a livello generale, se utilizzi l'API PaLM text-bison
e textembedding-gecko
, ti verranno addebitati costi di utilizzo. Per informazioni sui prezzi, consulta la pagina dei prezzi di Vertex AI.
Le funzionalità e i modelli di questa release includono:
- PaLM 2 per il testo:
text-bison
- Incorporamento per il testo:
textembedding-gecko
- Vertex AI Studio for Language
Model Garden
Model Garden è disponibile in (GA). Model Garden è una piattaforma che ti aiuta a scoprire, testare, personalizzare ed eseguire il deployment di Vertex AI e selezionare modelli OSS. Questi modelli vanno da quelli ottimizzabili a quelli specifici per le attività e sono tutti disponibili nella pagina Model Garden della consoleGoogle Cloud .
Per iniziare, consulta Esplora i modelli IA e le API in Model Garden.
API Vertex AI Codey
Le API Vertex AI Codey sono in (anteprima).
Con le API Codey, le API di generazione di codice, completamento del codice e chat di codice possono essere utilizzate da qualsiasi
progettoGoogle Cloud senza l'inserimento nella lista consentita. È possibile accedere alle API dalla regione
us-central1
. Le API Codey possono essere utilizzate in Vertex AI Studio o
in modo programmatico nei comandi REST.
Per iniziare, consulta la Panoramica dei modelli di codice.
10 maggio 2023
IA generativa su Vertex AI
L'AI generativa su Vertex AI è disponibile in (anteprima). Con il lancio di questa funzionalità, puoi utilizzare l'API Vertex AI PaLM per generare modelli di AI che puoi testare, ottimizzare ed eseguire il deployment nelle tue applicazioni basate sull'AI.
Le funzionalità e i modelli di questa release includono:
- PaLM 2 per il testo:
text-bison
- PaLM 2 per la chat:
chat-bison
- Incorporamento per il testo:
textembedding-gecko
- Vertex AI Studio for Language
- Ottimizzazione per PaLM 2
- SDK Vertex AI v1.25, che include nuove funzionalità, come
TextGenerationModel (
text-bison
), ChatModel (chat-bison
), TextEmbeddingModel (textembedding-gecko@001
)
Puoi interagire con le funzionalità di AI generativa su Vertex AI utilizzando Vertex AI Studio nella console Google Cloud , l'API Vertex AI e l'SDK Vertex AI per Python.
- Scopri di più sull'AI generativa su Vertex AI.
- Consulta l'introduzione a Vertex AI Studio.
- Inizia con una guida rapida di Vertex AI Studio.
Model Garden
Model Garden è disponibile in (anteprima). Model Garden è una piattaforma che ti aiuta a scoprire, testare, personalizzare ed eseguire il deployment di Vertex AI e selezionare modelli OSS. Questi modelli vanno da quelli regolabili a quelli specifici per attività, tutti disponibili nella pagina Model Garden della consoleGoogle Cloud .