Questa pagina documenta gli aggiornamenti di produzione a Generative AI su Vertex AI e Vertex AI Model Garden. Consulta periodicamente questa pagina per annunci relativi a funzionalità nuove o aggiornate, correzioni di bug, problemi noti e funzionalità ritirate.
22 marzo 2024
I PDF sono ora supportati come input nel modello linguistico multimodale Gemini 1.0 Pro Vision. Puoi chiamare le API direttamente con i PDF o provarle in Vertex AI Studio. Per scoprire di più, consulta Inviare richieste di prompt multimodali con immagini o PDF.
19 marzo 2024
I modelli Antropic Claude 3 Sonnet e Claude 3 Haiku su Vertex AI sono generalmente disponibili in Vertex AI.
I modelli gestiti Claude 3 Haiku e Claude 3 Sonnet di Anthropic sono disponibili su Vertex AI. Per usare un modello Claude su Vertex AI, invia una richiesta direttamente all'endpoint API di Vertex AI. Per ulteriori informazioni, consulta Utilizzare le schede dei modelli Claude di Anthropic e le schede dei modelli Claude in Model Garden:
21 febbraio 2024
Sono disponibili i modelli aperti Gemma.
I modelli Gemma, una famiglia di modelli aperti e leggeri creati a partire dalla stessa ricerca e tecnologia utilizzati per creare i modelli Gemini, possono essere eseguiti su hardware, dispositivi mobili o servizi in hosting. Per saperne di più, consulta Utilizzare i modelli aperti di Gemma e la scheda Gemma Model Garden.
15 febbraio 2024
Modelli Vertex AI Gemini 1.0 Pro e Gemini 1.0 Pro Vision
I modelli linguistici multimodali Vertex AI Gemini 1.0 Pro e Gemini 1.0 Pro Vision sono in disponibilità generale (GA). Inoltre, sono stati resi disponibili nelle seguenti regioni: europe-west1, europe-west2, europe-west3, europe-west4 e europe-west9.
Per ulteriori informazioni, consulta i seguenti argomenti:
- Panoramica dei modelli multimodali
- Progettazione di prompt multimodali
- Riferimento API Vertex AI Gemini
- Riferimento all'SDK Python di Gemini
- Eseguire la migrazione dall'API PaLM all'API Gemini
9 febbraio 2024
Il supporto dei video negli incorporamenti multimodali è in disponibilità generale
Gli incorporamenti per i dati video sono ora in disponibilità generale utilizzando il modello di incorporamento multimodale (multimodalembedding
). Per saperne di più, consulta la documentazione del prodotto.
Questa funzionalità prevede prezzi basati sulla modalità utilizzata. Per ulteriori informazioni, consulta la sezione relativa ai pricing.
7 febbraio 2024
Aggiornamenti di Model Garden:
Selezione delle
Sono stati aggiunti i seguenti modelli:
- Stable Diffusion XL LCM: il modello di coerenza latente (LCM) migliora la generazione da testo a immagine nei modelli a diffusione latente consentendo una creazione di immagini più rapida e di alta qualità con meno passaggi.
- LLaVA 1.5: implementazione di modelli LLaVA 1.5.
- PyTorch-ZipNeRF: il modello Pytorch-ZipNeRF è un'implementazione all'avanguardia dell'algoritmo ZipNeRF nel framework Pytorch, progettato per una ricostruzione 3D efficiente e accurata a partire da immagini 2D.
- LLaMA 2 (Quantized): una versione quantizzata dei modelli di Lama 2 di Meta.
- procedura guidata: guidata LLM è un modello linguistico di grandi dimensioni (LLM) sviluppato da Microsoft, perfezionato in base a istruzioni complesse adattando il metodo Evol-Instruct.
- procedura guidata: AssistantCoder è un modello linguistico di grandi dimensioni (LLM) sviluppato da Microsoft, perfezionato in base a istruzioni complesse adattando il metodo Evol-Instruct al dominio del codice.
- AutoGluon: con AutoGluon puoi addestrare ed eseguire il deployment di modelli di machine learning e deep learning ad alta precisione per i dati tabulari.
- Lama (maschera grande inpainting): usa una maschera grande inpainting con convoluzioni di Fourier rapide (FFC), una perdita percettiva del campo ricettivo elevato e maschere di addestramento di grandi dimensioni per un'immagine affidabile inpainting.
Modificato
- Sono stati aggiunti il pulsante di ottimizzazione con un solo clic e blocchi di deployment, ottimizzazione, quantizzazione e valutazione dedicati per Llama 2.
- È stato aggiunto il pulsante di deployment con un solo clic per più di 20 modelli con artefatti OSS preaddestrati, tra cui
Salesforce/blip-image-captioning-base
etimbrooks/instruct-pix2pix
. - CodeLlaMA70b supportato con blocchi note e il pulsante di deployment con un solo clic.
- Sono stati aggiunti blocchi note di ottimizzazione per i modelli Mistral.
- Aggiunta la pubblicazione di blocchi note per la diffusione video stabile Img2Vid XT (per scopi di ricerca).
12 gennaio 2024
L'ottimizzazione per i modelli textembedding-gecko
e textembedding-gecko-multilingual
è disponibile in GA.
Puoi utilizzare l'ottimizzazione supervisionata per ottimizzare il modello textembedding-gecko
.
Per ulteriori informazioni, consulta la sezione Ottimizzare gli incorporamenti di testo.
8 gennaio 2024
AutoSxS valuta gli LLM uno accanto all'altro
Lo strumento di valutazione automatica affiancata (AutoSxS) è disponibile in anteprima per eseguire test A/B sulle prestazioni dei tuoi LLM o delle previsioni pregenerate. È paragonabile ai valutatori umani, ma è più veloce, disponibile on demand ed economico.
5 gennaio 2024
Espansione a livello di regione dell'IA generativa su Vertex AI
Le funzionalità dell'IA generativa su Vertex AI per la previsione batch e la valutazione dei modelli sono disponibili in altre 12 regioni di Google Cloud.
18 dicembre 2023
Aggiornamenti di Model Garden:
- Supporto per l'ottimizzazione degli iperparametri e i set di dati personalizzati per modelli OpenLLaMA utilizzando il formato di set di dati utilizzato dall'ottimizzazione con supervisione in Vertex AI.
- Supporto per le conversioni GPTQ per i modelli di istruzione Falcon.
- Aggiungi Modelli coerenti latenti e solo i modelli SDXL-Turbo per scopi di ricerca ai blocchi note XL a diffusione stabile.
- Aggiungi i modelli Mixtral 8x7B al blocco note Mistral.
13 dicembre 2023
Modelli Vertex AI Gemini Pro e Gemini Pro Vision
I modelli linguistici multimodali di Vertex AI Gemini Pro e Gemini Pro Vision sono disponibili in anteprima. Per scoprire di più, consulta i seguenti argomenti:
- Panoramica dei modelli multimodali
- Progettazione di prompt multimodali
- Riferimento API Vertex AI Gemini
- Riferimento all'SDK Python di Gemini
- Eseguire la migrazione dall'API PaLM all'API Gemini
Disponibilità generale di Imagen 2
La versione 005 del modello di generazione delle immagini di Imagen (imagegeneration@005
) è generalmente disponibile per le attività di generazione di immagini. Questa versione del modello è la
predefinita per le attività di generazione di immagini. Per ulteriori informazioni, consulta la documentazione
del prodotto.
Per informazioni generali sui modelli e sulle versioni Imagen, consulta Versioni e ciclo di vita dei modelli Imagen.
12 dicembre 2023
È disponibile il modello di incorporamento del testo 003 (textembedding-gecko@003
)
È disponibile la versione stabile aggiornata del modello di base textembedding-gecko@003
per l'incorporamento del testo. textembedding-gecko@003
ha una qualità migliore rispetto alle versioni stabili precedenti,
textembedding-gecko@001
e textembedding-gecko@002
.
Per saperne di più sulle versioni dei modelli, consulta Versioni e ciclo di vita dei modelli.
8 dicembre 2023
Aggiornamento del controllo di sicurezza dell'IA generativa su Vertex AI
Il controllo della sicurezza di Access Transparency (AXT) è disponibile per le seguenti funzionalità:
- Incorporamenti per la previsione online multimodale
- Imagen sulla previsione online di Vertex AI
- Imagen sull'ottimizzazione di Vertex AI
6 dicembre 2023
Modelli di testo aggiornati
È disponibile la versione @002
dei modelli per testo, chat, codice e chat di codice. Le @002
versioni del modello includono risposte ai prompt migliorate.
I modelli @002
sono:
text-bison@002
chat-bison@002
code-bison@002
codechat-bison@002
Per assicurarti di utilizzare sempre la versione del modello stabile, specifica l'identificatore del modello con il numero di versione. Ad esempio, text-bison@002
. Per ulteriori informazioni, consulta Versioni e ciclo di vita dei modelli.
5 dicembre 2023
Selezione delle
La messa a terra del modello è disponibile in anteprima. Usa la messa a terra per
connettere i modelli text-bison
e chat-bison
ai datastore non strutturati in Vertex AI Search.
Il grounding consente ai modelli di accedere alle informazioni nei repository di dati e di utilizzarle per generare risposte più avanzate e articolate.
Per ulteriori informazioni, consulta la Panoramica del grounding.
1° dicembre 2023
Cambia
Sono disponibili i seguenti aggiornamenti di model_garden_name:
- Sono state aggiornate le impostazioni di deployment dei modelli predefiniti con le GPU L4, ad esempio i modelli LLaMA2, falcon-instruct, openllama, Stable Diffusion 1.5, 2.1 e XL.
- Supporto per l'ottimizzazione degli iperparametri e i set di dati personalizzati per i modelli LLaMA2 utilizzando il formato di set di dati usato dall'ottimizzazione supervisionata in Vertex AI.
- Impostazioni LoRA e QLoRA consigliate per l'ottimizzazione di modelli linguistici di grandi dimensioni (LLM) in Vertex AI. Per maggiori dettagli, consulta i suggerimenti per LoRA e QLoRA per i modelli LLM.
- Supporto per le conversioni AWQ e GPTQ per i modelli LLaMA2 e OpenLLaMA.
- Report di benchmark per addestramento di ViT Pytorch e JAX, ottimizzazione Openllama7b, ottimizzazione degli iperparametri OpenLLaMA 3b/7b/13b e ottimizzazione e gestione di Stabili Diffusion 1.5.
30 novembre 2023
Selezione delle
Una dimensione del modello per PaLM 2 per il testo è in disponibilità generale (GA). Il modello text-unicorn
migliora la qualità della risposta per una serie di attività di ragionamento complesse rispetto al modello text-bison
. Per maggiori dettagli, consulta
Informazioni del modello.
17 novembre 2023
L'API ComputeToken è disponibile in anteprima
L'API ComputeToken è disponibile in (Anteprima). Puoi utilizzare questa API per ottenere un elenco dei token per un determinato prompt. Un token è un modo per rappresentare una sequenza comune di caratteri trovati in un input di testo. Per scoprire di più, consulta Ottenere un elenco dei token.
10 novembre 2023
IA generativa su Vertex AI
Sono disponibili controlli di sicurezza per funzionalità aggiuntive di IA generativa su Vertex AI.
3 novembre 2023
Aggiornamenti di Model Garden
Selezione delle
I seguenti modelli sono stati aggiunti a Model Garden:
- ImageBind: modello di incorporamento multimodale.
- Vicuna v1.5: LLM perfezionato in base a llama2.
- OWL-ViT v2: modello di rilevamento di oggetti del vocabolario aperto SoTA.
- DITO: modello di rilevamento di oggetti del vocabolario aperto SoTA.
- NLLB: modello di traduzione multilingue.
- Mistral-7B: SoTA LLM in dimensioni ridotte.
- BioGPT: LLM perfezionato per dominio biomedico.
- BiomedCILP: modello di base multimodale perfezionato per il dominio biomedico.
Per visualizzare un elenco di tutti i modelli disponibili, vedi Esplorare i modelli in Model Garden.
Modificato
- Velocità effettiva di pubblicazione del modello linguistica migliorata. Per maggiori dettagli, consulta Pubblicare in modo efficiente modelli linguistici di grandi dimensioni open source in Model Garden. Notebooks nelle schede dei modelli pertinenti sono stati aggiornati di conseguenza.
- Velocità di inferenza fino a due volte superiore rispetto all'implementazione originale per i modelli Stable Diffusion 1.5, 2.1 e XL.
- È stato migliorato il flusso di lavoro del pulsante Esegui il deployment in tutte le schede dei modelli supportati.
- Sono stati aggiornati i blocchi note per Llama2, OpenLlama e Falcon Instruct con specifiche di macchina suggerite per la pubblicazione dei modelli e docker di valutazione di EleutherAI per la valutazione del modello.
Nuove versioni del modello stabile textembedding-gecko
e textembedding-gecko-multilingual
Le seguenti versioni stabili del modello sono disponibili in Generative AI su Vertex AI:
textembedding-gecko@002
textembedding-gecko-multilingual@001
Per saperne di più sulle versioni dei modelli, consulta Versioni e ciclo di vita dei modelli.
2 novembre 2023
È possibile accedere all'IA generativa su Vertex AI tramite 12 API regionali in Nord America, Europa e Asia. Le API regionali consentono ai clienti di controllare dove sono archiviati i dati at-rest.
3 novembre 2023
L'ottimizzazione del modello per chat-bison@001
è in disponibilità generale (GA).
L'ottimizzazione di chat-bison@001
supporta le visualizzazioni delle metriche TensorBoard. Per maggiori dettagli, consulta Metriche di ottimizzazione e valutazione.
4 ottobre 2023
L'ottimizzazione del modello per textembedding-gecko
è disponibile in anteprima
Puoi utilizzare l'ottimizzazione supervisionata per ottimizzare il modello textembedding-gecko
. Questa funzionalità è in modalità (Anteprima).
Per ulteriori informazioni, consulta la sezione Ottimizzare gli incorporamenti di testo.
1° settembre 2023
Aggiornamento dei prezzi
Il prezzo per text-bison
è stato ridotto a 0,0005 $per 1000 caratteri di input e output. Per maggiori dettagli, consulta i prezzi di Vertex AI.
29 agosto 2023
Nuova IA generativa su modelli Vertex AI e supporto linguistico esteso
L'IA generativa su Vertex AI è stata aggiornata per includere nuovi modelli linguistici candidati (più recenti modelli), modelli linguistici che supportano token di input e di output fino a 32.000 e altri linguaggi supportati. Per maggiori dettagli, vedi Modelli disponibili e Versioni e ciclo di vita dei modelli.
Risposte dinamiche dai modelli di IA generativa
Il supporto per i flussi di dati dei modelli di IA generativa è in disponibilità generale (GA). Dopo l'invio di un prompt, il modello restituisce i token di risposta mentre vengono generati, anziché attendere che l'intero output sia disponibile.
I modelli supportati sono:
text-bison
chat-bison
code-bison
codechat-bison
Per scoprire di più, consulta Trasmettere risposte in streaming dai modelli di IA generativa.
L'ottimizzazione supervisionata per il modello text-bison
è in disponibilità generale (GA)
L'ottimizzazione supervisionata per il modello text-bison
è in disponibilità generale (GA).
L'ottimizzazione per il modello chat-bison
è disponibile in anteprima
Puoi utilizzare l'ottimizzazione supervisionata per ottimizzare il modello chat-bison
. Questa funzionalità è in modalità (Anteprima).
Per ulteriori informazioni, consulta la sezione Ottimizzazione dei modelli di testo.
Nuovo modello di incorporamento disponibile in anteprima
Gli utenti dell'IA generativa su Vertex AI possono creare incorporamenti utilizzando un nuovo modello addestrato su un'ampia gamma di lingue diverse dall'inglese. Il modello è in (anteprima).
textembedding-gecko-multilingual
Per scoprire di più, consulta Ottenere incorporamenti di testo.
L'ottimizzazione del soggetto e dello stile delle Imagen è in disponibilità generale (GA)
Imagen su Vertex AI offre le seguenti funzionalità GA:
- Ottimizzazione del modello di soggetto (ottimizzazione standard)*
- Ottimizzazione del modello di stile*
* Funzionalità di accesso limitato.
Per ulteriori informazioni su Imagen su Vertex AI o su come ottenere l'accesso a GA con restrizioni, consulta la panoramica di Imagen su Vertex AI.
Ottimizzazione dell'apprendimento per rinforzo con feedback umano (RLHF) per text-bison
Il modello di base per la generazione di testi per l'IA generativa su Vertex AI (text-bison
) supporta l'ottimizzazione
RLHF. La funzionalità di ottimizzazione RLHF è in modalità (Anteprima).
Per ulteriori informazioni, consulta Utilizzare l'ottimizzazione del modello RLHF.
Supporto del linguaggio delle API Vertex AI Codey
Le API Vertex AI Codey supportano linguaggi di programmazione aggiuntivi. Per scoprire di più, consulta l'articolo Linguaggi di programmazione supportati.
Le API Vertex AI Codey supportano l'ottimizzazione supervisionata
I modelli di chat di codice (codechat-bison
) e generazione di codice (code-bison
)
I modelli delle API Vertex AI Codey supportano l'ottimizzazione supervisionata. L'ottimizzazione supervisionata per i modelli delle API Vertex AI Codey è in modalità (anteprima). Per ulteriori informazioni, consulta
Modelli di ottimizzazione.
Valutazione del modello basata sulle metriche
Puoi valutare le prestazioni dei modelli di base e dei modelli ottimizzati utilizzando un set di dati di valutazione per classificazione, riepilogo, risposta alle domande e generazione di testo generale. Questa funzionalità è disponibile in (anteprima)
Per scoprire di più, consulta Valutare le prestazioni del modello.
API CountToken disponibile in anteprima
L'API CountToken è disponibile in (Anteprima). Puoi utilizzare questa API per ottenere il conteggio dei token e il numero di caratteri fatturabili per un prompt. Per scoprire di più, consulta Ottenere il conteggio dei token.
9 agosto 2023
Incorporamenti multimodali Imagen disponibili in GA
Imagen su Vertex AI offre la seguente funzionalità GA:
- Incorporamenti multimodali
Questa funzionalità prevede pricing diversi in base all'utilizzo dell'input di immagini o di testo. Per ulteriori informazioni, consulta la pagina delle funzionalità degli incorporamenti multimodali.
21 agosto 2023
Aggiornamento del parametro di ottimizzazione del modello
I job di ottimizzazione dei modelli accettano parametri facoltativi per la valutazione e l'integrazione di Vertex AI TensorBoard. In questo modo puoi valutare il modello e generare visualizzazioni con un solo comando. Per maggiori informazioni, consulta Creare un job di ottimizzazione del modello.
28 luglio 2023
Aggiornamento del parametro di ottimizzazione del modello
Il parametro learning_rate
nell'ottimizzazione del modello è learning_rate_multiplier
.
Per utilizzare il tasso di apprendimento predefinito del modello o del metodo di ottimizzazione, utilizza il valore predefinito learning_rate_multiplier
di 1.0
.
Se non hai ancora configurato learning_rate
, non è necessaria alcuna azione.
Se utilizzi tuning_method=tune_v2
con il modello di pipeline v2.0.0 (SDK Python v1.28.1 e versioni successive), il tasso di apprendimento consigliato è 0,0002. Per convertire il valore learning_rate
personalizzato in learning_rate_multiplier
, calcola quanto segue:
learing_rate_multiplier = custom_learning_rate_value / 0.0002
18 luglio 2023
Aggiornamenti dell'ottimizzazione del modello per text-bison
- La pipeline di ottimizzazione aggiornata offre un'ottimizzazione più efficiente e prestazioni migliori.
- Nuova regione di ottimizzazione (
us-central1
) disponibile con supporto per GPU. - Il nuovo parametro
learning_rate
ti consente di regolare la dimensione dei passaggi a ogni iterazione.
Per maggiori dettagli, consulta Ottimizzazione dei modelli di base del linguaggio.
GA Chirp
Chirp è Generalmente disponibile (GA). Per maggiori dettagli, consulta le seguenti pagine:
17 luglio 2023
Imagen sulle funzionalità di Vertex AI in disponibilità generale
Imagen su Vertex AI offre le seguenti funzionalità GA:
- Generazione di immagini (generazione da testo a immagine)*
- Modifica delle immagini*
- Sottotitolaggio visivo delle immagini
- Risposta visiva alle domande (VQA)
* Funzionalità di accesso limitato.
Per ulteriori informazioni su Imagen o su come accedere a funzionalità GA o Anteprima limitate, consulta la panoramica di Imagen su Vertex AI.
Generazione di volti umani supportata
Imagen supporta la generazione di volti umani per le seguenti funzionalità:
* Funzionalità di accesso limitato.
La generazione di volti umani è abilitata per impostazione predefinita, ad eccezione delle immagini con bambini o celebrità. Per ulteriori informazioni, consulta le linee guida sull'utilizzo.
Supporto linguistico aggiuntivo
L'API Vertex AI PaLM ha aggiunto il supporto per i seguenti linguaggi:
- Spagnolo (es)
- Coreano (ko)
- hindi (ciao)
- Cinese (zh)
Per l'elenco completo delle lingue supportate, vedi Lingue supportate.
13 luglio 2023
Supporto batch per PaLM 2 per il testo
Il supporto per le richieste di testo batch (text-bison
) è disponibile in (GA).
Puoi rivedere i prezzi per il modello chat-bison
nella pagina dei prezzi di Vertex AI.
10 luglio 2023
PaLM 2 per la chat
Il supporto per Chat (chat-bison
) è disponibile in GA.
Puoi rivedere i prezzi per il modello chat-bison
nella pagina dei prezzi di Vertex AI.
29 giugno 2023
API Vertex AI Codey
Le API Vertex AI Codey sono in disponibilità generale (GA). Usa le API Vertex AI Codey per creare soluzioni con generazione di codice, completamento del codice e chat di codice. Poiché le API Vertex AI Codey sono in disponibilità generale, in caso di utilizzo ti vengono addebitati costi di utilizzo. Per informazioni sui prezzi, consulta la pagina dei prezzi dell'IA generativa su Vertex AI.
I modelli di questa release includono:
code-bison
(generazione del codice)codechat-bison
(chat del codice)code-gecko
(completamento codice)
Il numero massimo di token per l'input è stato aumentato da 4096 a 6144 token per
code-bison
e codechat-bison
per consentire prompt e una cronologia chat più lunghi. Il numero massimo di token per l'output è stato aumentato da 1024 a 2048 per code-bison
e codechat-bison
per consentire risposte più lunghe.
Sono supportati altri linguaggi di programmazione. Per maggiori informazioni, consulta la pagina Linguaggi di programmazione supportati.
Diversi set di dati di ottimizzazione sono stati rimossi dai modelli code-bison
e codechat-bison
per implementare i seguenti miglioramenti:
- Chiacchiere eccessive.
- Artefatti, ad esempio caratteri NBSP (spazio non di interruzioni).
- Risposte del codice di bassa qualità.
Per informazioni sugli orizzontali del cloud, consulta le certificazioni Vertex AI.
15 giugno 2023
PaLM 2 per la chat
Il modello chat-bison
è stato aggiornato per seguire meglio le istruzioni nel campo context
. Per maggiori dettagli, su come creare prompt di chat per chat-bison
, consulta Progettare prompt di chat.
7 giugno 2023
API PaLM Text and Embeddings e Vertex AI Studio
L'IA generativa su Vertex AI è disponibile in (GA).
Con il lancio di questa funzionalità, puoi usare l'API Vertex AI PaLM per generare
modelli di IA da testare, ottimizzare ed eseguire il deployment nelle tue applicazioni basate sull'IA.
Poiché queste funzionalità sono di tipo GA, ti vengono addebitati costi di utilizzo se usi l'API PaLM text-bison
e textembedding-gecko
. Per informazioni sui prezzi, consulta la pagina dei prezzi di Vertex AI.
Le funzionalità e i modelli di questa release includono:
- PaLM 2 per il testo:
text-bison
- Incorporamento per il testo:
textembedding-gecko
- Vertex AI Studio per il linguaggio
Model Garden
Model Garden è disponibile in (GA). Model Garden è una piattaforma che aiuta a scoprire, testare, personalizzare ed eseguire il deployment di Vertex AI e modelli OSS. Questi modelli spaziano da quelli ottimizzabili a quelli specifici per attività e sono tutti disponibili nella pagina di Model Garden nella console Google Cloud.
Per iniziare, consulta Esplorazione di modelli di IA e API in Model Garden.
API Vertex AI Codey
Le API Vertex AI Codey sono in (anteprima).
Con le API Codey, puoi utilizzare le API per la generazione di codice, il completamento del codice e la chat di codice da qualsiasi progetto Google Cloud senza autorizzazione. È possibile accedere alle API dalla regione us-central1
. Le API Codey possono essere utilizzate in Vertex AI Studio o
in modo programmatico nei comandi REST.
Per iniziare, consulta la Panoramica dei modelli di codice.
10 maggio 2023
IA generativa su Vertex AI
L'IA generativa su Vertex AI è disponibile in (anteprima). Con il lancio di questa funzionalità, puoi utilizzare l'API Vertex AI PaLM per generare modelli IA da testare, ottimizzare e implementare nelle tue applicazioni basate sull'IA.
Le funzionalità e i modelli di questa release includono:
- PaLM 2 per il testo:
text-bison
- PaLM 2 per la chat:
chat-bison
- Incorporamento per il testo:
textembedding-gecko
- Vertex AI Studio per il linguaggio
- Ottimizzazione per PaLM 2
- SDK Vertex AI v1.25, che include nuove funzionalità come
TextGenerationModel (
text-bison
), ChatModel (chat-bison
), TextEmbeddingModel (textembedding-gecko@001
)
Puoi interagire con le funzionalità di IA generativa su Vertex AI utilizzando Vertex AI Studio nella console Google Cloud, l'API Vertex AI e l'SDK Vertex AI per Python.
- Scopri di più sull'IA generativa su Vertex AI.
- Consulta un'introduzione a Vertex AI Studio.
- Inizia con una guida rapida di Vertex AI Studio.
Model Garden
Model Garden è disponibile in (anteprima). Model Garden è una piattaforma che ti aiuta a scoprire, testare, personalizzare ed eseguire il deployment di Vertex AI e alcuni modelli OSS. Questi modelli vanno da quelli ottimizzabili a quelli specifici per attività, tutti disponibili nella pagina di Model Garden nella console Google Cloud.