Note di rilascio dell'IA generativa su Vertex AI

Questa pagina documenta gli aggiornamenti di produzione di Generative AI su Vertex AI e Vertex AI Model Garden. Consulta periodicamente questa pagina per annunci sulle funzionalità nuove o aggiornate, correzioni di bug, problemi noti e funzionalità deprecate.

29 marzo 2024

È stato eseguito l'upgrade dell'infrastruttura del modello MedLM-large per migliorare la latenza e la stabilità. Le risposte del modello potrebbero essere leggermente diverse.

22 marzo 2024

I PDF sono ora supportati come input per il modello linguistico multimodale Gemini 1.0 Pro Vision. Puoi chiamare le API direttamente con i PDF o provarle in Vertex AI Studio. Per saperne di più, consulta Inviare richieste di prompt multimodali con immagini o PDF.

19 marzo 2024

I modelli Claude 3 Sonnet e Claude 3 Haiku di Anthropic su Vertex AI sono generalmente disponibili in Vertex AI.

I modelli gestiti Claude 3 Haiku e Claude 3 Sonnet di Anthropic sono disponibili su Vertex AI. Per utilizzare un modello Claude su Vertex AI, invia una richiesta direttamente all&#39endpoint APIPI Vertex AI. Per ulteriori informazioni, consulta Utilizzare i modelli Claude di Anthropic e le schede dei modelli Claude in Model Garden:

21 febbraio 2024

Sono disponibili i modelli open Gemma.

I modelli Gemma, una famiglia di modelli aperti leggeri creati sulla base della stessa ricerca e tecnologia utilizzata per creare i modelli Gemini, sono disponibili per l'esecuzione su hardware, dispositivi mobili o servizi ospitati. Per saperne di più, consulta Utilizzare i modelli open di Gemma e la scheda di Model Garden per il modello Gemma.

15 febbraio 2024

Modelli Vertex AI Gemini 1.0 Pro e Gemini 1.0 Pro Vision

I modelli linguistici multimodali Vertex AI Gemini 1.0 Pro e Gemini 1.0 Pro Vision sono disponibili a livello generale. Sono state rese disponibili anche nelle seguenti regioni: europe-west1, europe-west2, europe-west3, europe-west4 ed europe-west9.

Per maggiori informazioni, consulta i seguenti argomenti:

9 febbraio 2024

Il supporto video per gli embedding multimodali è disponibile a livello generale

Gli incorporamenti per i dati video sono ora disponibili a livello generale utilizzando il modello di incorporamento multimodale (multimodalembedding). Per maggiori informazioni, consulta la documentazione del prodotto.

Questa funzionalità comporta prezzi in base alla modalità che utilizzi. Per ulteriori informazioni, consulta la sezione Prezzi.

7 febbraio 2024

Aggiornamenti di Model Garden:

Funzionalità

Sono stati aggiunti i seguenti modelli:

  • Stable Diffusion XL LCM: il modello di coerenza latente (LCM) migliora la generazione di immagini da testo nei modelli di diffusione latente, consentendo una creazione di immagini più rapida e di alta qualità con meno passaggi.
  • LLaVA 1.5: esegui il deployment dei modelli LLaVA 1.5.
  • PyTorch-ZipNeRF: il modello Pytorch-ZipNeRF è un'implementazione all'avanguardia dell'algoritmo ZipNeRF nel framework Pytorch, progettato per la ricostruzione 3D efficiente e accurata da immagini 2D.
  • LLaMA 2 (quantizzato): una versione quantizzata dei modelli Llama 2 di Meta.
  • WizardLM: WizardLM è un modello linguistico di grandi dimensioni (LLM) sviluppato da Microsoft, ottimizzato per istruzioni complesse adattando il metodo Evol-Instruct.
  • WizardCoder: WizardCoder è un modello linguistico di grandi dimensioni (LLM) sviluppato da Microsoft, ottimizzato per istruzioni complesse adattando il metodo Evol-Instruct al dominio del codice.
  • AutoGluon: con AutoGluon puoi addestrare ed eseguire il deployment di modelli di machine learning e deep learning ad alta precisione per dati tabellari.
  • Lama (Large mask inpainting): utilizza Large Mask Inpainting con convoluzioni di Fourier veloci (FFC), una perdita percettiva del campo ricettivo elevata e maschere di addestramento di grandi dimensioni per l'inpainting di immagini robuste alla risoluzione.

Modificato

  • È stato aggiunto un pulsante di ottimizzazione con un clic e blocchi note dedicati per il deployment, l'ottimizzazione, la quantizzazione e la valutazione di Llama 2.
  • È stato aggiunto un pulsante di deployment con un solo clic per più di 20 modelli con artefatti OSS preaddestrati, tra cui Salesforce/blip-image-captioning-base e timbrooks/instruct-pix2pix.
  • Supporto di CodeLlaMA70b con blocchi note e pulsante di deployment con un solo clic.
  • Sono stati aggiunti notebook di ottimizzazione per i modelli Mistral.
  • Sono stati aggiunti notebook di pubblicazione per Stable Video Diffusion Img2Vid XT (a scopo di ricerca).

12 gennaio 2024

L'ottimizzazione dei modelli textembedding-gecko e textembedding-gecko-multilingual è disponibile in GA. Puoi utilizzare l'ottimizzazione supervisionata per ottimizzare il modello textembedding-gecko. Per maggiori informazioni, consulta la pagina Ottimizzare gli incorporamenti di testo.

8 gennaio 2024

AutoSxS valuta gli LLM affiancati

Lo strumento di valutazione automatica side-by-side (AutoSxS) è disponibile in anteprima per eseguire test A/B sul rendimento dei tuoi LLM o delle previsioni pregenerate. È paragonabile agli esaminatori umani, ma più veloce, disponibile on demand e più conveniente.

5 gennaio 2024

Espansione regionale dell'AI generativa su Vertex AI

Le funzionalità di IA generativa su Vertex AI per la previsione batch e la valutazione dei modelli sono disponibili in 12 regioni aggiuntive Google Cloud .

18 dicembre 2023

Aggiornamenti di Model Garden:

13 dicembre 2023

Modelli Vertex AI Gemini Pro e Gemini Pro Vision

I modelli linguistici multimodali Vertex AI Gemini Pro e Gemini Pro Vision sono disponibili in anteprima. Per maggiori informazioni, consulta i seguenti argomenti:

Disponibilità generale di Imagen 2

La versione 005 del modello di generazione di immagini di Imagen (imagegeneration@005) è disponibile a livello generale per le attività di generazione di immagini. Questa versione del modello è quella predefinita per le attività di generazione di immagini. Per ulteriori informazioni, consulta la documentazione del prodotto.

Per informazioni generali sui modelli e sulle versioni di Imagen, consulta Versioni e ciclo di vita del modello Imagen.

12 dicembre 2023

Modello di incorporamento di testo 003 (textembedding-gecko@003) disponibile

È disponibile la versione stabile aggiornata del modello di base di incorporamento di testo, textembedding-gecko@003. textembedding-gecko@003 hanno una qualità migliorata rispetto alle versioni stabili precedenti, textembedding-gecko@001 e textembedding-gecko@002. Per ulteriori informazioni sulle versioni del modello, vedi Versioni e ciclo di vita del modello.

8 dicembre 2023

Aggiornamento del controllo di sicurezza dell'AI generativa su Vertex AI

Il controllo di sicurezza Access Transparency (AXT) è disponibile per le seguenti funzionalità:

  • Incorporamenti per la previsione online multimodale
  • Imagen su Vertex AI online prediction
  • Ottimizzazione di Imagen su Vertex AI

6 dicembre 2023

Modelli di testo aggiornati

È disponibile la versione @002 dei modelli per testo, chat, codice e chat di codice. Le versioni del modello @002 includono risposte ai prompt migliorate. I modelli @002 sono:

  • text-bison@002
  • chat-bison@002
  • code-bison@002
  • codechat-bison@002

Per assicurarti di utilizzare sempre la versione del modello stabile, specifica l'identificatore del modello con il numero di versione. Ad esempio, text-bison@002. Per ulteriori informazioni, consulta Versioni e ciclo di vita del modello.

5 dicembre 2023

Funzionalità

La base del modello è disponibile in anteprima. Utilizza il grounding per collegare i modelli text-bison e chat-bison ai datastore non strutturati in Vertex AI Search. Il grounding consente ai modelli di accedere e utilizzare le informazioni nei repository di dati per generare risposte più avanzate e sfumate. Per saperne di più, consulta la panoramica del grounding.

1° dicembre 2023

Cambia

Sono disponibili i seguenti aggiornamenti di model_garden_name:

30 novembre 2023

Funzionalità

Una dimensione del modello per PaLM 2 per il testo è disponibile pubblicamente (GA). Il modello text-unicorn offre una qualità delle risposte migliore per un insieme di attività di ragionamento complesse rispetto al modello text-bison. Per maggiori dettagli, vedi Informazioni sul modello.

17 novembre 2023

L'API ComputeToken è disponibile in anteprima

L'API ComputeToken è disponibile in (anteprima). Puoi utilizzare questa API per ottenere un elenco di token per un determinato prompt. Un token è un modo per rappresentare una sequenza comune di caratteri trovata in un input di testo. Per scoprire di più, vedi Ottenere un elenco di token.

10 novembre 2023

IA generativa su Vertex AI

Sono disponibili controlli di sicurezza per funzionalità aggiuntive di AI generativa su Vertex AI.

3 novembre 2023

Aggiornamenti di Model Garden

Funzionalità

I seguenti modelli sono stati aggiunti a Model Garden:

  • ImageBind: modello di embedding multimodale.
  • Vicuna v1.5: LLM ottimizzato in base a llama2.
  • OWL-ViT v2: modello per il rilevamento di oggetti con vocabolario aperto all'avanguardia.
  • DITO: modello di rilevamento di oggetti con vocabolario aperto all'avanguardia.
  • NLLB: modello di traduzione multilingue.
  • Mistral-7B: LLM all'avanguardia di dimensioni ridotte.
  • BioGPT: LLM perfezionato per il dominio biomedico.
  • BiomedCILP: modello di base multimodale ottimizzato per il dominio biomedico.

Per visualizzare un elenco di tutti i modelli disponibili, consulta Esplora i modelli in Model Garden.

Modificato

  • Miglioramento del throughput di pubblicazione del modello linguistico. Per maggiori dettagli, consulta Eseguire l'hosting di modelli linguistici di grandi dimensioni open source in modo efficiente su Model Garden. Notebooks nelle schede dei modelli pertinenti sono stati aggiornati di conseguenza.
  • Velocità di inferenza fino a 2 volte più rapida rispetto all'implementazione originale per i modelli Stable Diffusion 1.5, 2.1 e XL.
  • È stato migliorato il flusso di lavoro del pulsante Esegui il deployment in tutte le schede del modello supportate.
  • Notebook aggiornati per Llama2, OpenLlama e Falcon Instruct con specifiche della macchina suggerite per la pubblicazione del modello e docker di EleutherAI's evaluation harness per la valutazione del modello.

Nuove versioni stabili dei modelli textembedding-gecko e textembedding-gecko-multilingual

Le seguenti versioni stabili del modello sono disponibili nell'AI generativa su Vertex AI:

  • textembedding-gecko@002
  • textembedding-gecko-multilingual@001

Per ulteriori informazioni sulle versioni del modello, vedi Versioni e ciclo di vita del modello.

2 novembre 2023

È possibile accedere all'AI generativa su Vertex AI tramite 12 API regionali in Nord America, Europa e Asia. Le API regionali consentono ai clienti di controllare dove vengono archiviati i dati inattivi.

3 novembre 2023

L'ottimizzazione del modello per chat-bison@001 è disponibile pubblicamente (GA).

L'ottimizzazione chat-bison@001 supporta le visualizzazioni delle metriche di TensorBoard. Per maggiori dettagli, consulta Metriche di ottimizzazione e valutazione.

4 ottobre 2023

L'ottimizzazione del modello per textembedding-gecko è disponibile in anteprima

Puoi utilizzare l'ottimizzazione supervisionata per ottimizzare il modello textembedding-gecko. Questa funzionalità è in anteprima. Per maggiori informazioni, consulta la pagina Ottimizzare gli incorporamenti di testo.

1° settembre 2023

Aggiornamento dei prezzi

Il prezzo per text-bison è stato ridotto a 0,0005 $per 1000 caratteri di input e output. Per maggiori dettagli, consulta la pagina Prezzi di Vertex AI.

29 agosto 2023

Nuovi modelli di AI generativa su Vertex AI e supporto linguistico esteso

L'AI generativa su Vertex AI è stata aggiornata per includere nuovi candidati per i modelli linguistici (modelli più recenti), modelli linguistici che supportano token di input e output fino a 32.000 e altre lingue supportate. Per maggiori dettagli, vedi Modelli disponibili e Versioni e ciclo di vita dei modelli.

Streaming delle risposte dei modelli di AI generativa

Lo streaming dei modelli di AI generativa è in disponibilità generale (GA). Dopo aver inviato un prompt, il modello restituisce i token di risposta man mano che vengono generati invece di attendere che l'intero output sia disponibile.

I modelli supportati sono:

  • text-bison
  • chat-bison
  • code-bison
  • codechat-bison

Per saperne di più, consulta Trasmettere in streaming le risposte dei modelli di AI generativa.

L'ottimizzazione supervisionata per il modello text-bison è disponibile pubblicamente (GA)

L'ottimizzazione supervisionata per il modello text-bison è disponibile pubblicamente (GA).

L'ottimizzazione del modello chat-bison è disponibile in anteprima

Puoi utilizzare l'ottimizzazione supervisionata per ottimizzare il modello chat-bison. Questa funzionalità è in anteprima. Per saperne di più, vedi Ottimizzare i modelli di testo.

Nuovo modello di incorporamento disponibile in anteprima

Gli utenti di Generative AI su Vertex AI possono creare embedding utilizzando un nuovo modello addestrato su un'ampia gamma di lingue non inglesi. Il modello è in anteprima.

  • textembedding-gecko-multilingual

Per saperne di più, consulta Ottenere incorporamenti di testo.

L'ottimizzazione del soggetto e dello stile di Imagen è disponibile pubblicamente (GA)

Imagen su Vertex AI offre le seguenti funzionalità GA:

  • Ottimizzazione del modello di soggetto (ottimizzazione standard)*
  • Ottimizzazione del modello di stile*

* Funzionalità ad accesso limitato.

Per saperne di più su Imagen su Vertex AI o su come ottenere l'accesso alla GA con limitazioni, consulta la panoramica di Imagen su Vertex AI.

Ottimizzazione dell'apprendimento per rinforzo con feedback umano (RLHF) per text-bison

Il modello di base per la generazione di testo dell'AI generativa su Vertex AI (text-bison) supporta l'ottimizzazione RLHF. La funzionalità di ottimizzazione RLHF è in anteprima. Per ulteriori informazioni, consulta Utilizzare l'ottimizzazione del modello RLHF.

Supporto delle lingue per le API Codey di Vertex AI

Le API Codey di Vertex AI supportano altri linguaggi di programmazione. Per ulteriori informazioni, vedi Linguaggi di programmazione supportati.

Le API Codey di Vertex AI supportano l'ottimizzazione supervisionata

La chat di codice (codechat-bison) e la generazione di codice (code-bison) I modelli delle API Vertex AI Codey supportano l'ottimizzazione supervisionata. La funzionalità di ottimizzazione supervisionata per i modelli delle API Vertex AI Codey è in (anteprima). Per saperne di più, consulta Ottimizzare i modelli di codice.

Valutazione del modello basata su metriche

Puoi valutare le prestazioni dei modelli di base e di quelli ottimizzati rispetto a un set di dati di valutazione per la classificazione, il riepilogo, il question answering e la generazione di testo generale. Questa funzionalità è disponibile in (anteprima)

Per scoprire di più, vedi Valutare le prestazioni del modello.

API CountToken disponibile in anteprima

L'API CountToken è disponibile in (anteprima). Puoi utilizzare questa API per ottenere il conteggio dei token e il numero di caratteri fatturabili per un prompt. Per saperne di più, consulta Ottenere il conteggio dei token.

9 agosto 2023

Embedding multimodali di Imagen disponibili in GA

Imagen su Vertex AI offre la seguente funzionalità GA:

  • Embedding multimodali

Questa funzionalità comporta prezzi diversi a seconda che utilizzi l'input di immagini o di testo. Per ulteriori informazioni, consulta la pagina delle funzionalità Incorporamenti multimodali.

21 agosto 2023

Aggiornamento del parametro di ottimizzazione del modello

I job di ottimizzazione del modello accettano parametri facoltativi per la valutazione del modello e l'integrazione di Vertex AI TensorBoard. Ciò ti consente di valutare il modello e generare visualizzazioni con un singolo comando. Per saperne di più, vedi Creare un job di ottimizzazione del modello.

28 luglio 2023

Aggiornamento del parametro di ottimizzazione del modello

Il parametro learning_rate nell'ottimizzazione del modello è learning_rate_multiplier. Per utilizzare il tasso di apprendimento predefinito del modello o del metodo di ottimizzazione, utilizza il valore predefinito learning_rate_multiplier di 1.0.

Se non hai mai configurato learning_rate, non è richiesta alcuna azione. Se utilizzi tuning_method=tune_v2 con il modello di pipeline v2.0.0 (SDK Python v1.28.1+), il tasso di apprendimento consigliato è 0,0002. Per convertire il tuo learning_rate personalizzato in learning_rate_multiplier, calcola come segue:

learing_rate_multiplier = custom_learning_rate_value / 0.0002

18 luglio 2023

Aggiornamenti dell'ottimizzazione del modello per text-bison

  • La pipeline di ottimizzazione aggiornata offre un'ottimizzazione più efficiente e prestazioni migliori su text-bison.
  • Nuova regione di ottimizzazione (us-central1) disponibile con il supporto della GPU.
  • Il nuovo parametro learning_rate consente di regolare la dimensione del passo a ogni iterazione.

Per maggiori dettagli, vedi Ottimizzare i modelli di base del linguaggio.

Chirp GA

Chirp è disponibile pubblicamente (GA). Per maggiori dettagli, consulta le seguenti pagine:

17 luglio 2023

Funzionalità di Imagen su Vertex AI in disponibilità generale

Imagen su Vertex AI offre le seguenti funzionalità GA:

* Funzionalità ad accesso limitato.

Per saperne di più su Imagen o su come accedere alle funzionalità GA o di anteprima con limitazioni, consulta la panoramica di Imagen su Vertex AI.

Generazione di volti umani supportata

Imagen supporta la generazione di volti umani per le seguenti funzionalità:

* Funzionalità ad accesso limitato.

La generazione di volti umani è attivata per impostazione predefinita, ad eccezione delle immagini con bambini o celebrità. Per ulteriori informazioni, consulta le linee guida per l'utilizzo.

Supporto di lingue aggiuntive

L'API Vertex AI PaLM ha aggiunto il supporto per le seguenti lingue:

  • Spagnolo (es)
  • Coreano (ko)
  • Hindi (hi)
  • Chinese (zh)

Per l'elenco completo delle lingue supportate, vedi Lingue supportate.

13 luglio 2023

Supporto batch per PaLM 2 per il testo

Il supporto per le richieste di testo batch (text-bison) è disponibile in (GA). Puoi esaminare i prezzi del modello chat-bison nella pagina dei prezzi di Vertex AI.

10 luglio 2023

PaLM 2 per Chat

Il supporto per Chat (chat-bison) è disponibile in (GA). Puoi esaminare i prezzi del modello chat-bison nella pagina dei prezzi di Vertex AI.

29 giugno 2023

API Vertex AI Codey

Le API Vertex AI Codey sono disponibili al pubblico generale (GA). Utilizza le API Vertex AI Codey per creare soluzioni con generazione, completamento e chat per il codice. Poiché le API Vertex AI Codey sono GA, se le utilizzi, ti vengono addebitati costi di utilizzo. Per informazioni sui prezzi, consulta la pagina dei prezzi dell'AI generativa su Vertex AI.

I modelli in questa release includono:

  • code-bison (generazione di codice)
  • codechat-bison (chat di codice)
  • code-gecko (completamento del codice)

Il numero massimo di token per l'input è stato aumentato da 4096 a 6144 token per code-bison e codechat-bison per consentire prompt e cronologia della chat più lunghi. Il numero massimo di token per l'output è stato aumentato da 1024 a 2048 per code-bison e codechat-bison per consentire risposte più lunghe.

Sono supportati altri linguaggi di programmazione. Per ulteriori informazioni, vedi Linguaggi di programmazione supportati.

Sono stati rimossi diversi set di dati di perfezionamento dai modelli code-bison e codechat-bison per implementare i seguenti miglioramenti:

  • Eccessiva loquacità.
  • Artefatti, come i caratteri NBSP (spazio unificatore).
  • Risposte di codice di bassa qualità.

Per scoprire di più sulle certificazioni cloud, consulta la pagina Certificazioni Vertex AI.

15 giugno 2023

PaLM 2 per Chat

Il modello chat-bison è stato aggiornato per seguire meglio le istruzioni nel campo context. Per informazioni dettagliate su come creare prompt di chat per chat-bison, vedi Progettare prompt di chat.

7 giugno 2023

API PaLM Text e Embeddings e Vertex AI Studio

L'AI generativa su Vertex AI è disponibile in (GA). Con il lancio di questa funzionalità, puoi utilizzare l'API Vertex AI PaLM per generare modelli di AI che puoi testare, ottimizzare ed eseguire il deployment nelle tue applicazioni basate sull'AI. Poiché queste funzionalità sono disponibili a livello generale, se utilizzi l'API PaLM text-bison e textembedding-gecko, ti verranno addebitati costi di utilizzo. Per informazioni sui prezzi, consulta la pagina dei prezzi di Vertex AI.

Le funzionalità e i modelli di questa release includono:

  • PaLM 2 per il testo: text-bison
  • Incorporamento per il testo: textembedding-gecko
  • Vertex AI Studio for Language

Model Garden

Model Garden è disponibile in (GA). Model Garden è una piattaforma che ti aiuta a scoprire, testare, personalizzare ed eseguire il deployment di Vertex AI e selezionare modelli OSS. Questi modelli vanno da quelli ottimizzabili a quelli specifici per le attività e sono tutti disponibili nella pagina Model Garden della consoleGoogle Cloud .

Per iniziare, consulta Esplora i modelli IA e le API in Model Garden.

API Vertex AI Codey

Le API Vertex AI Codey sono in (anteprima). Con le API Codey, le API di generazione di codice, completamento del codice e chat di codice possono essere utilizzate da qualsiasi progettoGoogle Cloud senza l'inserimento nella lista consentita. È possibile accedere alle API dalla regione us-central1. Le API Codey possono essere utilizzate in Vertex AI Studio o in modo programmatico nei comandi REST.

Per iniziare, consulta la Panoramica dei modelli di codice.

10 maggio 2023

IA generativa su Vertex AI

L'AI generativa su Vertex AI è disponibile in (anteprima). Con il lancio di questa funzionalità, puoi utilizzare l'API Vertex AI PaLM per generare modelli di AI che puoi testare, ottimizzare ed eseguire il deployment nelle tue applicazioni basate sull'AI.

Le funzionalità e i modelli di questa release includono:

  • PaLM 2 per il testo: text-bison
  • PaLM 2 per la chat: chat-bison
  • Incorporamento per il testo: textembedding-gecko
  • Vertex AI Studio for Language
  • Ottimizzazione per PaLM 2
  • SDK Vertex AI v1.25, che include nuove funzionalità, come TextGenerationModel (text-bison), ChatModel (chat-bison), TextEmbeddingModel (textembedding-gecko@001)

Puoi interagire con le funzionalità di AI generativa su Vertex AI utilizzando Vertex AI Studio nella console Google Cloud , l'API Vertex AI e l'SDK Vertex AI per Python.

Model Garden

Model Garden è disponibile in (anteprima). Model Garden è una piattaforma che ti aiuta a scoprire, testare, personalizzare ed eseguire il deployment di Vertex AI e selezionare modelli OSS. Questi modelli vanno da quelli regolabili a quelli specifici per attività, tutti disponibili nella pagina Model Garden della consoleGoogle Cloud .