Note di rilascio dell'IA generativa su Vertex AI

Questa pagina descrive gli aggiornamenti di produzione dell'IA generativa su Vertex AI e di Vertex AI Model Garden. Consulta periodicamente questa pagina per annunci su funzionalità nuove o aggiornate, correzioni di bug, problemi noti e funzionalità ritirate.

29 marzo 2024

È stato eseguito l'upgrade dell'infrastruttura del modello MedLM-large per migliorare la latenza e la stabilità. Le risposte del modello potrebbero essere leggermente diverse.

22 marzo 2024

I PDF sono ora supportati come input per il modello linguistico multimodale Gemini 1.0 Pro Vision. Puoi chiamare direttamente le API con i PDF o provarle in Vertex AI Studio. Per scoprire di più, consulta la sezione Inviare richieste di prompt multimodali con immagini o PDF.

19 marzo 2024

I modelli Claude 3 Sonnet e Claude 3 Haiku di Anthropic su Vertex AI sono disponibili in Vertex AI.

I modelli gestiti Claude 3 Haiku e Claude 3 Sonnet di Anthropic sono disponibili su Vertex AI. Per utilizzare un modello Claude su Vertex AI, invia una richiesta direttamente all'endpoint API di Vertex AI. Per ulteriori informazioni, consulta Utilizzare i modelli Claude di Anthropic e le schede dei modelli Claude in Model Garden:

21 febbraio 2024

I modelli aperti di Gemma sono disponibili.

I modelli Gemma, una famiglia di modelli aperti leggeri creati sulla base della stessa ricerca e tecnologia utilizzata per creare i modelli Gemini, possono essere eseguiti su hardware, dispositivi mobili o servizi ospitati. Per saperne di più, consulta Utilizzare i modelli Open di Gemma e la scheda Model Garden di Gemma.

15 febbraio 2024

Modelli Vertex AI Gemini 1.0 Pro e Gemini 1.0 Pro Vision

I modelli linguistici multimodali Vertex AI Gemini 1.0 Pro e Gemini 1.0 Pro Vision sono in disponibilità generale (GA). Sono stati resi disponibili anche nelle seguenti regioni: europe-west1, europe-west2, europe-west3, europe-west4 ed europe-west9.

Per ulteriori informazioni, consulta i seguenti argomenti:

9 febbraio 2024

Il supporto video per gli embedding multimodali è disponibile a livello generale

Gli embedding per i dati video sono ora disponibili a livello generale utilizzando il modello di embedding multimodale (multimodalembedding). Per saperne di più, consulta la documentazione del prodotto.

I prezzi di queste funzionalità variano in base alla modalità utilizzata. Per ulteriori informazioni, consulta la sezione Prezzi.

7 febbraio 2024

Aggiornamenti di Model Garden:

Funzionalità

Sono stati aggiunti i seguenti modelli:

  • LCM di diffusione stabile XL: il modello di coerenza latente (LCM) migliora la generazione di testo in immagini nei modelli di diffusione latente consentendo la creazione di immagini più rapide e di alta qualità con meno passaggi.
  • LLaVA 1.5: esegui il deployment dei modelli LLaVA 1.5.
  • PyTorch-ZipNeRF: il modello PyTorch-ZipNeRF è un'implementazione all'avanguardia dell'algoritmo ZipNeRF nel framework PyTorch, progettato per una ricostruzione 3D efficiente e accurata da immagini 2D.
  • LLaMA 2 (quantizzato): una versione quantizzata dei modelli Llama 2 di Meta.
  • WizardLM: WizardLM è un modello linguistico di grandi dimensioni (LLM) sviluppato da Microsoft, ottimizzato su istruzioni complesse adattando il metodo Evol-Instruct.
  • WizardCoder: WizardCoder è un modello linguistico di grandi dimensioni (LLM) sviluppato da Microsoft, ottimizzato per istruzioni complesse adattando il metodo Evol-Instruct al dominio del codice.
  • AutoGluon: con AutoGluon puoi addestrare e implementare modelli di machine learning e deep learning ad alta precisione per i dati tabulari.
  • Lama (riparazione con maschera di grandi dimensioni): utilizza la riparazione con maschera di grandi dimensioni con convoluzioni rapide di Fourier (FFC), una perdita percettiva del campo di ricezione elevata e maschere di addestramento di grandi dimensioni per la riparazione di immagini con una risoluzione robusta.

Modificato

  • È stato aggiunto un pulsante di ottimizzazione con un solo clic e notebook dedicati per il deployment, l'ottimizzazione, la quantizzazione e la valutazione di Llama 2.
  • È stato aggiunto un pulsante di deployment con un solo clic per più di 20 modelli con elementi OSS preaddestrati, tra cui Salesforce/blip-image-captioning-base e timbrooks/instruct-pix2pix.
  • Supporto di CodeLlaMA70b con i notebook e il pulsante di deployment con un solo clic.
  • Sono stati aggiunti notebook di ottimizzazione per i modelli Mistral.
  • Sono stati aggiunti notebook di pubblicazione per la diffusione di video stabili Img2Vid XT (a fini di ricerca).

12 gennaio 2024

L'ottimizzazione del modello per i modelli textembedding-gecko e textembedding-gecko-multilingual è disponibile in GA. Puoi utilizzare l'ottimizzazione fine supervisionata per ottimizzare il modello textembedding-gecko. Per ulteriori informazioni, consulta Ottimizzare gli embedding di testo.

8 gennaio 2024

AutoSxS valuta i modelli LLM affiancati

Lo strumento di valutazione automatica affiancata (AutoSxS) è disponibile in anteprima per eseguire test A/B sul rendimento dei modelli LLM o delle predizioni generate. È paragonabile ai valutatori umani, ma è più veloce, disponibile su richiesta e più conveniente.

5 gennaio 2024

Espansione regionale dell'IA generativa su Vertex AI

Le funzionalità di IA generativa su Vertex AI per la previsione batch e la valutazione del modello sono disponibili in altre 12 regioni Google Cloud .

18 dicembre 2023

Aggiornamenti di Model Garden:

13 dicembre 2023

Modelli Vertex AI Gemini Pro e Gemini Pro Vision

I modelli linguistici multimodali Vertex AI Gemini Pro e Gemini Pro Vision sono disponibili in anteprima. Per ulteriori informazioni, consulta i seguenti argomenti:

Disponibilità generale di Imagen 2

La versione 005 del modello di generazione di immagini di Imagen (imagegeneration@005) è disponibile a livello generale per le attività di generazione di immagini. Questa versione del modello è quella predefinita per le attività di generazione di immagini. Per ulteriori informazioni, consulta la documentazione del prodotto.

Per informazioni generali sui modelli e sulle versioni di Imagen, consulta Versioni e ciclo di vita del modello Imagen.

12 dicembre 2023

Modello di incorporamento di testo 003 (textembedding-gecko@003) disponibile

È disponibile la versione stabile aggiornata del modello di base di embedding del testo, textembedding-gecko@003. textembedding-gecko@003 offre una qualità migliorata rispetto alle versioni stabili precedenti, textembedding-gecko@001 e textembedding-gecko@002. Per ulteriori informazioni sulle versioni del modello, consulta Versioni e ciclo di vita dei modelli.

8 dicembre 2023

Aggiornamento del controllo della sicurezza dell'IA generativa su Vertex AI

Il controllo di sicurezza Access Transparency (AXT) è disponibile per le seguenti funzionalità:

  • Incorporamenti per la previsione online multimodale
  • Imagen su Vertex AI Online Prediction
  • Ottimizzazione di Imagen su Vertex AI

6 dicembre 2023

Modelli di testo aggiornati

È disponibile la versione @002 dei modelli per testo, chat, codice e chat di codice. Le versioni del modello @002 includono risposte ai prompt migliorate. I modelli @002 sono:

  • text-bison@002
  • chat-bison@002
  • code-bison@002
  • codechat-bison@002

Per assicurarti di utilizzare sempre la versione del modello stabile, specifica l'identificatore del modello con il numero di versione. Ad esempio, text-bison@002. Per ulteriori informazioni, consulta Versioni e ciclo di vita dei modelli.

5 dicembre 2023

Funzionalità

L'aggiornamento del modello è disponibile in Anteprima. Utilizza il grounding per collegare i modelli text-bison e chat-bison ai datastore non strutturati in Vertex AI Search. La grounding consente ai modelli di accedere e utilizzare le informazioni nei repository di dati per generare risposte più avanzate e sfumate. Per ulteriori informazioni, consulta la sezione Panoramica della messa a terra.

1° dicembre 2023

Cambia

I seguenti aggiornamenti di model_garden_name sono disponibili:

30 novembre 2023

Funzionalità

Una dimensione del modello per PaLM 2 per testo è disponibile pubblicamente (GA). Il modello text-unicorn offre una migliore qualità di risposta per un insieme di attività di ragionamento complesso rispetto al modello text-bison. Per maggiori dettagli, consulta Informazioni sul modello.

17 novembre 2023

L'API ComputeToken è disponibile in anteprima

L'API ComputeToken è disponibile in (anteprima). Puoi utilizzare questa API per ottenere un elenco di token per un determinato prompt. Un token è un modo per rappresentare una sequenza comune di caratteri trovata in un input di testo. Per approfondire, vedi Generare un elenco di token.

10 novembre 2023

IA generativa su Vertex AI

I controlli di sicurezza sono disponibili per altre funzionalità dell'IA generativa su Vertex AI.

3 novembre 2023

Aggiornamenti di Model Garden

Funzionalità

I seguenti modelli sono stati aggiunti a Model Garden:

  • ImageBind: modello di embedding multimodale.
  • Vicuna v1.5: LLM ottimizzato in base a llama2.
  • OWL-ViT v2: modello di rilevamento di oggetti con vocabolario aperto allo stato dell'arte.
  • DITO: modello di rilevamento di oggetti con vocabolario aperto allo stato dell'arte.
  • NLLB: modello di traduzione multilingue.
  • Mistral-7B: LLM di stato dell'arte di piccole dimensioni.
  • BioGPT: LLM perfezionato per il dominio biomedico.
  • BiomedCILP: modello di base multimodale ottimizzato per il dominio biomedico.

Per visualizzare un elenco di tutti i modelli disponibili, consulta Esplorare i modelli in Model Garden.

Modificato

  • Miglioramento del throughput di pubblicazione dei modelli linguistici. Per maggiori dettagli, consulta Pubblicazione efficiente di modelli linguistici di grandi dimensioni open source su Model Garden. Notebooks nelle schede dei modelli pertinenti sono stati aggiornati di conseguenza.
  • Velocità di inferenza fino a 2 volte superiore rispetto all'implementazione originale per i modelli Stable Diffusion 1.5, 2.1 e XL.
  • È stato migliorato il flusso di lavoro del pulsante Esegui il deployment in tutte le schede dei modelli supportate.
  • Notebook aggiornati per Llama2, OpenLlama e Falcon Instruct con specifiche della macchina suggerite per la pubblicazione del modello e i docker del strumento di valutazione di EleutherAI per la valutazione del modello.

Nuove versioni stabili dei modelli textembedding-gecko e textembedding-gecko-multilingual

In Generative AI su Vertex AI sono disponibili le seguenti versioni stabili del modello:

  • textembedding-gecko@002
  • textembedding-gecko-multilingual@001

Per ulteriori informazioni sulle versioni del modello, consulta Versioni e ciclo di vita dei modelli.

2 novembre 2023

È possibile accedere all'IA generativa su Vertex AI tramite 12 API regionali in Nord America, Europa e Asia. Le API regionali consentono ai clienti di controllare dove vengono archiviati i dati at-rest.

3 novembre 2023

L'ottimizzazione del modello per chat-bison@001 è disponibile pubblicamente (GA).

L'ottimizzazione chat-bison@001 supporta le visualizzazioni delle metriche di TensorBoard. Per maggiori dettagli, consulta Metriche di ottimizzazione e valutazione.

4 ottobre 2023

L'ottimizzazione del modello per textembedding-gecko è disponibile in anteprima

Puoi utilizzare l'ottimizzazione supervisionata per ottimizzare il modello textembedding-gecko. Questa funzionalità è in Anteprima. Per ulteriori informazioni, consulta Ottimizzare gli embedding di testo.

1° settembre 2023

Aggiornamento dei prezzi

Il prezzo di text-bison è stato ridotto a 0,0005 $per 1000 caratteri di input e output. Per maggiori dettagli, consulta la pagina Prezzi di Vertex AI.

29 agosto 2023

Nuovi modelli di IA generativa su Vertex AI e supporto linguistico ampliato

L'AI generativa su Vertex AI è stata aggiornata per includere nuovi candidati per i modelli linguistici (ultimi modelli), modelli linguistici che supportano token di input e output fino a 32.000 e più lingue supportate. Per maggiori dettagli, consulta Modelli disponibili e Versioni e ciclo di vita dei modelli.

Riprodurre in streaming le risposte dei modelli di IA generativa

Il supporto dello streaming dei modelli di IA generativa è disponibile in versione generale (GA). Dopo che hai inviato un prompt, il modello restituisce i token di risposta man mano che vengono generati invece di attendere che l'intero output sia disponibile.

I modelli supportati sono:

  • text-bison
  • chat-bison
  • code-bison
  • codechat-bison

Per scoprire di più, consulta Emettere risposte in streaming dai modelli di IA generativa.

L'ottimizzazione supervisionata per il modello text-bison è disponibile pubblicamente (GA)

L'ottimizzazione supervisionata per il modello text-bison è disponibile pubblicamente (GA).

L'ottimizzazione del modello per il modello chat-bison è disponibile in Anteprima

Puoi utilizzare l'ottimizzazione supervisionata per ottimizzare il modello chat-bison. Questa funzionalità è in Anteprima. Per saperne di più, consulta Ottimizzare i modelli di testo.

Nuovo modello di embedding disponibile in anteprima

Gli utenti di IA generativa su Vertex AI possono creare embedding utilizzando un nuovo modello addestrato su una vasta gamma di lingue diverse dall'inglese. Il modello è in (Anteprima).

  • textembedding-gecko-multilingual

Per saperne di più, consulta Ottenere gli embedding di testo.

L'ottimizzazione del soggetto e dello stile di Imagen è disponibile pubblicamente (GA)

Imagen su Vertex AI offre le seguenti funzionalità GA:

  • Ottimizzazione del modello soggetto (ottimizzazione standard)*
  • Ottimizzazione del modello di stile*

* Funzionalità con accesso limitato.

Per ulteriori informazioni su Imagen su Vertex AI o su come accedere all'IA generativa con limitazioni, consulta la panoramica di Imagen su Vertex AI.

Ottimizzazione dell'apprendimento per rinforzo con feedback umano (RLHF) per text-bison

Il modello di base per la generazione di testo dell'IA generativa su Vertex AI (text-bison) supporta il tuning RLHF. La funzionalità di ottimizzazione RLHF è in Anteprima. Per ulteriori informazioni, consulta Utilizzare l'ottimizzazione del modello RLHF.

Supporto delle lingue per le API Codey di Vertex AI

Le API Codey di Vertex AI supportano altri linguaggi di programmazione. Per ulteriori informazioni, consulta Linguaggi di programmazione supportati.

Le API Codey di Vertex AI supportano l'ottimizzazione supervisionata

I modelli di API Codey di Vertex AI per la chat di codice (codechat-bison) e la generazione di codice (code-bison) supportano l'ottimizzazione supervisionata. La funzionalità di ottimizzazione supervisionata per i modelli delle API Codey di Vertex AI è in anteprima. Per ulteriori informazioni, consulta Modificare i modelli di codice.

Valutazione del modello basata su metriche

Puoi valutare le prestazioni dei modelli di base e di quelli ottimizzati rispetto a un set di dati di valutazione per la classificazione, il riassunto, la risposta alle domande e la generazione di testo generico. Questa funzionalità è disponibile in (Anteprima)

Per scoprire di più, consulta Valutare il rendimento del modello.

API CountToken disponibile in anteprima

L'API CountToken è disponibile in (Anteprima). Puoi utilizzare questa API per ottenere il conteggio dei token e il numero di caratteri fatturabili per un prompt. Per scoprire di più, consulta Ottenere il conteggio dei token.

9 agosto 2023

Embedding multimodali di Imagen disponibili in GA

Imagen su Vertex AI offre la seguente funzionalità GA:

  • Incorporamenti multimodali

Questa funzionalità prevede prezzi diversi in base all'utilizzo di input di immagini o di testo. Per ulteriori informazioni, consulta la pagina della funzionalità relativa agli embedding multimodali.

21 agosto 2023

Aggiornamento del parametro di ottimizzazione del modello

I job di ottimizzazione dei modelli accettano parametri facoltativi per la valutazione del modello e l'integrazione di TensorBoard di Vertex AI. In questo modo puoi valutare il modello e generare visualizzazioni con un solo comando. Per ulteriori informazioni, consulta Creare un job di ottimizzazione del modello.

28 luglio 2023

Aggiornamento del parametro di ottimizzazione del modello

Il parametro learning_rate nella regolazione del modello è learning_rate_multiplier. Per utilizzare il tasso di apprendimento predefinito del modello o del metodo di ottimizzazione, utilizza il valore predefinito learning_rate_multiplier di 1.0.

Se non hai mai configurato learning_rate, non devi fare nulla. Se utilizzi tuning_method=tune_v2 con il modello di pipeline v2.0.0 (SDK Python v1.28.1 o versioni successive), il tasso di apprendimento consigliato è 0,0002. Per convertire il tuo learning_rate personalizzato in learning_rate_multiplier, calcola come segue:

learing_rate_multiplier = custom_learning_rate_value / 0.0002

18 luglio 2023

Aggiornamenti all'ottimizzazione del modello per text-bison

  • La pipeline di ottimizzazione di cui è stato eseguito l'upgrade offre una regolazione più efficiente e un miglior rendimento su text-bison.
  • Nuova regione di ottimizzazione (us-central1) disponibile con il supporto GPU.
  • Il nuovo parametro learning_rate consente di regolare l'intervallo di ciascun passaggio.

Per maggiori dettagli, consulta Ottimizzare i modelli linguistici di base.

Chirp GA

Chirp è disponibile pubblicamente (GA). Per maggiori dettagli, consulta le seguenti pagine:

17 luglio 2023

Funzionalità di Imagen su Vertex AI disponibili a livello generale

Imagen su Vertex AI offre le seguenti funzionalità in disponibilità generale:

* Funzionalità con accesso limitato.

Per ulteriori informazioni su Imagen o su come accedere alle funzionalità di versione beta o GA limitate, consulta la panoramica di Imagen su Vertex AI.

Generazione di volti umani supportata

Imagen supporta la generazione di volti umani per le seguenti funzionalità:

* Funzionalità con accesso limitato.

La generazione di volti umani è attiva per impostazione predefinita, ad eccezione delle immagini con bambini o celebrità. Per ulteriori informazioni, consulta le linee guida per l'utilizzo.

Supporto di altre lingue

L'API Vertex AI PaLM ha aggiunto il supporto per le seguenti lingue:

  • Spagnolo (es)
  • Coreano (ko)
  • Hindi (hi)
  • Cinese (zh)

Per l'elenco completo delle lingue supportate, consulta Lingue supportate.

13 luglio 2023

Supporto batch per PaLM 2 per il testo

Il supporto per le richieste di testo batch (text-bison) è disponibile in (GA). Puoi esaminare i prezzi del modello chat-bison nella pagina dei prezzi di Vertex AI.

10 luglio 2023

PaLM 2 per la chat

Il supporto di Chat (chat-bison) è disponibile in (GA). Puoi esaminare i prezzi del modello chat-bison nella pagina dei prezzi di Vertex AI.

29 giugno 2023

API Vertex AI Codey

Le API Codey di Vertex AI sono disponibili al pubblico generale (GA). Utilizza le API Codey di Vertex AI per creare soluzioni con generazione, completamento e chat per il codice. Poiché le API Codey di Vertex AI sono disponibili in versione GA, se le utilizzi dovrai sostenere i costi di utilizzo. Per informazioni sui prezzi, consulta la pagina dei prezzi dell'IA generativa su Vertex AI.

I modelli in questa release includono:

  • code-bison (generazione di codice)
  • codechat-bison (chat di codice)
  • code-gecko (completamento del codice)

Il numero massimo di token per l'input è stato aumentato da 4096 a 6144 per code-bison e codechat-bison per consentire prompt e cronologia chat più lunghi. Il numero di token massimi per l'output è stato aumentato da 1024 a 2048 per code-bison e codechat-bison per consentire risposte più lunghe.

Sono supportati altri linguaggi di programmazione. Per ulteriori informazioni, consulta Linguaggi di programmazione supportati.

Diversi set di dati di ottimizzazione fine sono stati rimossi dai modelli code-bison e codechat-bison per implementare i seguenti miglioramenti:

  • Chat eccessiva.
  • Artefatti, ad esempio caratteri NBSP (spazio non inserito).
  • Risposte di codice di bassa qualità.

Per saperne di più sulle piattaforme cloud, consulta le certificazioni Vertex AI.

15 giugno 2023

PaLM 2 per la chat

Il modello chat-bison è stato aggiornato per seguire meglio le istruzioni nel context. Per informazioni dettagliate su come creare prompt di chat perchat-bison, consulta Progettare prompt di chat.

7 giugno 2023

API PaLM Text ed Embeddings e Vertex AI Studio

L'IA generativa su Vertex AI è disponibile in (GA). Con il lancio di questa funzionalità, puoi utilizzare l'API Vertex AI PaLM per generare modelli di IA che puoi testare, ottimizzare ed eseguire il deployment nelle tue applicazioni basate sull'IA. Poiché queste funzionalità sono GA, dovrai sostenere i costi di utilizzo se utilizzi le API PaLM text-bison e textembedding-gecko. Per informazioni sui prezzi, consulta la pagina dei prezzi di Vertex AI.

Le funzionalità e i modelli di questa release includono:

  • PaLM 2 per il testo: text-bison
  • Embedding per il testo: textembedding-gecko
  • Vertex AI Studio per il linguaggio

Model Garden

Model Garden è disponibile in (GA). Model Garden è una piattaforma che ti aiuta a scoprire, testare, personalizzare ed eseguire il deployment di Vertex AI e di alcuni modelli OSS. Questi modelli vanno da quelli ottimizzabili a quelli specifici per le attività e sono tutti disponibili nella pagina Model Garden della console Google Cloud.

Per iniziare, consulta Esplora i modelli IA e le API in Model Garden.

API Vertex AI Codey

Le API Vertex AI Codey sono in (anteprima). Con le API Codey, le API di generazione di codice, di completamento del codice e di chat di codice possono essere utilizzate da qualsiasi progettoGoogle Cloud senza inserire le API nella lista consentita. È possibile accedere alle API dalla regione us-central1. Le API Codey possono essere utilizzate in Vertex AI Studio o in modo programmatico nei comandi REST.

Per iniziare, consulta la Panoramica dei modelli di codice.

10 maggio 2023

IA generativa su Vertex AI

L'IA generativa su Vertex AI è disponibile in (anteprima). Con il lancio di questa funzionalità, puoi utilizzare l'API Vertex AI PaLM per generare modelli di IA che puoi testare, ottimizzare e implementare nelle tue applicazioni basate sull'IA.

Le funzionalità e i modelli di questa release includono:

  • PaLM 2 per il testo: text-bison
  • PaLM 2 per la chat: chat-bison
  • Embedding per il testo: textembedding-gecko
  • Vertex AI Studio per il linguaggio
  • Ottimizzazione per PaLM 2
  • SDK Vertex AI 1.25, che include nuove funzionalità, come TextGenerationModel (text-bison), ChatModel (chat-bison), TextEmbeddingModel (textembedding-gecko@001)

Puoi interagire con le funzionalità di AI generativa su Vertex AI utilizzando Vertex AI Studio nella console Google Cloud, l'API Vertex AI e l'SDK Vertex AI per Python.

Model Garden

Model Garden è disponibile in (Anteprima). Model Garden è una piattaforma che ti aiuta a scoprire, testare, personalizzare ed eseguire il deployment di Vertex AI e di alcuni modelli OSS. Questi modelli vanno da quelli regolabili a quelli specifici per attività, tutti disponibili nella pagina Model Garden della console Google Cloud.