Note di rilascio dell'IA generativa su Vertex AI

Questa pagina documenta gli aggiornamenti di produzione per l'IA generativa su Vertex AI e Model Garden di Vertex AI. Consulta periodicamente questa pagina per annunci su funzionalità nuove o aggiornate, correzioni di bug, problemi noti e funzionalità ritirate.

29 marzo 2024

È stato eseguito l'upgrade dell'infrastruttura del modello MedLM-large per migliorare la latenza e la stabilità. Le risposte del modello potrebbero essere leggermente diverse.

22 marzo 2024

I PDF sono ora supportati come input per Gemini 1.0 Pro Vision multimodale linguistico di grandi dimensioni. Puoi chiamare le API direttamente con i PDF o provarle in Vertex AI Studio. Per apprendere Per saperne di più, consulta Inviare richieste di prompt multimodali con immagini o PDF.

19 marzo 2024

Modelli Haiku di Claude3 di Anthropic e Sonnet e Claude33 Vertex AI è in disponibilità generale in Vertex AI.

I modelli gestiti Claude 3 Haiku e Claude 3 Sonnet di Anthropic sono disponibili su Vertex AI. Per utilizzare un modello Claude Vertex AI, invia una richiesta direttamente a Vertex AI l'endpoint API. Per ulteriori informazioni, vedi Utilizzare i modelli di Claude di Anthropic e le schede del modello Claude in Model Garden:

21 febbraio 2024

Sono disponibili i modelli aperti di Gemma.

I modelli Gemma, una famiglia di modelli aperti leggeri creati sulla base della stessa ricerca e tecnologia utilizzata per creare i modelli Gemini, possono essere eseguiti su hardware, dispositivi mobili o servizi in hosting. Per saperne di più, vedi Utilizzare i modelli aperti di Gemma e la scheda di Gemma Model Garden.

15 febbraio 2024

Modelli Vertex AI Gemini 1.0 Pro e Gemini 1.0 Pro Vision

Vertex AI Gemini 1.0 Pro e I modelli linguistici multimodali di Gemini 1.0 Pro Vision in disponibilità generale (GA). Inoltre, sono stati resi disponibili nel seguente regioni: europe-west1, europe-west2, europe-west3, europe-west4 e europe-west9.

Per ulteriori informazioni, consulta i seguenti argomenti:

9 febbraio 2024

Il supporto dei video degli incorporamenti multimodali è in disponibilità generale

Gli embedding per i dati video sono ora disponibili a livello generale utilizzando il modello di embedding multimodale (multimodalembedding). Per saperne di più, consulta la documentazione del prodotto.

I prezzi di queste funzionalità variano in base alla modalità utilizzata. Per ulteriori informazioni, consulta la sezione Prezzi.

7 febbraio 2024

Aggiornamenti di Model Garden:

Funzionalità

Sono stati aggiunti i seguenti modelli:

  • LCM di diffusione stabile XL: il modello di coerenza latente (LCM) migliora la generazione da testo a immagine nei modelli di diffusione latente consentendo la creazione di immagini più rapide e di alta qualità con meno passaggi.
  • LLaVA 1.5: esegui il deployment dei modelli LLaVA 1.5.
  • PyTorch-ZipNeRF: il modello Pytorch-ZipNeRF è un modello l'implementazione dell'algoritmo ZipNeRF nel framework Pytorch, progettato per una ricostruzione 3D efficiente e accurata a partire da immagini 2D.
  • LLaMA 2 (Quantized): una versione quantizzata dei modelli Llama 2 di Meta.
  • MagicLM: MagicLM è un modello linguistico di grandi dimensioni (LLM) sviluppato da Microsoft, perfezionate su istruzioni complesse adattando il metodo Evol-Instruct.
  • MagicCoder: MagicCoder è un modello linguistico di grandi dimensioni (LLM) sviluppato da Microsoft, perfezionata su istruzioni complesse adattando lo strumento Evol-Instruct al dominio del codice.
  • AutoGluon: con AutoGluon puoi addestrare e implementare modelli di machine learning e deep learning ad alta precisione per i dati tabulari.
  • Lama (riparazione con maschera di grandi dimensioni): utilizza la riparazione con maschera di grandi dimensioni con convoluzioni rapide di Fourier (FFC), una perdita percettiva del campo di ricezione elevata e maschere di addestramento di grandi dimensioni per la riparazione di immagini con una risoluzione robusta.

Modificato

  • È stato aggiunto un pulsante di ottimizzazione con un solo clic e notebook dedicati per il deployment, l'ottimizzazione, la quantizzazione e la valutazione di Llama 2.
  • È stato aggiunto un pulsante di deployment con un solo clic per più di 20 modelli con elementi OSS preaddestrati, tra cui Salesforce/blip-image-captioning-base e timbrooks/instruct-pix2pix.
  • CodeLlaMA70b supportato con blocchi note e il pulsante di deployment con un solo clic.
  • Sono stati aggiunti blocchi note di ottimizzazione per i modelli Mistral.
  • Sono stati aggiunti blocchi note per la pubblicazione per Stable Video Diffusion Img2Vid XT (a scopo di ricerca).

12 gennaio 2024

Ottimizzazione del modello per textembedding-gecko e textembedding-gecko-multilingual è disponibile in GA. Puoi utilizzare l'ottimizzazione supervisionata per ottimizzare il modello textembedding-gecko. Per ulteriori informazioni, consulta Ottimizzare gli embedding di testo.

8 gennaio 2024

AutoSxS valuta gli LLM uno accanto all'altro

Lo strumento di valutazione automatica affiancata (AutoSxS) è disponibile in Anteprima per eseguire test A/B sul rendimento dei modelli LLM o delle predizioni generate. È alla pari con i valutatori umani, ma è ancora più veloce e disponibile on demand ed economicamente più vantaggiosi.

5 gennaio 2024

Espansione regionale dell'IA generativa su Vertex AI

Le funzionalità di AI generativa su Vertex AI per la previsione batch e la valutazione del modello sono disponibili in altre 12 regioni Google Cloud.

18 dicembre 2023

Aggiornamenti di Model Garden:

13 dicembre 2023

Modelli Gemini Pro e Gemini Pro Vision di Vertex AI

I modelli linguistici multimodali di Vertex AI Gemini Pro e Gemini Pro Vision sono disponibili in Anteprima. Per ulteriori informazioni, consulta i seguenti argomenti:

Disponibilità generale di Imagen 2

La versione 005 del modello di generazione di immagini di Imagen (imagegeneration@005) è disponibile a livello generale per le attività di generazione di immagini. Questa versione del modello è predefinito per le attività di generazione di immagini. Per ulteriori informazioni, consulta la sezione sul prodotto documentazione.

Per informazioni generali sui modelli e sulle versioni di Imagen, consulta Versioni e ciclo di vita del modello Imagen.

12 dicembre 2023

Modello di incorporamento del testo 003 (textembedding-gecko@003) disponibile

La versione stabile aggiornata del modello di base di incorporamento del testo, textembedding-gecko@003 è disponibile. textembedding-gecko@003 migliora la qualità rispetto alle versioni stabili precedenti, textembedding-gecko@001 e textembedding-gecko@002. Per saperne di più sulle versioni del modello, consulta Versioni e ciclo di vita dei modelli.

8 dicembre 2023

Aggiornamento del controllo di sicurezza dell'IA generativa su Vertex AI

Il controllo di sicurezza di Access Transparency (AXT) è disponibile per le seguenti funzionalità:

  • Incorporamenti per la previsione online multimodale
  • Imagen su Vertex AI Online Prediction
  • Imagen sull'ottimizzazione di Vertex AI

6 dicembre 2023

Modelli di testo aggiornati

La versione @002 dei modelli per testo, chat, codice e chat di codice è disponibili. Le versioni del modello @002 includono risposte ai prompt migliorate. I modelli @002 sono:

  • text-bison@002
  • chat-bison@002
  • code-bison@002
  • codechat-bison@002

Per assicurarti di utilizzare sempre la versione del modello stabile, specifica l'identificatore del modello con il numero di versione. Ad esempio, text-bison@002. Per maggiori informazioni per informazioni, consulta Versioni e ciclo di vita dei modelli.

5 dicembre 2023

Funzionalità

L'aggiornamento del modello è disponibile in Anteprima. Utilizza il grounding per collegare i modelli text-bison e chat-bison ai datastore non strutturati in Vertex AI Search. Il grounding consente ai modelli di accedere e utilizzare le informazioni nei repository di dati per generare risposte più avanzate e dettagliate. Per ulteriori informazioni, consulta la sezione Panoramica della messa a terra.

1 dicembre 2023

Cambia

Le seguenti Aggiornamenti di model_garden_name sono disponibili:

30 novembre 2023

Funzionalità

Una dimensione del modello per PaLM 2 per testo è disponibile pubblicamente (GA). Il modello text-unicorn offre una migliore qualità di risposta per un insieme di attività di ragionamento complesso rispetto al modello text-bison. Per maggiori dettagli, consulta Informazioni sul modello.

17 novembre 2023

L'API ComputeToken è disponibile in anteprima

L'API ComputeToken è disponibile in (anteprima). Puoi utilizzare questa API per ottenere un elenco di token per un determinato prompt. Un token è un per rappresentare una sequenza comune di caratteri presenti in un input di testo. Per approfondire, vedi Generare un elenco di token.

10 novembre 2023

IA generativa su Vertex AI

I controlli di sicurezza sono disponibili per altre funzionalità dell'IA generativa su Vertex AI.

3 novembre 2023

Aggiornamenti di Model Garden

Funzionalità

I seguenti modelli sono stati aggiunti a Model Garden:

  • ImageBind: modello di embedding multimodale.
  • Vicuna v1.5: LLM ottimizzato in base a lama2.
  • OWL-ViT v2: modello di rilevamento di oggetti con vocabolario aperto allo stato dell'arte.
  • DITO: modello di rilevamento di oggetti con vocabolario aperto allo stato dell'arte.
  • NLLB: modello di traduzione multilingue.
  • Mistral-7B: LLM SoTA di piccole dimensioni.
  • BioGPT: LLM perfezionato per il dominio biomedico.
  • BiomedCILP: modello di base multimodale perfezionato per il dominio biomedico.

Per visualizzare un elenco di tutti i modelli disponibili, consulta Esplorare i modelli in Model Garden.

Modificato

  • Miglioramento del throughput di pubblicazione dei modelli linguistici. Per maggiori dettagli, vedi Pubblicare in modo efficiente modelli linguistici di grandi dimensioni open source su Model Garden. I notebook nelle schede dei modelli pertinenti sono stati aggiornati di conseguenza.
  • Velocità di inferenza fino a 2 volte superiore rispetto all'implementazione originale per i modelli Stable Diffusion 1.5, 2.1 e XL.
  • È stato migliorato il flusso di lavoro del pulsante Esegui il deployment in tutte le schede dei modelli supportati.
  • Notebook aggiornati per Llama2, OpenLlama e Falcon Instruct con specifiche della macchina suggerite per la pubblicazione del modello e i docker del strumento di valutazione di EleutherAI per la valutazione del modello.

Nuove versioni stabili dei modelli textembedding-gecko e textembedding-gecko-multilingual

Nell'AI generativa su Vertex AI sono disponibili le seguenti versioni stabili del modello:

  • textembedding-gecko@002
  • textembedding-gecko-multilingual@001

Per saperne di più sulle versioni del modello, consulta Versioni e ciclo di vita dei modelli.

2 novembre 2023

L'IA generativa su Vertex AI è accessibile tramite 12 regioni API in Nord America, Europa e Asia. Le API regionali consentono ai clienti di controllare dove i dati sono archiviati at-rest.

3 novembre 2023

L'ottimizzazione del modello per chat-bison@001 è in disponibilità generale (GA).

L'ottimizzazione chat-bison@001 supporta le visualizzazioni delle metriche di TensorBoard. Per i dettagli, vedi Metriche di ottimizzazione e valutazione.

4 ottobre 2023

L'ottimizzazione del modello per textembedding-gecko è disponibile in anteprima

Puoi utilizzare l'ottimizzazione supervisionata per ottimizzare il modello textembedding-gecko. Questa funzionalità è in (anteprima). Per ulteriori informazioni, consulta Ottimizzare gli embedding di testo.

1° settembre 2023

Aggiornamento dei prezzi

Il prezzo di text-bison è stato ridotto a 0,0005 $per 1000 input e caratteri di output. Per maggiori dettagli, vedi i prezzi di Vertex AI.

29 agosto 2023

Nuova IA generativa su modelli Vertex AI e supporto linguistico esteso

L'IA generativa su Vertex AI è stata aggiornata per includere un nuovo linguaggio modelli candidati (ultimi modelli), modelli linguistici che supportano input e fino a 32.000 e altri linguaggi supportati. Per maggiori dettagli, consulta Modelli disponibili e Versioni e ciclo di vita del modello.

Trasmetti le risposte dai modelli di IA generativa

Il supporto dello streaming dei modelli di IA generativa è in disponibilità generale (GA). Dopo aver inviato un prompt, il modello restituisce i token di risposta man mano che vengono generati invece di attendere che l'intero output sia disponibile.

I modelli supportati sono:

  • text-bison
  • chat-bison
  • code-bison
  • codechat-bison

Per saperne di più, consulta Flusso di risposte da modelli di IA generativa.

L'ottimizzazione supervisionata per il modello text-bison è in disponibilità generale (GA)

L'ottimizzazione supervisionata per il modello text-bison è disponibile pubblicamente (GA).

L'ottimizzazione del modello chat-bison è disponibile in anteprima

Puoi utilizzare l'ottimizzazione supervisionata per ottimizzare il modello chat-bison. Questa funzionalità è in (anteprima). Per saperne di più, consulta Ottimizzare i modelli di testo.

Nuovo modello di embedding disponibile in anteprima

Gli utenti dell'IA generativa su Vertex AI possono creare incorporamenti utilizzando un nuovo modello addestrato su una diverse lingue diverse dall'inglese. Il modello è in (anteprima).

  • textembedding-gecko-multilingual

Per saperne di più, consulta Ottenere incorporamenti di testo.

L'ottimizzazione dei soggetti e degli stili delle immagini è in disponibilità generale (GA)

Imagen su Vertex AI offre le seguenti funzionalità GA:

  • Ottimizzazione del modello soggetto (ottimizzazione standard)*
  • Ottimizzazione dello stile del modello*

* Funzionalità ad accesso limitato.

Per saperne di più su Imagen su Vertex AI o su come ottenere l'accesso a GA con restrizioni, consulta la panoramica di Imagen su Vertex AI.

Apprendimento per rinforzo con feedback umano (RLHF) ottimizzazione per text-bison

Il modello di base per la generazione di testo di Generative AI su Vertex AI (text-bison) supporta RLHF dell'ottimizzazione. La funzionalità di ottimizzazione RLHF è attiva (anteprima). Per ulteriori informazioni, consulta Utilizzare l'ottimizzazione del modello RLHF.

Supporto delle lingue per le API Codey di Vertex AI

Le API Vertex AI Codey supportano linguaggi di programmazione aggiuntivi. Per maggiori informazioni informazioni, vedi Linguaggi di programmazione supportati.

Le API Codey di Vertex AI supportano l'ottimizzazione supervisionata

Chat del codice (codechat-bison) e generazione del codice (code-bison) I modelli di API Codey Vertex AI supportano l'ottimizzazione supervisionata. La funzionalità di ottimizzazione supervisionata per i modelli delle API Codey di Vertex AI è in anteprima. Per ulteriori informazioni, vedi Tune di machine learning.

Valutazione del modello basata su metriche

Puoi valutare le prestazioni dei modelli di base e dei modelli ottimizzati rispetto a un set di dati di valutazione per classificazione, riassunto, risposta alle domande e la generazione di testi in generale. Questa funzionalità è disponibile in (Anteprima)

Per scoprire di più, consulta Valutare le prestazioni del modello.

API CountToken disponibile in anteprima

L'API CountToken è disponibile in (Anteprima). Puoi usare questa API per ottenere il conteggio dei token e il numero caratteri fatturabili per una richiesta. Per saperne di più, consulta Ottenere il conteggio dei token.

9 agosto 2023

Embedding multimodali di Imagen disponibili in GA

Imagen su Vertex AI offre quanto segue Funzionalità GA:

  • Incorporamenti multimodali

Questa funzionalità prevede prezzi diversi in base all'utilizzo di input di immagini o di testo. Per ulteriori informazioni, consulta incorporamenti multimodali pagina delle funzionalità.

21 agosto 2023

Aggiornamento dei parametri di ottimizzazione del modello

I job di ottimizzazione del modello accettano parametri facoltativi per la valutazione del modello Vertex AI TensorBoard e integrazione. Ciò ti consente di valutare il modello e generare visualizzazioni con un solo comando. Per ulteriori informazioni, vedi Crea un job di ottimizzazione del modello.

28 luglio 2023

Aggiornamento dei parametri di ottimizzazione del modello

Il parametro learning_rate nella regolazione del modello è learning_rate_multiplier. Per utilizzare il tasso di apprendimento predefinito del modello o del metodo di ottimizzazione, usa il tasso di apprendimento predefinito Valore learning_rate_multiplier di 1.0.

Se non hai mai configurato learning_rate, non devi fare nulla. Se utilizzi tuning_method=tune_v2 con il modello di pipeline v2.0.0 (SDK Python v1.28.1+), il tasso di apprendimento consigliato è 0,0002. Per convertire il valore personalizzato learning_rate in learning_rate_multiplier, calcola come segue:

learing_rate_multiplier = custom_learning_rate_value / 0.0002

18 luglio 2023

Aggiornamenti dell'ottimizzazione del modello per text-bison

  • La pipeline di ottimizzazione aggiornata offre un'ottimizzazione più efficiente e su text-bison.
  • Nuova regione di ottimizzazione (us-central1) disponibile con il supporto GPU.
  • Il nuovo parametro learning_rate consente di regolare l'intervallo di ciascun passaggio.

Per maggiori dettagli, consulta Ottimizzare i modelli linguistici di base.

Chirp GA

Chirp è disponibile pubblicamente (GA). Per maggiori dettagli, consulta le seguenti pagine:

17 luglio 2023

Funzionalità di Imagen su Vertex AI in disponibilità generale

Imagen su Vertex AI offre le seguenti funzionalità in disponibilità generale:

* Funzionalità ad accesso limitato.

Per ulteriori informazioni su Imagen o su come accedere alle funzionalità di anteprima o GA limitate, consulta la panoramica di Imagen su Vertex AI.

Generazione di volti umani supportata

Imagen supporta la generazione di volti umani per caratteristiche:

* Funzionalità con accesso limitato.

La generazione di volti umani è attiva per impostazione predefinita, ad eccezione delle immagini con bambini o celebrità. Per ulteriori informazioni, consulta le linee guida per l'utilizzo.

Supporto lingua aggiuntiva

L'API Vertex AI PaLM ha aggiunto il supporto per i seguenti linguaggi:

  • Spagnolo (es)
  • Coreano (ko)
  • Hindi (ciao)
  • Cinese (zh)

Per l'elenco completo delle lingue supportate, vedi Lingue supportate.

13 luglio 2023

Supporto batch per PaLM 2 per il testo

Il supporto per le richieste di testo batch (text-bison) è disponibile in (GA). Puoi esaminare i prezzi del modello chat-bison nella pagina dei prezzi di Vertex AI.

10 luglio 2023

PaLM 2 per la chat

Il supporto di Chat (chat-bison) è disponibile in (GA). Puoi esaminare i prezzi del modello chat-bison nella pagina dei prezzi di Vertex AI.

29 giugno 2023

API Vertex AI Codey

Le API Codey di Vertex AI sono disponibili al pubblico generale (GA). Utilizza le API Codey di Vertex AI per creare soluzioni con generazione, completamento e chat per il codice. Poiché le API Codey di Vertex AI sono disponibili in versione GA, se le utilizzi dovrai sostenere i costi di utilizzo. Per saperne di più per i prezzi, consulta la pagina dei prezzi dell'AI generativa su Vertex AI.

I modelli di questa release includono:

  • code-bison (generazione di codice)
  • codechat-bison (chat di codice)
  • code-gecko (completamento codice)

Il numero massimo di token per l'input è stato aumentato da 4096 a 6144 per code-bison e codechat-bison per consentire prompt e cronologia chat più lunghi. Il numero di token massimi per l'output è stato aumentato da 1024 a 2048 per code-bison e codechat-bison per consentire risposte più lunghe.

Sono supportati altri linguaggi di programmazione. Per ulteriori informazioni, consulta Linguaggi di programmazione supportati.

Diversi set di dati di ottimizzazione fine sono stati rimossi dai modelli code-bison e codechat-bison per implementare i seguenti miglioramenti:

  • Eccessiva chat.
  • Artefatti, ad esempio caratteri NBSP (spazio non inserito).
  • Risposte del codice di bassa qualità.

Per saperne di più sulle piattaforme cloud, consulta le certificazioni Vertex AI.

15 giugno 2023

PaLM 2 per la chat

Il modello chat-bison è stato aggiornato per seguire meglio le istruzioni nel context. Per informazioni dettagliate su come creare prompt di chat perchat-bison, consulta Progettare prompt di chat.

7 giugno 2023

API PaLM Text ed Embeddings e Vertex AI Studio

L'IA generativa su Vertex AI è disponibile in (GA). Con il lancio di questa funzionalità, puoi utilizzare l'API Vertex AI PaLM per generare modelli di IA che puoi testare, ottimizzare ed eseguire il deployment nelle tue applicazioni basate sull'IA. Poiché queste funzionalità sono GA, dovrai sostenere i costi di utilizzo se utilizzi le API PaLM text-bison e textembedding-gecko. Per informazioni sui prezzi, consulta la pagina dei prezzi di Vertex AI.

Le funzioni e i modelli di questa release includono:

  • PaLM 2 per il testo: text-bison
  • Incorporamento per il testo: textembedding-gecko
  • Vertex AI Studio per il linguaggio

Model Garden

Model Garden è disponibile in (GA). Model Garden è una piattaforma che ti consente di scoprire, testare, personalizzare ed eseguire il deployment di Vertex AI e di modelli OSS selezionati. Questi modelli variano da ottimizzabili per attività specifiche e sono tutte disponibili nella pagina di Model Garden nel nella console Google Cloud.

Per iniziare, consulta Esplora modelli IA e API in Model Garden.

API Vertex AI Codey

Le API Codey di Vertex AI sono in (anteprima). Con le API Codey, le API di generazione, completamento e chat di codice possono essere utilizzate da qualsiasi progetto Google Cloud senza inserire le API nella lista consentita. È possibile accedere alle API dalla regione us-central1. Le API Codey possono essere utilizzate in Vertex AI Studio in modo programmatico nei comandi REST.

Per iniziare, consulta la panoramica dei modelli di codice.

10 maggio 2023

IA generativa su Vertex AI

L'IA generativa su Vertex AI è disponibile in (anteprima). Con il lancio di questa funzionalità, puoi utilizzare l'API Vertex AI PaLM per generare modelli di IA che puoi testare, ottimizzare ed eseguire il deployment nelle tue applicazioni basate sull'IA.

Le funzionalità e i modelli di questa release includono:

  • PaLM 2 per il testo: text-bison
  • PaLM 2 per la chat: chat-bison
  • Embedding per il testo: textembedding-gecko
  • Vertex AI Studio per il linguaggio
  • Ottimizzazione per PaLM 2
  • SDK Vertex AI 1.25, che include nuove funzionalità, come TextGenerationModel (text-bison), ChatModel (chat-bison), TextEmbeddingModel (textembedding-gecko@001)

Puoi interagire con le funzionalità di IA generativa su Vertex AI utilizzando Vertex AI Studio nella console Google Cloud, l'API Vertex AI e l'SDK Vertex AI per Python.

Model Garden

Model Garden è disponibile in (Anteprima). Model Garden è una piattaforma che ti aiuta a scoprire, testare, personalizzare ed eseguire il deployment di Vertex AI e di alcuni modelli OSS. Questi modelli variano da ottimizzabile per ogni attività, tutti disponibili nella pagina Model Garden nel nella console Google Cloud.