Note di rilascio di IA generativa su Vertex AI

Questa pagina documenta gli aggiornamenti di produzione a Generative AI su Vertex AI e Vertex AI Model Garden. Consulta periodicamente questa pagina per annunci relativi a funzionalità nuove o aggiornate, correzioni di bug, problemi noti e funzionalità ritirate.

22 marzo 2024

I PDF sono ora supportati come input nel modello linguistico multimodale Gemini 1.0 Pro Vision. Puoi chiamare le API direttamente con i PDF o provarle in Vertex AI Studio. Per scoprire di più, consulta Inviare richieste di prompt multimodali con immagini o PDF.

19 marzo 2024

I modelli Antropic Claude 3 Sonnet e Claude 3 Haiku su Vertex AI sono generalmente disponibili in Vertex AI.

I modelli gestiti Claude 3 Haiku e Claude 3 Sonnet di Anthropic sono disponibili su Vertex AI. Per usare un modello Claude su Vertex AI, invia una richiesta direttamente all'endpoint API di Vertex AI. Per ulteriori informazioni, consulta Utilizzare le schede dei modelli Claude di Anthropic e le schede dei modelli Claude in Model Garden:

21 febbraio 2024

Sono disponibili i modelli aperti Gemma.

I modelli Gemma, una famiglia di modelli aperti e leggeri creati a partire dalla stessa ricerca e tecnologia utilizzati per creare i modelli Gemini, possono essere eseguiti su hardware, dispositivi mobili o servizi in hosting. Per saperne di più, consulta Utilizzare i modelli aperti di Gemma e la scheda Gemma Model Garden.

15 febbraio 2024

Modelli Vertex AI Gemini 1.0 Pro e Gemini 1.0 Pro Vision

I modelli linguistici multimodali Vertex AI Gemini 1.0 Pro e Gemini 1.0 Pro Vision sono in disponibilità generale (GA). Inoltre, sono stati resi disponibili nelle seguenti regioni: europe-west1, europe-west2, europe-west3, europe-west4 e europe-west9.

Per ulteriori informazioni, consulta i seguenti argomenti:

9 febbraio 2024

Il supporto dei video negli incorporamenti multimodali è in disponibilità generale

Gli incorporamenti per i dati video sono ora in disponibilità generale utilizzando il modello di incorporamento multimodale (multimodalembedding). Per saperne di più, consulta la documentazione del prodotto.

Questa funzionalità prevede prezzi basati sulla modalità utilizzata. Per ulteriori informazioni, consulta la sezione relativa ai pricing.

7 febbraio 2024

Aggiornamenti di Model Garden:

Selezione delle

Sono stati aggiunti i seguenti modelli:

  • Stable Diffusion XL LCM: il modello di coerenza latente (LCM) migliora la generazione da testo a immagine nei modelli a diffusione latente consentendo una creazione di immagini più rapida e di alta qualità con meno passaggi.
  • LLaVA 1.5: implementazione di modelli LLaVA 1.5.
  • PyTorch-ZipNeRF: il modello Pytorch-ZipNeRF è un'implementazione all'avanguardia dell'algoritmo ZipNeRF nel framework Pytorch, progettato per una ricostruzione 3D efficiente e accurata a partire da immagini 2D.
  • LLaMA 2 (Quantized): una versione quantizzata dei modelli di Lama 2 di Meta.
  • procedura guidata: guidata LLM è un modello linguistico di grandi dimensioni (LLM) sviluppato da Microsoft, perfezionato in base a istruzioni complesse adattando il metodo Evol-Instruct.
  • procedura guidata: AssistantCoder è un modello linguistico di grandi dimensioni (LLM) sviluppato da Microsoft, perfezionato in base a istruzioni complesse adattando il metodo Evol-Instruct al dominio del codice.
  • AutoGluon: con AutoGluon puoi addestrare ed eseguire il deployment di modelli di machine learning e deep learning ad alta precisione per i dati tabulari.
  • Lama (maschera grande inpainting): usa una maschera grande inpainting con convoluzioni di Fourier rapide (FFC), una perdita percettiva del campo ricettivo elevato e maschere di addestramento di grandi dimensioni per un'immagine affidabile inpainting.

Modificato

  • Sono stati aggiunti il pulsante di ottimizzazione con un solo clic e blocchi di deployment, ottimizzazione, quantizzazione e valutazione dedicati per Llama 2.
  • È stato aggiunto il pulsante di deployment con un solo clic per più di 20 modelli con artefatti OSS preaddestrati, tra cui Salesforce/blip-image-captioning-base e timbrooks/instruct-pix2pix.
  • CodeLlaMA70b supportato con blocchi note e il pulsante di deployment con un solo clic.
  • Sono stati aggiunti blocchi note di ottimizzazione per i modelli Mistral.
  • Aggiunta la pubblicazione di blocchi note per la diffusione video stabile Img2Vid XT (per scopi di ricerca).

12 gennaio 2024

L'ottimizzazione per i modelli textembedding-gecko e textembedding-gecko-multilingual è disponibile in GA. Puoi utilizzare l'ottimizzazione supervisionata per ottimizzare il modello textembedding-gecko. Per ulteriori informazioni, consulta la sezione Ottimizzare gli incorporamenti di testo.

8 gennaio 2024

AutoSxS valuta gli LLM uno accanto all'altro

Lo strumento di valutazione automatica affiancata (AutoSxS) è disponibile in anteprima per eseguire test A/B sulle prestazioni dei tuoi LLM o delle previsioni pregenerate. È paragonabile ai valutatori umani, ma è più veloce, disponibile on demand ed economico.

5 gennaio 2024

Espansione a livello di regione dell'IA generativa su Vertex AI

Le funzionalità dell'IA generativa su Vertex AI per la previsione batch e la valutazione dei modelli sono disponibili in altre 12 regioni di Google Cloud.

18 dicembre 2023

Aggiornamenti di Model Garden:

13 dicembre 2023

Modelli Vertex AI Gemini Pro e Gemini Pro Vision

I modelli linguistici multimodali di Vertex AI Gemini Pro e Gemini Pro Vision sono disponibili in anteprima. Per scoprire di più, consulta i seguenti argomenti:

Disponibilità generale di Imagen 2

La versione 005 del modello di generazione delle immagini di Imagen (imagegeneration@005) è generalmente disponibile per le attività di generazione di immagini. Questa versione del modello è la predefinita per le attività di generazione di immagini. Per ulteriori informazioni, consulta la documentazione del prodotto.

Per informazioni generali sui modelli e sulle versioni Imagen, consulta Versioni e ciclo di vita dei modelli Imagen.

12 dicembre 2023

È disponibile il modello di incorporamento del testo 003 (textembedding-gecko@003)

È disponibile la versione stabile aggiornata del modello di base textembedding-gecko@003 per l'incorporamento del testo. textembedding-gecko@003 ha una qualità migliore rispetto alle versioni stabili precedenti, textembedding-gecko@001 e textembedding-gecko@002. Per saperne di più sulle versioni dei modelli, consulta Versioni e ciclo di vita dei modelli.

8 dicembre 2023

Aggiornamento del controllo di sicurezza dell'IA generativa su Vertex AI

Il controllo della sicurezza di Access Transparency (AXT) è disponibile per le seguenti funzionalità:

  • Incorporamenti per la previsione online multimodale
  • Imagen sulla previsione online di Vertex AI
  • Imagen sull'ottimizzazione di Vertex AI

6 dicembre 2023

Modelli di testo aggiornati

È disponibile la versione @002 dei modelli per testo, chat, codice e chat di codice. Le @002 versioni del modello includono risposte ai prompt migliorate. I modelli @002 sono:

  • text-bison@002
  • chat-bison@002
  • code-bison@002
  • codechat-bison@002

Per assicurarti di utilizzare sempre la versione del modello stabile, specifica l'identificatore del modello con il numero di versione. Ad esempio, text-bison@002. Per ulteriori informazioni, consulta Versioni e ciclo di vita dei modelli.

5 dicembre 2023

Selezione delle

La messa a terra del modello è disponibile in anteprima. Usa la messa a terra per connettere i modelli text-bison e chat-bison ai datastore non strutturati in Vertex AI Search. Il grounding consente ai modelli di accedere alle informazioni nei repository di dati e di utilizzarle per generare risposte più avanzate e articolate. Per ulteriori informazioni, consulta la Panoramica del grounding.

1° dicembre 2023

Cambia

Sono disponibili i seguenti aggiornamenti di model_garden_name:

30 novembre 2023

Selezione delle

Una dimensione del modello per PaLM 2 per il testo è in disponibilità generale (GA). Il modello text-unicorn migliora la qualità della risposta per una serie di attività di ragionamento complesse rispetto al modello text-bison. Per maggiori dettagli, consulta Informazioni del modello.

17 novembre 2023

L'API ComputeToken è disponibile in anteprima

L'API ComputeToken è disponibile in (Anteprima). Puoi utilizzare questa API per ottenere un elenco dei token per un determinato prompt. Un token è un modo per rappresentare una sequenza comune di caratteri trovati in un input di testo. Per scoprire di più, consulta Ottenere un elenco dei token.

10 novembre 2023

IA generativa su Vertex AI

Sono disponibili controlli di sicurezza per funzionalità aggiuntive di IA generativa su Vertex AI.

3 novembre 2023

Aggiornamenti di Model Garden

Selezione delle

I seguenti modelli sono stati aggiunti a Model Garden:

  • ImageBind: modello di incorporamento multimodale.
  • Vicuna v1.5: LLM perfezionato in base a llama2.
  • OWL-ViT v2: modello di rilevamento di oggetti del vocabolario aperto SoTA.
  • DITO: modello di rilevamento di oggetti del vocabolario aperto SoTA.
  • NLLB: modello di traduzione multilingue.
  • Mistral-7B: SoTA LLM in dimensioni ridotte.
  • BioGPT: LLM perfezionato per dominio biomedico.
  • BiomedCILP: modello di base multimodale perfezionato per il dominio biomedico.

Per visualizzare un elenco di tutti i modelli disponibili, vedi Esplorare i modelli in Model Garden.

Modificato

  • Velocità effettiva di pubblicazione del modello linguistica migliorata. Per maggiori dettagli, consulta Pubblicare in modo efficiente modelli linguistici di grandi dimensioni open source in Model Garden. Notebooks nelle schede dei modelli pertinenti sono stati aggiornati di conseguenza.
  • Velocità di inferenza fino a due volte superiore rispetto all'implementazione originale per i modelli Stable Diffusion 1.5, 2.1 e XL.
  • È stato migliorato il flusso di lavoro del pulsante Esegui il deployment in tutte le schede dei modelli supportati.
  • Sono stati aggiornati i blocchi note per Llama2, OpenLlama e Falcon Instruct con specifiche di macchina suggerite per la pubblicazione dei modelli e docker di valutazione di EleutherAI per la valutazione del modello.

Nuove versioni del modello stabile textembedding-gecko e textembedding-gecko-multilingual

Le seguenti versioni stabili del modello sono disponibili in Generative AI su Vertex AI:

  • textembedding-gecko@002
  • textembedding-gecko-multilingual@001

Per saperne di più sulle versioni dei modelli, consulta Versioni e ciclo di vita dei modelli.

2 novembre 2023

È possibile accedere all'IA generativa su Vertex AI tramite 12 API regionali in Nord America, Europa e Asia. Le API regionali consentono ai clienti di controllare dove sono archiviati i dati at-rest.

3 novembre 2023

L'ottimizzazione del modello per chat-bison@001 è in disponibilità generale (GA).

L'ottimizzazione di chat-bison@001 supporta le visualizzazioni delle metriche TensorBoard. Per maggiori dettagli, consulta Metriche di ottimizzazione e valutazione.

4 ottobre 2023

L'ottimizzazione del modello per textembedding-gecko è disponibile in anteprima

Puoi utilizzare l'ottimizzazione supervisionata per ottimizzare il modello textembedding-gecko. Questa funzionalità è in modalità (Anteprima). Per ulteriori informazioni, consulta la sezione Ottimizzare gli incorporamenti di testo.

1° settembre 2023

Aggiornamento dei prezzi

Il prezzo per text-bison è stato ridotto a 0,0005 $per 1000 caratteri di input e output. Per maggiori dettagli, consulta i prezzi di Vertex AI.

29 agosto 2023

Nuova IA generativa su modelli Vertex AI e supporto linguistico esteso

L'IA generativa su Vertex AI è stata aggiornata per includere nuovi modelli linguistici candidati (più recenti modelli), modelli linguistici che supportano token di input e di output fino a 32.000 e altri linguaggi supportati. Per maggiori dettagli, vedi Modelli disponibili e Versioni e ciclo di vita dei modelli.

Risposte dinamiche dai modelli di IA generativa

Il supporto per i flussi di dati dei modelli di IA generativa è in disponibilità generale (GA). Dopo l'invio di un prompt, il modello restituisce i token di risposta mentre vengono generati, anziché attendere che l'intero output sia disponibile.

I modelli supportati sono:

  • text-bison
  • chat-bison
  • code-bison
  • codechat-bison

Per scoprire di più, consulta Trasmettere risposte in streaming dai modelli di IA generativa.

L'ottimizzazione supervisionata per il modello text-bison è in disponibilità generale (GA)

L'ottimizzazione supervisionata per il modello text-bison è in disponibilità generale (GA).

L'ottimizzazione per il modello chat-bison è disponibile in anteprima

Puoi utilizzare l'ottimizzazione supervisionata per ottimizzare il modello chat-bison. Questa funzionalità è in modalità (Anteprima). Per ulteriori informazioni, consulta la sezione Ottimizzazione dei modelli di testo.

Nuovo modello di incorporamento disponibile in anteprima

Gli utenti dell'IA generativa su Vertex AI possono creare incorporamenti utilizzando un nuovo modello addestrato su un'ampia gamma di lingue diverse dall'inglese. Il modello è in (anteprima).

  • textembedding-gecko-multilingual

Per scoprire di più, consulta Ottenere incorporamenti di testo.

L'ottimizzazione del soggetto e dello stile delle Imagen è in disponibilità generale (GA)

Imagen su Vertex AI offre le seguenti funzionalità GA:

  • Ottimizzazione del modello di soggetto (ottimizzazione standard)*
  • Ottimizzazione del modello di stile*

* Funzionalità di accesso limitato.

Per ulteriori informazioni su Imagen su Vertex AI o su come ottenere l'accesso a GA con restrizioni, consulta la panoramica di Imagen su Vertex AI.

Ottimizzazione dell'apprendimento per rinforzo con feedback umano (RLHF) per text-bison

Il modello di base per la generazione di testi per l'IA generativa su Vertex AI (text-bison) supporta l'ottimizzazione RLHF. La funzionalità di ottimizzazione RLHF è in modalità (Anteprima). Per ulteriori informazioni, consulta Utilizzare l'ottimizzazione del modello RLHF.

Supporto del linguaggio delle API Vertex AI Codey

Le API Vertex AI Codey supportano linguaggi di programmazione aggiuntivi. Per scoprire di più, consulta l'articolo Linguaggi di programmazione supportati.

Le API Vertex AI Codey supportano l'ottimizzazione supervisionata

I modelli di chat di codice (codechat-bison) e generazione di codice (code-bison) I modelli delle API Vertex AI Codey supportano l'ottimizzazione supervisionata. L'ottimizzazione supervisionata per i modelli delle API Vertex AI Codey è in modalità (anteprima). Per ulteriori informazioni, consulta Modelli di ottimizzazione.

Valutazione del modello basata sulle metriche

Puoi valutare le prestazioni dei modelli di base e dei modelli ottimizzati utilizzando un set di dati di valutazione per classificazione, riepilogo, risposta alle domande e generazione di testo generale. Questa funzionalità è disponibile in (anteprima)

Per scoprire di più, consulta Valutare le prestazioni del modello.

API CountToken disponibile in anteprima

L'API CountToken è disponibile in (Anteprima). Puoi utilizzare questa API per ottenere il conteggio dei token e il numero di caratteri fatturabili per un prompt. Per scoprire di più, consulta Ottenere il conteggio dei token.

9 agosto 2023

Incorporamenti multimodali Imagen disponibili in GA

Imagen su Vertex AI offre la seguente funzionalità GA:

  • Incorporamenti multimodali

Questa funzionalità prevede pricing diversi in base all'utilizzo dell'input di immagini o di testo. Per ulteriori informazioni, consulta la pagina delle funzionalità degli incorporamenti multimodali.

21 agosto 2023

Aggiornamento del parametro di ottimizzazione del modello

I job di ottimizzazione dei modelli accettano parametri facoltativi per la valutazione e l'integrazione di Vertex AI TensorBoard. In questo modo puoi valutare il modello e generare visualizzazioni con un solo comando. Per maggiori informazioni, consulta Creare un job di ottimizzazione del modello.

28 luglio 2023

Aggiornamento del parametro di ottimizzazione del modello

Il parametro learning_rate nell'ottimizzazione del modello è learning_rate_multiplier. Per utilizzare il tasso di apprendimento predefinito del modello o del metodo di ottimizzazione, utilizza il valore predefinito learning_rate_multiplier di 1.0.

Se non hai ancora configurato learning_rate, non è necessaria alcuna azione. Se utilizzi tuning_method=tune_v2 con il modello di pipeline v2.0.0 (SDK Python v1.28.1 e versioni successive), il tasso di apprendimento consigliato è 0,0002. Per convertire il valore learning_rate personalizzato in learning_rate_multiplier, calcola quanto segue:

learing_rate_multiplier = custom_learning_rate_value / 0.0002

18 luglio 2023

Aggiornamenti dell'ottimizzazione del modello per text-bison

  • La pipeline di ottimizzazione aggiornata offre un'ottimizzazione più efficiente e prestazioni migliori.
  • Nuova regione di ottimizzazione (us-central1) disponibile con supporto per GPU.
  • Il nuovo parametro learning_rate ti consente di regolare la dimensione dei passaggi a ogni iterazione.

Per maggiori dettagli, consulta Ottimizzazione dei modelli di base del linguaggio.

GA Chirp

Chirp è Generalmente disponibile (GA). Per maggiori dettagli, consulta le seguenti pagine:

17 luglio 2023

Imagen sulle funzionalità di Vertex AI in disponibilità generale

Imagen su Vertex AI offre le seguenti funzionalità GA:

* Funzionalità di accesso limitato.

Per ulteriori informazioni su Imagen o su come accedere a funzionalità GA o Anteprima limitate, consulta la panoramica di Imagen su Vertex AI.

Generazione di volti umani supportata

Imagen supporta la generazione di volti umani per le seguenti funzionalità:

* Funzionalità di accesso limitato.

La generazione di volti umani è abilitata per impostazione predefinita, ad eccezione delle immagini con bambini o celebrità. Per ulteriori informazioni, consulta le linee guida sull'utilizzo.

Supporto linguistico aggiuntivo

L'API Vertex AI PaLM ha aggiunto il supporto per i seguenti linguaggi:

  • Spagnolo (es)
  • Coreano (ko)
  • hindi (ciao)
  • Cinese (zh)

Per l'elenco completo delle lingue supportate, vedi Lingue supportate.

13 luglio 2023

Supporto batch per PaLM 2 per il testo

Il supporto per le richieste di testo batch (text-bison) è disponibile in (GA). Puoi rivedere i prezzi per il modello chat-bison nella pagina dei prezzi di Vertex AI.

10 luglio 2023

PaLM 2 per la chat

Il supporto per Chat (chat-bison) è disponibile in GA. Puoi rivedere i prezzi per il modello chat-bison nella pagina dei prezzi di Vertex AI.

29 giugno 2023

API Vertex AI Codey

Le API Vertex AI Codey sono in disponibilità generale (GA). Usa le API Vertex AI Codey per creare soluzioni con generazione di codice, completamento del codice e chat di codice. Poiché le API Vertex AI Codey sono in disponibilità generale, in caso di utilizzo ti vengono addebitati costi di utilizzo. Per informazioni sui prezzi, consulta la pagina dei prezzi dell'IA generativa su Vertex AI.

I modelli di questa release includono:

  • code-bison (generazione del codice)
  • codechat-bison (chat del codice)
  • code-gecko (completamento codice)

Il numero massimo di token per l'input è stato aumentato da 4096 a 6144 token per code-bison e codechat-bison per consentire prompt e una cronologia chat più lunghi. Il numero massimo di token per l'output è stato aumentato da 1024 a 2048 per code-bison e codechat-bison per consentire risposte più lunghe.

Sono supportati altri linguaggi di programmazione. Per maggiori informazioni, consulta la pagina Linguaggi di programmazione supportati.

Diversi set di dati di ottimizzazione sono stati rimossi dai modelli code-bison e codechat-bison per implementare i seguenti miglioramenti:

  • Chiacchiere eccessive.
  • Artefatti, ad esempio caratteri NBSP (spazio non di interruzioni).
  • Risposte del codice di bassa qualità.

Per informazioni sugli orizzontali del cloud, consulta le certificazioni Vertex AI.

15 giugno 2023

PaLM 2 per la chat

Il modello chat-bison è stato aggiornato per seguire meglio le istruzioni nel campo context. Per maggiori dettagli, su come creare prompt di chat per chat-bison, consulta Progettare prompt di chat.

7 giugno 2023

API PaLM Text and Embeddings e Vertex AI Studio

L'IA generativa su Vertex AI è disponibile in (GA). Con il lancio di questa funzionalità, puoi usare l'API Vertex AI PaLM per generare modelli di IA da testare, ottimizzare ed eseguire il deployment nelle tue applicazioni basate sull'IA. Poiché queste funzionalità sono di tipo GA, ti vengono addebitati costi di utilizzo se usi l'API PaLM text-bison e textembedding-gecko. Per informazioni sui prezzi, consulta la pagina dei prezzi di Vertex AI.

Le funzionalità e i modelli di questa release includono:

  • PaLM 2 per il testo: text-bison
  • Incorporamento per il testo: textembedding-gecko
  • Vertex AI Studio per il linguaggio

Model Garden

Model Garden è disponibile in (GA). Model Garden è una piattaforma che aiuta a scoprire, testare, personalizzare ed eseguire il deployment di Vertex AI e modelli OSS. Questi modelli spaziano da quelli ottimizzabili a quelli specifici per attività e sono tutti disponibili nella pagina di Model Garden nella console Google Cloud.

Per iniziare, consulta Esplorazione di modelli di IA e API in Model Garden.

API Vertex AI Codey

Le API Vertex AI Codey sono in (anteprima). Con le API Codey, puoi utilizzare le API per la generazione di codice, il completamento del codice e la chat di codice da qualsiasi progetto Google Cloud senza autorizzazione. È possibile accedere alle API dalla regione us-central1. Le API Codey possono essere utilizzate in Vertex AI Studio o in modo programmatico nei comandi REST.

Per iniziare, consulta la Panoramica dei modelli di codice.

10 maggio 2023

IA generativa su Vertex AI

L'IA generativa su Vertex AI è disponibile in (anteprima). Con il lancio di questa funzionalità, puoi utilizzare l'API Vertex AI PaLM per generare modelli IA da testare, ottimizzare e implementare nelle tue applicazioni basate sull'IA.

Le funzionalità e i modelli di questa release includono:

  • PaLM 2 per il testo: text-bison
  • PaLM 2 per la chat: chat-bison
  • Incorporamento per il testo: textembedding-gecko
  • Vertex AI Studio per il linguaggio
  • Ottimizzazione per PaLM 2
  • SDK Vertex AI v1.25, che include nuove funzionalità come TextGenerationModel (text-bison), ChatModel (chat-bison), TextEmbeddingModel (textembedding-gecko@001)

Puoi interagire con le funzionalità di IA generativa su Vertex AI utilizzando Vertex AI Studio nella console Google Cloud, l'API Vertex AI e l'SDK Vertex AI per Python.

Model Garden

Model Garden è disponibile in (anteprima). Model Garden è una piattaforma che ti aiuta a scoprire, testare, personalizzare ed eseguire il deployment di Vertex AI e alcuni modelli OSS. Questi modelli vanno da quelli ottimizzabili a quelli specifici per attività, tutti disponibili nella pagina di Model Garden nella console Google Cloud.