Google Cloud introduce innovazioni sviluppate e testate da Google Deepmind nella nostra piattaforma di IA di livello enterprise, in modo che i clienti possano iniziare a utilizzarle per creare e fornire funzionalità di IA generativa oggi stesso, non domani.
I nuovi clienti ricevono 300 $ di crediti gratuiti da spendere su Vertex AI.
Panoramica
Un modello linguistico di grandi dimensioni (LLM) è un modello linguistico statistico, addestrato su un'enorme quantità di dati, che può essere utilizzato per generare e tradurre testo e altri contenuti ed eseguire altre attività di elaborazione del linguaggio naturale (NLP).
Gli LLM si basano solitamente su architetture di deep learning, come il Transformer sviluppato da Google nel 2017, e possono essere addestrati su miliardi di testi e altri contenuti.
Vertex AI offre l'accesso a Gemini, un modello multimodale di Google DeepMind. Gemini è in grado di comprendere praticamente qualsiasi input, combinare diversi tipi di informazioni e generare quasi tutti gli output. Esegui prompt e test in Vertex AI con Gemini utilizzando testo, immagini, video o codice. Utilizzando il ragionamento avanzato e le funzionalità di generazione all'avanguardia di Gemini, gli sviluppatori possono provare prompt di esempio per estrarre il testo dalle immagini, convertire il testo delle immagini in formato JSON e persino generare risposte sulle immagini caricate per creare applicazioni IA di nuova generazione.
Gli LLM basati sul testo vengono utilizzati per una varietà di attività di elaborazione del linguaggio naturale, tra cui la generazione del testo, la traduzione automatica, il riassunto del testo, la risposta a domande e la creazione di chatbot in grado di intrattenere conversazioni con gli esseri umani.
Gli LLM possono anche essere addestrati su altri tipi di dati, tra cui codice, immagini, audio, video e altro ancora. Codey, Imagen e Chirp di Google sono esempi di questi modelli che daranno vita a nuove applicazioni e aiuteranno a creare soluzioni ai problemi più difficili al mondo.
IA generativa su Vertex AI: ti consente di accedere ai grandi modelli di IA generativa di Google in modo da poterli testare, ottimizzare ed eseguire il deployment per utilizzarli nelle tue applicazioni basate sull'IA.
Vertex AI Agent Builder: ricerca aziendale e applicazioni chatbot con flussi di lavoro predefiniti per attività comuni come onboarding, importazione dati e personalizzazione.
Contact Center AI (CCAI) : soluzione intelligente per contact center che include Dialogflow, la nostra piattaforma di IA conversazionale con funzionalità sia basate su intent che LLM.
Come funziona
Gli LLM utilizzano un'enorme quantità di dati di testo per addestrare una rete neurale. Questa rete neurale viene quindi utilizzata per generare e tradurre testi o per svolgere altre attività. Più dati vengono utilizzati per addestrare la rete neurale, migliore e più precisa sarà nello svolgimento del suo compito.
Google Cloud ha sviluppato prodotti basati sulle sue tecnologie LLM, per un'ampia varietà di casi d'uso che puoi esplorare nella sezione Utilizzi comuni di seguito.
Utilizzi comuni
Vertex AI Agents consente la creazione di chatbot dal suono naturale, simile a quello umano. Generative AI Agent è una funzionalità di Vertex AI Agents basata su Dialogflow CX.
Grazie a questa funzionalità, Generative AI Agent è in grado di analizzare un sito web e/o un numero qualsiasi di documenti e creare un agente virtuale basato su datastore e LLM.
Vertex AI Agents consente la creazione di chatbot dal suono naturale, simile a quello umano. Generative AI Agent è una funzionalità di Vertex AI Agents basata su Dialogflow CX.
Grazie a questa funzionalità, Generative AI Agent è in grado di analizzare un sito web e/o un numero qualsiasi di documenti e creare un agente virtuale basato su datastore e LLM.
Estrai e riepiloga informazioni importanti da documenti complessi, come moduli 10-K, articoli di ricerca, servizi di informazione di terze parti e report finanziari, con un semplice clic. Guarda come Enterprise Search utilizza il linguaggio naturale per comprendere le query semantiche, offrire risposte riepilogative e domande di follow-up nella demo a destra.
La soluzione utilizza Vertex AI Agent Builder come componente principale. Con Vertex AI Agent Builder, anche gli sviluppatori all'inizio della carriera possono creare ed eseguire il deployment di chatbot e applicazioni di ricerca in pochi minuti.
Estrai e riepiloga informazioni importanti da documenti complessi, come moduli 10-K, articoli di ricerca, servizi di informazione di terze parti e report finanziari, con un semplice clic. Guarda come Enterprise Search utilizza il linguaggio naturale per comprendere le query semantiche, offrire risposte riepilogative e domande di follow-up nella demo a destra.
La soluzione utilizza Vertex AI Agent Builder come componente principale. Con Vertex AI Agent Builder, anche gli sviluppatori all'inizio della carriera possono creare ed eseguire il deployment di chatbot e applicazioni di ricerca in pochi minuti.
Con Generative AI Document Summarization, esegui il deployment di una soluzione con un solo clic che aiuta a rilevare il testo nei file non elaborati e ad automatizzare i riepiloghi dei documenti. La soluzione stabilisce una pipeline che utilizza il riconoscimento ottico dei caratteri (OCR) di Cloud Vision per estrarre il testo dai documenti PDF caricati in Cloud Storage, crea un riepilogo dal testo estratto con Vertex AI Generative AI Studio e lo archivia in un database BigQuery.
Con Generative AI Document Summarization, esegui il deployment di una soluzione con un solo clic che aiuta a rilevare il testo nei file non elaborati e ad automatizzare i riepiloghi dei documenti. La soluzione stabilisce una pipeline che utilizza il riconoscimento ottico dei caratteri (OCR) di Cloud Vision per estrarre il testo dai documenti PDF caricati in Cloud Storage, crea un riepilogo dal testo estratto con Vertex AI Generative AI Studio e lo archivia in un database BigQuery.
Basata su tecnologie di IA come l'elaborazione del linguaggio naturale, il machine learning e il riconoscimento vocale e testuale, Contact Center AI (CCAI) offre una soluzione Contact Center as a Service (CCaaS) che aiuta a creare un contact center da zero. Dispone inoltre di strumenti individuali che gestiscono aspetti specifici di un contact center, ad esempio Dialogflow per creare un chatbot, Agent Assist per l'assistenza in tempo reale agli agenti umani e CCAI Insights per identificare i fattori chiave e il sentiment delle chiamate.
Basata su tecnologie di IA come l'elaborazione del linguaggio naturale, il machine learning e il riconoscimento vocale e testuale, Contact Center AI (CCAI) offre una soluzione Contact Center as a Service (CCaaS) che aiuta a creare un contact center da zero. Dispone inoltre di strumenti individuali che gestiscono aspetti specifici di un contact center, ad esempio Dialogflow per creare un chatbot, Agent Assist per l'assistenza in tempo reale agli agenti umani e CCAI Insights per identificare i fattori chiave e il sentiment delle chiamate.
Le Cloud TPU sono i supercomputer con scalabilità di tipo warehouse di Google per il machine learning. Sono ottimizzati per prestazioni, scalabilità e riduzione al minimo del costo totale di proprietà e sono ideali per l'addestramento di LLM e modelli di IA generativa.
Con i tempi di addestramento più rapidi in cinque benchmark MLPerf 2.0, i pod di Cloud TPU v4 sono acceleratori di ultima generazione che costituiscono il più grande hub di machine learning disponibile pubblicamente al mondo con un massimo di 9 exaflop di prestazioni di picco aggregate.
Le Cloud TPU sono i supercomputer con scalabilità di tipo warehouse di Google per il machine learning. Sono ottimizzati per prestazioni, scalabilità e riduzione al minimo del costo totale di proprietà e sono ideali per l'addestramento di LLM e modelli di IA generativa.
Con i tempi di addestramento più rapidi in cinque benchmark MLPerf 2.0, i pod di Cloud TPU v4 sono acceleratori di ultima generazione che costituiscono il più grande hub di machine learning disponibile pubblicamente al mondo con un massimo di 9 exaflop di prestazioni di picco aggregate.