Dialogflow ora fornisce un insieme di funzionalità di conversazione generativa basate su Dialogflow e Vertex AI.
Con queste funzionalità, ora puoi utilizzare modelli linguistici di grandi dimensioni (LLM) per analizzare e comprendere i contenuti, generare le risposte degli agenti e controllare il flusso delle conversazioni. Ciò può ridurre notevolmente i tempi di progettazione dell'agente e migliorarne la qualità.
Di seguito è riportata una panoramica di queste funzionalità:
X | Elemento |
---|---|
App agente Vertex AI | Le app agente offrono un nuovo modo per creare agenti virtuali Dialogflow CX utilizzando gli LLM. Invece di definire flussi, pagine, intent e transizioni, fornisci istruzioni in linguaggio naturale e dati strutturati. Ciò può ridurre significativamente i tempi di creazione e manutenzione degli agenti virtuali e consentire alla tua azienda nuovi tipi di esperienze di conversazione. |
Agenti del datastore | Gli agenti del datastore analizzano e comprendono i tuoi contenuti pubblici o privati (sito web, documenti interni e così via). Una volta indicizzate queste informazioni, l'agente può rispondere alle domande e fare conversazioni sui contenuti. Devi solo fornire i contenuti. |
generatori | I generatori vengono utilizzati per generare le risposte degli agenti. Anziché fornire la risposta dell'agente per un fulfillment, fornisci un prompt LLM in grado di gestire molti scenari, tra cui il riassunto delle conversazioni, la risposta alle domande, il recupero delle informazioni sui clienti e la riassegnazione a un utente. |
Di riserva generativa | Il riserva generativa viene utilizzato per generare le risposte dell'agente quando l'input utente finale non corrisponde a un intent. Puoi abilitare il fallback generativo sui gestori di eventi senza corrispondenza fornendo un prompt LLM per generare la risposta. |
Prezzi
Per i prezzi, consulta Vertex AI Search and Conversation.