Adattamento vocale

Quando esegui una richiesta di rilevamento di intent, puoi anche fornire phrase_hints per fornire suggerimenti al riconoscimento vocale. Questi suggerimenti possono essere utili per il riconoscimento in uno stato di conversazione specifico.

Adattamento vocale automatico

La funzionalità di adattamento vocale automatico migliora la precisione del riconoscimento vocale di l'agente utilizzando automaticamente lo stato della conversazione per trasmettere le entità pertinenti e frasi di addestramento come suggerimenti contestuali vocali per tutte le richieste di intento di rilevamento. Questa funzionalità è disattivato per impostazione predefinita.

Attiva o disattiva l'adattamento vocale automatico

Per attivare o disattivare l'adattamento vocale automatico:

Console

  1. Apri la console Dialogflow CX.
  2. Scegli il tuo progetto Google Cloud.
  3. Seleziona l'agente.
  4. Fai clic su Agent Settings (Impostazioni agente).
  5. Fai clic sulla scheda Voce e IVR.
  6. Attiva o disattiva l'opzione Attiva l'adattamento automatico del parlato.
  7. Fai clic su Salva.

API

Visualizza i metodi get e patch/update per il tipo Agent.

Seleziona un protocollo e una versione per il riferimento dell'agente:

Protocollo V3 V3beta1
REST Risorsa agente Risorsa agente
RPC Interfaccia dell'agente Interfaccia dell'agente
C++ AgentsClient Non disponibile
C# AgentsClient Non disponibile
Vai AgentsClient Non disponibile
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP Non disponibile Non disponibile
Python AgentsClient AgentsClient
Ruby Non disponibile Non disponibile

Progettazione di agenti per i miglioramenti del riconoscimento vocale

Con l'adattamento vocale automatico abilitato, puoi creare il tuo agente in modi sfruttarlo. Le seguenti sezioni spiegano come potrebbe essere eseguito il riconoscimento vocale è stato migliorato con alcune modifiche alle frasi di addestramento dell'agente ed entità.

Frasi di addestramento

  • Se definisci frasi di addestramento con una frase come "naso chiuso", un'espressione dell'utente finale simile viene riconosciuta in modo affidabile come "naso chiuso" e non come "cose che sa".
  • Quando hai un parametro obbligatorio che forza Dialogflow a inserire richieste di compilazione del modulo, l'adattamento automatico del parlato tende fortemente verso l'entità da compilare.

In tutti i casi, l'adattamento automatico del parlato influisce solo sul riconoscimento vocale, non lo limita. Ad esempio, anche se Dialogflow richiede a un utente un'istruzione gli utenti potranno comunque attivare altri intent come "parlare con un agente" di primo livello l'intento.

Entità di sistema

Se definisci una frase di addestramento che utilizza @sys.number entità di sistema , e l'utente finale dice "Ne voglio due", potrebbe essere riconosciuto come "a", "troppo", "2" o "due".

Con l'adattamento automatico vocale abilitato, Dialogflow utilizza l'entità @sys.number come un suggerimento durante il riconoscimento vocale e il parametro ha maggiori probabilità estratto come "2".

Entità personalizzate

  • Se definisci una entità personalizzata per i nomi di prodotti o servizi offerti dalla tua azienda e l'utente finale menziona questi termini in un'espressione, è più probabile che vengano riconosciuti. Una frase di addestramento "I love Dialogflow", in cui "Dialogflow" è annotata come entità @product, indicherà l'adattamento vocale automatico bias per "I love Dialogflow", "I love Cloud Speech" e tutte le altre voci nell'entità @product.

  • È particolarmente importante definire sinonimi di entità puliti quando utilizzi Dialogflow per rilevare il parlato. Immagina di avere due voci @product entity, "Dialogflow" e "Dataflow". I sinonimi di "Dialogflow" potrebbero essere "Dialogflow", "dialogue flow", "dialogue builder", "Speaktoit", "speak to it", "API.ai", "API dot AI". Si tratta di buoni sinonimi perché coprono le varianti più comuni. Non è necessario aggiungere "lo strumento per la creazione di flussi di dialogo" perché "flusso di dialogo" lo copre già.

  • Le frasi dell'utente con entità numeriche consecutive, ma distinte, possono essere ambigue. Ad esempio, "Voglio due pacchetti da sedici" può significare 2 quantità da 16 confezioni, o 216 confezioni. L'adattamento vocale può contribuire a distinguerle casi se imposti entità con valori ortografici:
    • Definisci un'entità quantity con voci:
      zero
      one
      ...
      twenty
    • Definisci un'entità product o size con le voci:
      sixteen pack
      two ounce
      ...
      five liter
    • Nell'adattamento vocale vengono utilizzati solo i sinonimi delle entità, quindi è possibile definire un entità con valore di riferimento 1 e singolo sinonimo one per semplificare della logica di fulfillment.

Entità Regexp

Le entità regexp possono attivare l'adattamento automatico della voce per sequenze alfanumeriche e di cifre come "ABC123" o "12345" se configurate e testate correttamente.

Per riconoscere queste sequenze tramite comandi vocali, implementa tutti e quattro i requisiti riportati di seguito:

1. Requisito per l'inserimento di Regexp

Sebbene qualsiasi espressione regolare possa essere utilizzata per estrarre entità dagli input di testo, solo determinate espressioni indicano all'adattamento automatico della voce di dare la priorità alle sequenze alfanumeriche o di cifre scritte durante il riconoscimento vocale.

Nell'entità regexp, almeno una voce deve rispettare tutte queste regole:

  • Deve corrispondere ad alcuni caratteri alfanumerici, ad esempio: \d, \w e [a-zA-Z0-9]
  • Non deve contenere lo spazio vuoto   o \s, sebbene \s* e \s? siano consentiti
  • Non deve contenere gruppi di acquisizione o non di acquisizione ()
  • Non cercare di trovare corrispondenze con caratteri speciali o punteggiatura come: ` ~ ! @ # $ % ^ & * ( ) - _ = + , . < > / ? ; ' : " [ ] { } \ |

Questa voce può avere set di caratteri [] e quantificatori di ripetizione come *, ?, +, {3,5}.

Consulta gli esempi.

2. Requisito per la definizione dei parametri

Contrassegna l'entità regexp come parametro obbligatorio del modulo, in modo che possa essere raccolta durante la compilazione del modulo. In questo modo, l'adattamento automatico del parlato è fortemente orientato al riconoscimento della sequenza anziché cercare di riconoscere contemporaneamente un'intenzione e una sequenza. In caso contrario, la frase "Dov'è il mio pacco per ABC123" potrebbe essere riconosciuta erroneamente come "Dov'è il mio pacco 4ABC123".

3. Requisito di annotazione delle frasi di addestramento

Non utilizzare l'entità regexp per un annotazione della frase di addestramento per intent. In questo modo, il parametro viene risolto nell'ambito del compilamento del modulo.

4. Requisito per i test

Consulta la sezione Test dell'adattamento vocale.

Esempi

Ad esempio, un'entità regexp con una singola voce ([a-zA-Z0-9]\s?){5,9} non attiverà il riconoscitore di sequenze vocali perché contiene un gruppo di cattura. Per risolvere il problema, aggiungi un'altra voce per [a-zA-Z0-9]{5,9}. Ora potrai beneficia del riconoscimento della sequenza quando trova corrispondenze con "ABC123", ma la NLU continuerà a trovare una corrispondenza con input come "ABC 123" grazie all'originale che consenta l'uso di spazi.

I seguenti esempi di espressioni regolari si adattano alle sequenze alfanumeriche:

^[A-Za-z0-9]{1,10}$
WAC\d+
215[2-8]{3}[A-Z]+
[a-zA-Z]\s?[a-zA-Z]\s?[0-9]\s?[0-9]\s?[0-9]\s?[a-zA-Z]\s?[a-zA-Z]

I seguenti esempi di espressioni regolari si adattano alle sequenze di cifre:

\d{2,8}
^[0-9]+$
2[0-9]{7}
[2-9]\d{2}[0-8]{3}\d{4}
Soluzione alternativa per le espressioni regolari

Il supporto integrato dell'adattamento vocale automatico per le entità regexp varia in base alla lingua. Controlla i token di classe di Speech per le lingue supportate da $OOV_CLASS_ALPHANUMERIC_SEQUENCE e $OOV_CLASS_DIGIT_SEQUENCE.

Se la tua lingua non è presente nell'elenco, puoi aggirare questa limitazione. Ad esempio, se vuoi che un ID dipendente costituito da tre lettere seguite da tre cifre venga riconosciuto con precisione, puoi creare il tuo agente con le seguenti entità e i seguenti parametri:

  • Definisci un'entità digit contenente 10 voci di entità (con sinonimi):
    0, 0
    1, 1
    ...
    9, 9
  • Definisci un'entità letter contenente 26 voci di entità (con sinonimi):
    A, A
    B, B
    ...
    Z, Z
  • Definisci un'entità employee-id contenente una singola voce di entità (senza sinonimi):
    @letter @letter @letter @digit @digit @digit
  • Utilizza @employee-id come parametro in una frase di addestramento.

Adattamento vocale manuale

L'adattamento vocale manuale ti consente di configurare manualmente le frasi di adattamento vocale per un flusso o una pagina. Sostituisce inoltre i contesti di parlato impliciti generati dall'adattamento automatico del parlato, se quest'ultimo è attivo.

Le impostazioni di adattamento vocale a livello di flusso e di pagina hanno una relazione gerarchica, il che significa che una pagina eredita le impostazioni di adattamento vocale dal livello di flusso per impostazione predefinita e il livello di pagina più granulare ha sempre la priorità sul livello di flusso se la pagina ha un'impostazione personalizzata.

Per l'impostazione di adattamento del parlato, l'impostazione a livello di flusso e l'impostazione a livello di pagina possono essere attivate in modo indipendente. Se l'impostazione di adattamento del livello di flusso non è abilitata, puoi comunque scegliere Personalizza a livello di pagina per attivare di adattamento vocale manuale per quella pagina specifica. Analogamente, se disattivi l'adattamento vocale manuale nell'impostazione a livello di flusso, le pagine del flusso con Personalizza selezionato non saranno interessate.

Tuttavia, l'impostazione a livello di flusso e l'impostazione a livello di pagina non possono essere disattivate in modo indipendente. Se per un flusso è abilitato l'adattamento vocale manuale, non puoi disabilitarlo per un sotto il flusso attraverso l'opzione Personalizza. Pertanto, se vuoi offrono un uso misto di adattamento vocale manuale e adattamento vocale automatico per le pagine all'interno di un flusso, non devi attivare l'adattamento vocale manuale a livello di flusso e devono utilizzare solo le impostazioni di adattamento a livello di pagina. Puoi fare riferimento alla tabella riportata di seguito per capire quale combinazione di flusso e impostazione della pagina utilizzare per il tuo caso di adattamento.

Effetto target Uso consigliato delle impostazioni di adattamento
Disattivare l'adattamento automatico per un flusso Flusso attivato senza insiemi di frasi (le pagine all'interno del flusso utilizzano per impostazione predefinita l'impostazione del flusso).
Disattivare l'adattamento automatico per una pagina Flusso disattivato e pagina attivata (opzione Personalizza scelta) senza insiemi di frasi.
Utilizza l'adattamento vocale manuale solo per tutte le pagine all'interno di un flusso Flusso abilitato. Personalizza le pagine che devono utilizzare insiemi di frasi diversi dal flusso.
Combinare l'uso dell'adattamento automatico e manuale all'interno di un flusso Flusso disabilitato. Personalizza le pagine a cui vuoi applicare l'adattamento manuale.
Utilizza l'adattamento vocale automatico solo per tutte le pagine di un flusso Flusso disabilitato.

Attiva o disattiva l'adattamento vocale manuale

Per attivare o disattivare l'adattamento vocale manuale a livello di flusso o di pagina:

Impostazioni flusso

  1. Apri la console Dialogflow CX.
  2. Scegli il tuo progetto Google Cloud.
  3. Passa il mouse sopra il flusso nella sezione Fluidi.
  4. Fai clic sul pulsante delle opzioni .
  5. Seleziona Impostazioni flusso nel menu a discesa.
  6. Seleziona la casella di controllo Attiva l'adattamento vocale manuale o deselezionala.
  7. Modificare, aggiungere o eliminare serie di frasi nella tabella delle serie di frasi
  8. Fai clic su Salva.

Impostazioni pagina

  1. Apri la console Dialogflow CX.
  2. Scegli il tuo progetto Google Cloud.
  3. Passa il mouse sopra la pagina nella sezione Pagine.
  4. Fai clic sul pulsante delle opzioni .
  5. Seleziona Impostazioni pagina nel menu a discesa.
  6. L'opzione Utilizza il livello di flusso è selezionata per impostazione predefinita e, se scelta, le frasi di adattamento a livello di flusso verranno riutilizzate per questa pagina. Puoi scegliere Personalizza per configurare frasi di adattamento diverse da quelle impostate a livello di flusso. Anche se l'adattamento vocale manuale è disattivato a livello di flusso, puoi comunque attivarlo e configurarlo per una pagina del flusso tramite l'opzione Personalizza.
  7. Modificare, aggiungere o eliminare un insieme di frasi nella tabella dell'insieme di frasi di adattamento
  8. Fai clic su Salva.

Configurazione manuale del set di frasi per i miglioramenti del riconoscimento vocale

1. Parole e frasi

In un insieme di frasi di adattamento, puoi definire frasi composte da una o più parole con riferimenti facoltativi ai token delle classi vocali. Ad esempio, puoi aggiungere frasi come "ottima tariffa", "il numero di tracciamento è $OOV_CLASS_ALPHANUMERIC_SEQUENCE" o "$FULLPHONENUM". Queste frasi fornite aumentano la probabilità che vengano trascritte rispetto ad altre frasi simili dal punto di vista fonetico. Quando aggiungi una frase composta da più parole senza boost, il bias viene applicato sia all'intera frase che le parti continue all'interno della frase. In generale, il numero di frasi deve essere ridotto e devi aggiungere solo frasi che il riconoscimento vocale ha difficoltà a comprendere correttamente senza adattamento vocale. Se la funzionalità Trascrizione vocale è già in grado di riconoscere correttamente una frase, non è necessario aggiungerla alle impostazioni di adattamento vocale. Se in una pagina o in un flusso noti alcune frasi che spesso Text-to-Speech non riconosce correttamente, puoi aggiungere le frasi corrette alle impostazioni di adattamento corrispondenti.

Esempio di correzione degli errori di riconoscimento

Ecco un esempio di come puoi utilizzare l'adattamento vocale per correggere i problemi di riconoscimento. Supponiamo che tu stia progettando un agente di vendita di telefoni e che l'utente possa dire qualcosa che includa le frasi "vendi telefoni" o "cellulare" dopo che l'agente ha posto la prima domanda "di che cosa hai bisogno?". Come possiamo quindi utilizzare l'adattamento vocale per migliorare la precisione del riconoscimento di entrambe le frasi?

Se includi entrambe le frasi nelle impostazioni di adattamento, la funzionalità di sintesi vocale potrebbe comunque essere confusa, poiché hanno un suono simile. Se fornisci una sola frase tra le due, Speech-to-Text potrebbe non riconoscono correttamente una frase l'altra. Per migliorare la precisione del riconoscimento vocale per entrambe le frasi, devi fornire Speech-to-Text con più indizi di contesto per distinguere tra quando ascoltare "vendi telefoni" e quando dovrebbe sentire "telefono cellulare". Ad esempio: potresti notare che gli utenti spesso usano "vendi telefoni" nell'ambito di frasi come "come vendere telefoni", "voglio vendere telefoni" o "vendi telefoni", mentre "telefono cellulare" nell'ambito di frasi come "acquista telefono", "conto del cellulare", e "servizio di telefonia cellulare". Se fornisci queste frasi più precise al modello al posto delle brevi frasi originali "telefono cellulare" e "vendere telefoni", Speech-to-Text impareremo che "vendere telefono" perché è più probabile che una frase verbale segua le parole come "istruzioni" o "voglio" e "fai di te", mentre "telefono cellulare" come sostantivo ha più probabilità di seguire una frase dopo parole come "acquistare" o essere seguito da parole come "conto" o "servizio". Come regola generale per configurare frasi di adattamento, di solito è meglio fornire frasi più precise, come "come vendere telefoni" o "vendi telefoni" che includere solo "vendi telefono".

2. Token di classe di parlato

Oltre alle parole in linguaggio naturale, puoi anche incorporare riferimenti ai token della classe di parlato in una frase. I token di classe di parlato rappresentano concetti comuni che in genere seguono un determinato formato nella scrittura. Ad esempio, per il numero civico di un indirizzo come "Via Principale 123", in genere le persone si aspettano di vedere il formato numerico "123" anziché la versione scritta "centoventitré". Se prevedi una determinata formattazione nei risultati della trascrizione, in particolare per le sequenze alfanumeriche, consulta l'elenco dei token di classe supportati per vedere quali token sono disponibili per la tua lingua e il tuo caso d'uso.

Se la pagina contiene già route o parametri di intent con riferimenti alle entità di sistema, ecco una tabella di riferimento per le mappature tra entità di sistema comuni e token di classe vocale:

Entità di sistema Token di classe di parlato
@sys.date $MONTH $DAY $YEAR
@sys.date-time $MONTH $DAY $YEAR
@sys.date-period $MONTH $DAY $YEAR
@sys.time $TIME
@sys.time-period $TIME
@sys.age $OPERAND
@sys.number $OPERAND
@sys.number-integer $OPERAND
@sys.cardinal $OPERAND
@sys.ordinal $OPERAND
@sys.percentage $OPERAND
@sys.duration $OPERAND
@sys.currency-name $MONEY
@sys.unit-currency $MONEY
@sys.phone-number $FULLPHONENUM
@sys.zip-code $POSTALCODE o $OOV_CLASS_POSTALCODE
@sys.address $ADDRESSNUM $STREET $POSTALCODE
@sys.street-address $ADDRESSNUM $STREET $POSTALCODE
@sys.temperature $OOV_CLASS_TEMPERATURE
@sys.number-sequence $OOV_CLASS_DIGIT_SEQUENCE
@sys.flight-number $OOV_CLASS_ALPHANUMERIC_SEQUENCE

3. Valore boost

Se l'aggiunta di frasi senza il valore di boost non fornisce un effetto di bias sufficientemente elevato, puoi utilizzare il valore di boost per rafforzare ulteriormente l'effetto di bias di adattamento del parlato.

Il booster applica un bias aggiuntivo se impostato su valori superiori a 0 e non superiori a 20. Quando il booster è vuoto o pari a 0, l'effetto di differenziazione predefinito aiuta a riconoscere l'intera frase e le parti continue al suo interno. Ad esempio, un frase "sei disponibile a vendere telefoni" aiuta a riconoscere la frase e frasi simili come "vendo telefoni" e "Ciao sei aperto".

Quando viene applicato il potenziamento positivo, l'effetto di sbiasamento è più forte, ma si applica solo alla frase esatta. Ad esempio, una frase migliorata "vendi telefoni" aiuta a riconoscere "puoi vendi telefoni", ma non "vendi telefoni".

Per questi motivi, otterrai risultati ottimali se fornisci frasi con e senza boost.

Valori di boost più elevati possono comportare un numero inferiore di falsi negativi, ovvero casi in cui la parola o la frase si è verificata nell'audio, ma non è stata riconosciuta correttamente da Speech-to-Text (sottostima). Tuttavia, il booster può anche aumentare la probabilità di falsi positivi; cioè casi in cui la parola o la frase compare nella trascrizione anche se non è presente nell'audio (eccessiva deviazione). In genere, devi perfezionare le frasi di bias per trovare un buon punto di compromesso tra i due problemi di bias.

Puoi scoprire di più su come ottimizzare il valore di aumento per le frasi in Documento di Cloud Speech relativo al potenziamento.

Quando utilizzare l'adattamento vocale automatico o manuale

In generale, se non sai con certezza se l'adattamento vocale migliorerà la qualità del riconoscimento vocale per il tuo agente (non sono presenti modelli di errori di trascrizione chiari), ti invitiamo a provare prima l'adattamento vocale automatico prima di ricorrere all'adattamento vocale manuale. Per decisioni più articolate, Prendi in considerazione i seguenti fattori per decidere tra l'adattamento vocale automatico o adattamento vocale manuale:

1. Compilazione di moduli

L'adattamento vocale automatico funziona molto bene con compilazione di moduli poiché utilizza il contesto grammaticale di ABNF per i parametri del modulo e applica regole grammaticali in base ai tipi di entità. Poiché l'adattamento vocale manuale non supporta ancora le grammatiche ABNF, in genere è preferibile l'adattamento vocale automatico rispetto all'adattamento vocale manuale per una pagina di compilazione del modulo. Tuttavia, per le pagine con solo parametri di entità di sistema ed entità regexp semplici supportate dai token di classe vocale, puoi anche utilizzare l'adattamento vocale manuale per ottenere un effetto di bias simile all'adattamento vocale automatico senza dover ottimizzare le entità regexp.

2. Complessità della transizione di pagina o flusso

Per una pagina o un flusso semplici con pochi percorsi di intenti, l'adattamento automatico del parlato genererà probabilmente frasi di bias rappresentative e avrà un rendimento ragionevolmente buono.

Tuttavia, se una pagina o un flusso ha una grande quantità di percorsi di intenti (per una pagina, considera anche il numero di percorsi a livello di flusso), o se uno degli intenti ha frasi di addestramento non importanti troppo lunghe o brevi (ad esempio, un'intera frase o una singola parola con una o due sillabe), è molto probabile che il modello di adattamento del parlato non funzioni bene con queste frasi. Innanzitutto, prova a disattivare l'adattamento vocale per le pagine aperte con elevata complessità attivando l'adattamento vocale manuale con insiemi di frasi vuote (sostituzione dell'adattamento vuoto). Dopodiché, valuta se esistono frasi speciali non ambigue che devono ancora essere fornite a Speech-to-Text per migliorare la qualità del riconoscimento.

Un altro sintomo di questo problema di complessità è la presenza problemi di parzialità o eccessiva bias quando l'adattamento vocale automatico è attivato. Come nel caso precedente, devi anche eseguire il test con l'adattamento vocale disabilitato per la pagina specifica. Se dopo la disattivazione dell'adattamento vocale permangono comportamenti errati, puoi aggiungere le frasi che vuoi utilizzare per la correzione impostazioni di adattamento vocale e persino aggiungere valori di incremento per rafforzare ulteriormente gli effetti della differenziazione, se necessario.

Testare l'adattamento vocale

Durante il test delle funzionalità di adattamento vocale dell'agente per una particolare corrispondenza di addestramento o entità, non devi passare direttamente al test della corrispondenza al primo comando vocale di una conversazione. Dovresti utilizzare solo input vocali o da evento per l'intera conversazione prima del la corrispondenza che vuoi testare. Il comportamento dell'agente quando viene testato in questo modo sarà simile a quello nelle conversazioni di produzione effettive.

Limitazioni

Si applicano le seguenti limitazioni:

  • L'adattamento vocale non è disponibile per tutti i modelli vocali e tutte le combinazioni di lingue. Consulta la pagina di supporto delle lingue di Cloud Speech per verificare se l'opzione "adattamento del modello" è disponibile per la combinazione di modello vocale e lingua.
  • Attualmente l'adattamento vocale manuale non supporta classi personalizzati o Ancora la grammatica ABNF. Puoi attivare l'adattamento vocale automatico o utilizzare il runtime rilevare richieste di intent per usare queste funzionalità di adattamento.

  • Lo stesso valore di boost può funzionare in modo diverso per modelli vocali e lingue diversi, quindi fai attenzione quando li configuri manualmente per gli agenti che utilizzano più lingue o modelli vocali. Attualmente, l'adattamento vocale manuale si applica a tutte le lingue di un agente, quindi gli agenti multilingue devono usare solo espressioni che non dipendono dalla lingua o suddividere ogni lingua in un dell'agente. Poiché il comportamento di sbiasamento predefinito (nessun boost o boost pari a 0) solitamente funziona abbastanza bene per tutte le lingue e i modelli, non è necessario configurare valori di boost specifici per la lingua, a meno che non sia necessario un sbiasamento più marcato per il tuo caso d'uso di riconoscimento. Puoi scoprire di più su come perfeziona il valore di incremento Guida di Cloud Speech-to-Text.

  • Riconoscere sequenze di caratteri lunghe è difficile. Il numero di i caratteri acquisiti in un singolo turno sono direttamente correlati alla qualità dell'audio in ingresso. Se hai seguito tutte le linee guida sulle entità regexp e ho provato a usare token pertinenti per le classi vocali nelle impostazioni di adattamento vocale manuale e fanno ancora fatica ad acquisire l'intera sequenza in un solo turno, Puoi prendere in considerazione altre alternative conversazionali:
    • Quando convalidi la sequenza rispetto a un database, valuta la possibilità di eseguire un controllo incrociato con altri parametri raccolti, come date, nomi o numeri di telefono, per consentire corrispondenze incomplete. Ad esempio, invece di chiedendo il numero dell'ordine a un utente, chiedi anche il numero di telefono. Ora, quando il webhook esegue una query sul database per lo stato dell'ordine, affidati al numero di telefono, poi restituisci l'ordine corrispondente più simile per quell'account. Questo potrebbe consentire a Dialogflow di rilevare erroneamente "ABC" come "AVC", restituisce comunque lo stato dell'ordine corretto per l'utente.
    • Per sequenze molto lunghe, valuta la possibilità di progettare un flusso che incoraggi per consentire agli utenti finali di fare una pausa nella fase intermedia in modo che il bot possa confermare mentre procedi.