Esegui la pipeline AutoSxS per eseguire una valutazione basata su modelli in coppia

Questa pagina illustra come eseguire una valutazione basata su modelli a coppie utilizzando AutoSxS, uno strumento che viene eseguito tramite il servizio della pipeline di valutazione. Ti spiegheremo come utilizzare AutoSxS tramite l'API Vertex AI, l'SDK Vertex AI per Python o la console Google Cloud.

AutoSxS

Automatic side-by-side (AutoSxS) è uno strumento di valutazione basato su modelli a coppie che viene eseguito attraverso il servizio della pipeline di valutazione. AutoSxS può essere utilizzato per valutare le prestazioni dei modelli di AI generativa in Vertex AI Model Registry o delle predizioni generate, il che consente di supportare i modelli di base di Vertex AI, i modelli di AI generativa ottimizzati e i modelli linguistici di terze parti. AutoSxS utilizza lo strumento di valutazione automatica per decidere quale modello dà la risposta migliore a un prompt. È disponibili on demand e valuta modelli linguistici con prestazioni paragonabili a revisori umani.

L'autore di valutazioni automatiche

A livello generale, il diagramma mostra come AutoSxS confronti le previsioni dei modelli A e B con un terzo modello, lo strumento di valutazione automatica.

Panoramica del funzionamento di AutoSxS

I modelli A e B ricevono prompt di input e ciascun modello genera risposte che vengono inviate allo strumento di valutazione automatica. Analogamente a un valutatore umano, uno strumento di valutazione automatica è un modello linguistico che giudica la qualità delle risposte del modello in base a un prompt di inferenza originale. Con AutoSxS, lo strumento di valutazione automatica confronta la qualità delle risposte di due modelli in base alle loro istruzioni di inferenza utilizzando un insieme di criteri. I criteri vengono utilizzati per determinare il modello con le migliori prestazioni confrontando i risultati del modello A con quelli del modello B. Il sistema di valutazione automatica genera le preferenze di risposta come metriche aggregate e fornisce spiegazioni delle preferenze e punteggi di attendibilità per ogni esempio. Per ulteriori informazioni, consulta la tabella di giudizio.

Modelli supportati

AutoSxS supporta la valutazione di qualsiasi modello quando vengono fornite le previsioni pregenerate. AutoSxS supporta anche la generazione automatica di risposte per qualsiasi modello in Vertex AI Model Registry che supporta la modalità batch su Vertex AI.

Se il tuo modello di testo non è supportato da Modello Vertex AI Registry, AutoSxS accetta anche previsioni pregenerate e archiviate come JSONL in Cloud Storage o in una tabella BigQuery. Per i prezzi, consulta Genesi di testo.

Attività e criteri supportati

AutoSxS supporta la valutazione dei modelli per le attività di riassunto e risposta alle domande. I criteri di valutazione sono predefiniti per ogni attività e, di conseguenza, la valutazione più obiettiva e migliorare la qualità delle risposte.

I criteri sono elencati per attività.

Riassunto

L'attività summarization ha un limite di token di input pari a 4096.

Di seguito è riportato l'elenco dei criteri di valutazione per summarization:

Criteri
1. Segue le istruzioni In che misura la risposta del modello dimostra di aver compreso l'istruzione del prompt?
2. A terra La risposta include solo informazioni dal contesto e dall'istruzione di inferenza?
3. Completa In che misura il modello acquisisce le chiavi dettagli nel riassunto?
4. Breve Il riepilogo è troppo prolisso? Include un linguaggio fiorito? È troppo conciso?

Risposta alla domanda

L'attività question_answering ha un token di input 4096 limite.

L'elenco dei criteri di valutazione per question_answering è il seguente:

Criteri
1. Risponde in modo completo alla domanda La risposta risponde completamente alla domanda.
2. A terra La risposta include solo informazioni dal contesto dell'istruzione e dall'istruzione di inferenza?
3. Pertinenza Il contenuto della risposta si riferisce alla domanda?
4. Completa In che misura il modello acquisisce le chiavi dettagli nella domanda?

prepara il set di dati di valutazione per AutoSxS

Questa sezione descrive in dettaglio i dati da fornire nel set di dati di valutazione di AutoSxS e le best practice per la creazione del set di dati. Gli esempi devono rispecchiare gli input reali che i tuoi modelli potrebbero incontrare in produzione e mettere in evidenza il comportamento dei modelli attivi.

Formato del set di dati

AutoSxS accetta un singolo set di dati di valutazione con uno schema flessibile. Il set di dati può essere una tabella BigQuery o archiviato come righe JSON in Cloud Storage.

Ogni riga del set di dati di valutazione rappresenta un singolo esempio e le colonne sono una delle seguenti:

  • Colonne ID: utilizzate per identificare ogni esempio univoco.
  • Colonne di dati: utilizzate per compilare i modelli di prompt. Consulta Parametri dei prompt
  • Previsioni generate in precedenza: previsioni effettuate dallo stesso modello utilizzando lo stesso prompt. L'utilizzo di previsioni pregenerate consente di risparmiare tempo e risorse.
  • Preferenze umane basate su dati empirici reali: questa opzione viene utilizzata per confrontare AutoSxS con i dati sulle preferenze basate su dati empirici reali quando vengono fornite previsioni pregenerate per entrambi i modelli.

Ecco un esempio di set di dati di valutazione in cui context e question sono colonne di dati e model_b_response contiene previsioni pregenerate.

context question model_b_response
Alcuni potrebbero pensare che lo sia l'acciaio o il titanio, ma in realtà il materiale più duro è il diamante. Qual è il materiale più duro? Il diamante è il materiale più duro. È più duro dell'acciaio o del titanio.

Per ulteriori informazioni su come chiamare AutoSxS, consulta Perform model (Esegui modello) di valutazione. Per maggiori dettagli sulla lunghezza del token, vedi Attività supportate e criteri. Per caricare i dati in Cloud Storage, consulta Caricare il set di dati di valutazione in Cloud Storage.

Parametri prompt

Molti modelli linguistici prendono i parametri dei prompt come input anziché un singolo prompt stringa. Ad esempio: chat-bison richiede diversi parametri del prompt (messaggi, esempi, contesto), che compongono parti del prompt. Tuttavia, text-bison ha un solo parametro del prompt, denominato prompt, che contiene l'intera richiesta.

Descriviamo come specificare in modo flessibile i parametri del prompt del modello durante l'inferenza e durante la valutazione. AutoSxS ti offre la flessibilità di chiamare modelli linguistici con input previsti variabili tramite parametri prompt basati su modelli.

Inferenza

Se uno o più modelli non hanno previsioni pregenerate, AutoSxS utilizza Previsione batch di Vertex AI per generare risposte. Prompt di ogni modello è necessario specificare i parametri.

In AutoSxS, puoi fornire una singola colonna nel set di dati di valutazione come parametro prompt.

{'some_parameter': {'column': 'my_column'}}

In alternativa, puoi definire i modelli, utilizzando le colonne del set di dati di valutazione come variabili, per specificare i parametri del prompt:

{'some_parameter': {'template': 'Summarize the following: {{ my_column }}.'}}

Quando forniscono i parametri del prompt del modello per l'inferenza, gli utenti possono utilizzare la parola chiave protetta default_instruction come argomento del modello, che viene sostituita con l'istruzione di inferenza predefinita per l'attività specificata:

model_prompt_parameters = {
        'prompt': {'template': '{{ default_instruction }}: {{ context }}'},
}

Se generi previsioni, fornisci i parametri del prompt del modello e una colonna di output. Vedi i seguenti esempi:

Gemini

Per i modelli Gemini, le chiavi per i parametri dei prompt del modello sono contents (obbligatorio) e system_instruction (facoltativo), che sono in linea con il corpo della richiesta di Gemini di testo.

model_a_prompt_parameters={
    'contents': {
        'column': 'context'
    },
    'system_instruction': {'template': '{{ default_instruction }}'},
},

text-bison

Ad esempio, text-bison utilizza "prompt" per input e "contenuti" della come output. Segui questi passaggi:

  1. Identifica gli input e gli output necessari per i modelli in fase di valutazione.
  2. Definisci gli input come parametri del prompt del modello.
  3. Passa l'output alla colonna di risposta.
model_a_prompt_parameters={
    'prompt': {
        'template': {
            'Answer the following question from the point of view of a college professor: {{ context }}\n{{ question }}'
        },
    },
},
response_column_a='content',  # Column in Model A response.
response_column_b='model_b_response',  # Column in eval dataset.

Valutazione

Così come devi fornire parametri prompt per l'inferenza, devi fornire anche parametri prompt per la valutazione. Lo strumento autorater richiede i seguenti parametri del prompt:

Parametro prompt dello strumento di valutazione automatica Configurabile dall'utente? Descrizione Esempio
Istruzioni strumento di valutazione automatica No Un'istruzione calibrata che descrive i criteri che l'autovalutatore dovrebbe utilizzare per valutare le risposte date. Scegli la risposta che risponde alla domanda e segue meglio le istruzioni.
Istruzione di inferenza Una descrizione dell'attività che ogni modello candidato dovrebbe eseguire. Rispondi con precisione alla domanda: Qual è il materiale più difficile?
Contesto di inferenza Contesto aggiuntivo per l'attività che viene eseguita. Mentre il titanio e il diamante sono entrambi più duri del rame, il diamante ha una durezza di 98, mentre il titanio ha una valutazione di 36. Una classificazione più elevata indica una durezza maggiore.
Risposte N.1 Un paio di risposte da valutare, una per ogni modello candidato. Rombo

1Puoi configurare il parametro prompt solo tramite risposte pregenerate.

Esempio di codice utilizzando i parametri:

autorater_prompt_parameters={
    'inference_instruction': {
        'template': 'Answer the following question from the point of view of a college professor: {{ question }}.'
    },
    'inference_context': {
        'column': 'context'
    }
}

I modelli A e B possono avere istruzioni di inferenza e un contesto formattati in modo diverso, indipendentemente dal fatto che vengano fornite o meno le stesse informazioni. Ciò significa che l'autoreattore prende un'istruzione e un contesto di inferenza separati, ma singoli.

Esempio di set di dati di valutazione

Questa sezione fornisce un esempio di set di dati di valutazione delle attività con domande e risposte, incluse le previsioni pregenerate per il modello B. In questo esempio, AutoSxS esegue l'inferenza solo per il modello A. Forniamo una colonna id per distinguere tra esempi con la stessa domanda e lo stesso contesto.

{
 "id": 1,
 "question": "What is the hardest material?",
  "context": "Some might think that steel is the hardest material, or even titanium. However, diamond is actually the hardest material.",
  "model_b_response": "Diamond is the hardest material. It is harder than steel or titanium."
}
{
  "id": 2,
  "question": "What is the highest mountain in the world?",
  "context": "K2 and Everest are the two tallest mountains, with K2 being just over 28k feet and Everest being 29k feet tall.",
  "model_b_response": "Mount Everest is the tallest mountain, with a height of 29k feet."
}
{
  "id": 3,
  "question": "Who directed The Godfather?",
  "context": "Mario Puzo and Francis Ford Coppola co-wrote the screenplay for The Godfather, and the latter directed it as well.",
  "model_b_response": "Francis Ford Coppola directed The Godfather."
}
{
  "id": 4,
  "question": "Who directed The Godfather?",
  "context": "Mario Puzo and Francis Ford Coppola co-wrote the screenplay for The Godfather, and the latter directed it as well.",
  "model_b_response": "John Smith."
}

Best practice

Segui queste best practice per definire il set di dati di valutazione:

  • Fornisci esempi che rappresentano i tipi di input elaborati dai tuoi modelli in produzione.
  • Il set di dati deve includere almeno un esempio di valutazione. Consigliamo di utilizzare circa 100 esempi per garantire metriche aggregate di alta qualità. Il tasso di i miglioramenti della qualità delle metriche aggregate tendono a diminuire quando oltre 400 vengono forniti esempi.
  • Per una guida alla scrittura dei prompt, consulta Progettare prompt di testo.
  • Se utilizzi previsioni pregenerate per entrambi i modelli, includi il parametro previsioni pregenerate in una colonna del set di dati di valutazione. Fornire previsioni pregenerate è utile perché consente di confrontare l'output dei modelli che non sono nel Registro dei modelli Vertex e di riutilizzare le risposte.

Esegui la valutazione del modello

Puoi valutare i modelli utilizzando l'API REST, l'SDK Vertex AI per Python o la console Google Cloud.

Utilizza questa sintassi per specificare il percorso del modello:

  • Modello di publisher: publishers/PUBLISHER/models/MODEL Esempio: publishers/google/models/text-bison
  • Modello ottimizzato: projects/PROJECT_NUMBER/locations/LOCATION/models/MODEL@VERSION Esempio: projects/123456789012/locations/us-central1/models/1234567890123456789

REST

Per creare un job di valutazione del modello, invia una richiesta POST utilizzando il metodo pipelineJobs.

Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:

  • PIPELINEJOB_DISPLAYNAME: nome visualizzato per pipelineJob.
  • PROJECT_ID: il progetto Google Cloud che esegue i componenti della pipeline.
  • LOCATION : regione in cui eseguire i componenti della pipeline. us-central1 è supportato.
  • OUTPUT_DIR : URI Cloud Storage per archiviare l'output di valutazione.
  • EVALUATION_DATASET : tabella BigQuery o elenco separato da virgole di percorsi di Cloud Storage a un set di dati JSONL contenente esempi di valutazione.
  • TASK: attività di valutazione, che può essere una delle seguenti: [summarization, question_answering].
  • ID_COLUMNS: colonne che distinguono gli esempi di valutazione univoci.
  • AUTORATER_PROMPT_PARAMETERS: parametri del prompt di Autorater mappati a colonne o modelli. I parametri previsti sono: inference_instruction (dettagli su come eseguire un'attività) e inference_context (contenuti a cui fare riferimento per eseguire l'attività). Ad esempio, {'inference_context': {'column': 'my_prompt'}} utilizza la colonna "my_prompt" del set di dati di valutazione per il contesto dell'autore.
  • RESPONSE_COLUMN_A: il nome di una colonna nel set di dati di valutazione contenente previsioni predefinite o il nome della colonna nell'output del modello A contenente le previsioni. Se non viene fornito alcun valore, tenterà di dedurre il nome corretto della colonna di output del modello.
  • RESPONSE_COLUMN_B: il nome di una colonna nel set di dati di valutazione contenente previsioni predefinite o il nome della colonna nell'output del modello B contenente le previsioni. Se non viene fornito alcun valore, tenterà di dedurre il nome corretto della colonna di output del modello.
  • MODEL_A (Facoltativo): un nome risorsa del modello completo (projects/{project}/locations/{location}/models/{model}@{version}) o un nome risorsa del modello del publisher (publishers/{publisher}/models/{model}). Se vengono specificate le risposte del Modello A, questo parametro non deve essere fornito.
  • MODEL_B (Facoltativo): un nome di risorsa modello completo (projects/{project}/locations/{location}/models/{model}@{version}) o il nome di risorsa modello del publisher (publishers/{publisher}/models/{model}). Se sono specificate le risposte del modello B, questo parametro non deve essere fornito.
  • MODEL_A_PROMPT_PARAMETERS (Facoltativo): parametri del modello di prompt del modello A mappati a colonne o modelli. Se le risposte del Modello A sono predefinite, questo parametro non deve essere fornito. Esempio: {'prompt': {'column': 'my_prompt'}} utilizza la colonna my_prompt del set di dati di valutazione per il parametro prompt denominato prompt.
  • MODEL_B_PROMPT_PARAMETERS (Facoltativo) I parametri del modello di prompt del Modello B mappati a colonne o modelli. Se le risposte del modello B sono predefinite, questo parametro non deve essere fornito. Esempio: {'prompt': {'column': 'my_prompt'}} utilizza la colonna my_prompt del set di dati di valutazione per il parametro del prompt denominato prompt.
  • (Facoltativo) JUDGMENTS_FORMAT : il formato in cui scrivere i giudizi. Può essere jsonl (predefinito), json o bigquery.
  • BIGQUERY_DESTINATION_PREFIX: tabella BigQuery in cui scrivere i giudizi se il formato specificato è bigquery.

Corpo JSON della richiesta

  {
    "displayName": "PIPELINEJOB_DISPLAYNAME",
    "runtimeConfig": {
        "gcsOutputDirectory": "gs://OUTPUT_DIR",
        "parameterValues": {
            "evaluation_dataset": "EVALUATION_DATASET",
            "id_columns": ["ID_COLUMNS"],
            "task": "TASK",
            "autorater_prompt_parameters": AUTORATER_PROMPT_PARAMETERS,
            "response_column_a": "RESPONSE_COLUMN_A",
            "response_column_b": "RESPONSE_COLUMN_B",
            "model_a": "MODEL_A",
            "model_a_prompt_parameters": MODEL_A_PROMPT_PARAMETERS,
            "model_b": "MODEL_B",
            "model_b_prompt_parameters": MODEL_B_PROMPT_PARAMETERS,
            "judgments_format": "JUDGMENTS_FORMAT",
            "bigquery_destination_prefix":BIGQUERY_DESTINATION_PREFIX,
        },
    },
    "templateUri": "https://us-kfp.pkg.dev/ml-pipeline/google-cloud-registry/autosxs-template/default"
  }

Usa curl per inviare la richiesta.

curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -d @request.json \
    "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/pipelineJobs"

Risposta

  "state": "PIPELINE_STATE_PENDING",
  "labels": {
    "vertex-ai-pipelines-run-billing-id": "1234567890123456789"
  },
  "runtimeConfig": {
    "gcsOutputDirectory": "gs://my-evaluation-bucket/output",
    "parameterValues": {
      "evaluation_dataset": "gs://my-evaluation-bucket/output/data.json",
      "id_columns": [
        "context"
      ],
      "task": "question_answering",
      "autorater_prompt_parameters": {
        "inference_instruction": {
          "template": "Answer the following question: {{ question }} }."
        },
        "inference_context": {
          "column": "context"
        }
      },
      "response_column_a": "",
      "response_column_b": "response_b",
      "model_a": "publishers/google/models/text-bison@002",
      "model_a_prompt_parameters": {
        "prompt": {
          "template": "Answer the following question from the point of view of a college professor: {{ question }}\n{{ context }} }"
        }
      },
      "model_b": "",
      "model_b_prompt_parameters": {}
    }
  },
  "serviceAccount": "123456789012-compute@developer.gserviceaccount.com",
  "templateUri": "https://us-kfp.pkg.dev/ml-pipeline/google-cloud-registry/autosxs-template/default",
  "templateMetadata": {
    "version": "sha256:7366b784205551ed28f2c076e841c0dbeec4111b6df16743fc5605daa2da8f8a"
  }
}

SDK Vertex AI per Python

Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, consulta Installare l'SDK Vertex AI per Python. Per ulteriori informazioni sull'API Python, consulta l'API SDK Vertex AI per Python.

Per ulteriori informazioni parametri della pipeline, consulta la documentazione di riferimento sui componenti della pipeline di Google Cloud Documentazione.

Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:

  • PIPELINEJOB_DISPLAYNAME: nome visualizzato per pipelineJob.
  • PROJECT_ID: il progetto Google Cloud che esegue i componenti della pipeline.
  • LOCATION : regione in cui eseguire i componenti della pipeline. us-central1 è supportato.
  • OUTPUT_DIR : URI Cloud Storage per archiviare l'output di valutazione.
  • EVALUATION_DATASET : tabella BigQuery o elenco separato da virgole di percorsi di Cloud Storage a un set di dati JSONL contenente esempi di valutazione.
  • TASK: attività di valutazione, che può essere una delle seguenti: [summarization, question_answering].
  • ID_COLUMNS: colonne che distinguono gli esempi di valutazione univoci.
  • AUTORATER_PROMPT_PARAMETERS: parametri del prompt di Autorater mappati a colonne o modelli. I parametri previsti sono: inference_instruction (dettagli su come eseguire un'attività) e inference_context (contenuti a cui fare riferimento per eseguire l'attività). Ad esempio, {'inference_context': {'column': 'my_prompt'}} utilizza la colonna "my_prompt" del set di dati di valutazione per il contesto dell'autore.
  • RESPONSE_COLUMN_A: il nome di una colonna nel set di dati di valutazione contenente previsioni predefinite o il nome della colonna nell'output del modello A contenente le previsioni. Se non viene fornito alcun valore, tenterà di dedurre il nome corretto della colonna di output del modello.
  • RESPONSE_COLUMN_B: il nome di una colonna nel set di dati di valutazione contenente previsioni predefinite o il nome della colonna nell'output del modello B contenente le previsioni. Se non viene fornito alcun valore, verrà tentato di dedurre il nome corretto della colonna di output del modello.
  • MODEL_A (Facoltativo): un nome risorsa del modello completo (projects/{project}/locations/{location}/models/{model}@{version}) o un nome risorsa del modello del publisher (publishers/{publisher}/models/{model}). Se vengono specificate le risposte del Modello A, questo parametro non deve essere fornito.
  • MODEL_B (Facoltativo): un nome risorsa del modello completo (projects/{project}/locations/{location}/models/{model}@{version}) o un nome risorsa del modello del publisher (publishers/{publisher}/models/{model}). Se sono specificate le risposte del Modello B, questo parametro non deve essere fornito.
  • MODEL_A_PROMPT_PARAMETERS (Facoltativo): parametri del modello di prompt del modello A mappati a colonne o modelli. Se le risposte del Modello A sono predefinite, questo parametro non deve essere fornito. Esempio: {'prompt': {'column': 'my_prompt'}} utilizza la colonna my_prompt del set di dati di valutazione per il parametro del prompt denominato prompt.
  • MODEL_B_PROMPT_PARAMETERS (Facoltativo) I parametri del modello di prompt del Modello B mappati a colonne o modelli. Se le risposte del modello B sono predefinite, questo parametro non deve essere fornito. Esempio: {'prompt': {'column': 'my_prompt'}} utilizza la colonna my_prompt del set di dati di valutazione per il parametro del prompt denominato prompt.
  • (Facoltativo) JUDGMENTS_FORMAT : il formato in cui scrivere i giudizi. Può essere jsonl (predefinito), json o bigquery.
  • BIGQUERY_DESTINATION_PREFIX: tabella BigQuery in cui scrivere i giudizi se il formato specificato è bigquery.
import os
from google.cloud import aiplatform
parameters = {
    'evaluation_dataset': 'EVALUATION_DATASET',
    'id_columns': ['ID_COLUMNS'],
    'task': 'TASK',
    'autorater_prompt_parameters': AUTORATER_PROMPT_PARAMETERS,
    'response_column_a': 'RESPONSE_COLUMN_A',
    'response_column_b': 'RESPONSE_COLUMN_B',
    'model_a': 'MODEL_A',
    'model_a_prompt_parameters': MODEL_A_PROMPT_PARAMETERS,
    'model_b': 'MODEL_B',
    'model_b_prompt_parameters': MODEL_B_PROMPT_PARAMETERS,
    'judgments_format': 'JUDGMENTS_FORMAT',
    'bigquery_destination_prefix':
    BIGQUERY_DESTINATION_PREFIX,
}
aiplatform.init(project='PROJECT_ID', location='LOCATION', staging_bucket='gs://OUTPUT_DIR')
aiplatform.PipelineJob(
    display_name='PIPELINEJOB_DISPLAYNAME',
    pipeline_root=os.path.join('gs://OUTPUT_DIR', 'PIPELINEJOB_DISPLAYNAME'),
    template_path=(
      'https://us-kfp.pkg.dev/ml-pipeline/google-cloud-registry/autosxs-template/default'),
    parameter_values=parameters,
).run()

Console

Per creare un job di valutazione del modello a coppie utilizzando la console Google Cloud, segui questi passaggi:

  1. Inizia con un modello di base di Google o utilizzane uno già esistente nel tuo Vertex AI Model Registry:

    • Per valutare un modello di base di Google:

      1. Vai a Vertex AI Model Garden e seleziona un modello che supporti valutazione a coppie, ad esempio text-bison.

        Vai a Model Garden

      2. Fai clic su Valuta.

      3. Nel menu visualizzato, fai clic su Seleziona per selezionare una versione del modello.

      4. Un riquadro Salva modello potrebbe chiederti di salvare una copia del modello Vertex AI Model Registry se non ne hai già una copia. Inserisci un Nome modello e fai clic su Salva.

      5. Viene visualizzata la pagina Crea valutazione. Per il passaggio Metodo di valutazione, selezionare Valuta questo modello rispetto a un altro modello.

      6. Fai clic su Continua.

    • Per valutare un modello esistente in Vertex AI Model Registry:

      1. Vai alla pagina Registro dei modelli di Vertex AI:

        Vai al registro dei modelli di Vertex AI

      2. Fai clic sul nome del modello da valutare. Assicurati che tipo di modello supporta la valutazione di coppia. Ad esempio: text-bison

      3. Nella scheda Valuta, fai clic su SxS.

      4. Fai clic su Crea valutazione affiancata.

  2. Per ogni passaggio nella pagina di creazione della valutazione, inserisci informazioni e fai clic su Continua:

    1. Per il passaggio Set di dati per la valutazione, seleziona un obiettivo di valutazione e un modello da confrontare con il modello selezionato. Seleziona una valutazione e inserisci le colonne id (colonne di risposta).

    2. Per il passaggio Impostazioni modello, specifica se vuoi utilizzare le risposte del modello già presenti nel set di dati o se vuoi utilizzare Previsione batch di Vertex AI per generare le risposte. Specifica le colonne di risposta per entrambi i modelli. Per il batch Vertex AI Opzione di previsione, puoi specificare il prompt del modello di inferenza parametri.

    3. Per il passaggio Impostazioni strumento di valutazione, inserisci il prompt dello strumento di valutazione parametri e una posizione di output per e valutazioni.

  3. Fai clic su Avvia valutazione.

Visualizza i risultati di una valutazione

Puoi trovare i risultati della valutazione in Vertex AI Pipelines controllando i seguenti elementi artefatti prodotti dalla pipeline AutoSxS:

Giudizi

AutoSxS genera giudizi (metriche a livello di esempio) che aiutano gli utenti a comprendere il rendimento del modello a livello di esempio. I giudizi includono le seguenti informazioni:

  • Prompt di inferenza
  • Risposte del modello
  • Decisioni dello strumento di valutazione automatica
  • Spiegazioni delle valutazioni
  • Punteggi di affidabilità

Le giudizi possono essere scritte in Cloud Storage in formato JSONL o in un Tabella BigQuery con queste colonne:

Colonna Descrizione
Colonne ID Colonne che distinguono gli esempi di valutazione univoci.
inference_instruction Istruzione utilizzata per generare le risposte del modello.
inference_context Contesto utilizzato per generare le risposte del modello.
response_a La risposta del modello A, data l'istruzione di inferenza e il contesto.
response_b La risposta del modello B, in base alle istruzioni di inferenza e al contesto.
choice Il modello con la risposta migliore. I valori possibili sono Model A, Model B o Error. Error significa che un errore ha impedito allo strumento di valutazione automatica di determinare se la risposta del modello A o del modello B era la migliore.
confidence Un punteggio compreso tra 0 e 1, che indica il grado di sicurezza dell'autore della valutazione rispetto alla sua scelta.
explanation Il motivo della scelta dell'autore.

Metriche aggregate

AutoSxS calcola le metriche aggregate (percentuale di successo) utilizzando le giudizi dalla tabella. Se non vengono forniti dati di preferenze umane, vengono generate le seguenti metriche aggregate:

Metrica Descrizione
Tasso di vittoria del modello A di AutoRater Percentuale di tempo in cui lo strumento di valutazione automatica ha deciso che il modello A ha ottenuto la risposta migliore.
Percentuale vincite del modello B di AutoRater Percentuale di volte in cui lo strumento di valutazione automatica ha deciso che il Modello B aveva la risposta migliore.

Per comprendere meglio il tasso di conversione, esamina i risultati basati sulle righe e le spiegazioni dell'autovalutatore per determinare se sono in linea con le tue aspettative.

Metriche di allineamento preferenze umane

Se vengono forniti dati di preferenze umane, AutoSxS restituisce le seguenti metriche:

Metrica Descrizione
Tasso di vittoria del modello A di AutoRater Percentuale di tempo in cui lo strumento di valutazione automatica ha deciso che il modello A ha ottenuto la risposta migliore.
Percentuale vincite del modello B di AutoRater Percentuale di tempo in cui lo strumento di valutazione automatica ha deciso che il modello B ha avuto la risposta migliore.
Tasso di vittoria del modello A basato sulle preferenze umane Percentuale di tempo in cui gli esseri umani hanno deciso che il modello A ha avuto la risposta migliore.
Percentuale di vittoria del modello B basato sulle preferenze umane Percentuale di tempo in cui gli esseri umani hanno deciso che il modello B ha avuto la risposta migliore.
VP Numero di esempi in cui sia lo strumento di valutazione automatica sia le preferenze umane indicano che il modello A ha avuto la risposta migliore.
FP Numero di esempi in cui lo strumento di valutazione automatica ha indicato che il Modello A forniva la risposta migliore, mentre i valutatori umani hanno indicato che il Modello B forniva la risposta migliore.
VN Numero di esempi in cui sia lo strumento di valutazione automatica sia le preferenze umane indicano che il Modello B ha avuto la risposta migliore.
FN Numero di esempi in cui lo strumento di valutazione automatica ha indicato che il Modello B forniva la risposta migliore, mentre i valutatori umani hanno indicato che il Modello A forniva la risposta migliore.
Accuratezza Percentuale di casi in cui lo strumento di valutazione automatica e i valutatori umani erano in accordo.
Precisione Percentuale di casi in cui sia lo strumento di valutazione automatica che i valutatori umani hanno ritenuto che il Modello A fornisse una risposta migliore, in rapporto a tutti i casi in cui lo strumento di valutazione automatica pensava che il Modello A fornisse una risposta migliore.
Richiamo Percentuale di casi in cui sia lo strumento di valutazione automatica che i valutatori umani hanno ritenuto che il Modello A fornisse una risposta migliore, in rapporto a tutti i casi in cui i valutatori umani pensavano che il Modello A fornisse una risposta migliore.
F1 Media armonica di precisione e richiamo.
Kappa di Cohen Una misura del grado di concordanza tra lo strumento di valutazione automatica e i valutatori umani che tiene conto della probabilità di una concordanza casuale. Cohen suggerisce la seguente interpretazione:
-1.0 - 0.0Accordo peggiore o equivalente al caso casuale
0.0 - 0.2Leggero disaccordo
0.2 - 0.4Contratto equo
0.4 - 0.6Accordo moderato
0.6 - 0.8Accordo sostanziale
0.8 - 1.0Concordanza quasi perfetta
1.0Accordo perfetto

Casi d'uso di AutoSxS

Puoi esplorare come utilizzare AutoSxS in tre casi d'uso.

Confronta i modelli

Valutare un modello proprietario ottimizzato rispetto a un modello proprietario di riferimento.

Puoi specificare che l'inferenza venga eseguita su entrambi i modelli contemporaneamente.

Figura 2. Entrambi i modelli di inferenza vengono eseguiti

Questo esempio di codice valuta un modello ottimizzato del registro dei modelli di Vertex rispetto a un modello di riferimento dello stesso registro.

# Evaluation dataset schema:
#   my_question: str
#   my_context: str
parameters = {
    'evaluation_dataset': DATASET,
    'id_columns': ['my_context'],
    'task': 'question_answering',
    'autorater_prompt_parameters': {
      'inference_instruction': {'column': 'my_question'},
      'inference_context': {'column': 'my_context'},
  },
    'model_a': 'publishers/google/models/text-bison@002',
    'model_a_prompt_parameters': {QUESTION: {'template': '{{my_question}}\nCONTEXT: {{my_context}}'}},
  'response_column_a': 'content',
    'model_b': 'projects/abc/locations/abc/models/tuned_bison',
    'model_b_prompt_parameters': {'prompt': {'template': '{{my_context}}\n{{my_question}}'}},
  'response_column_b': 'content',
}

Confronta previsioni

Valuta un modello di terze parti ottimizzato (di terze parti) sulla base di un modello di terze parti di riferimento.

Puoi saltare l'inferenza fornendo direttamente le risposte del modello.

Figura 3. Viene eseguito un solo modello di inferenza

Questo esempio di codice valuta un modello di terze parti ottimizzato rispetto a un modello di terze parti di riferimento.

# Evaluation dataset schema:
#   my_question: str
#   my_context: str
#   response_b: str

parameters = {
    'evaluation_dataset': DATASET,
    'id_columns': ['my_context'],
    'task': 'question_answering',
    'autorater_prompt_parameters':
        'inference_instruction': {'column': 'my_question'},
        'inference_context': {'column': 'my_context'},
    },
    'response_column_a': 'content',
    'response_column_b': 'response_b',
}

Controlla l'allineamento

Per tutte le attività supportate è stato eseguito il benchmarking utilizzando i dati dei valutatori umani per garantire che le risposte dello strumento di valutazione automatica siano in linea con le preferenze umane. Se vuoi confrontare AutoSxS per i tuoi casi d'uso, fornisci dati con preferenze umane direttamente ad AutoSxS, che genera statistiche aggregate e di allineamento.

Per verificare l'allineamento rispetto a un set di dati con preferenze umane, puoi specificare entrambi gli output (risultati di previsione) allo strumento di valutazione automatica. Puoi anche fornire i risultati dell'inferenza.

Figura 4. Output di entrambi i modelli forniti allo strumento di valutazione automatica

Questo esempio di codice verifica che i risultati e le spiegazioni dell'autore della valutazione in linea con le tue aspettative.

# Evaluation dataset schema:
#  my_question: str
#  my_context: str
#   response_a: str
#   response_b: str
#   actual: str
parameters = {
    'evaluation_dataset': DATASET,
    'id_columns': ['my_context'],
    'task': 'question_answering',
    'autorater_prompt_parameters': {
      'inference_instruction': {'column': 'my_question'},
      'inference_context': {'column': 'my_context'},
  },
  'response_column_a': 'response_a',
  'response_column_b': 'response_b',
  'human_preference_column': 'actual',
}

Passaggi successivi