Il servizio di valutazione rapida consente di valutare i modelli linguistici di grandi dimensioni (LLM), sia puntualmente che a coppie, in diverse metriche. Puoi fornire input tempo di inferenza, risposte LLM e parametri aggiuntivi e il servizio di valutazione restituisce metriche specifiche per l'attività di valutazione.
Le metriche includono metriche basate su modelli (ad esempio SummarizationQuality
) e metriche calcolate in memoria (rouge
, bleu
) e chiamate di funzione degli strumenti.
Poiché il servizio prende i risultati della previsione direttamente dai modelli come input,
il servizio di valutazione può eseguire sia l'inferenza che la valutazione successiva su
tutti i modelli supportati da
Vertex AI.
Per saperne di più sulla valutazione di un modello, consulta Panoramica del servizio di valutazione dell'IA generativa.
Limitazioni
Di seguito sono riportate le limitazioni del servizio di valutazione:
- Le metriche basate su modello consumano quota text-bison. Il servizio di valutazione rapida sfrutta text-bison come modello arbitro di base per calcolare le metriche basate su modello.
- Il servizio di valutazione ha un ritardo nella propagazione. Potrebbe non essere disponibile per diversi minuti dopo la prima chiamata al servizio.
Sintassi di esempio
Sintassi per inviare una chiamata di valutazione.
curl
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ https://${LOCATION}-aiplatform.googleapis.com/v1beta1/projects/${PROJECT_ID}/locations/${LOCATION}:evaluateInstances \ -d '{ "contents": [{ ... }], "tools": [{ "function_declarations": [ { ... } ] }] }'
Python
import json from google import auth from google.api_core import exceptions from google.auth.transport import requests as google_auth_requests creds, _ = auth.default( scopes=['https://www.googleapis.com/auth/cloud-platform']) data = { ... } uri = f'https://${LOCATION}-aiplatform.googleapis.com/v1beta1/projects/${PROJECT_ID}/locations/${LOCATION}:evaluateInstances' result = google_auth_requests.AuthorizedSession(creds).post(uri, json=data) print(json.dumps(result.json(), indent=2))
Elenco dei parametri
Parametri | |
---|---|
|
Facoltativo: Input per valutare se la previsione corrisponde esattamente al riferimento. |
|
Facoltativo: Input per calcolare il punteggio BLEU confrontando la previsione con il riferimento. |
|
Facoltativo: Input per calcolare i punteggi di |
|
Facoltativo: Input per valutare la padronanza linguistica di una singola risposta. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di fornire una risposta coerente e facile da seguire. |
|
Facoltativo: Input per valutare il livello di sicurezza di una singola risposta. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di fornire o fare riferimento a informazioni incluse solo nel testo di input. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di soddisfare completamente le istruzioni. |
|
Facoltativo: Input per valutare la capacità complessiva di una singola risposta di riassumere il testo. |
|
Facoltativo: Input per confrontare la qualità complessiva del riassunto di due risposte. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di fornire un riassunto, che contiene i dettagli necessari per sostituire il testo originale. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di fornire un riassunto conciso. |
|
Facoltativo: Input per valutare la capacità complessiva di una singola risposta di rispondere alle domande, dato il corpo di un testo a cui fare riferimento. |
|
Facoltativo: Input per confrontare la capacità complessiva di due risposte di rispondere alle domande, dato un corpo di testo a cui fare riferimento. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di rispondere con informazioni pertinenti quando viene fatta una domanda. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di fornire dettagli chiave quando si risponde a una domanda. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di rispondere correttamente a una domanda. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di prevedere una chiamata strumento valida. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di prevedere una chiamata di strumento con il nome dello strumento corretto. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di prevedere una chiamata di strumento con i nomi dei parametri corretti. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di prevedere una chiamata di strumento con i nomi e i valori dei parametri corretti |
ExactMatchInput
{ "exact_match_input": { "metric_spec": {}, "instances": [ { "prediction": string, "reference": string } ] } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da risposta e riferimento LLM. |
|
Facoltativo: la risposta LLM. |
|
Facoltativo: Risposta LLM dorata come riferimento. |
ExactMatchResults
{ "exact_match_results": { "exact_match_metric_values": [ { "score": float } ] } }
Salvaguardie | |
---|---|
|
Risultati della valutazione per input dell'istanza. |
|
Il valore sarà uno dei seguenti:
|
BleuInput
{ "bleu_input": { "metric_spec": {}, "instances": [ { "prediction": string, "reference": string } ] } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da risposta e riferimento LLM. |
|
Facoltativo: la risposta LLM. |
|
Facoltativo: Risposta LLM dorata come riferimento. |
BleuResults
{ "bleu_results": { "bleu_metric_values": [ { "score": float } ] } }
Salvaguardie | |
---|---|
|
Risultati della valutazione per input dell'istanza. |
|
|
RougeInput
{ "rouge_input": { "metric_spec": { "rouge_type": string, "use_stemmer": bool, "split_summaries": bool }, "instances": [ { "prediction": string, "reference": string } ] } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Valori accettati:
|
|
Facoltativo: Indica se deve essere utilizzato il stemmer di Porter per rimuovere i suffissi di parola al fine di migliorare la corrispondenza. |
|
Facoltativo: Indica se aggiungere nuove righe tra le frasi per rougeLsum. |
|
Facoltativo: Input di valutazione, composto da risposta e riferimento LLM. |
|
Facoltativo: la risposta LLM. |
|
Facoltativo: Risposta LLM dorata come riferimento. |
RougeResults
{ "rouge_results": { "rouge_metric_values": [ { "score": float } ] } }
Salvaguardie | |
---|---|
|
Risultati della valutazione per input dell'istanza. |
|
|
FluencyInput
{ "fluency_input": { "metric_spec": {}, "instance": { "prediction": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da una risposta LLM. |
|
Facoltativo: la risposta LLM. |
FluencyResult
{ "fluency_result": { "score": float, "explanation": string, "confidence": float } }
Salvaguardie | |
---|---|
|
|
|
|
|
|
CoherenceInput
{ "coherence_input": { "metric_spec": {}, "instance": { "prediction": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da una risposta LLM. |
|
Facoltativo: la risposta LLM. |
CoherenceResult
{ "coherence_result": { "score": float, "explanation": string, "confidence": float } }
Salvaguardie | |
---|---|
|
|
|
|
|
|
SafetyInput
{ "safety_input": { "metric_spec": {}, "instance": { "prediction": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da una risposta LLM. |
|
Facoltativo: la risposta LLM. |
SafetyResult
{ "safety_result": { "score": float, "explanation": string, "confidence": float } }
Salvaguardie | |
---|---|
|
|
|
|
|
|
GroundednessInput
{ "groundedness_input": { "metric_spec": {}, "instance": { "prediction": string, "context": string } } }
Parametro |
Descrizione |
|
Facoltativo: groundednessSpec Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: groundednessInstance Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: la risposta LLM. |
|
Facoltativo: Testo in base al tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
GroundednessResult
{ "groundedness_result": { "score": float, "explanation": string, "confidence": float } }
Salvaguardie | |
---|---|
|
|
|
|
|
|
FulfillmentInput
{ "fulfillment_input": { "metric_spec": {}, "instance": { "prediction": string, "instruction": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: la risposta LLM. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
FulfillmentResult
{ "fulfillment_result": { "score": float, "explanation": string, "confidence": float } }
Salvaguardie | |
---|---|
|
|
|
|
|
|
SummarizationQualityInput
{ "summarization_quality_input": { "metric_spec": {}, "instance": { "prediction": string, "instruction": string, "context": string, } } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: la risposta LLM. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
|
Facoltativo: Testo in base al tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
SummarizationQualityResult
{ "summarization_quality_result": { "score": float, "explanation": string, "confidence": float } }
Salvaguardie | |
---|---|
|
|
|
|
|
|
PairwiseSummarizationQualityInput
{ "pairwise_summarization_quality_input": { "metric_spec": {}, "instance": { "baseline_prediction": string, "prediction": string, "instruction": string, "context": string, } } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: Risposta LLM del modello di riferimento. |
|
Facoltativo: Risposta LLM del modello candidato. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
|
Facoltativo: Testo in base al tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
PairwiseSummarizationQualityResult
{ "pairwise_summarization_quality_result": { "pairwise_choice": PairwiseChoice, "explanation": string, "confidence": float } }
Salvaguardie | |
---|---|
|
|
|
|
|
|
SummarizationHelpfulnessInput
{ "summarization_helpfulness_input": { "metric_spec": {}, "instance": { "prediction": string, "instruction": string, "context": string, } } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: la risposta LLM. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
|
Facoltativo: Testo in base al tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
SummarizationHelpfulnessResult
{ "summarization_helpfulness_result": { "score": float, "explanation": string, "confidence": float } }
Salvaguardie | |
---|---|
|
|
|
|
|
|
SummarizationVerbosityInput
{ "summarization_verbosity_input": { "metric_spec": {}, "instance": { "prediction": string, "instruction": string, "context": string, } } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: la risposta LLM. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
|
Facoltativo: Testo in base al tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
SummarizationVerbosityResult
{ "summarization_verbosity_result": { "score": float, "explanation": string, "confidence": float } }
Salvaguardie | |
---|---|
|
|
|
|
|
|
QuestionAnsweringQualityInput
{ "question_answering_quality_input": { "metric_spec": {}, "instance": { "prediction": string, "instruction": string, "context": string, } } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: la risposta LLM. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
|
Facoltativo: Testo in base al tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
QuestionAnsweringQualityResult
{ "question_answering_quality_result": { "score": float, "explanation": string, "confidence": float } }
Salvaguardie | |
---|---|
|
|
|
|
|
|
PairwiseQuestionAnsweringQualityInput
{ "question_answering_quality_input": { "metric_spec": {}, "instance": { "baseline_prediction": string, "prediction": string, "instruction": string, "context": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: Risposta LLM del modello di riferimento. |
|
Facoltativo: Risposta LLM del modello candidato. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
|
Facoltativo: Testo in base al tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
PairwiseQuestionAnsweringQualityResult
{ "pairwise_question_answering_quality_result": { "pairwise_choice": PairwiseChoice, "explanation": string, "confidence": float } }
Salvaguardie | |
---|---|
|
|
|
|
|
|
QuestionAnsweringRelevanceInput
{ "question_answering_quality_input": { "metric_spec": {}, "instance": { "prediction": string, "instruction": string, "context": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: la risposta LLM. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
|
Facoltativo: Testo in base al tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
QuestionAnsweringRelevancyResult
{ "question_answering_relevancy_result": { "score": float, "explanation": string, "confidence": float } }
Salvaguardie | |
---|---|
|
|
|
|
|
|
QuestionAnsweringHelpfulnessInput
{ "question_answering_helpfulness_input": { "metric_spec": {}, "instance": { "prediction": string, "instruction": string, "context": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: la risposta LLM. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
|
Facoltativo: Testo in base al tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
QuestionAnsweringHelpfulnessResult
{ "question_answering_helpfulness_result": { "score": float, "explanation": string, "confidence": float } }
Salvaguardie | |
---|---|
|
|
|
|
|
|
QuestionAnsweringCorrectnessInput
{ "question_answering_correctness_input": { "metric_spec": { "use_reference": bool }, "instance": { "prediction": string, "reference": string, "instruction": string, "context": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Indica se nella valutazione viene usato o meno il riferimento. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: la risposta LLM. |
|
Facoltativo: Risposta LLM dorata come riferimento. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
|
Facoltativo: Testo in base al tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
QuestionAnsweringCorrectnessResult
{ "question_answering_correctness_result": { "score": float, "explanation": string, "confidence": float } }
Salvaguardie | |
---|---|
|
|
|
|
|
|
ToolCallValidInput
{ "tool_call_valid_input": { "metric_spec": {}, "instance": { "prediction": string, "reference": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da risposta e riferimento LLM. |
|
Facoltativo: Risposta LLM del modello candidato, ovvero una stringa serializzata JSON contenente chiavi { "content": "", "tool_calls": [ { "name": "book_tickets", "arguments": { "movie": "Mission Impossible Dead Reckoning Part 1", "theater": "Regal Edwards 14", "location": "Mountain View CA", "showtime": "7:30", "date": "2024-03-30", "num_tix": "2" } } ] } |
|
Facoltativo: Output del modello Golden nello stesso formato della previsione. |
ToolCallValidResults
{ "tool_call_valid_results": { "tool_call_valid_metric_values": [ { "score": float } ] } }
Salvaguardie | |
---|---|
|
ripetuto |
|
|
ToolNameMatchInput
{ "tool_name_match_input": { "metric_spec": {}, "instance": { "prediction": string, "reference": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da risposta e riferimento LLM. |
|
Facoltativo: Risposta LLM del modello candidato, ovvero una stringa serializzata JSON contenente chiavi |
|
Facoltativo: Output del modello Golden nello stesso formato della previsione. |
ToolNameMatchResults
{ "tool_name_match_results": { "tool_name_match_metric_values": [ { "score": float } ] } }
Salvaguardie | |
---|---|
|
ripetuto |
|
|
ToolParameterKeyMatchInput
{ "tool_parameter_key_match_input": { "metric_spec": {}, "instance": { "prediction": string, "reference": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da risposta e riferimento LLM. |
|
Facoltativo: Risposta LLM del modello candidato, ovvero una stringa serializzata JSON contenente chiavi |
|
Facoltativo: Output del modello Golden nello stesso formato della previsione. |
ToolParameterKeyMatchResults
{ "tool_parameter_key_match_results": { "tool_parameter_key_match_metric_values": [ { "score": float } ] } }
Salvaguardie | |
---|---|
|
ripetuto |
|
|
ToolParameterKVMatchInput
{ "tool_parameter_kv_match_input": { "metric_spec": {}, "instance": { "prediction": string, "reference": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifica della metrica, che definisce il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da risposta e riferimento LLM. |
|
Facoltativo: Risposta LLM del modello candidato, ovvero una stringa serializzata JSON contenente chiavi |
|
Facoltativo: Output del modello Golden nello stesso formato della previsione. |
ToolParameterKVMatchResults
{ "tool_parameter_kv_match_results": { "tool_parameter_kv_match_metric_values": [ { "score": float } ] } }
Salvaguardie | |
---|---|
|
ripetuto |
|
|
Esempi
Valuta un output
L'esempio seguente mostra come chiamare l'API Rapid Evaluation per valutare l'output di un LLM utilizzando una serie di metriche di valutazione, tra cui:
summarization_quality
groundedness
fulfillment
summarization_helpfulnes
summarization_verbosity
Python
Valuta un output: qualità di riassunto di coppia
L'esempio seguente mostra come chiamare l'API Rapid Evaluation per valutare l'output di un LLM utilizzando un confronto della qualità di riassunto a coppie.
REST
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- PROJECT_ID: il tuo ID progetto.
- LOCATION: la regione in cui elaborare la richiesta.
- PREDICTION: risposta LLM.
- BASELINE_PREDICTION: risposta LLM del modello di riferimento.
- INSTRUCTION: l'istruzione utilizzata al momento dell'inferenza.
- CONTEXT: testo basato sul tempo di inferenza contenente tutte le informazioni pertinenti, che può essere utilizzato nella risposta LLM.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID-/locations/LOCATION:evaluateInstances \
Corpo JSON della richiesta:
{ "pairwise_summarization_quality_input": { "metric_spec": {}, "instance": { "prediction": "PREDICTION", "baseline_prediction": "BASELINE_PREDICTION", "instruction": "INSTRUCTION", "context": "CONTEXT", } } }
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json
ed esegui questo comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID-/locations/LOCATION:evaluateInstances \"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
ed esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID-/locations/LOCATION:evaluateInstances \" | Select-Object -Expand Content
Ottieni il punteggio di rosso
L'esempio seguente chiama l'API Rapid Evaluation per ottenere il punteggio rosso di una previsione, generata da una serie di input. Gli input di Rouge utilizzano metric_spec
, che determina il comportamento della metrica.
REST
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- PROJECT_ID: il tuo ID progetto.
- LOCATION: la regione in cui elaborare la richiesta.
- PREDICTION: risposta LLM.
- REFERENCE: risposta LLM dorata come riferimento.
- ROUGE_TYPE: il calcolo utilizzato per determinare il punteggio rosso. Visita la pagina
metric_spec.rouge_type
per conoscere i valori accettati. - USE_STEMMER: determina se viene utilizzato lo stemmer di Porter per rimuovere i suffissi delle parole al fine di migliorare la corrispondenza. Per i valori accettabili, vedi
metric_spec.use_stemmer
. - SPLIT_SUMMARIES: determina se vengono aggiunte nuove righe tra
rougeLsum
frasi. Per i valori accettabili, vedimetric_spec.split_summaries
.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID-/locations/REGION:evaluateInstances \
Corpo JSON della richiesta:
{ "rouge_input": { "instances": { "prediction": "PREDICTION", "reference": "REFERENCE.", }, "metric_spec": { "rouge_type": "ROUGE_TYPE", "use_stemmer": USE_STEMMER, "split_summaries": SPLIT_SUMMARIES, } } }
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json
ed esegui questo comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID-/locations/REGION:evaluateInstances \"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
ed esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID-/locations/REGION:evaluateInstances \" | Select-Object -Expand Content
Passaggi successivi
- Per la documentazione dettagliata, vedi Eseguire una valutazione rapida.