Il servizio di valutazione rapida consente di valutare i modelli linguistici di grandi dimensioni (LLM), sia a livello di che a parità, su diverse metriche. Puoi fornire input tempo di inferenza, risposte LLM e parametri aggiuntivi e il servizio di valutazione restituisce metriche specifiche per l'attività di valutazione.
Le metriche includono metriche basate su modello, come SummarizationQuality
, e metriche calcolate in memoria, come rouge
, bleu
, e metriche sulle chiamate funzione dello strumento.
Poiché il servizio prende i risultati della previsione direttamente dai modelli come input, il servizio di valutazione può eseguire sia l'inferenza sia la valutazione successiva su tutti i modelli supportati da Vertex AI.
Per saperne di più sulla valutazione di un modello, consulta la panoramica del servizio di valutazione dell'IA generativa.
Limitazioni
Di seguito sono riportate le limitazioni del servizio di valutazione:
- Le metriche basate su modello consumano quota text-bison. Il servizio di valutazione rapida utilizza text-bison come modello di arbitro sottostante per calcolare le metriche basate su modelli.
- Il servizio di valutazione ha un ritardo di propagazione. Potrebbe non essere disponibile per diversi minuti dopo la prima chiamata al servizio.
Sintassi di esempio
Sintassi per l'invio di una chiamata di valutazione.
arricciatura
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ https://${LOCATION}-aiplatform.googleapis.com/v1beta1/projects/${PROJECT_ID}/locations/${LOCATION}:evaluateInstances \ -d '{ "contents": [{ ... }], "tools": [{ "function_declarations": [ { ... } ] }] }'
Python
import json from google import auth from google.api_core import exceptions from google.auth.transport import requests as google_auth_requests creds, _ = auth.default( scopes=['https://www.googleapis.com/auth/cloud-platform']) data = { ... } uri = f'https://${LOCATION}-aiplatform.googleapis.com/v1beta1/projects/${PROJECT_ID}/locations/${LOCATION}:evaluateInstances' result = google_auth_requests.AuthorizedSession(creds).post(uri, json=data) print(json.dumps(result.json(), indent=2))
Elenco parametri
Parametri | |
---|---|
|
Facoltativo: Input per valutare se la previsione corrisponde esattamente al riferimento. |
|
Facoltativo: Input per il calcolo del punteggio BLEU confrontando la previsione con il riferimento. |
|
Facoltativo: Input per calcolare i punteggi |
|
Facoltativo: Input per valutare la padronanza della lingua di una singola risposta. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di fornire una risposta coerente e facile da seguire. |
|
Facoltativo: Input per valutare il livello di sicurezza di una singola risposta. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di fornire o fare riferimento a informazioni incluse solo nel testo di input. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di seguire completamente le istruzioni. |
|
Facoltativo: Input per valutare la capacità complessiva di una singola risposta di riepilogare il testo. |
|
Facoltativo: Input per confrontare la qualità complessiva del riassunto di due risposte. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di fornire un riassunto, contenente i dettagli necessari per sostituire il testo originale. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di fornire un breve riassunto. |
|
Facoltativo: Input per valutare la capacità complessiva di una singola risposta di rispondere alle domande, dato un insieme di testo a cui fare riferimento. |
|
Facoltativo: Input per confrontare la capacità complessiva di due risposte di rispondere alle domande, dato un corpo di testo a cui fare riferimento. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di rispondere con informazioni pertinenti quando viene posta una domanda. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di fornire dettagli chiave quando si risponde a una domanda. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di rispondere correttamente a una domanda. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di prevedere una chiamata a strumento valida. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di prevedere la chiamata di uno strumento con il nome corretto. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di prevedere la chiamata di uno strumento con nomi dei parametri corretti. |
|
Facoltativo: Input per valutare la capacità di una singola risposta di prevedere la chiamata di uno strumento con nomi e valori dei parametri corretti |
ExactMatchInput
{ "exact_match_input": { "metric_spec": {}, "instances": [ { "prediction": string, "reference": string } ] } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da risposta e riferimento LLM. |
|
Facoltativo: risposta LLM. |
|
Facoltativo: Risposta LLM Golden per riferimento. |
ExactMatchResults
{ "exact_match_results": { "exact_match_metric_values": [ { "score": float } ] } }
Output | |
---|---|
|
Risultati della valutazione per input di istanza. |
|
Il valore sarà uno dei seguenti:
|
BleuInput
{ "bleu_input": { "metric_spec": {}, "instances": [ { "prediction": string, "reference": string } ] } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da risposta e riferimento LLM. |
|
Facoltativo: risposta LLM. |
|
Facoltativo: Risposta LLM Golden per riferimento. |
BleuResults
{ "bleu_results": { "bleu_metric_values": [ { "score": float } ] } }
Output | |
---|---|
|
Risultati della valutazione per input di istanza. |
|
|
RougeInput
{ "rouge_input": { "metric_spec": { "rouge_type": string, "use_stemmer": bool, "split_summaries": bool }, "instances": [ { "prediction": string, "reference": string } ] } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Valori accettati:
|
|
Facoltativo: Indica se utilizzare lo stemmer di Porter per eliminare i suffissi di parole al fine di migliorare la corrispondenza. |
|
Facoltativo: Indica se aggiungere nuove righe tra le frasi per rougeLsum. |
|
Facoltativo: Input di valutazione, composto da risposta e riferimento LLM. |
|
Facoltativo: risposta LLM. |
|
Facoltativo: Risposta LLM Golden per riferimento. |
RougeResults
{ "rouge_results": { "rouge_metric_values": [ { "score": float } ] } }
Output | |
---|---|
|
Risultati della valutazione per input di istanza. |
|
|
FluencyInput
{ "fluency_input": { "metric_spec": {}, "instance": { "prediction": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto dalla risposta LLM. |
|
Facoltativo: risposta LLM. |
FluencyResult
{ "fluency_result": { "score": float, "explanation": string, "confidence": float } }
Output | |
---|---|
|
|
|
|
|
|
CoherenceInput
{ "coherence_input": { "metric_spec": {}, "instance": { "prediction": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto dalla risposta LLM. |
|
Facoltativo: risposta LLM. |
CoherenceResult
{ "coherence_result": { "score": float, "explanation": string, "confidence": float } }
Output | |
---|---|
|
|
|
|
|
|
SafetyInput
{ "safety_input": { "metric_spec": {}, "instance": { "prediction": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto dalla risposta LLM. |
|
Facoltativo: risposta LLM. |
SafetyResult
{ "safety_result": { "score": float, "explanation": string, "confidence": float } }
Output | |
---|---|
|
|
|
|
|
|
GroundednessInput
{ "groundedness_input": { "metric_spec": {}, "instance": { "prediction": string, "context": string } } }
Parametro |
Description |
|
Facoltativo: GroundednessSpec Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: GroundednessInstance Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: risposta LLM. |
|
Facoltativo: Testo del tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
GroundednessResult
{ "groundedness_result": { "score": float, "explanation": string, "confidence": float } }
Output | |
---|---|
|
|
|
|
|
|
FulfillmentInput
{ "fulfillment_input": { "metric_spec": {}, "instance": { "prediction": string, "instruction": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: risposta LLM. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
FulfillmentResult
{ "fulfillment_result": { "score": float, "explanation": string, "confidence": float } }
Output | |
---|---|
|
|
|
|
|
|
SummarizationQualityInput
{ "summarization_quality_input": { "metric_spec": {}, "instance": { "prediction": string, "instruction": string, "context": string, } } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: risposta LLM. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
|
Facoltativo: Testo del tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
SummarizationQualityResult
{ "summarization_quality_result": { "score": float, "explanation": string, "confidence": float } }
Output | |
---|---|
|
|
|
|
|
|
PairwiseSummarizationQualityInput
{ "pairwise_summarization_quality_input": { "metric_spec": {}, "instance": { "baseline_prediction": string, "prediction": string, "instruction": string, "context": string, } } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: Risposta LLM del modello di riferimento. |
|
Facoltativo: Risposta LLM del modello candidato. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
|
Facoltativo: Testo del tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
PairwiseSummarizationQualityResult
{ "pairwise_summarization_quality_result": { "pairwise_choice": PairwiseChoice, "explanation": string, "confidence": float } }
Output | |
---|---|
|
|
|
|
|
|
SummarizationHelpfulnessInput
{ "summarization_helpfulness_input": { "metric_spec": {}, "instance": { "prediction": string, "instruction": string, "context": string, } } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: risposta LLM. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
|
Facoltativo: Testo del tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
SummarizationHelpfulnessResult
{ "summarization_helpfulness_result": { "score": float, "explanation": string, "confidence": float } }
Output | |
---|---|
|
|
|
|
|
|
SummarizationVerbosityInput
{ "summarization_verbosity_input": { "metric_spec": {}, "instance": { "prediction": string, "instruction": string, "context": string, } } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: risposta LLM. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
|
Facoltativo: Testo del tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
SummarizationVerbosityResult
{ "summarization_verbosity_result": { "score": float, "explanation": string, "confidence": float } }
Output | |
---|---|
|
|
|
|
|
|
QuestionAnsweringQualityInput
{ "question_answering_quality_input": { "metric_spec": {}, "instance": { "prediction": string, "instruction": string, "context": string, } } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: risposta LLM. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
|
Facoltativo: Testo del tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
QuestionAnsweringQualityResult
{ "question_answering_quality_result": { "score": float, "explanation": string, "confidence": float } }
Output | |
---|---|
|
|
|
|
|
|
PairwiseQuestionAnsweringQualityInput
{ "question_answering_quality_input": { "metric_spec": {}, "instance": { "baseline_prediction": string, "prediction": string, "instruction": string, "context": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: Risposta LLM del modello di riferimento. |
|
Facoltativo: Risposta LLM del modello candidato. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
|
Facoltativo: Testo del tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
PairwiseQuestionAnsweringQualityResult
{ "pairwise_question_answering_quality_result": { "pairwise_choice": PairwiseChoice, "explanation": string, "confidence": float } }
Output | |
---|---|
|
|
|
|
|
|
QuestionAnsweringRelevanceInput
{ "question_answering_quality_input": { "metric_spec": {}, "instance": { "prediction": string, "instruction": string, "context": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: risposta LLM. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
|
Facoltativo: Testo del tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
QuestionAnsweringRelevancyResult
{ "question_answering_relevancy_result": { "score": float, "explanation": string, "confidence": float } }
Output | |
---|---|
|
|
|
|
|
|
QuestionAnsweringHelpfulnessInput
{ "question_answering_helpfulness_input": { "metric_spec": {}, "instance": { "prediction": string, "instruction": string, "context": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: risposta LLM. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
|
Facoltativo: Testo del tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
QuestionAnsweringHelpfulnessResult
{ "question_answering_helpfulness_result": { "score": float, "explanation": string, "confidence": float } }
Output | |
---|---|
|
|
|
|
|
|
QuestionAnsweringCorrectnessInput
{ "question_answering_correctness_input": { "metric_spec": { "use_reference": bool }, "instance": { "prediction": string, "reference": string, "instruction": string, "context": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Se il riferimento viene utilizzato o meno nella valutazione. |
|
Facoltativo: Input di valutazione, composto da input di inferenza e risposta corrispondente. |
|
Facoltativo: risposta LLM. |
|
Facoltativo: Risposta LLM Golden per riferimento. |
|
Facoltativo: Istruzione utilizzata al momento dell'inferenza. |
|
Facoltativo: Testo del tempo di inferenza contenente tutte le informazioni, che possono essere utilizzate nella risposta LLM. |
QuestionAnsweringCorrectnessResult
{ "question_answering_correctness_result": { "score": float, "explanation": string, "confidence": float } }
Output | |
---|---|
|
|
|
|
|
|
ToolCallValidInput
{ "tool_call_valid_input": { "metric_spec": {}, "instance": { "prediction": string, "reference": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da risposta e riferimento LLM. |
|
Facoltativo: La risposta LLM del modello candidato, ovvero una stringa serializzata JSON contenente le chiavi { "content": "", "tool_calls": [ { "name": "book_tickets", "arguments": { "movie": "Mission Impossible Dead Reckoning Part 1", "theater": "Regal Edwards 14", "location": "Mountain View CA", "showtime": "7:30", "date": "2024-03-30", "num_tix": "2" } } ] } |
|
Facoltativo: Output del modello Golden nello stesso formato della previsione. |
ToolCallValidResults
{ "tool_call_valid_results": { "tool_call_valid_metric_values": [ { "score": float } ] } }
Output | |
---|---|
|
ripetuto |
|
|
ToolNameMatchInput
{ "tool_name_match_input": { "metric_spec": {}, "instance": { "prediction": string, "reference": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da risposta e riferimento LLM. |
|
Facoltativo: La risposta LLM del modello candidato, ovvero una stringa serializzata JSON contenente le chiavi |
|
Facoltativo: Output del modello Golden nello stesso formato della previsione. |
ToolNameMatchResults
{ "tool_name_match_results": { "tool_name_match_metric_values": [ { "score": float } ] } }
Output | |
---|---|
|
ripetuto |
|
|
ToolParameterKeyMatchInput
{ "tool_parameter_key_match_input": { "metric_spec": {}, "instance": { "prediction": string, "reference": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da risposta e riferimento LLM. |
|
Facoltativo: La risposta LLM del modello candidato, ovvero una stringa serializzata JSON contenente le chiavi |
|
Facoltativo: Output del modello Golden nello stesso formato della previsione. |
ToolParameterKeyMatchResults
{ "tool_parameter_key_match_results": { "tool_parameter_key_match_metric_values": [ { "score": float } ] } }
Output | |
---|---|
|
ripetuto |
|
|
ToolParameterKVMatchInput
{ "tool_parameter_kv_match_input": { "metric_spec": {}, "instance": { "prediction": string, "reference": string } } }
Parametri | |
---|---|
|
Facoltativo: Specifiche delle metriche, che definiscono il comportamento della metrica. |
|
Facoltativo: Input di valutazione, composto da risposta e riferimento LLM. |
|
Facoltativo: La risposta LLM del modello candidato, ovvero una stringa serializzata JSON contenente le chiavi |
|
Facoltativo: Output del modello Golden nello stesso formato della previsione. |
ToolParameterKVMatchResults
{ "tool_parameter_kv_match_results": { "tool_parameter_kv_match_metric_values": [ { "score": float } ] } }
Output | |
---|---|
|
ripetuto |
|
|
Esempi
valuta un output
L'esempio seguente mostra come chiamare l'API Rapid Evaluation per valutare l'output di un LLM utilizzando una serie di metriche di valutazione, tra cui:
summarization_quality
groundedness
fulfillment
summarization_helpfulnes
summarization_verbosity
Python
Valuta un output: qualità di riassunto a coppie
L'esempio seguente mostra come chiamare l'API Rapid Evaluation per valutare l'output di un LLM utilizzando un confronto della qualità del riassunto delle coppie.
REST
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- PROJECT_ID: il tuo ID progetto.
- LOCATION: la regione in cui elaborare la richiesta.
- PREDICTION: risposta LLM.
- BASELINE_PREDICTION: risposta LLM del modello di riferimento.
- INSTRUCTION: l'istruzione utilizzata al momento di inferenza.
- CONTEXT: testo del momento di inferenza contenente tutte le informazioni pertinenti, che possono essere utilizzati nella risposta LLM.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID-/locations/LOCATION:evaluateInstances \
Corpo JSON della richiesta:
{ "pairwise_summarization_quality_input": { "metric_spec": {}, "instance": { "prediction": "PREDICTION", "baseline_prediction": "BASELINE_PREDICTION", "instruction": "INSTRUCTION", "context": "CONTEXT", } } }
Per inviare la richiesta, scegli una delle seguenti opzioni:
arricciatura
Salva il corpo della richiesta in un file denominato request.json
ed esegui questo comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID-/locations/LOCATION:evaluateInstances \"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
ed esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID-/locations/LOCATION:evaluateInstances \" | Select-Object -Expand Content
Trova punteggio rouge
L'esempio seguente chiama l'API Rapid Evaluation per ottenere il punteggio Rouge
di una previsione, generato da una serie di input. Gli input Rouge utilizzano
metric_spec
, che determina il comportamento della metrica.
REST
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- PROJECT_ID: il tuo ID progetto.
- LOCATION: la regione in cui elaborare la richiesta.
- PREDICTION: risposta LLM.
- REFERENCE: risposta LLM Golden come riferimento.
- ROUGE_TYPE: il calcolo utilizzato per determinare il punteggio del rouge. Consulta la pagina
metric_spec.rouge_type
per i valori accettati. - USE_STEMMER: determina se lo stemmer di Porter viene utilizzato per eliminare i suffissi di parole al fine di migliorare la corrispondenza. Per i valori accettati, consulta
metric_spec.use_stemmer
. - SPLIT_SUMMARIES: determina se vengono aggiunte nuove righe tra
rougeLsum
frasi. Per i valori accettati, vedimetric_spec.split_summaries
.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID-/locations/REGION:evaluateInstances \
Corpo JSON della richiesta:
{ "rouge_input": { "instances": { "prediction": "PREDICTION", "reference": "REFERENCE.", }, "metric_spec": { "rouge_type": "ROUGE_TYPE", "use_stemmer": USE_STEMMER, "split_summaries": SPLIT_SUMMARIES, } } }
Per inviare la richiesta, scegli una delle seguenti opzioni:
arricciatura
Salva il corpo della richiesta in un file denominato request.json
ed esegui questo comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID-/locations/REGION:evaluateInstances \"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
ed esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID-/locations/REGION:evaluateInstances \" | Select-Object -Expand Content
Passaggi successivi
- Per la documentazione dettagliata, vedi Eseguire una valutazione rapida.