La funzionalità di rilevamento facciale rileva più volti all'interno di un'immagine, insieme alla
attributi facciali chiave associati, come stato emotivo o wearing headwear
.
Privato specifico Riconoscimento facciale non è supportato.
Provalo
Se non hai mai utilizzato Google Cloud, crea un account per valutare in che modo L'API Cloud Vision funziona nel mondo reale diversi scenari. I nuovi clienti ricevono anche 300 $ di crediti gratuiti per l'esecuzione, il test e il deployment dei carichi di lavoro.
Prova l'API Cloud Vision gratuitamenteRichieste di rilevamento dei volti
Configura il progetto Google Cloud e l'autenticazione
Rileva i volti in un'immagine locale
Puoi utilizzare l'API Vision per eseguire il rilevamento delle caratteristiche su un file immagine locale.
Per le richieste REST, invia i contenuti del file immagine come stringa con codifica base64 nel corpo della richiesta.
Per le richieste gcloud
e della libreria client, specifica il percorso di un'immagine locale nel tuo
richiesta.
REST
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- BASE64_ENCODED_IMAGE: il base64
(stringa ASCII) dei dati dell'immagine binaria. Questa stringa dovrebbe essere simile alla
la seguente stringa:
/9j/4QAYRXhpZgAA...9tAVx/zDQDlGxn//2Q==
- RESULTS_INT: (facoltativo) un valore intero dei risultati da
per tornare indietro. Se ometti il campo
"maxResults"
e il relativo valore, l'API restituisce il valore predefinito di 10 risultati. Questo campo non si applica ai seguenti tipi di caratteristiche:TEXT_DETECTION
,DOCUMENT_TEXT_DETECTION
oCROP_HINTS
. - PROJECT_ID: l'ID del tuo progetto Google Cloud.
Metodo HTTP e URL:
POST https://vision.googleapis.com/v1/images:annotate
Corpo JSON della richiesta:
{ "requests": [ { "image": { "content": "BASE64_ENCODED_IMAGE" }, "features": [ { "maxResults": RESULTS_INT, "type": "FACE_DETECTION" } ] } ] }
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "x-goog-user-project: PROJECT_ID" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://vision.googleapis.com/v1/images:annotate"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred"; "x-goog-user-project" = "PROJECT_ID" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://vision.googleapis.com/v1/images:annotate" | Select-Object -Expand Content
Se la richiesta ha esito positivo, il server restituisce un codice di stato HTTP 200 OK
e
in formato JSON.
Una risposta FACE_DETECTION
include riquadri di delimitazione per tutti i volti rilevati e i punti di riferimento
rilevato sui volti (occhi, naso, bocca ecc.) e valutazioni di confidenza per volto e immagine
proprietà (gioia, dolore, rabbia, sorpresa e così via).
Go
Prima di provare questo esempio, segui le istruzioni per la configurazione di Go nel Guida rapida di Vision utilizzando librerie client. Per ulteriori informazioni, consulta API Vision Go documentazione di riferimento.
Per autenticarti a Vision, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Java
Prima di provare questo esempio, segui le istruzioni di configurazione di Java nel Guida rapida dell'API Vision Utilizzo delle librerie client. Per ulteriori informazioni, consulta documentazione di riferimento Java dell'API Vision.
Node.js
Prima di provare questo esempio, segui le istruzioni per la configurazione di Node.js nel Guida rapida di Vision utilizzando librerie client. Per ulteriori informazioni, consulta API Vision Node.js documentazione di riferimento.
Per autenticarti a Vision, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Python
Prima di provare questo esempio, segui le istruzioni per la configurazione di Python nel Guida rapida di Vision utilizzando librerie client. Per ulteriori informazioni, consulta API Vision Python documentazione di riferimento.
Per autenticarti a Vision, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Linguaggi aggiuntivi
C#: Segui le Istruzioni per la configurazione di C# Nella pagina delle librerie client e poi visita Documentazione di riferimento di Vision per .NET.
PHP Segui le Istruzioni per la configurazione dei file PHP Nella pagina delle librerie client e poi visita Documentazione di riferimento di Vision per PHP.
Rubino: Segui le Istruzioni per la configurazione di Ruby Nella pagina delle librerie client e poi visita Documentazione di riferimento di Vision per Ruby.
Rileva i volti in un'immagine remota
Puoi utilizzare l'API Vision per eseguire il rilevamento delle caratteristiche su un file immagine remoto che si trova in Cloud Storage o sul web. Per inviare una richiesta di file remota, specifica l'URL web del file o URI Cloud Storage nel corpo della richiesta.
REST
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- CLOUD_STORAGE_IMAGE_URI: il percorso di un percorso
in un bucket Cloud Storage. Devi disporre almeno dei privilegi di lettura per il file.
Esempio:
gs://cloud-samples-data/vision/face/faces.jpeg
- RESULTS_INT: (facoltativo) un valore intero dei risultati da
per tornare indietro. Se ometti il campo
"maxResults"
e il relativo valore, l'API restituisce il valore predefinito di 10 risultati. Questo campo non si applica ai seguenti tipi di caratteristiche:TEXT_DETECTION
,DOCUMENT_TEXT_DETECTION
oCROP_HINTS
. - PROJECT_ID: l'ID del tuo progetto Google Cloud.
Metodo HTTP e URL:
POST https://vision.googleapis.com/v1/images:annotate
Corpo JSON della richiesta:
{ "requests": [ { "image": { "source": { "imageUri": "CLOUD_STORAGE_IMAGE_URI" } }, "features": [ { "maxResults": RESULTS_INT, "type": "FACE_DETECTION" } ] } ] }
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "x-goog-user-project: PROJECT_ID" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://vision.googleapis.com/v1/images:annotate"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
.
ed esegui questo comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred"; "x-goog-user-project" = "PROJECT_ID" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://vision.googleapis.com/v1/images:annotate" | Select-Object -Expand Content
Se la richiesta ha esito positivo, il server restituisce un codice di stato HTTP 200 OK
e
in formato JSON.
Una risposta FACE_DETECTION
include riquadri di delimitazione per tutti i volti rilevati e i punti di riferimento
rilevato sui volti (occhi, naso, bocca ecc.) e valutazioni di confidenza per volto e immagine
proprietà (gioia, dolore, rabbia, sorpresa e così via).
Go
Prima di provare questo esempio, segui le istruzioni per la configurazione di Go nel Guida rapida di Vision utilizzando librerie client. Per ulteriori informazioni, consulta API Vision Go documentazione di riferimento.
Per autenticarti a Vision, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Java
Prima di provare questo esempio, segui le istruzioni di configurazione di Java nel Guida rapida dell'API Vision Utilizzo delle librerie client. Per ulteriori informazioni, consulta documentazione di riferimento Java dell'API Vision.
Node.js
Prima di provare questo esempio, segui le istruzioni per la configurazione di Node.js nel Guida rapida di Vision utilizzando librerie client. Per ulteriori informazioni, consulta API Vision Node.js documentazione di riferimento.
Per autenticarti a Vision, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Python
Prima di provare questo esempio, segui le istruzioni per la configurazione di Python nel Guida rapida di Vision utilizzando librerie client. Per ulteriori informazioni, consulta API Vision Python documentazione di riferimento.
Per autenticarti a Vision, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
gcloud
Per eseguire il rilevamento facciale, usa
gcloud ml vision detect-faces
come mostrato nell'esempio seguente:
gcloud ml vision detect-faces gs://cloud-samples-data/vision/face/faces.jpeg
Linguaggi aggiuntivi
C#: Segui le Istruzioni per la configurazione di C# Nella pagina delle librerie client e poi visita Documentazione di riferimento di Vision per .NET.
PHP Segui le Istruzioni per la configurazione dei file PHP Nella pagina delle librerie client e poi visita Documentazione di riferimento di Vision per PHP.
Rubino: Segui le Istruzioni per la configurazione di Ruby Nella pagina delle librerie client e poi visita Documentazione di riferimento di Vision per Ruby.
Prova
Prova il rilevamento facciale qui sotto. Puoi utilizzare lo
immagine già specificata (gs://cloud-samples-data/vision/face/faces.jpeg
) o
specifica una tua immagine al suo posto. Invia la richiesta selezionando
Esegui.
Corpo della richiesta:
{ "requests": [ { "features": [ { "maxResults": 10, "type": "FACE_DETECTION" } ], "image": { "source": { "imageUri": "gs://cloud-samples-data/vision/face/faces.jpeg" } } } ] }