Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Il monitoraggio degli oggetti può monitorare più oggetti rilevati in un video di input o in segmenti di video e restituire etichette (tag) associate alle entità rilevate insieme alla posizione dell'entità nel fotogramma.
Il monitoraggio degli oggetti è diverso dal
rilevamento delle etichette. Mentre il rilevamento delle etichette
fornisce etichette per l'intero fotogramma (senza riquadri di delimitazione),
il monitoraggio degli oggetti rileva i singoli oggetti e fornisce un'etichetta insieme
a un riquadro di delimitazione che descrive la posizione nel fotogramma di ciascun oggetto. Ad esempio, un video
di veicoli che attraversano un incrocio può generare etichette come "auto" , "camion",
"bicicletta", "pneumatici", "luci", "finestrino" e così via. Ogni etichetta include una serie
di riquadri di delimitazione che mostrano la posizione dell'oggetto nel frame.
Ogni riquadro di delimitazione ha anche un segmento di tempo associato
con un offset temporale (timestamp) che indica l'offset di durata rispetto
all'inizio del video. L'annotazione contiene anche informazioni aggiuntive sull'entità, tra cui un ID entità che puoi utilizzare per trovare ulteriori informazioni su quell'entità nell'API Google Knowledge Graph Search.
Per effettuare una richiesta di monitoraggio degli oggetti, chiama il metodo
annotate
e specifica
OBJECT_TRACKING
nel campo features.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-10 UTC."],[],[],null,["# Object tracking\n\n*Object tracking* can track multiple objects detected in an input video or video\nsegments and return\nlabels (tags) associated with the detected entities along with the location of the entity in\nthe frame.\n| **Note:** There is a limit on the size of the detected objects. Very small objects in the video might not get detected.\n\nObject tracking differs from\n[label detection](/video-intelligence/docs/analyze-labels). While label\ndetection provides labels for the entire frame (without bounding boxes),\nobject tracking detects individual objects and provides a label along with\na bounding box that describes the location in the frame for each object. For example, a video\nof vehicles crossing an intersection may produce labels such as \"car\" , \"truck\",\n\"bike\", \"tires\", \"lights\", \"window\" and so on. Each label includes a series\nof bounding boxes showing the location of the object in the frame.\nEach bounding box also has an associated time segment\nwith a time offset (timestamp) that indicates the duration offset from\nthe beginning of the video. The annotation also contains additional entity\ninformation including an entity id that you can use to find more information\nabout that entity in the\n[Google Knowledge Graph Search API](https://developers.google.com/knowledge-graph/).\n\nTo make an object tracking request, call the\n[`annotate`](/video-intelligence/docs/reference/rest/v1p2beta1/videos/annotate)\nmethod and specify\n[`OBJECT_TRACKING`](/video-intelligence/docs/reference/rest/v1p2beta1/videos#Feature)\nin the `features` field.\n\nCheck out the [Video Intelligence API visualizer](https://zackakil.github.io/video-intelligence-api-visualiser/#Object%20Tracking) to see this feature in action.\n\nFor an example, see [Object Tracking](/video-intelligence/docs/object-tracking)\nand [Shot Change Detection](/video-intelligence/docs/shot-detection) tutorial."]]