- Representación JSON
- Nodo
- ProcessorConfig
- VideoStreamInputConfig
- AIEnabledDevicesInputConfig
- MediaWarehouseConfig
- PersonBlurConfig
- PersonBlurType
- OccupancyCountConfig
- PersonVehicleDetectionConfig
- VertexAutoMLVisionConfig
- VertexAutoMLVideoConfig
- VertexCustomConfig
- DedicatedResources
- MachineSpec
- AcceleratorType
- AutoscalingMetricSpec
- GeneralObjectDetectionConfig
- BigQueryConfig
- PersonalProtectiveEquipmentDetectionConfig
- InputEdge
- MonitoringConfig
Mensaje que almacena el gráfico de la aplicación.
Representación JSON |
---|
{ "nodes": [ { object ( |
Campos | |
---|---|
nodes[] |
Es una lista de nodos en el grafo de la aplicación. |
monitoringConfig |
Configuración relacionada con la supervisión de esta aplicación. |
Nodo
Mensaje que describe el objeto de nodo.
Representación JSON |
---|
{ "name": string, "displayName": string, "nodeConfig": { object ( |
Campos | |
---|---|
name |
Obligatorio. Es un nombre único para el nodo. |
displayName |
Es un nombre visible fácil de usar para el nodo. |
nodeConfig |
Configuración del nodo |
processor |
El nombre del procesador hace referencia al recurso de procesador elegido. |
parents[] |
Nodo superior El nodo de entrada no debe tener un nodo superior. En el caso de la versión 1 Alpha1/Beta, solo el nodo de almacén de contenido multimedia puede tener varios nodos superiores, mientras que otros tipos de nodos solo tendrán uno. |
outputAllOutputChannelsToStream |
De forma predeterminada, la salida del nodo solo estará disponible para los nodos downstream. Para consumir el resultado directo del nodo de la aplicación, el resultado debe enviarse a Vision AI Streams al principio. Si estableces outputAllOutputChannelsToStream en verdadero, App Platform enviará automáticamente todas las salidas del nodo actual a los recursos de flujo de Vision AI (un flujo por canal de salida). La plataforma de aplicaciones creará automáticamente el recurso de flujo de salida durante la implementación y lo borrará después de que se desimplemente la aplicación. Ten en cuenta que esta configuración se aplica a todas las instancias de la aplicación. Para anular el flujo de salida a nivel de la instancia, configura la sección |
ProcessorConfig
ID siguiente: 23
Representación JSON |
---|
{ // Union field |
Campos | |
---|---|
Campo de unión
|
|
videoStreamInputConfig |
Parámetros de configuración del procesador de entrada de flujo. |
aiEnabledDevicesInputConfig |
Configuración de dispositivos de entrada compatibles con IA |
mediaWarehouseConfig |
Parámetros de configuración del procesador del almacén de contenido multimedia |
personBlurConfig |
Parámetros de configuración del procesador de desenfoque de personas. |
occupancyCountConfig |
Parámetros de configuración del procesador de recuento de ocupación |
personVehicleDetectionConfig |
Parámetros de configuración del procesador de detección de personas y vehículos. |
vertexAutomlVisionConfig |
Parámetros de configuración del procesador de visión de AutoML de Vertex. |
vertexAutomlVideoConfig |
Parámetros de configuración del procesador de video de Vertex AutoML |
vertexCustomConfig |
Parámetros de configuración del procesador personalizado de Vertex |
generalObjectDetectionConfig |
Parámetros de configuración del procesador de detección general de objetos. |
bigQueryConfig |
Parámetros de configuración del procesador de BigQuery |
personalProtectiveEquipmentDetectionConfig |
Parámetros de configuración de personalProtectiveEquipmentDetectionConfig |
VideoStreamInputConfig
Mensaje que describe la configuración de entrada de la transmisión de video. Este mensaje solo debe usarse como marcador de posición para el procesador builtin:stream-input. La vinculación de flujo real debe especificarse con la API correspondiente.
Representación JSON |
---|
{
"streams": [
string
],
"streamsWithAnnotation": [
{
object ( |
Campos | |
---|---|
streams[] |
|
streamsWithAnnotation[] |
|
AIEnabledDevicesInputConfig
Mensaje que describe la configuración de entrada de dispositivos habilitados para IA.
MediaWarehouseConfig
Mensaje que describe MediaWarehouseConfig.
Representación JSON |
---|
{ "corpus": string, "region": string, "ttl": string } |
Campos | |
---|---|
corpus |
Es el nombre del recurso del corpus de Media Warehouse. Formato: projects/${project_id}/locations/${locationId}/corpora/${corpus_id} |
region |
Obsoleto. |
ttl |
Es la duración durante la cual pueden existir todos los recursos multimedia, los metadatos asociados y los documentos de búsqueda. Una duración en segundos con hasta nueve dígitos decimales, que terminan en “ |
PersonBlurConfig
Mensaje que describe FaceBlurConfig.
Representación JSON |
---|
{
"personBlurType": enum ( |
Campos | |
---|---|
personBlurType |
Tipo de desenfoque de personas. |
facesOnly |
Indica si solo se deben desenfocar los rostros, en lugar de todo el objeto en el procesador. |
PersonBlurType
Tipo de desenfoque de personas
Enums | |
---|---|
PERSON_BLUR_TYPE_UNSPECIFIED |
Tipo de desenfoque de personas UNSPECIFIED. |
FULL_OCCULUSION |
Oclusión completa del tipo FaceBlur. |
BLUR_FILTER |
Filtro de desenfoque FaceBlur Type. |
OccupancyCountConfig
Mensaje que describe OccupancyCountConfig.
Representación JSON |
---|
{ "enablePeopleCounting": boolean, "enableVehicleCounting": boolean, "enableDwellingTimeTracking": boolean } |
Campos | |
---|---|
enablePeopleCounting |
Si se deben contar las apariciones de personas, los recuentos de salida tienen "personas" como clave. |
enableVehicleCounting |
Si se cuentan las apariciones de vehículos, los recuentos de salida tendrán "vehicle" como clave. |
enableDwellingTimeTracking |
Indica si se debe hacer un seguimiento del tiempo de permanencia de cada objeto individual dentro de la escena o zona específica. |
PersonVehicleDetectionConfig
Mensaje que describe PersonVehicleDetectionConfig.
Representación JSON |
---|
{ "enablePeopleCounting": boolean, "enableVehicleCounting": boolean } |
Campos | |
---|---|
enablePeopleCounting |
Al menos uno de los campos enablePeopleCounting y enableVehicleCounting debe establecerse como verdadero. Si se deben contar las apariciones de personas, los recuentos de salida tienen "personas" como clave. |
enableVehicleCounting |
Si se cuentan las apariciones de vehículos, los recuentos de salida tendrán "vehicle" como clave. |
VertexAutoMLVisionConfig
Mensaje de configuración de los procesadores de Vertex AutoML Vision.
Representación JSON |
---|
{ "confidenceThreshold": number, "maxPredictions": integer } |
Campos | |
---|---|
confidenceThreshold |
Solo se mostrarán las entidades con una puntuación superior al umbral. El valor 0.0 significa que se muestran todas las entidades detectadas. |
maxPredictions |
Se mostrará esta cantidad de predicciones como máximo por fotograma de salida. El valor 0 indica que se deben mostrar todas las entidades detectadas. |
VertexAutoMLVideoConfig
Mensaje que describe VertexAutoMLVideoConfig.
Representación JSON |
---|
{ "confidenceThreshold": number, "blockedLabels": [ string ], "maxPredictions": integer, "boundingBoxSizeLimit": number } |
Campos | |
---|---|
confidenceThreshold |
Solo se mostrarán las entidades con una puntuación superior al umbral. El valor 0.0 significa que se muestran todas las entidades detectadas. |
blockedLabels[] |
No se mostrarán las etiquetas especificadas en este campo. |
maxPredictions |
Se mostrará esta cantidad de predicciones como máximo por fotograma de salida. El valor 0 indica que se deben mostrar todas las entidades detectadas. |
boundingBoxSizeLimit |
Solo se mostrará el cuadro de límite cuyo tamaño sea mayor que este límite. Solo seguimiento de objetos. El valor 0.0 significa que se muestran todas las entidades detectadas. |
VertexCustomConfig
Mensaje que describe VertexCustomConfig.
Representación JSON |
---|
{
"maxPredictionFps": integer,
"dedicatedResources": {
object ( |
Campos | |
---|---|
maxPredictionFps |
Es el fotograma de predicción máximo por segundo. Este atributo establece la rapidez con la que el operador envía solicitudes de predicción al extremo de Vertex AI. El valor predeterminado es 0, lo que significa que no hay un límite máximo de FPS de predicción. El operador envía solicitudes de predicción a la velocidad de fotogramas de entrada. |
dedicatedResources |
Es una descripción de los recursos dedicados a DeployedModel y que necesitan un mayor grado de configuración manual. |
postProcessingCloudFunction |
Si no está vacía, el resultado de la predicción se enviará a la función de Cloud especificada para el procesamiento posterior. * La función de Cloud recibirá AppPlatformCloudFunctionRequest, en la que el campo de anotaciones será el formato JSON de proto PredictResponse. * La función de Cloud debe mostrar AppPlatformCloudFunctionResponse con PredictResponse almacenado en el campo de anotaciones. * Para descartar el resultado de la predicción, simplemente borra el campo de carga útil en la AppPlatformCloudFunctionResponse que se muestra. |
attachApplicationMetadata |
Si es verdadero, la solicitud de predicción que recibe el modelo personalizado también contendrá metadatos con el siguiente esquema: 'appPlatformMetadata': { 'ingestionTime': DOUBLE; (UNIX timestamp) 'application': STRING; 'instanceId': STRING; 'node': STRING; 'processor': STRING; } |
DedicatedResources
Es una descripción de los recursos dedicados a un DeployedModel y que necesitan un mayor grado de configuración manual.
Representación JSON |
---|
{ "machineSpec": { object ( |
Campos | |
---|---|
machineSpec |
Obligatorio. Inmutable. Es la especificación de una sola máquina que usa la predicción. |
minReplicaCount |
Obligatorio. Inmutable. Es la cantidad mínima de réplicas de máquinas en las que siempre se implementará este DeployedModel. Este valor debe ser mayor o igual que 1. Si aumenta el tráfico en relación con el modelo implementado, es posible que se implemente de forma dinámica en más réplicas y, a medida que disminuya el tráfico, es posible que se liberen algunas de estas réplicas adicionales. |
maxReplicaCount |
Inmutable. Es la cantidad máxima de réplicas en las que se puede implementar este DeployedModel cuando aumenta el tráfico en su contra. Si el valor solicitado es demasiado grande, se producirá un error en la implementación, pero si esta se realiza correctamente, se garantiza la capacidad de escalar el modelo a esa cantidad de réplicas (salvo interrupciones del servicio). Si el tráfico en el modelo implementado aumenta más allá de lo que sus réplicas pueden manejar como máximo, se descartará una parte del tráfico. Si no se proporciona este valor, se usará El valor de este campo afecta el cargo en las cuotas de CPU y GPU de Vertex. Específicamente, se te cobrará por maxReplicaCount × cantidad de núcleos en el tipo de máquina seleccionado y por maxReplicaCount × cantidad de GPUs por réplica en el tipo de máquina seleccionado. |
autoscalingMetricSpecs[] |
Inmutable. Las especificaciones de métricas que anula el valor objetivo de una métrica de uso de recursos (uso de CPU, ciclo de trabajo del acelerador, etcétera) (el valor predeterminado es 60 si no se establece) Se permite una entrada como máximo por métrica. Si Si Por ejemplo, en el caso de la predicción en línea, si deseas anular el uso objetivo de CPU al 80%, debes establecer |
MachineSpec
Especificación de una sola máquina.
Representación JSON |
---|
{
"machineType": string,
"acceleratorType": enum ( |
Campos | |
---|---|
machineType |
Inmutable. es el tipo de máquina. Consulta la lista de tipos de máquinas compatibles para la predicción. Consulta la lista de tipos de máquinas compatibles para el entrenamiento personalizado. Para [DeployedModel][], este campo es opcional y el valor predeterminado es |
acceleratorType |
Inmutable. Es el tipo de aceleradores que se pueden conectar a la máquina según |
acceleratorCount |
Es la cantidad de aceleradores que se conectarán a la máquina. |
AcceleratorType
Representa un tipo de acelerador de hardware.
Enums | |
---|---|
ACCELERATOR_TYPE_UNSPECIFIED |
Tipo de acelerador no especificado, lo que significa que no hay acelerador. |
NVIDIA_TESLA_K80 |
GPU Nvidia Tesla K80 |
NVIDIA_TESLA_P100 |
GPU Nvidia Tesla P100 |
NVIDIA_TESLA_V100 |
GPU Nvidia Tesla V100 |
NVIDIA_TESLA_P4 |
GPU Nvidia Tesla P4 |
NVIDIA_TESLA_T4 |
GPU Nvidia Tesla T4 |
NVIDIA_TESLA_A100 |
GPU Nvidia Tesla A100 |
TPU_V2 |
TPU v2 |
TPU_V3 |
TPU v3 |
AutoscalingMetricSpec
Es la especificación de métrica que define el uso de recursos objetivo (uso de CPU, ciclo de trabajo del acelerador, etcétera) para calcular el recuento de réplicas deseado.
Representación JSON |
---|
{ "metricName": string, "target": integer } |
Campos | |
---|---|
metricName |
Obligatorio. Es el nombre de la métrica del recurso. Métricas admitidas:
|
target |
Es el porcentaje de utilización de recursos objetivo (del 1% al 100%) para la métrica determinada. Una vez que el uso real se desvía del objetivo en un porcentaje determinado, cambian las réplicas de máquinas. Si no se proporciona, el valor predeterminado es 60 (que representa el 60%). |
GeneralObjectDetectionConfig
Mensaje de configuraciones para el procesador de detección de objetos generales.
BigQueryConfig
Es un mensaje de configuración para el procesador de BigQuery.
Representación JSON |
---|
{ "table": string, "cloudFunctionMapping": { string: string, ... }, "createDefaultTableIfNotExists": boolean } |
Campos | |
---|---|
table |
Es un recurso de tabla de BigQuery para que Vision AI Platform transfiera anotaciones. |
cloudFunctionMapping |
Esquema de datos: De forma predeterminada, la aplicación de IA de visión intentará escribir anotaciones en la tabla de BigQuery de destino con el siguiente esquema:
Para reenviar datos de anotaciones a una tabla de BigQuery existente, el cliente debe asegurarse de la compatibilidad del esquema. El mapa asigna el nombre del nodo de la aplicación a su extremo de Cloud Function correspondiente para transformar las anotaciones directamente en google.cloud.bigquery.storage.v1.AppendRowsRequest (solo se debe configurar Si el esquema de tabla predeterminado no se ajusta, el cliente puede transformar el resultado de la anotación de la aplicación de IA de visión en un esquema de tabla de BigQuery arbitrario con CloudFunction.
Un objeto que contiene una lista de pares |
createDefaultTableIfNotExists |
Si es verdadero, App Platform creará el conjunto de datos de BigQuery y la tabla de BigQuery con el esquema predeterminado si no existe la tabla especificada. Esto no funciona si se especifica algún esquema personalizado de Cloud Functions, ya que el sistema no conoce el esquema deseado. La columna JSON se usará en la tabla predeterminada que crea la plataforma de aplicaciones. |
PersonalProtectiveEquipmentDetectionConfig
Mensaje que describe PersonalProtectiveEquipmentDetectionConfig.
Representación JSON |
---|
{ "enableFaceCoverageDetection": boolean, "enableHeadCoverageDetection": boolean, "enableHandsCoverageDetection": boolean } |
Campos | |
---|---|
enableFaceCoverageDetection |
Indica si se debe habilitar la detección de cobertura facial. |
enableHeadCoverageDetection |
Indica si se debe habilitar la detección de cobertura de la cabeza. |
enableHandsCoverageDetection |
Indica si se debe habilitar la detección de cobertura de las manos. |
InputEdge
Mensaje que describe un borde que apunta a un nodo.
Representación JSON |
---|
{ "parentNode": string, "parentOutputChannel": string, "connectedInputChannel": string } |
Campos | |
---|---|
parentNode |
Es el nombre del nodo superior. |
parentOutputChannel |
El artefacto de salida conectado del nodo superior. Se puede omitir si el procesador de destino solo tiene 1 artefacto de salida. |
connectedInputChannel |
Es el canal de entrada conectado del procesador del nodo actual. Se puede omitir si el procesador de destino solo tiene 1 canal de entrada. |
MonitoringConfig
Configuración relacionada con la supervisión de una aplicación.
Representación JSON |
---|
{ "enabled": boolean } |
Campos | |
---|---|
enabled |
Indica si esta aplicación tiene habilitada la supervisión. |