ApplicationConfigs

Mensaje que almacena el gráfico de la aplicación.

Representación JSON
{
  "nodes": [
    {
      object (Node)
    }
  ],
  "monitoringConfig": {
    object (MonitoringConfig)
  }
}
Campos
nodes[]

object (Node)

Es una lista de nodos en el grafo de la aplicación.

monitoringConfig

object (MonitoringConfig)

Configuración relacionada con la supervisión de esta aplicación.

Nodo

Mensaje que describe el objeto de nodo.

Representación JSON
{
  "name": string,
  "displayName": string,
  "nodeConfig": {
    object (ProcessorConfig)
  },
  "processor": string,
  "parents": [
    {
      object (InputEdge)
    }
  ],
  "outputAllOutputChannelsToStream": boolean
}
Campos
name

string

Obligatorio. Es un nombre único para el nodo.

displayName

string

Es un nombre visible fácil de usar para el nodo.

nodeConfig

object (ProcessorConfig)

Configuración del nodo

processor

string

El nombre del procesador hace referencia al recurso de procesador elegido.

parents[]

object (InputEdge)

Nodo superior El nodo de entrada no debe tener un nodo superior. En el caso de la versión 1 Alpha1/Beta, solo el nodo de almacén de contenido multimedia puede tener varios nodos superiores, mientras que otros tipos de nodos solo tendrán uno.

outputAllOutputChannelsToStream

boolean

De forma predeterminada, la salida del nodo solo estará disponible para los nodos downstream. Para consumir el resultado directo del nodo de la aplicación, el resultado debe enviarse a Vision AI Streams al principio.

Si estableces outputAllOutputChannelsToStream en verdadero, App Platform enviará automáticamente todas las salidas del nodo actual a los recursos de flujo de Vision AI (un flujo por canal de salida). La plataforma de aplicaciones creará automáticamente el recurso de flujo de salida durante la implementación y lo borrará después de que se desimplemente la aplicación. Ten en cuenta que esta configuración se aplica a todas las instancias de la aplicación.

Para anular el flujo de salida a nivel de la instancia, configura la sección outputResources del recurso de instancia. producerNode debe ser el nodo actual, outputResourceBinding debe ser el nombre del canal de salida (o déjalo en blanco si solo hay 1 canal de salida del procesador) y outputResource debe ser el flujo de salida de destino.

ProcessorConfig

ID siguiente: 23

Representación JSON
{

  // Union field processor_config can be only one of the following:
  "videoStreamInputConfig": {
    object (VideoStreamInputConfig)
  },
  "aiEnabledDevicesInputConfig": {
    object (AIEnabledDevicesInputConfig)
  },
  "mediaWarehouseConfig": {
    object (MediaWarehouseConfig)
  },
  "personBlurConfig": {
    object (PersonBlurConfig)
  },
  "occupancyCountConfig": {
    object (OccupancyCountConfig)
  },
  "personVehicleDetectionConfig": {
    object (PersonVehicleDetectionConfig)
  },
  "vertexAutomlVisionConfig": {
    object (VertexAutoMLVisionConfig)
  },
  "vertexAutomlVideoConfig": {
    object (VertexAutoMLVideoConfig)
  },
  "vertexCustomConfig": {
    object (VertexCustomConfig)
  },
  "generalObjectDetectionConfig": {
    object (GeneralObjectDetectionConfig)
  },
  "bigQueryConfig": {
    object (BigQueryConfig)
  },
  "personalProtectiveEquipmentDetectionConfig": {
    object (PersonalProtectiveEquipmentDetectionConfig)
  }
  // End of list of possible types for union field processor_config.
}
Campos

Campo de unión processor_config.

processor_config puede ser una de las siguientes opciones:

videoStreamInputConfig

object (VideoStreamInputConfig)

Parámetros de configuración del procesador de entrada de flujo.

aiEnabledDevicesInputConfig

object (AIEnabledDevicesInputConfig)

Configuración de dispositivos de entrada compatibles con IA

mediaWarehouseConfig

object (MediaWarehouseConfig)

Parámetros de configuración del procesador del almacén de contenido multimedia

personBlurConfig

object (PersonBlurConfig)

Parámetros de configuración del procesador de desenfoque de personas.

occupancyCountConfig

object (OccupancyCountConfig)

Parámetros de configuración del procesador de recuento de ocupación

personVehicleDetectionConfig

object (PersonVehicleDetectionConfig)

Parámetros de configuración del procesador de detección de personas y vehículos.

vertexAutomlVisionConfig

object (VertexAutoMLVisionConfig)

Parámetros de configuración del procesador de visión de AutoML de Vertex.

vertexAutomlVideoConfig

object (VertexAutoMLVideoConfig)

Parámetros de configuración del procesador de video de Vertex AutoML

vertexCustomConfig

object (VertexCustomConfig)

Parámetros de configuración del procesador personalizado de Vertex

generalObjectDetectionConfig

object (GeneralObjectDetectionConfig)

Parámetros de configuración del procesador de detección general de objetos.

bigQueryConfig

object (BigQueryConfig)

Parámetros de configuración del procesador de BigQuery

personalProtectiveEquipmentDetectionConfig

object (PersonalProtectiveEquipmentDetectionConfig)

Parámetros de configuración de personalProtectiveEquipmentDetectionConfig

VideoStreamInputConfig

Mensaje que describe la configuración de entrada de la transmisión de video. Este mensaje solo debe usarse como marcador de posición para el procesador builtin:stream-input. La vinculación de flujo real debe especificarse con la API correspondiente.

Representación JSON
{
  "streams": [
    string
  ],
  "streamsWithAnnotation": [
    {
      object (StreamWithAnnotation)
    }
  ]
}
Campos
streams[]
(deprecated)

string

streamsWithAnnotation[]
(deprecated)

object (StreamWithAnnotation)

AIEnabledDevicesInputConfig

Mensaje que describe la configuración de entrada de dispositivos habilitados para IA.

MediaWarehouseConfig

Mensaje que describe MediaWarehouseConfig.

Representación JSON
{
  "corpus": string,
  "region": string,
  "ttl": string
}
Campos
corpus

string

Es el nombre del recurso del corpus de Media Warehouse. Formato: projects/${project_id}/locations/${locationId}/corpora/${corpus_id}

region
(deprecated)

string

Obsoleto.

ttl

string (Duration format)

Es la duración durante la cual pueden existir todos los recursos multimedia, los metadatos asociados y los documentos de búsqueda.

Una duración en segundos con hasta nueve dígitos decimales, que terminan en “s”. Ejemplo: "3.5s".

PersonBlurConfig

Mensaje que describe FaceBlurConfig.

Representación JSON
{
  "personBlurType": enum (PersonBlurType),
  "facesOnly": boolean
}
Campos
personBlurType

enum (PersonBlurType)

Tipo de desenfoque de personas.

facesOnly

boolean

Indica si solo se deben desenfocar los rostros, en lugar de todo el objeto en el procesador.

PersonBlurType

Tipo de desenfoque de personas

Enums
PERSON_BLUR_TYPE_UNSPECIFIED Tipo de desenfoque de personas UNSPECIFIED.
FULL_OCCULUSION Oclusión completa del tipo FaceBlur.
BLUR_FILTER Filtro de desenfoque FaceBlur Type.

OccupancyCountConfig

Mensaje que describe OccupancyCountConfig.

Representación JSON
{
  "enablePeopleCounting": boolean,
  "enableVehicleCounting": boolean,
  "enableDwellingTimeTracking": boolean
}
Campos
enablePeopleCounting

boolean

Si se deben contar las apariciones de personas, los recuentos de salida tienen "personas" como clave.

enableVehicleCounting

boolean

Si se cuentan las apariciones de vehículos, los recuentos de salida tendrán "vehicle" como clave.

enableDwellingTimeTracking

boolean

Indica si se debe hacer un seguimiento del tiempo de permanencia de cada objeto individual dentro de la escena o zona específica.

PersonVehicleDetectionConfig

Mensaje que describe PersonVehicleDetectionConfig.

Representación JSON
{
  "enablePeopleCounting": boolean,
  "enableVehicleCounting": boolean
}
Campos
enablePeopleCounting

boolean

Al menos uno de los campos enablePeopleCounting y enableVehicleCounting debe establecerse como verdadero. Si se deben contar las apariciones de personas, los recuentos de salida tienen "personas" como clave.

enableVehicleCounting

boolean

Si se cuentan las apariciones de vehículos, los recuentos de salida tendrán "vehicle" como clave.

VertexAutoMLVisionConfig

Mensaje de configuración de los procesadores de Vertex AutoML Vision.

Representación JSON
{
  "confidenceThreshold": number,
  "maxPredictions": integer
}
Campos
confidenceThreshold

number

Solo se mostrarán las entidades con una puntuación superior al umbral. El valor 0.0 significa que se muestran todas las entidades detectadas.

maxPredictions

integer

Se mostrará esta cantidad de predicciones como máximo por fotograma de salida. El valor 0 indica que se deben mostrar todas las entidades detectadas.

VertexAutoMLVideoConfig

Mensaje que describe VertexAutoMLVideoConfig.

Representación JSON
{
  "confidenceThreshold": number,
  "blockedLabels": [
    string
  ],
  "maxPredictions": integer,
  "boundingBoxSizeLimit": number
}
Campos
confidenceThreshold

number

Solo se mostrarán las entidades con una puntuación superior al umbral. El valor 0.0 significa que se muestran todas las entidades detectadas.

blockedLabels[]

string

No se mostrarán las etiquetas especificadas en este campo.

maxPredictions

integer

Se mostrará esta cantidad de predicciones como máximo por fotograma de salida. El valor 0 indica que se deben mostrar todas las entidades detectadas.

boundingBoxSizeLimit

number

Solo se mostrará el cuadro de límite cuyo tamaño sea mayor que este límite. Solo seguimiento de objetos. El valor 0.0 significa que se muestran todas las entidades detectadas.

VertexCustomConfig

Mensaje que describe VertexCustomConfig.

Representación JSON
{
  "maxPredictionFps": integer,
  "dedicatedResources": {
    object (DedicatedResources)
  },
  "postProcessingCloudFunction": string,
  "attachApplicationMetadata": boolean
}
Campos
maxPredictionFps

integer

Es el fotograma de predicción máximo por segundo. Este atributo establece la rapidez con la que el operador envía solicitudes de predicción al extremo de Vertex AI. El valor predeterminado es 0, lo que significa que no hay un límite máximo de FPS de predicción. El operador envía solicitudes de predicción a la velocidad de fotogramas de entrada.

dedicatedResources

object (DedicatedResources)

Es una descripción de los recursos dedicados a DeployedModel y que necesitan un mayor grado de configuración manual.

postProcessingCloudFunction

string

Si no está vacía, el resultado de la predicción se enviará a la función de Cloud especificada para el procesamiento posterior. * La función de Cloud recibirá AppPlatformCloudFunctionRequest, en la que el campo de anotaciones será el formato JSON de proto PredictResponse. * La función de Cloud debe mostrar AppPlatformCloudFunctionResponse con PredictResponse almacenado en el campo de anotaciones. * Para descartar el resultado de la predicción, simplemente borra el campo de carga útil en la AppPlatformCloudFunctionResponse que se muestra.

attachApplicationMetadata

boolean

Si es verdadero, la solicitud de predicción que recibe el modelo personalizado también contendrá metadatos con el siguiente esquema: 'appPlatformMetadata': { 'ingestionTime': DOUBLE; (UNIX timestamp) 'application': STRING; 'instanceId': STRING; 'node': STRING; 'processor': STRING; }

DedicatedResources

Es una descripción de los recursos dedicados a un DeployedModel y que necesitan un mayor grado de configuración manual.

Representación JSON
{
  "machineSpec": {
    object (MachineSpec)
  },
  "minReplicaCount": integer,
  "maxReplicaCount": integer,
  "autoscalingMetricSpecs": [
    {
      object (AutoscalingMetricSpec)
    }
  ]
}
Campos
machineSpec

object (MachineSpec)

Obligatorio. Inmutable. Es la especificación de una sola máquina que usa la predicción.

minReplicaCount

integer

Obligatorio. Inmutable. Es la cantidad mínima de réplicas de máquinas en las que siempre se implementará este DeployedModel. Este valor debe ser mayor o igual que 1.

Si aumenta el tráfico en relación con el modelo implementado, es posible que se implemente de forma dinámica en más réplicas y, a medida que disminuya el tráfico, es posible que se liberen algunas de estas réplicas adicionales.

maxReplicaCount

integer

Inmutable. Es la cantidad máxima de réplicas en las que se puede implementar este DeployedModel cuando aumenta el tráfico en su contra. Si el valor solicitado es demasiado grande, se producirá un error en la implementación, pero si esta se realiza correctamente, se garantiza la capacidad de escalar el modelo a esa cantidad de réplicas (salvo interrupciones del servicio). Si el tráfico en el modelo implementado aumenta más allá de lo que sus réplicas pueden manejar como máximo, se descartará una parte del tráfico. Si no se proporciona este valor, se usará minReplicaCount como valor predeterminado.

El valor de este campo afecta el cargo en las cuotas de CPU y GPU de Vertex. Específicamente, se te cobrará por maxReplicaCount × cantidad de núcleos en el tipo de máquina seleccionado y por maxReplicaCount × cantidad de GPUs por réplica en el tipo de máquina seleccionado.

autoscalingMetricSpecs[]

object (AutoscalingMetricSpec)

Inmutable. Las especificaciones de métricas que anula el valor objetivo de una métrica de uso de recursos (uso de CPU, ciclo de trabajo del acelerador, etcétera) (el valor predeterminado es 60 si no se establece) Se permite una entrada como máximo por métrica.

Si machineSpec.accelerator_count es superior a 0, el ajuste de escala automático se basará en el uso de CPU y las métricas del ciclo de trabajo del acelerador, y se escalará cuando cualquiera de las métricas supere su valor objetivo, mientras que se reducirá si ambas métricas están por debajo de su valor objetivo. El valor objetivo predeterminado es 60 para ambas métricas.

Si machineSpec.accelerator_count es 0, el ajuste de escala automático se basará solo en la métrica de uso de CPU con el valor objetivo predeterminado de 60 si no se establece de forma explícita.

Por ejemplo, en el caso de la predicción en línea, si deseas anular el uso objetivo de CPU al 80%, debes establecer autoscalingMetricSpecs.metric_name en aiplatform.googleapis.com/prediction/online/cpu/utilization y autoscalingMetricSpecs.target en 80.

MachineSpec

Especificación de una sola máquina.

Representación JSON
{
  "machineType": string,
  "acceleratorType": enum (AcceleratorType),
  "acceleratorCount": integer
}
Campos
machineType

string

Inmutable. es el tipo de máquina.

Consulta la lista de tipos de máquinas compatibles para la predicción.

Consulta la lista de tipos de máquinas compatibles para el entrenamiento personalizado.

Para [DeployedModel][], este campo es opcional y el valor predeterminado es n1-standard-2. Este campo es obligatorio para [BatchPredictionJob][] o como parte de [WorkerPoolSpec][].

acceleratorType

enum (AcceleratorType)

Inmutable. Es el tipo de aceleradores que se pueden conectar a la máquina según acceleratorCount.

acceleratorCount

integer

Es la cantidad de aceleradores que se conectarán a la máquina.

AcceleratorType

Representa un tipo de acelerador de hardware.

Enums
ACCELERATOR_TYPE_UNSPECIFIED Tipo de acelerador no especificado, lo que significa que no hay acelerador.
NVIDIA_TESLA_K80 GPU Nvidia Tesla K80
NVIDIA_TESLA_P100 GPU Nvidia Tesla P100
NVIDIA_TESLA_V100 GPU Nvidia Tesla V100
NVIDIA_TESLA_P4 GPU Nvidia Tesla P4
NVIDIA_TESLA_T4 GPU Nvidia Tesla T4
NVIDIA_TESLA_A100 GPU Nvidia Tesla A100
TPU_V2 TPU v2
TPU_V3 TPU v3

AutoscalingMetricSpec

Es la especificación de métrica que define el uso de recursos objetivo (uso de CPU, ciclo de trabajo del acelerador, etcétera) para calcular el recuento de réplicas deseado.

Representación JSON
{
  "metricName": string,
  "target": integer
}
Campos
metricName

string

Obligatorio. Es el nombre de la métrica del recurso. Métricas admitidas:

  • Para la predicción en línea:
  • aiplatform.googleapis.com/prediction/online/accelerator/duty_cycle
  • aiplatform.googleapis.com/prediction/online/cpu/utilization
target

integer

Es el porcentaje de utilización de recursos objetivo (del 1% al 100%) para la métrica determinada. Una vez que el uso real se desvía del objetivo en un porcentaje determinado, cambian las réplicas de máquinas. Si no se proporciona, el valor predeterminado es 60 (que representa el 60%).

GeneralObjectDetectionConfig

Mensaje de configuraciones para el procesador de detección de objetos generales.

BigQueryConfig

Es un mensaje de configuración para el procesador de BigQuery.

Representación JSON
{
  "table": string,
  "cloudFunctionMapping": {
    string: string,
    ...
  },
  "createDefaultTableIfNotExists": boolean
}
Campos
table

string

Es un recurso de tabla de BigQuery para que Vision AI Platform transfiera anotaciones.

cloudFunctionMapping

map (key: string, value: string)

Esquema de datos: De forma predeterminada, la aplicación de IA de visión intentará escribir anotaciones en la tabla de BigQuery de destino con el siguiente esquema:

  • ingestion_time: TIMESTAMP, la hora de transferencia de los datos originales.

  • application: Es una cadena que indica el nombre de la aplicación que produce la anotación.

  • instance: Es una cadena (STRING) que indica el ID de la instancia que produce la anotación.

  • node: Es una cadena, el nombre del nodo del gráfico de la aplicación que produce la anotación.

  • annotation: STRING o JSON, el protobuf de anotación real se convertirá en una cadena JSON con el campo de bytes como cadena codificada en 64. Se puede escribir en una columna de tipo String o Json.

Para reenviar datos de anotaciones a una tabla de BigQuery existente, el cliente debe asegurarse de la compatibilidad del esquema.

El mapa asigna el nombre del nodo de la aplicación a su extremo de Cloud Function correspondiente para transformar las anotaciones directamente en google.cloud.bigquery.storage.v1.AppendRowsRequest (solo se debe configurar avro_rows o proto_rows). Si se configuran, las anotaciones que produce el nodo de aplicación correspondiente se enviarán a Cloud Function primero antes de reenviarlas a BigQuery.

Si el esquema de tabla predeterminado no se ajusta, el cliente puede transformar el resultado de la anotación de la aplicación de IA de visión en un esquema de tabla de BigQuery arbitrario con CloudFunction.

  • La función de Cloud recibirá AppPlatformCloudFunctionRequest, en la que el campo de anotaciones será el formato JSON de la anotación de Vision AI.
  • La función de Cloud debe mostrar AppPlatformCloudFunctionResponse con AppendRowsRequest almacenado en el campo de anotaciones.
  • Para soltar la anotación, simplemente borra el campo de anotaciones en la AppPlatformCloudFunctionResponse que se muestra.

Un objeto que contiene una lista de pares "key": value. Ejemplo: { "name": "wrench", "mass": "1.3kg", "count": "3" }.

createDefaultTableIfNotExists

boolean

Si es verdadero, App Platform creará el conjunto de datos de BigQuery y la tabla de BigQuery con el esquema predeterminado si no existe la tabla especificada. Esto no funciona si se especifica algún esquema personalizado de Cloud Functions, ya que el sistema no conoce el esquema deseado. La columna JSON se usará en la tabla predeterminada que crea la plataforma de aplicaciones.

PersonalProtectiveEquipmentDetectionConfig

Mensaje que describe PersonalProtectiveEquipmentDetectionConfig.

Representación JSON
{
  "enableFaceCoverageDetection": boolean,
  "enableHeadCoverageDetection": boolean,
  "enableHandsCoverageDetection": boolean
}
Campos
enableFaceCoverageDetection

boolean

Indica si se debe habilitar la detección de cobertura facial.

enableHeadCoverageDetection

boolean

Indica si se debe habilitar la detección de cobertura de la cabeza.

enableHandsCoverageDetection

boolean

Indica si se debe habilitar la detección de cobertura de las manos.

InputEdge

Mensaje que describe un borde que apunta a un nodo.

Representación JSON
{
  "parentNode": string,
  "parentOutputChannel": string,
  "connectedInputChannel": string
}
Campos
parentNode

string

Es el nombre del nodo superior.

parentOutputChannel

string

El artefacto de salida conectado del nodo superior. Se puede omitir si el procesador de destino solo tiene 1 artefacto de salida.

connectedInputChannel

string

Es el canal de entrada conectado del procesador del nodo actual. Se puede omitir si el procesador de destino solo tiene 1 canal de entrada.

MonitoringConfig

Configuración relacionada con la supervisión de una aplicación.

Representación JSON
{
  "enabled": boolean
}
Campos
enabled

boolean

Indica si esta aplicación tiene habilitada la supervisión.