- Representação JSON
- Node
- ProcessorConfig
- VideoStreamInputConfig
- AIEnabledDevicesInputConfig
- MediaWarehouseConfig
- PersonBlurConfig
- PersonBlurType
- OccupancyCountConfig
- PersonVehicleDetectionConfig
- VertexAutoMLVisionConfig
- VertexAutoMLVideoConfig
- VertexCustomConfig
- DedicatedResources
- MachineSpec
- AcceleratorType
- AutoscalingMetricSpec
- GeneralObjectDetectionConfig
- BigQueryConfig
- PersonalProtectiveEquipmentDetectionConfig
- Aresta de entrada
Mensagem que armazena o gráfico do aplicativo.
Representação JSON |
---|
{
"nodes": [
{
object ( |
Campos | |
---|---|
nodes[] |
Uma lista de nós no gráfico do aplicativo. |
Nó
Mensagem que descreve o objeto do nó.
Representação JSON |
---|
{ "name": string, "displayName": string, "nodeConfig": { object ( |
Campos | |
---|---|
name |
Obrigatório. Um nome exclusivo para o nó. |
displayName |
Um nome de exibição fácil de usar para o nó. |
nodeConfig |
Configuração de nós. |
processor |
O nome do processador se refere ao recurso de processador escolhido. |
parents[] |
Nó pai. O nó de entrada não pode ter um nó pai. Na V1 Alpha1/Beta, apenas o nó do depósito de mídia pode ter vários pais. Outros tipos de nós têm apenas um. |
Campo de união
|
|
outputAllOutputChannelsToStream |
Por padrão, a saída do nó só estará disponível para nós downstream. Para consumir a saída direta do nó do aplicativo, ela precisa ser enviada primeiro para os streams da Vision AI. Ao definir outputAllOutputChannelsToStream como verdadeiro, a App Platform envia automaticamente todas as saídas do nó atual para os recursos do Vision AI Stream (um stream por canal de saída). O recurso de stream de saída será criado pela App Platform automaticamente durante a implantação e excluído após a desimplantação do aplicativo. Essa configuração se aplica a todas as instâncias do aplicativo. O fluxo de saída pode ser substituído no nível da instância configurando a seção |
ProcessorConfig
Próximo ID: 28
Representação JSON |
---|
{ // Union field |
Campos | |
---|---|
Campo de união
|
|
videoStreamInputConfig |
Configurações do processador de entrada de fluxo. |
aiEnabledDevicesInputConfig |
Configuração de dispositivos de entrada com ativação de IA. |
mediaWarehouseConfig |
Configurações do processador do repositório de mídia. |
personBlurConfig |
Configurações do processador de desfoque de pessoas. |
occupancyCountConfig |
Configurações do processador de contagem de ocupação. |
personVehicleDetectionConfig |
Configurações do processador de detecção de veículos pessoais. |
vertexAutomlVisionConfig |
Configurações do processador de visão do AutoML da Vertex. |
vertexAutomlVideoConfig |
Configurações do processador de vídeo do Vertex AutoML. |
vertexCustomConfig |
Configurações do processador personalizado da Vertex. |
generalObjectDetectionConfig |
Configurações do processador de detecção de objetos geral. |
bigQueryConfig |
Configurações do processador do BigQuery. |
personalProtectiveEquipmentDetectionConfig |
Configurações de personalProtectiveEquipmentDetectionConfig |
VideoStreamInputConfig
Mensagem que descreve a configuração de entrada de stream de vídeo. Essa mensagem só deve ser usada como um marcador de posição para o processador de entrada de stream integrado, e a vinculação de stream real precisa ser especificada usando a API correspondente.
Representação JSON |
---|
{
"streams": [
string
],
"streamsWithAnnotation": [
{
object ( |
Campos | |
---|---|
streams[] |
|
streamsWithAnnotation[] |
|
AIEnabledDevicesInputConfig
Mensagem que descreve a configuração de entrada de dispositivos com AI.
MediaWarehouseConfig
Mensagem que descreve o MediaWarehouseConfig.
Representação JSON |
---|
{ "corpus": string, "region": string, "ttl": string } |
Campos | |
---|---|
corpus |
Nome do recurso do corpus do Media Warehouse. Formato: projects/${projectId}/locations/${locationId}/corpora/${corpus_id} |
region |
Obsoleto. |
ttl |
A duração em que todos os recursos de mídia, metadados associados e documentos de pesquisa podem existir. Duração em segundos com até nove dígitos fracionários, terminando em " |
PersonBlurConfig
Mensagem que descreve o FaceBlurConfig.
Representação JSON |
---|
{
"personBlurType": enum ( |
Campos | |
---|---|
personBlurType |
Tipo de desfoque de pessoas. |
facesOnly |
Se apenas desfocar rostos, exceto o objeto inteiro no processador. |
PersonBlurType
Tipo de desfoque de pessoas
Enums | |
---|---|
PERSON_BLUR_TYPE_UNSPECIFIED |
Tipo de desfoque de pessoa UNSPECIFIED. |
FULL_OCCULUSION |
FaceBlur Type oclusão completa. |
BLUR_FILTER |
Filtro de desfoque do tipo FaceBlur. |
OccupancyCountConfig
Mensagem que descreve a OccupancyCountConfig.
Representação JSON |
---|
{ "enablePeopleCounting": boolean, "enableVehicleCounting": boolean, "enableDwellingTimeTracking": boolean } |
Campos | |
---|---|
enablePeopleCounting |
Se você quiser contar as aparições de pessoas, as contagens de saída terão "people" como chave. |
enableVehicleCounting |
Se você quiser contar as aparições de veículos, as contagens de saída vão ter "vehicle" como chave. |
enableDwellingTimeTracking |
Define se o tempo de permanência de cada objeto individual é rastreado dentro da cena ou da zona específica. |
PersonVehicleDetectionConfig
Mensagem que descreve a PersonVehicleDetectionConfig.
Representação JSON |
---|
{ "enablePeopleCounting": boolean, "enableVehicleCounting": boolean } |
Campos | |
---|---|
enablePeopleCounting |
Pelo menos um dos campos enablePeopleCounting e enableVehicleCounting precisa ser definido como "true". Se você quiser contar as aparições de pessoas, as contagens de saída terão "people" como chave. |
enableVehicleCounting |
Se você quiser contar as aparições de veículos, as contagens de saída vão ter "vehicle" como chave. |
VertexAutoMLVisionConfig
Mensagem de configurações dos processadores do AutoML Vision da Vertex.
Representação JSON |
---|
{ "confidenceThreshold": number, "maxPredictions": integer } |
Campos | |
---|---|
confidenceThreshold |
Somente as entidades com pontuação maior que o limite serão retornadas. O valor 0,0 significa retornar todas as entidades detectadas. |
maxPredictions |
No máximo, esse número de previsões será retornado por frame de saída. O valor 0 significa retornar todas as entidades detectadas. |
VertexAutoMLVideoConfig
Mensagem que descreve VertexAutoMLVideoConfig.
Representação JSON |
---|
{ "confidenceThreshold": number, "blockedLabels": [ string ], "maxPredictions": integer, "boundingBoxSizeLimit": number } |
Campos | |
---|---|
confidenceThreshold |
Somente as entidades com pontuação maior que o limite serão retornadas. O valor 0,0 significa que todas as entidades detectadas são retornadas. |
blockedLabels[] |
Os rótulos especificados neste campo não serão retornados. |
maxPredictions |
No máximo, esse número de previsões será retornado por frame de saída. O valor 0 significa retornar todas as entidades detectadas. |
boundingBoxSizeLimit |
Somente a caixa delimitadora com tamanho maior que esse limite será retornada. Somente rastreamento de objetos. O valor 0,0 significa retornar todas as entidades detectadas. |
VertexCustomConfig
Mensagem que descreve VertexCustomConfig.
Representação JSON |
---|
{
"maxPredictionFps": integer,
"dedicatedResources": {
object ( |
Campos | |
---|---|
maxPredictionFps |
O frame de previsão máximo por segundo. Esse atributo define a rapidez com que o operador envia solicitações de previsão para o endpoint da Vertex AI. O valor padrão é 0, ou seja, não há um limite máximo de QPS de previsão. O operador envia solicitações de previsão na taxa de quadros de entrada. |
dedicatedResources |
Uma descrição dos recursos dedicados ao DeployedModel e que precisam de um nível mais alto de configuração manual. |
postProcessingCloudFunction |
Se não estiver vazio, o resultado da previsão será enviado para a função de nuvem especificada para pós-processamento. * A função do Cloud vai receber a AppPlatformCloudFunctionRequest, em que o campo de anotações será o formato JSON da proto PredictResponse. * A função do Cloud precisa retornar AppPlatformCloudFunctionResponse com PredictResponse armazenado no campo de anotações. * Para descartar a saída da previsão, basta limpar o campo de payload na AppPlatformCloudFunctionResponse retornada. |
attachApplicationMetadata |
Se verdadeiro, a solicitação de previsão recebida pelo modelo personalizado também vai conter metadados com o seguinte esquema: 'appPlatformMetadata': { 'ingestionTime': DOUBLE; (carimbo de data/hora do UNIX) 'application': STRING; 'instanceId': STRING; 'node': STRING; 'processor': STRING; } |
DedicatedResources
Uma descrição dos recursos dedicados a um DeployedModel e que precisam de um nível mais alto de configuração manual.
Representação JSON |
---|
{ "machineSpec": { object ( |
Campos | |
---|---|
machineSpec |
Obrigatório. Imutável. A especificação de uma única máquina usada pela previsão. |
minReplicaCount |
Obrigatório. Imutável. O número mínimo de réplicas de máquina em que o DeployedModel será implantado sempre. O valor precisa ser maior ou igual a 1. Se o tráfego para o DeployedModel aumentar, ele poderá ser implantado de forma dinâmica em mais réplicas. À medida que o tráfego diminui, algumas dessas réplicas extras podem ser liberadas. |
maxReplicaCount |
Imutável. O número máximo de réplicas em que o DeployedModel pode ser implantado quando o tráfego contra ele aumenta. Se o valor solicitado for muito grande, a implantação vai gerar um erro, mas, se for bem-sucedida, a capacidade de dimensionar o modelo para tantas réplicas será garantida (exceto interrupções de serviço). Se o tráfego contra o DeployedModel aumentar além do que as réplicas podem processar, uma parte do tráfego será descartada. Se esse valor não for fornecido, O valor desse campo afeta a cobrança das cotas de CPU e GPU do Vertex. Especificamente, você vai receber cobranças por maxReplicaCount * número de núcleos no tipo de máquina selecionado e (maxReplicaCount * número de GPUs por réplica no tipo de máquina selecionado). |
autoscalingMetricSpecs[] |
Imutável. As especificações de métrica que substituem uma métrica de utilização de recursos (utilização da CPU, ciclo de trabalho do acelerador etc.) com o valor desejado (padrão 60, se não definido). É permitida no máximo uma entrada por métrica. Se Se Por exemplo, no caso da predição on-line, se você quiser substituir a utilização de CPU de destino para 80, defina |
MachineSpec
Especificação de uma única máquina.
Representação JSON |
---|
{
"machineType": string,
"acceleratorType": enum ( |
Campos | |
---|---|
machineType |
Imutável. o tipo de máquina. Consulte a lista de tipos de máquina com suporte para previsão. Consulte a lista de tipos de máquina compatíveis com o treinamento personalizado. Para [DeployedModel][], esse campo é opcional, e o valor padrão é |
acceleratorType |
Imutável. O tipo de aceleradores que podem ser conectados à máquina, conforme |
acceleratorCount |
O número de aceleradores a serem anexados à máquina. |
AcceleratorType
Representa um tipo de acelerador de hardware.
Enums | |
---|---|
ACCELERATOR_TYPE_UNSPECIFIED |
Tipo de acelerador não especificado, ou seja, nenhum acelerador. |
NVIDIA_TESLA_K80 |
GPU Nvidia Tesla K80. |
NVIDIA_TESLA_P100 |
GPU Nvidia Tesla P100. |
NVIDIA_TESLA_V100 |
GPU Nvidia Tesla V100. |
NVIDIA_TESLA_P4 |
GPU Nvidia Tesla P4. |
NVIDIA_TESLA_T4 |
GPU NVIDIA Tesla T4. |
NVIDIA_TESLA_A100 |
GPU Nvidia Tesla A100. |
TPU_V2 |
TPU v2. |
TPU_V3 |
TPU v3. |
AutoscalingMetricSpec
A especificação de métrica que define a utilização de recursos de destino (utilização da CPU, ciclo de trabalho do acelerador etc.) para calcular a contagem de réplicas desejada.
Representação JSON |
---|
{ "metricName": string, "target": integer } |
Campos | |
---|---|
metricName |
Obrigatório. O nome da métrica do recurso. Métricas compatíveis:
|
target |
A utilização do recurso de destino em porcentagem (1% a 100%) para a métrica especificada. Quando o uso real se desvia do destino em uma determinada porcentagem, as réplicas da máquina mudam. O valor padrão é 60 (representando 60%) se não for fornecido. |
GeneralObjectDetectionConfig
Mensagem de configurações para o processador de detecção de objetos geral.
BigQueryConfig
Mensagem de configurações para o processador do BigQuery.
Representação JSON |
---|
{ "table": string, "cloudFunctionMapping": { string: string, ... }, "createDefaultTableIfNotExists": boolean } |
Campos | |
---|---|
table |
Recurso de tabela do BigQuery para o Vision AI Platform processar anotações. |
cloudFunctionMapping |
Esquema de dados Por padrão, o aplicativo Vision AI tenta gravar anotações na tabela de destino do BigQuery usando o seguinte esquema: ingestion_time: TIMESTAMP, o tempo de ingestão dos dados originais. application: STRING, nome do aplicativo que produz a anotação. instance: STRING, ID da instância que produz a anotação. node: STRING, nome do nó do gráfico do aplicativo que produz a anotação. annotation: STRING ou JSON, o protobuf de anotação real será convertido em string JSON com campo de bytes como string codificada em 64. Ele pode ser gravado em uma coluna do tipo String ou Json. Para encaminhar dados de anotação para uma tabela do BigQuery, o cliente precisa garantir a compatibilidade do esquema. O mapa associa o nome do nó do aplicativo ao endpoint de função do Cloud correspondente para transformar as anotações diretamente em google.cloud.bigquery.storage.v1.AppendRowsRequest. Somente avro_rows ou proto_rows precisam ser definidos. Se configurado, as anotações produzidas pelo nó do aplicativo correspondente serão enviadas primeiro à função do Cloud antes de serem encaminhadas ao BigQuery. Se o esquema de tabela padrão não se encaixar, o cliente poderá transformar a saída de anotação do aplicativo Vision AI em um esquema de tabela arbitrário do BigQuery com o CloudFunction. * A função do Cloud vai receber o AppPlatformCloudFunctionRequest, em que o campo annotations será o formato JSON da anotação da Vision AI. * A função do Cloud precisa retornar AppPlatformCloudFunctionResponse com AppendRowsRequest armazenado no campo de anotações. * Para excluir a anotação, basta limpar o campo de anotações na AppPlatformCloudFunctionResponse retornada. Um objeto com uma lista de pares |
createDefaultTableIfNotExists |
Se for verdadeiro, a App Platform vai criar o DataSet e a tabela do BigQuery com o esquema padrão se a tabela especificada não existir. Isso não funciona se um esquema personalizado de função do Cloud for especificado, porque o sistema não conhece o esquema desejado. A coluna JSON será usada na tabela padrão criada pela App Platform. |
PersonalProtectiveEquipmentDetectionConfig
Mensagem que descreve a PersonalProtectiveEquipmentDetectionConfig.
Representação JSON |
---|
{ "enableFaceCoverageDetection": boolean, "enableHeadCoverageDetection": boolean, "enableHandsCoverageDetection": boolean } |
Campos | |
---|---|
enableFaceCoverageDetection |
Se a detecção de cobertura facial vai ser ativada. |
enableHeadCoverageDetection |
Define se a detecção de cobertura da cabeça será ativada. |
enableHandsCoverageDetection |
Se a detecção de cobertura das mãos deve ser ativada. |
InputEdge
Mensagem que descreve uma aresta apontando para um nó.
Representação JSON |
---|
{ "parentNode": string, "parentOutputChannel": string, "connectedInputChannel": string } |
Campos | |
---|---|
parentNode |
O nome do nó pai. |
parentOutputChannel |
O artefato de saída conectado do nó pai. Ele pode ser omitido se o processador de destino tiver apenas um artefato de saída. |
connectedInputChannel |
O canal de entrada conectado do processador do nó atual. Ele pode ser omitido se o processador de destino tiver apenas um canal de entrada. |