Method: files.asyncBatchAnnotate

Execute a deteção e a anotação de imagens assíncronas para uma lista de ficheiros genéricos, como ficheiros PDF, que podem conter várias páginas e várias imagens por página. Pode aceder ao progresso e aos resultados através da interface google.longrunning.Operations. Operation.metadata contém OperationMetadata (metadados). Operation.response contém AsyncBatchAnnotateFilesResponse (resultados).

Pedido HTTP

POST https://vision.googleapis.com/v1p3beta1/files:asyncBatchAnnotate

O URL usa a sintaxe de transcodificação de gRPC.

Corpo do pedido

O corpo do pedido contém dados com a seguinte estrutura:

Representação JSON
{
  "requests": [
    {
      object(AsyncAnnotateFileRequest)
    }
  ]
}
Campos
requests[]

object(AsyncAnnotateFileRequest)

Pedidos de anotação de ficheiros assíncronos individuais para este lote.

Corpo da resposta

Se for bem-sucedido, o corpo da resposta contém uma instância de Operation.

Âmbitos de autorização

Requer um dos seguintes âmbitos do OAuth:

  • https://www.googleapis.com/auth/cloud-platform
  • https://www.googleapis.com/auth/cloud-vision

Para mais informações, consulte a Vista geral da autenticação.

AsyncAnnotateFileRequest

Um pedido de anotação de ficheiro offline.

Representação JSON
{
  "inputConfig": {
    object(InputConfig)
  },
  "features": [
    {
      object(Feature)
    }
  ],
  "imageContext": {
    object(ImageContext)
  },
  "outputConfig": {
    object(OutputConfig)
  }
}
Campos
inputConfig

object(InputConfig)

Obrigatório. Informações sobre o ficheiro de entrada.

features[]

object(Feature)

Obrigatório. Funcionalidades pedidas.

imageContext

object(ImageContext)

Contexto adicional que pode acompanhar as imagens no ficheiro.

outputConfig

object(OutputConfig)

Obrigatório. A localização de saída e os metadados pretendidos (por exemplo, o formato).

InputConfig

A localização de entrada e os metadados pretendidos.

Representação JSON
{
  "gcsSource": {
    object(GcsSource)
  },
  "mimeType": string
}
Campos
gcsSource

object(GcsSource)

A localização do Google Cloud Storage a partir da qual a entrada é lida.

mimeType

string

O tipo de ficheiro. Atualmente, apenas são suportados os tipos "application/pdf" e "image/tiff". Os carateres universais não são compatíveis.

GcsSource

A localização do Google Cloud Storage a partir da qual a entrada vai ser lida.

Representação JSON
{
  "uri": string
}
Campos
uri

string

URI do Google Cloud Storage para o ficheiro de entrada. Tem de ser um objeto do Google Cloud Storage. De momento, os carateres universais não são suportados.

OutputConfig

A localização e os metadados de saída pretendidos.

Representação JSON
{
  "gcsDestination": {
    object(GcsDestination)
  },
  "batchSize": number
}
Campos
gcsDestination

object(GcsDestination)

A localização do Google Cloud Storage para escrever as saídas.

batchSize

number

O número máximo de protos de resposta a colocar em cada ficheiro JSON de saída no Google Cloud Storage. O intervalo válido é [1, 100]. Se não for especificado, o valor predefinido é 20.

Por exemplo, para um ficheiro PDF com 100 páginas, são gerados 100 protos de resposta. Se batchSize = 20, são escritos 5 ficheiros JSON, cada um com 20 protos de resposta, com o prefixo gcsDestination.uri.

Atualmente, o batchSize aplica-se apenas a GcsDestination, com potencial suporte futuro para outras configurações de saída.

GcsDestination

A localização do Google Cloud Storage onde a saída vai ser escrita.

Representação JSON
{
  "uri": string
}
Campos
uri

string

URI do Google Cloud Storage onde os resultados vão ser armazenados. Os resultados estão no formato JSON e são precedidos pelo URI de entrada correspondente. Este campo pode representar um único ficheiro ou um prefixo para várias saídas. Os prefixos têm de terminar com /.

Exemplos:

Se existirem vários resultados, cada resposta continua a ser AnnotateFileResponse, cada uma das quais contém um subconjunto da lista completa de AnnotateImageResponse. Podem ocorrer várias saídas se, por exemplo, o JSON de saída for demasiado grande e transbordar para vários ficheiros divididos.