Projetos, modelos, versões e jobs

Dependendo do contexto, muitos termos de machine learning (ML) podem ter outros significados. Veja nesta seção a definição de alguns termos segundo o uso nesta documentação.

Projetos, modelos, versões e jobs

Projeto
O projeto é do Google Cloud. Ele é o contêiner lógico para jobs e modelos implantados. O AI Platform Prediction precisa estar ativado em todos os projetos usados para desenvolver as soluções dessa plataforma. Sua Conta do Google pode ter acesso a vários projetos do Google Cloud.
Modelo
No ML, um model representa a solução de um problema que você está tentando resolver. Em outras palavras, ele é o roteiro para prever um valor com base nos dados. No AI Platform Prediction, um modelo é um contêiner lógico para versões individuais dessa solução. Por exemplo, vamos supor que você queira prever o preço de venda de casas com base em um conjunto de dados sobre vendas anteriores. Você cria um modelo no AI Platform Prediction chamado housing_prices e usa várias técnicas de machine learning para resolver o problema. É possível implantar versões desse modelo em cada etapa. Cada versão pode ser completamente diferente das outras. No entanto, será possível organizá-las no mesmo modelo se isso for adequado ao fluxo de trabalho.
Modelo treinado
Um modelo treinado inclui o estado do seu modelo computacional e as configurações dele após o treinamento.
Modelo salvo
A maioria dos frameworks de machine learning pode serializar as informações que representam seu modelo treinado e criar um arquivo como um modelo salvo, que pode ser implantado para previsão na nuvem.
Versão do modelo
Uma versão do modelo ou apenas versão é uma instância de uma solução de machine learning armazenada no serviço de modelo do AI Platform Prediction. Você cria uma versão ao transmitir um modelo treinado serializado como um modelo salvo para o serviço. Ao criar uma versão, também é possível fornecer código personalizado (Beta) para lidar com as previsões.
Job
Para interagir com os serviços do AI Platform Prediction, você inicia solicitações e jobs. As solicitações são as de API normais da Web que retornam uma resposta o mais rápido possível. Os jobs são operações de longa duração processadas de maneira assíncrona. O AI Platform Prediction oferece jobs de treinamento e de previsão em lote. Você envia uma solicitação para iniciar o job e recebe uma resposta rápida que verifica o status dele. Depois disso, é possível solicitar o status periodicamente para monitorar o andamento do job.

Como empacotar, preparar, exportar e implantar modelos

Você move modelos e dados, especialmente entre seu ambiente local e o Cloud Storage e entre o Cloud Storage e os serviços do AI Platform Prediction. Nesta documentação, usamos os termos a seguir para indicar operações específicas no processo.

Pacote
Você empacota o aplicativo de treinamento para que o serviço do AI Platform Prediction possa instalá-lo em cada instância de treinamento. Ao empacotar o aplicativo, você o transforma em um pacote de distribuição padrão do Python (em inglês). Ao implantar código personalizado para previsões (Beta), ele também é empacotado para o processamento das previsões.
Preparar
Você prepara o pacote do aplicativo de treinamento em um bucket do Cloud Storage que pode ser acessado pelo projeto. Dessa forma, o serviço de treinamento pode acessar o pacote e copiá-lo para todas as respectivas instâncias. O modelo salvo que você treinou também é preparado em um bucket do Cloud Storage que pode ser acessado pelo projeto. Assim, o serviço de predição on-line pode acessar o modelo e implantá-lo. Se você implantar código personalizado para previsões (Beta), o pacote dele também será preparado no Cloud Storage para que o serviço de previsão on-line possa acessá-lo durante a implantação.
Exportar
No contexto de modelos de machine learning, o termo exportar é usado nesta documentação como o processo de serialização do modelo computacional e das configurações para o arquivo. Use os objetos e modelos salvos na exportação.
Implantação
Você deploy uma versão do modelo ao criar um recurso de versão. Em seguida, você especifica um modelo exportado (um arquivo de modelo salvo) e um recurso de modelo que receberá a versão. O AI Platform Prediction hospeda a versão para permitir que você envie previsões para ela. Se você implantar um código personalizado para previsões (Beta), um pacote dele também será fornecido durante a implantação.

A seguir