AI Platform (Unified) para usuários da versão clássica da AI Platform

O AI Platform (unified) reúne o AI Platform e o AutoML em uma única interface. Nesta página, você compara o AI Platform (Unified) e o AI Platform (Clássico) para usuários que já estão familiarizados com o AI Platform (Clássico).

Treinamento personalizado

Com o AI Platform (Unified), é possível treinar modelos com o AutoML ou treinamento personalizado, que é um fluxo de trabalho mais semelhante ao AI Platform Training.

Tarefa AI Platform Training AI Platform (Unificada)
Selecione a versão do framework de machine learning a ser usada Os usuários do Console do Google Cloud definem o nome e a versão do framework.
Versões de ambiente de execução: ao enviar um job de treinamento, especifique o número de uma versão de ambiente de execução que inclua o framework e a versão de framework desejados. Contêineres: ao enviar um job de treinamento personalizado, especifique o URI do Artifact Registry de um contêiner pré-criado que corresponda à versão do framework e do framework.
Defina a região do Google Cloud a ser usada Especificar o nome de uma região ao enviar um job de treinamento para um endpoint global (ml.googleapis.com). Envie o job de treinamento personalizado para um endpoint regional, como us-central1-aiplatform.googleapis.com. Não há um endpoint global. Algumas regiões disponíveis no AI Platform (Clássico) não estão disponíveis no AI Platform (Unified). Consulte a lista de regiões compatíveis na página Locais.
Especificar configurações de máquina para treinamento distribuído Especifique as configurações nomeadas após papéis específicos do cluster de treinamento (masterConfig, workerConfig, parameterServerConfig e evaluatorConfig). A configuração é mais genérica e flexível. Especifique as configurações da máquina como uma lista (em CustomJobSpec.workerPoolSpecs[]).
Enviar um job de treinamento usando um pacote Python Os campos relacionados ao seu pacote Python são de nível superior em TrainingInput. Os campos relacionados ao pacote do Python são organizados em pythonPackageSpec.
Enviar um job de treinamento usando um contêiner personalizado Crie seu próprio contêiner personalizado, hospede-o no Artifact Registry e use-o para executar o aplicativo de treinamento.
Enviar um job de ajuste de hiperparâmetro Envie um job de treinamento com uma configuração hyperparameters. Independentemente de ser enviado um job de treinamento com ou sem ajuste de hiperparâmetro, ele cria um recurso de API TrainingJob. Envie um job de ajuste de hiperparâmetro com uma configuração studySpec. Isso cria um recurso de API de nível superior (HyperparameterTuningJob). Jobs de treinamento personalizados enviados sem ajuste de hiperparâmetros criam um recurso de API CustomJob de nível superior.
Criar um pipeline de treinamento para orquestrar jobs de treinamento com outras operações Nenhum recurso de API integrado para orquestração; usar o AI Platform Pipelines, Kubeflow ou outra ferramenta de orquestração. Crie um recurso TrainingPipeline para orquestrar um job de treinamento com a implantação de modelos.

Tipos de máquinas para treinamento

Nem todos os tipos de máquina compatíveis com o AI Platform (clássico) são compatíveis com o AI Platform (Unified).

Previsão

Tarefa/conceito AI Platform Prediction AI Platform (Unificada)
Selecione a versão do framework de machine learning a ser usada Os usuários do Console do Google Cloud definem o nome e a versão do framework.
Versões de ambiente de execução: ao implantar um modelo, especifique o número de uma versão de ambiente de execução que inclua o framework e a versão de framework desejados. Contêineres: ao implantar um modelo, especifique o URI do Artifact Registry de um contêiner pré-criado que corresponda à sua estrutura de framework e framework. Use a opção multirregional que corresponde ao endpoint regional. Por exemplo, us-docker.pkg.dev para um endpoint us-central1.
Defina a região do Google Cloud a ser usada Especifique o nome de uma região ao criar um modelo em um endpoint de API global (ml.googleapis.com). Crie seu modelo em um endpoint regional, como us-central1-aiplatform.googleapis.com. Não há um endpoint global. Algumas regiões disponíveis no AI Platform (Clássico) não estão disponíveis no AI Platform (Unified). Consulte a lista de regiões compatíveis na página Locais.
Armazenar artefatos de modelo Os artefatos de modelo são armazenados no Cloud Storage. Não há recursos de API associados para os artefatos do modelo. Há armazenamento de modelos gerenciados para artefatos de modelo e está associado ao recurso Model.
Implantação do modelo Você implanta um modelo diretamente para disponibilizá-lo para predições on-line. Você cria um objeto Endpoint com recursos para exibir predições on-line. Em seguida, implante o modelo no endpoint. Para solicitar previsões, chame o método predict().
Solicitar predições em lote É possível solicitar previsões em lote em modelos armazenados no Cloud Storage e especificar uma versão de ambiente de execução na solicitação. Como alternativa, é possível solicitar predições em lote em modelos implantados e usar a versão de ambiente de execução especificada durante a implantação do modelo. Você faz upload do modelo para o AI Platform (Unified) e, em seguida, especifica um contêiner pré-criado ou personalizado para veicular as previsões.
Solicitações de previsão on-line A estrutura JSON inclui uma lista de instâncias. A estrutura JSON inclui uma lista de instâncias e um campo para parâmetros.
Especificar tipos de máquina Especifique qualquer tipo de máquina disponível ao criar uma versão. Os tipos de máquina de previsão on-line legados do AI Platform (MLS1) não são compatíveis. Somente tipos de máquinas do Compute Engine (N1) estão disponíveis.
Implantar modelos Crie um recurso de modelo e, em seguida, um recurso de versão. Criar um recurso de modelo, criar um recurso de endpoint e implantar o modelo no endpoint. Especifique a divisão de tráfego no endpoint.
Executar código personalizado com previsão Use rotinas de previsão personalizadas. As rotinas de previsão personalizadas não são compatíveis.

Rotulagem de dados

O serviço de rotulagem de dados do AI Platform está disponível com algumas alterações na API:

Tarefa/conceito Serviço de rotulagem de dados do AI Platform Rotulagem de dados no AI Platform (Unified)
Enviar instruções para os rotuladores de dados Suas instruções, como um arquivo PDF, são armazenadas no Cloud Storage e associadas a um recurso da API Instruction. Suas instruções, como um arquivo PDF, são armazenadas no Cloud Storage, mas não há recursos de API apenas para instruções. Especifique o URI do Cloud Storage do arquivo de instrução ao criar um recurso de API DataLabelingJob.
Conjuntos de dados com anotações Há um recurso de API AnnotatedDataset. Não há um recurso de API AnnotatedDataset.
Como os AnnotationSpecs são organizados As AnnotationSpecs são organizadas em um recurso da API AnnotationSpecSet. Não há AnnotationSpecSet. Todos os AnnotationSpecs são organizados em Dataset.

Além disso, há um novo recurso de rotulagem de dados no AI Platform (Unified):

As tarefas de rotulagem de dados geralmente são realizadas pelos rotuladores especialistas do Google. Se preferir, crie um pool de especialistas para gerenciar as tarefas de rotulagem de dados usando sua própria força de trabalho para concluir as tarefas de rotulagem, em vez de usar os especialistas do Google. No momento, esse recurso está disponível somente por meio de uma solicitação de API. Não está disponível no Console do Google Cloud.