A Vertex AI agrupa o AI Platform e o AutoML em uma única interface. Nesta página, comparamos a Vertex AI e o AI Platform para usuários que estejam familiarizados com o AI Platform.
Treinamento personalizado
Com a Vertex AI, é possível treinar modelos com o AutoML ou treinamento personalizado, que é um fluxo de trabalho mais semelhante ao AI Platform Training.
Tarefa | AI Platform Training | Vertex AI |
---|---|---|
Selecione a versão do framework de machine learning a ser usada | Os usuários do Console do Google Cloud definem o nome e a versão do framework. | |
Versões de ambiente de execução: ao enviar um job de treinamento, especifique o número de uma versão de ambiente de execução que inclua o framework e a versão de framework desejados. | Contêineres pré-criados: ao enviar um job de treinamento personalizado, especifique o URI do Artifact Registry de um contêiner pré-criado que corresponda à versão do framework e do framework. | |
Enviar um job de treinamento usando um contêiner personalizado | Crie seu próprio contêiner personalizado, hospede-o no Artifact Registry e use-o para executar o aplicativo de treinamento. | |
Defina a região do Google Cloud a ser usada | Especificar o nome de uma região ao enviar um job de treinamento para um endpoint global (ml.googleapis.com ). |
Envie o job de treinamento personalizado para um endpoint regional, como us-central1-aiplatform.googleapis.com .
Não há um endpoint global. Algumas regiões disponíveis no AI Platform não estão disponíveis na Vertex AI. Consulte a lista de regiões compatíveis na página Locais.
|
Especificar configurações de máquina para treinamento distribuído | Especifique as configurações nomeadas após
papéis específicos do cluster de treinamento (masterConfig , workerConfig , parameterServerConfig e evaluatorConfig ).
|
A configuração é uma lista genérica. Especifique as configurações da máquina em CustomJobSpec.workerPoolSpecs[] . |
Enviar um job de treinamento usando um pacote Python | Os campos relacionados ao seu pacote Python são de nível superior em TrainingInput . |
Os campos relacionados ao pacote do Python são organizados em pythonPackageSpec . |
Especificar tipos de máquina |
|
|
Enviar um job de ajuste de hiperparâmetro |
Envie um job de treinamento com uma configuração hyperparameters . Independentemente de ser enviado um job de treinamento com ou sem ajuste de hiperparâmetro, ele cria um recurso de API TrainingJob .
|
Envie um job de ajuste de hiperparâmetro com uma configuração studySpec . Isso cria um recurso de API de nível superior (HyperparameterTuningJob ). Jobs de treinamento personalizados enviados sem ajuste de hiperparâmetros criam um recurso de API CustomJob de nível superior.
|
Criar um pipeline de treinamento para orquestrar jobs de treinamento com outras operações | Nenhum recurso de API integrado para orquestração; usar o AI Platform Pipelines, Kubeflow ou outra ferramenta de orquestração. | Crie um recurso TrainingPipeline para orquestrar um job de treinamento com a implantação de modelos. |
Previsão
Tarefa | AI Platform Prediction | Vertex AI |
---|---|---|
Selecione a versão do framework de machine learning a ser usada | Os usuários do Console do Google Cloud definem o nome e a versão do framework. | |
Versões de ambiente de execução: ao implantar um modelo, especifique o número de uma versão de ambiente de execução que inclua o framework e a versão de framework desejados. | Contêineres pré-criados: ao implantar um modelo, especifique o URI do Artifact Registry de um
contêiner pré-criado que corresponda à sua estrutura de framework e framework. Use a opção multirregional que corresponde ao endpoint regional. Por exemplo, us-docker.pkg.dev para um endpoint us-central1 . |
|
Executar código personalizado com previsão | Use rotinas de previsão personalizadas. | Use rotinas de previsão personalizadas na Vertex AI. |
Defina a região do Google Cloud a ser usada | Especifique o nome de uma região ao criar um modelo em um endpoint de API global (ml.googleapis.com ). |
Crie seu modelo em um endpoint regional, como us-central1-aiplatform.googleapis.com .
Não há um endpoint global. Algumas regiões disponíveis no AI Platform não estão disponíveis na Vertex AI. Consulte a lista de regiões compatíveis na página Locais.
|
Armazenar artefatos de modelo | Os artefatos de modelo são armazenados no Cloud Storage. Não há recursos de API associados para os artefatos do modelo. | Há armazenamento de modelos gerenciados disponíveis para artefatos de modelo e está associado ao recurso Model .Ainda é possível implantar modelos armazenados no Cloud Storage sem usar um conjunto de dados gerenciado do Vertex AI. |
Implantação do modelo | Você implanta um modelo diretamente para disponibilizá-lo para predições on-line. |
Você cria um objeto Endpoint com recursos para exibir predições on-line. Em seguida, implante o modelo no endpoint.
Para solicitar previsões, chame o método predict() . |
Solicitar predições em lote | É possível solicitar previsões em lote em modelos armazenados no Cloud Storage e especificar uma versão de ambiente de execução na solicitação. Como alternativa, é possível solicitar predições em lote em modelos implantados e usar a versão de ambiente de execução especificada durante a implantação do modelo. | Você faz upload do modelo para a Vertex AI e, em seguida, especifica um contêiner pré-criado ou personalizado para veicular as previsões. |
Solicitações de previsão on-line | A estrutura JSON inclui uma lista de instâncias. | A estrutura JSON inclui uma lista de instâncias e um campo para parâmetros. |
Especificar tipos de máquina | Especifique qualquer tipo de máquina disponível ao criar uma versão. | Os tipos de máquina de previsão on-line legados do AI Platform (MLS1) não são compatíveis. Somente tipos de máquinas do Compute Engine estão disponíveis. |
Implantar modelos | Crie um recurso de modelo e, em seguida, um recurso de versão. | Criar um recurso de modelo, criar um recurso de endpoint e implantar o modelo no endpoint. Especifique a divisão de tráfego no endpoint. |
Vertex Explainable AI
É possível conseguir atribuições de recursos para modelos tabulares e de imagem no AI Explanations para o AI Platform e o Vertex Explainable AI.
Tarefa | AI Explanations para o AI Platform | Vertex Explainable AI |
---|---|---|
Receber atribuições de recursos para modelos tabulares | Use Sampled Shapley ou gradientes integrados para conseguir atribuições de recursos para modelos tabulares. | |
Acessar atribuições de recursos para modelos de imagem | Use gradientes integrados ou XRAI para conseguir atribuições de recursos para modelos de imagem. |
Rotulagem de dados
O serviço de rotulagem de dados do AI Platform está disponível com algumas alterações na API:
Tarefa/conceito | Serviço de rotulagem de dados do AI Platform | Rotulagem de dados na Vertex AI |
---|---|---|
Enviar instruções para os rotuladores de dados | Suas instruções, como um arquivo PDF, são armazenadas no Cloud Storage e associadas a um recurso da API Instruction . |
Suas instruções, como um arquivo PDF, são armazenadas no Cloud Storage, mas não há recursos de API apenas para instruções. Especifique o URI do Cloud Storage do arquivo de instrução ao criar um recurso de API
DataLabelingJob . |
Conjuntos de dados com anotações | Há um recurso de API AnnotatedDataset . |
Não há um recurso de API AnnotatedDataset . |
Como os AnnotationSpec s são organizados |
As AnnotationSpec s são organizadas em um recurso da API AnnotationSpecSet . |
Não há AnnotationSpecSet . Todos os
AnnotationSpec são organizados em
Dataset . |
Além disso, há um novo recurso de rotulagem de dados na Vertex AI:
As tarefas de rotulagem de dados geralmente são realizadas pelos rotuladores especialistas do Google. Como alternativa, crie um pool de especialistas para gerenciar as tarefas de rotulagem de dados com sua própria força de trabalho a fim de concluí-las, em vez de contar com os especialistas do Google. No momento, esse recurso está disponível somente por meio de uma solicitação de API. Não está disponível no Console do Google Cloud.