A Vertex AI agrupa o AI Platform e o AutoML em uma única interface. Nesta página, comparamos a Vertex AI e o AI Platform para usuários que estejam familiarizados com o AI Platform.
Treinamento personalizado
Com a Vertex AI, é possível treinar modelos com o AutoML ou treinamento personalizado, que é um fluxo de trabalho mais semelhante ao AI Platform Training.
Tarefa | AI Platform Training | Vertex AI |
---|---|---|
Selecione a versão do framework de machine learning a ser usada | Os usuários do console do Google Cloud definem o nome e a versão do framework. | |
Versões de ambiente de execução: ao enviar um job de treinamento, especifique o número de uma versão de ambiente de execução que inclua o framework e a versão de framework desejados. | Contêineres pré-criados: ao enviar um job de treinamento personalizado, especifique o URI do Artifact Registry de um contêiner pré-criado que corresponda à versão do framework e do framework. | |
Enviar um job de treinamento usando um contêiner personalizado | Crie seu próprio contêiner personalizado, hospede-o no Artifact Registry e use-o para executar o aplicativo de treinamento. | |
Defina a região do Google Cloud a ser usada | Especificar o nome de uma região ao enviar um job de treinamento para um endpoint global (ml.googleapis.com ). |
Envie o job de treinamento personalizado para um endpoint regional, como us-central1-aiplatform.googleapis.com .
Não há um endpoint global. Algumas regiões disponíveis no AI Platform não estão disponíveis na Vertex AI. Consulte a lista de regiões compatíveis na página Locais.
|
Especificar configurações de máquina para treinamento distribuído | Especifique as configurações nomeadas após
papéis específicos do cluster de treinamento (masterConfig , workerConfig , parameterServerConfig e evaluatorConfig ).
|
A configuração é uma lista genérica. Especifique as configurações da máquina em CustomJobSpec.workerPoolSpecs[] . |
Enviar um job de treinamento usando um pacote Python | Os campos relacionados ao seu pacote Python são de nível superior em TrainingInput . |
Os campos relacionados ao pacote do Python são organizados em pythonPackageSpec . |
Especificar tipos de máquina |
|
|
Enviar um job de ajuste de hiperparâmetro |
Envie um job de treinamento com uma configuração hyperparameters . Independentemente de ser enviado um job de treinamento com ou sem ajuste de hiperparâmetro, ele cria um recurso de API TrainingJob .
|
Envie um job de ajuste de hiperparâmetro com uma configuração studySpec . Isso cria um recurso de API de nível superior (HyperparameterTuningJob ). Jobs de treinamento personalizados enviados sem ajuste de hiperparâmetros criam um recurso de API CustomJob de nível superior.
|
Criar um pipeline de treinamento para orquestrar jobs de treinamento com outras operações | Nenhum recurso de API integrado para orquestração; usar o AI Platform Pipelines, Kubeflow ou outra ferramenta de orquestração. | Crie um recurso TrainingPipeline para orquestrar um job de treinamento com a implantação de modelos. |
Previsão
Tarefa | AI Platform Prediction | Vertex AI |
---|---|---|
Selecione a versão do framework de machine learning a ser usada | Os usuários do console do Google Cloud definem o nome e a versão do framework. | |
Versões de ambiente de execução: ao implantar um modelo, especifique o número de uma versão de ambiente de execução que inclua o framework e a versão de framework desejados. | Contêineres pré-criados: ao implantar um modelo, especifique o URI do Artifact Registry de um
contêiner pré-criado que corresponda à sua estrutura de framework e framework. Use a opção multirregional que corresponde ao endpoint regional. Por exemplo, us-docker.pkg.dev para um endpoint us-central1 . |
|
Executar código personalizado com previsão | Use rotinas de previsão personalizadas. | Use rotinas de previsão personalizadas na Vertex AI. |
Defina a região do Google Cloud a ser usada | Especifique o nome de uma região ao criar um modelo em um endpoint de API global (ml.googleapis.com ). |
Crie seu modelo em um endpoint regional, como us-central1-aiplatform.googleapis.com .
Não há um endpoint global. Algumas regiões disponíveis no AI Platform não estão disponíveis na Vertex AI. Consulte a lista de regiões compatíveis na página Locais.
|
Armazenar artefatos de modelo | Os artefatos de modelo são armazenados no Cloud Storage. Não há recursos de API associados para os artefatos do modelo. | Há armazenamento de modelos gerenciados disponíveis para artefatos de modelo e está associado ao recurso Model .Ainda é possível implantar modelos armazenados no Cloud Storage sem usar um conjunto de dados gerenciado do Vertex AI. |
Implantação do modelo | Você implanta um modelo diretamente para disponibilizá-lo para predições on-line. |
Você cria um objeto Endpoint com recursos para exibir predições on-line. Em seguida, implante o modelo no endpoint.
Para solicitar previsões, chame o método predict() . |
Solicitar predições em lote | É possível solicitar previsões em lote em modelos armazenados no Cloud Storage e especificar uma versão de ambiente de execução na solicitação. Como alternativa, é possível solicitar predições em lote em modelos implantados e usar a versão de ambiente de execução especificada durante a implantação do modelo. | Você faz upload do modelo para a Vertex AI e, em seguida, especifica um contêiner pré-criado ou personalizado para veicular as previsões. |
Solicitações de previsão on-line | A estrutura JSON inclui uma lista de instâncias. | A estrutura JSON inclui uma lista de instâncias e um campo para parâmetros. |
Especificar tipos de máquina | Especifique qualquer tipo de máquina disponível ao criar uma versão. | Os tipos de máquina de previsão on-line legados do AI Platform (MLS1) não são compatíveis. Somente tipos de máquinas do Compute Engine estão disponíveis. |
Implantar modelos | Crie um recurso de modelo e, em seguida, um recurso de versão. | Criar um recurso de modelo, criar um recurso de endpoint e implantar o modelo no endpoint. Especifique a divisão de tráfego no endpoint. |
Vertex Explainable AI
É possível conseguir atribuições de recursos para modelos tabulares e de imagem no AI Explanations para o AI Platform e o Vertex Explainable AI.
Tarefa | AI Explanations para o AI Platform | Vertex Explainable AI |
---|---|---|
Receber atribuições de recursos para modelos tabulares | Use Sampled Shapley ou gradientes integrados para conseguir atribuições de recursos para modelos tabulares. | |
Acessar atribuições de recursos para modelos de imagem | Use gradientes integrados ou XRAI para conseguir atribuições de recursos para modelos de imagem. |