Escolha um método de preparação

Este documento explica as principais diferenças entre a preparação de um modelo na Vertex AI através do AutoML, da preparação personalizada, do Ray na Vertex AI ou da preparação de um modelo com o BigQuery ML.

  • Com o AutoML, cria e prepara um modelo com o mínimo de esforço técnico. Pode usar o AutoML para criar protótipos de modelos rapidamente e explorar novos conjuntos de dados antes de investir no desenvolvimento. Por exemplo, pode usá-lo para saber que funcionalidades são melhores para um determinado conjunto de dados.

  • Com o treino personalizado, pode criar uma aplicação de treino otimizada para o resultado segmentado. Tem controlo total sobre a funcionalidade da aplicação de preparação. Ou seja, pode segmentar qualquer objetivo, usar qualquer algoritmo, desenvolver as suas próprias funções de perda ou métricas, ou fazer qualquer outra personalização.

  • Com o Ray no Vertex AI, pode usar a framework de computação distribuída do Ray na infraestrutura do Google Cloud . O Ray no Vertex AI oferece um ambiente gerido com recursos de computação configuráveis, integração com serviços como o Vertex AI Inference e o BigQuery, e opções de rede flexíveis para desenvolver e executar cargas de trabalho distribuídas.

  • Com o BigQuery, pode formar modelos usando os seus dados do BigQuery diretamente no BigQuery. Com os comandos SQL, pode criar rapidamente um modelo e usá-lo para obter inferências em lote.

Para comparar as diferentes funcionalidades e conhecimentos necessários para cada serviço, reveja a tabela seguinte.

AutoML Formação personalizada Ray no Vertex AI BigQuery ML
São necessários conhecimentos de ciência de dados Não Sim, para desenvolver a aplicação de preparação e também para fazer parte da preparação de dados, como a engenharia de funcionalidades. É útil ter uma compreensão básica dos conceitos de aprendizagem automática e dos fluxos de trabalho de ciência de dados. Não
Capacidade de programação necessária Não. O AutoML não requer código. Sim, para desenvolver a aplicação de formação. Sim. Sim.
Tempo para preparar o modelo Inferior. Não é necessária preparação de dados nem desenvolvimento. Mais elevado. É necessária mais preparação de dados e desenvolvimento da aplicação de preparação. A utilização da preparação distribuída pode reduzir o tempo necessário para preparar um modelo. O tempo de preparação depende da lógica do código (preparação e preparação de dados) e do tempo de aprovisionamento de recursos. Inferior. A velocidade de programação de modelos aumenta, uma vez que não precisa de criar a infraestrutura necessária para inferências em lote ou preparação de modelos, uma vez que o BigQuery ML tira partido do motor computacional do BigQuery. Isto aumenta a velocidade de preparação, avaliação e inferência.
Limites nos objetivos de aprendizagem automática Sim. Tem de segmentar um dos objetivos predefinidos do AutoML. Não Não Sim
Pode otimizar manualmente o desempenho do modelo com o ajuste de hiperparâmetros Não. O AutoML faz algum ajuste automático de hiperparâmetros, mas não pode modificar os valores usados. Sim. Pode otimizar o modelo durante cada execução de preparação para experimentação e comparação. Sim. Uma vez que está a fornecer o código de preparação personalizado, tem a capacidade de definir ou ajustar manualmente os valores dos hiperparâmetros antes de iniciar uma tarefa do Ray no Vertex AI. Sim. O BigQuery ML suporta o ajuste de hiperparâmetros quando faz a preparação de modelos de ML com declarações `CREATE MODEL`.
Pode controlar aspetos do ambiente de formação Limitada. Para conjuntos de dados de imagens e tabulares, pode especificar o número de horas de nó para a preparação e se permite a paragem antecipada da preparação. Sim. Pode especificar aspetos do ambiente, como o tipo de máquina do Compute Engine, o tamanho do disco, a framework de aprendizagem automática e o número de nós, bem como a imagem do Docker que quer usar para a preparação. Sim. Tem um controlo significativo sobre vários aspetos do ambiente de preparação. Por exemplo, pode trazer as suas próprias imagens de contentores Docker personalizadas para o cluster Ray no Vertex AI. Quando cria um cluster do Ray, pode especificar o tipo de máquina para o nó principal e os nós de trabalho, incluindo o número e o tipo de aceleradores (GPUs) que quer usar, entre outros. Não
Limites de tamanho dos dados

Sim. O AutoML usa conjuntos de dados geridos; as limitações de tamanho dos dados variam consoante o tipo de conjunto de dados. Consulte um dos seguintes tópicos para ver detalhes:

Para conjuntos de dados não geridos, não. Os conjuntos de dados geridos têm os mesmos limites que os objetos de conjuntos de dados geridos criados e alojados pelo BigQuery e são usados para preparar modelos do AutoML. Não. No entanto, existe um tamanho máximo de resposta a consultas de 10 GB para leituras do BigQuery. Esta é uma limitação do tamanho da resposta da API do BigQuery e não necessariamente um limite da quantidade total de dados que o Ray no Vertex AI pode processar a partir do BigQuery através de consultas iterativas ou paralelas. Sim. O BigQuery ML aplica quotas adequadas por projeto. Para saber mais, consulte o artigo Quotas e limites.

O que se segue?