Este documento explica as principais diferenças entre a preparação de um modelo na Vertex AI através do AutoML, da preparação personalizada, do Ray na Vertex AI ou da preparação de um modelo com o BigQuery ML.
Com o AutoML, cria e prepara um modelo com o mínimo de esforço técnico. Pode usar o AutoML para criar protótipos de modelos rapidamente e explorar novos conjuntos de dados antes de investir no desenvolvimento. Por exemplo, pode usá-lo para saber que funcionalidades são melhores para um determinado conjunto de dados.
Com o treino personalizado, pode criar uma aplicação de treino otimizada para o resultado segmentado. Tem controlo total sobre a funcionalidade da aplicação de preparação. Ou seja, pode segmentar qualquer objetivo, usar qualquer algoritmo, desenvolver as suas próprias funções de perda ou métricas, ou fazer qualquer outra personalização.
Com o Ray no Vertex AI, pode usar a framework de computação distribuída do Ray na infraestrutura do Google Cloud . O Ray no Vertex AI oferece um ambiente gerido com recursos de computação configuráveis, integração com serviços como o Vertex AI Inference e o BigQuery, e opções de rede flexíveis para desenvolver e executar cargas de trabalho distribuídas.
Com o BigQuery, pode formar modelos usando os seus dados do BigQuery diretamente no BigQuery. Com os comandos SQL, pode criar rapidamente um modelo e usá-lo para obter inferências em lote.
Para comparar as diferentes funcionalidades e conhecimentos necessários para cada serviço, reveja a tabela seguinte.
AutoML | Formação personalizada | Ray no Vertex AI | BigQuery ML | |
---|---|---|---|---|
São necessários conhecimentos de ciência de dados | Não | Sim, para desenvolver a aplicação de preparação e também para fazer parte da preparação de dados, como a engenharia de funcionalidades. | É útil ter uma compreensão básica dos conceitos de aprendizagem automática e dos fluxos de trabalho de ciência de dados. | Não |
Capacidade de programação necessária | Não. O AutoML não requer código. | Sim, para desenvolver a aplicação de formação. | Sim. | Sim. |
Tempo para preparar o modelo | Inferior. Não é necessária preparação de dados nem desenvolvimento. | Mais elevado. É necessária mais preparação de dados e desenvolvimento da aplicação de preparação. A utilização da preparação distribuída pode reduzir o tempo necessário para preparar um modelo. | O tempo de preparação depende da lógica do código (preparação e preparação de dados) e do tempo de aprovisionamento de recursos. | Inferior. A velocidade de programação de modelos aumenta, uma vez que não precisa de criar a infraestrutura necessária para inferências em lote ou preparação de modelos, uma vez que o BigQuery ML tira partido do motor computacional do BigQuery. Isto aumenta a velocidade de preparação, avaliação e inferência. |
Limites nos objetivos de aprendizagem automática | Sim. Tem de segmentar um dos objetivos predefinidos do AutoML. | Não | Não | Sim |
Pode otimizar manualmente o desempenho do modelo com o ajuste de hiperparâmetros | Não. O AutoML faz algum ajuste automático de hiperparâmetros, mas não pode modificar os valores usados. | Sim. Pode otimizar o modelo durante cada execução de preparação para experimentação e comparação. | Sim. Uma vez que está a fornecer o código de preparação personalizado, tem a capacidade de definir ou ajustar manualmente os valores dos hiperparâmetros antes de iniciar uma tarefa do Ray no Vertex AI. | Sim. O BigQuery ML suporta o ajuste de hiperparâmetros quando faz a preparação de modelos de ML com declarações `CREATE MODEL`. |
Pode controlar aspetos do ambiente de formação | Limitada. Para conjuntos de dados de imagens e tabulares, pode especificar o número de horas de nó para a preparação e se permite a paragem antecipada da preparação. | Sim. Pode especificar aspetos do ambiente, como o tipo de máquina do Compute Engine, o tamanho do disco, a framework de aprendizagem automática e o número de nós, bem como a imagem do Docker que quer usar para a preparação. | Sim. Tem um controlo significativo sobre vários aspetos do ambiente de preparação. Por exemplo, pode trazer as suas próprias imagens de contentores Docker personalizadas para o cluster Ray no Vertex AI. Quando cria um cluster do Ray, pode especificar o tipo de máquina para o nó principal e os nós de trabalho, incluindo o número e o tipo de aceleradores (GPUs) que quer usar, entre outros. | Não |
Limites de tamanho dos dados |
Sim. O AutoML usa conjuntos de dados geridos; as limitações de tamanho dos dados variam consoante o tipo de conjunto de dados. Consulte um dos seguintes tópicos para ver detalhes: |
Para conjuntos de dados não geridos, não. Os conjuntos de dados geridos têm os mesmos limites que os objetos de conjuntos de dados geridos criados e alojados pelo BigQuery e são usados para preparar modelos do AutoML. | Não. No entanto, existe um tamanho máximo de resposta a consultas de 10 GB para leituras do BigQuery. Esta é uma limitação do tamanho da resposta da API do BigQuery e não necessariamente um limite da quantidade total de dados que o Ray no Vertex AI pode processar a partir do BigQuery através de consultas iterativas ou paralelas. | Sim. O BigQuery ML aplica quotas adequadas por projeto. Para saber mais, consulte o artigo Quotas e limites. |
O que se segue?
- Escolha um tutorial introdutório para começar a usar o Vertex AI Training.
- Saiba mais sobre a preparação de um modelo do AutoML.
- Saiba como criar uma tarefa de preparação personalizada com Python.
- Saiba mais sobre o Ray no Vertex AI.