Vista geral dos dados tabulares

O Vertex AI permite-lhe realizar aprendizagem automática com dados tabulares através de processos e interfaces simples. Pode criar os seguintes tipos de modelos para os seus problemas de dados tabulares:

  • Os modelos de classificação binária preveem um resultado binário (uma de duas classes). Use este tipo de modelo para perguntas de sim ou não. Por exemplo, pode querer criar um modelo de classificação binária para prever se um cliente compraria uma subscrição. Geralmente, um problema de classificação binária requer menos dados do que outros tipos de modelos.
  • Os modelos de classificação multiclasse preveem uma classe a partir de três ou mais classes discretas. Use este tipo de modelo para a categorização. Por exemplo, como retalhista, pode querer criar um modelo de classificação de várias classes para segmentar os clientes em diferentes personagens fictícias.
  • Os modelos de regressão preveem um valor contínuo. Por exemplo, como retalhista, pode querer criar um modelo de regressão para prever quanto um cliente vai gastar no próximo mês.
  • Os modelos de previsão preveem uma sequência de valores. Por exemplo, como retalhista, pode querer prever a procura diária dos seus produtos para os próximos 3 meses, de modo a poder armazenar adequadamente os inventários de produtos antecipadamente.

Para uma introdução à aprendizagem automática com dados tabulares, consulte o artigo Introdução aos dados tabulares. Para mais informações sobre as soluções da Vertex AI, consulte Soluções da Vertex AI para classificação e regressão e Soluções da Vertex AI para previsão.

Uma nota sobre a imparcialidade

A Google compromete-se a progredir na implementação de práticas de IA responsável. Para este fim, os nossos produtos de AA, incluindo o AutoML, são concebidos em torno de princípios essenciais, como a equidade e a aprendizagem automática centrada no ser humano. Para mais informações sobre as práticas recomendadas para mitigar a parcialidade ao criar o seu próprio sistema de ML, consulte o guia de ML inclusivo – AutoML.

Soluções da Vertex AI para classificação e regressão

A Vertex AI oferece as seguintes soluções para classificação e regressão:

Fluxo de trabalho tabular para o AutoML integral

O fluxo de trabalho tabular para o AutoML completo é um pipeline do AutoML completo para tarefas de classificação e regressão. É semelhante à API AutoML, mas permite-lhe escolher o que controlar e o que automatizar. Em vez de ter controlos para todo o pipeline, tem controlos para cada passo no pipeline. Estes controlos do pipeline incluem:

  • Divisão de dados
  • Engenharia de funcionalidades
  • Pesquisa de arquitetura
  • Preparação de modelos
  • Agregação de modelos
  • Destilação de modelos

Vantagens

  • Suporta grandes conjuntos de dados com vários TB e até 1000 colunas.
  • Permite melhorar a estabilidade e reduzir o tempo de preparação, limitando o espaço de pesquisa de tipos de arquitetura ou ignorando a pesquisa de arquitetura.
  • Permite melhorar a velocidade de preparação selecionando manualmente o hardware usado para a preparação e a pesquisa de arquitetura.
  • Permite reduzir o tamanho do modelo e melhorar a latência com a destilação ou alterando o tamanho do conjunto.
  • Cada componente do AutoML pode ser inspecionado numa interface de gráfico de pipelines avançada que lhe permite ver as tabelas de dados transformadas, as arquiteturas de modelos avaliadas e muitos mais detalhes.
  • Cada componente do AutoML tem uma flexibilidade e uma transparência alargadas, como a capacidade de personalizar parâmetros, hardware, ver o estado do processo, registos e muito mais.

Para saber mais sobre os fluxos de trabalho tabulares, consulte o artigo Fluxos de trabalho tabulares no Vertex AI. Para saber mais sobre o fluxo de trabalho tabular para o AutoML integral, consulte o artigo Fluxo de trabalho tabular para o AutoML integral.

Fluxo de trabalho tabular para a TabNet

O fluxo de trabalho tabular para o TabNet é um pipeline que pode usar para formar modelos de classificação ou regressão. A TabNet usa a atenção sequencial para escolher as funcionalidades a partir das quais raciocinar em cada etapa de decisão. Isto promove a interpretabilidade e a aprendizagem mais eficiente, uma vez que a capacidade de aprendizagem é usada para as funcionalidades mais relevantes.

Vantagens

  • Seleciona automaticamente o espaço de pesquisa de hiperparâmetros adequado com base no tamanho do conjunto de dados, no tipo de inferência e no orçamento de preparação.
  • Integrado com o Vertex AI. O modelo preparado é um modelo do Vertex AI. Pode executar inferências em lote ou implementar o modelo para inferências online imediatamente.
  • Oferece interpretabilidade inerente do modelo. Pode obter informações sobre as funcionalidades que a TabNet usou para tomar a sua decisão.
  • Suporta a preparação de GPUs.

Para saber mais sobre os fluxos de trabalho tabulares, consulte o artigo Fluxos de trabalho tabulares no Vertex AI. Para saber mais sobre o fluxo de trabalho tabular para a TabNet, consulte o artigo Fluxo de trabalho tabular para a TabNet.

Fluxo de trabalho tabular para modelos amplos e profundos

O fluxo de trabalho tabular para o modelo amplo e profundo é um pipeline que pode usar para formar modelos de classificação ou regressão. A arquitetura Wide & Deep forma em conjunto modelos lineares amplos e redes neurais profundas. Combina as vantagens da memorização e da generalização. Em algumas experiências online, os resultados mostraram que o modelo Wide & Deep aumentou significativamente as aquisições de aplicações da Google Store em comparação com os modelos apenas amplos e apenas profundos.

Vantagens

  • Integrado com o Vertex AI. O modelo preparado é um modelo do Vertex AI. Pode executar inferências em lote ou implementar o modelo para inferências online imediatamente.

Para saber mais sobre os fluxos de trabalho tabulares, consulte o artigo Fluxos de trabalho tabulares no Vertex AI. Para saber mais sobre o fluxo de trabalho tabular para aprendizagem ampla e avançada, consulte o artigo Fluxo de trabalho tabular para aprendizagem ampla e avançada.

Classificação e regressão com o AutoML

O Vertex AI oferece pipelines integrados e totalmente geridos para tarefas de classificação ou regressão completas. A Vertex AI pesquisa o conjunto ideal de hiperparâmetros, forma vários modelos com vários conjuntos de hiperparâmetros e, em seguida, cria um único modelo final a partir de um conjunto dos principais modelos. A Vertex AI considera redes neurais e árvores melhoradas para os tipos de modelos.

Vantagens

  • Fácil de usar: o Vertex AI escolhe o tipo de modelo, os parâmetros do modelo e o hardware por si.

Para mais informações, consulte o artigo Vista geral da classificação e da regressão.

Soluções da Vertex AI para previsão

A Vertex AI oferece as seguintes soluções para previsões:

Fluxo de trabalho tabular para previsões

O fluxo de trabalho tabular para previsões é o pipeline completo para tarefas de previsão. É semelhante à API AutoML, mas permite-lhe escolher o que controlar e o que automatizar. Em vez de ter controlos para todo o pipeline, tem controlos para cada passo no pipeline. Estes controlos do pipeline incluem:

  • Divisão de dados
  • Engenharia de funcionalidades
  • Pesquisa de arquitetura
  • Preparação de modelos
  • Agregação de modelos

Vantagens

  • Suporta grandes conjuntos de dados com um tamanho máximo de 1 TB e até 200 colunas.
  • Permite melhorar a estabilidade e reduzir o tempo de preparação, limitando o espaço de pesquisa de tipos de arquitetura ou ignorando a pesquisa de arquitetura.
  • Permite melhorar a velocidade de treino selecionando manualmente o hardware usado para o treino e a pesquisa de arquitetura.
  • Permite reduzir o tamanho do modelo e melhorar a latência alterando o tamanho do conjunto.
  • Cada componente pode ser inspecionado numa interface de gráfico de pipelines avançada que lhe permite ver as tabelas de dados transformadas, as arquiteturas de modelos avaliadas e muitos mais detalhes.
  • Cada componente recebe flexibilidade e transparência alargadas, como a capacidade de personalizar parâmetros, hardware, ver o estado do processo, registos e muito mais.

Para saber mais sobre os fluxos de trabalho tabulares, consulte o artigo Fluxos de trabalho tabulares no Vertex AI. Para saber mais sobre o fluxo de trabalho tabular para previsões, consulte o artigo Fluxo de trabalho tabular para previsões.

Fazer previsões com o AutoML

O Vertex AI oferece um pipeline integrado e totalmente gerido para tarefas de previsão completas. A Vertex AI procura o conjunto ideal de hiperparâmetros, forma vários modelos com vários conjuntos de hiperparâmetros e, em seguida, cria um único modelo final a partir de um conjunto dos principais modelos. Pode escolher entre Time series Dense Encoder (TiDE), Temporal Fusion Transformer (TFT), AutoML (L2L) e Seq2Seq+ para o método de preparação do modelo. O Vertex AI considera apenas redes neurais para o tipo de modelo.

Vantagens

  • Fácil de usar: a Vertex AI escolhe os parâmetros do modelo e o hardware por si.

Para mais informações, consulte o artigo Vista geral das previsões.

Previsão com o ARIMA_PLUS do BigQuery ML

O ARIMA_PLUS do BigQuery ML é um modelo de previsão univariado. Como modelo estatístico, é mais rápido de treinar do que um modelo baseado em redes neurais. Recomendamos a preparação de um modelo ARIMA_PLUS do BigQuery ML se precisar de fazer muitas iterações rápidas da preparação de modelos ou se precisar de uma base económica para medir outros modelos.

Tal como o Prophet, o ARIMA_PLUS do BigQuery ML tenta decompor cada série cronológica em tendências, estações e feriados, produzindo uma previsão através da agregação das inferências destes modelos. No entanto, uma das muitas diferenças é que o ARIMA+ do BQML usa o ARIMA para modelar o componente de tendência, enquanto o Prophet tenta ajustar uma curva usando um modelo logístico ou linear segmentado.

Google Cloud oferece um pipeline para preparar um modelo ARIMA_PLUS do BigQuery ML e um pipeline para obter inferências em lote a partir de um modelo ARIMA_PLUS do BigQuery ML. Ambos os pipelines são instâncias do Vertex AI Pipelines dos Google Cloud componentes de pipeline (GCPC).

Vantagens

  • Fácil de usar: o BigQuery escolhe os parâmetros do modelo e o hardware por si.
  • Rápido: a preparação de modelos oferece uma base de referência de baixo custo para comparar com outros modelos.

Para mais informações, consulte o artigo Previsão com ARIMA+.

Previsão com o Prophet

O Prophet é um modelo de previsão mantido pela Meta. Consulte o documento do Prophet para ver detalhes do algoritmo e a documentação para mais informações sobre a biblioteca.

Tal como o ARIMA_PLUS do BigQuery ML, o Prophet tenta decompor cada série cronológica em tendências, estações e feriados, produzindo uma previsão através da agregação das inferências destes modelos. No entanto, existe uma diferença importante: o ARIMA+ do BQML usa o ARIMA para modelar o componente de tendência, enquanto o Prophet tenta ajustar uma curva usando um modelo logístico ou linear segmentado.

Google Cloud oferece um pipeline para preparar um modelo Prophet e um pipeline para obter inferências em lote a partir de um modelo Prophet. Ambos os pipelines são instâncias do Vertex AI Pipelines dos Google Cloud componentes de pipeline (GCPC).

A integração do Prophet com o Vertex AI significa que pode fazer o seguinte:

Embora o Prophet seja um modelo multivariável, o Vertex AI suporta apenas uma versão univariável do mesmo.

Vantagens

  • Flexível: pode melhorar a velocidade de preparação selecionando o hardware usado para a preparação

Para mais informações, consulte o artigo Previsão com o Prophet.

O que se segue?