O AI Platform Prediction leva a tecnologia e a flexibilidade do TensorFlow, do scikit-learn e do XGBoost até a nuvem. Use o AI Platform Prediction para hospedar seus modelos treinados de modo que possa enviar solicitações de previsão para eles.
Como começar
-
Introdução ao AI Platform
Uma visão geral dos produtos do AI Platform.
-
Visão geral da previsão
Uma introdução ao uso do AI Platform Prediction para hospedar modelos de machine learning e exibir previsões.
-
Ambiente de desenvolvimento
Requisitos do ambiente local para desenvolvedores.
-
Previsão on-line versus predição em lote
Uma visão geral das diferenças entre a previsão on-line e em lote.
-
Primeiros passos: treinamento e previsão com Keras do TensorFlow
Treine um modelo Keras do TensorFlow no AI Platform Training e implante-o no AI Platform Prediction.
-
Primeiros passos: treinamento e previsão com Estimator do TensorFlow
Treine um modelo Estimator do TensorFlow no AI Platform Training e implante-o no AI Platform Prediction.
-
Primeiros passos com o scikit-learn e o XGBoost
Implante um modelo do scikit-learn ou do XGBoost para exibir previsões.
Fluxo de trabalho de previsão
-
Exportar modelos para previsão
Escreva um código de treinamento para exportar artefatos de modelo prontos para o AI Platform Prediction.
-
Exportar um SavedModel para previsão
Exporte um SavedModel do TensorFlow para que seja compatível com o AI Platform Prediction.
-
Como implantar modelos;
Implante modelos de machine learning criando recursos de versão de modelo e de versão de modelo.
-
Rotinas de previsão personalizadas
Personalize o modo como o AI Platform Prediction processa as solicitações de previsão.
-
Tipos de máquina para previsão on-line
Configure os tipos de máquinas virtuais e GPUs que o AI Platform Prediction usa para processar solicitações.
-
Como receber previsões on-line
Envie solicitações para seu modelo de machine learning implantado e receba previsões.
-
Como fazer previsões em lote
Execute a previsão em um grande volume de instâncias de dados usando um modelo do TensorFlow.
Contêineres personalizados para previsão on-line
-
Primeiros passos: como exibir previsões do PyTorch com um contêiner personalizado
Use um contêiner personalizado para implantar um modelo de machine learning do PyTorch que exiba previsões on-line.
-
Requisitos de contêiner personalizado
Conheça os requisitos para criar uma imagem de contêiner do Docker personalizada e usá-la com o AI Platform Prediction.
-
Como usar um contêiner personalizado
Configure a versão do modelo para usar um contêiner personalizado.
Como integrar ferramentas e serviços
-
Como usar a biblioteca de cliente do Python
Use a biblioteca de cliente de APIs do Google para Python para enviar solicitações à API AI Platform Training and Prediction.
-
Como trabalhar com o Cloud Storage
Configure o Cloud Storage para trabalhar com o AI Platform Prediction.
-
Como usar a Ferramenta What-If
Inspecione os modelos implantados com um painel interativo.
Monitoramento e segurança
-
Modelos de monitoramento
Monitore o desempenho e o comportamento dos modelos implantados.
-
Como ver registros de auditoria
Monitore a atividade dos administradores e o acesso aos dados com os registros de auditoria do Cloud.
-
Controle de acesso
Uma visão geral das permissões necessárias para realizar várias ações na API AI Platform Training and Prediction, bem como dos papéis do IAM que fornecem essas permissões.
-
Como usar uma conta de serviço personalizada
Configure uma versão de modelo para usar uma conta de serviço personalizada para exibir predições.
-
Como usar VPC Service Controls
Configure o VPC Service Controls para reduzir o risco da exfiltração de dados.
Recursos do AI Platform Prediction
-
Projetos, modelos, versões e jobs
Uma visão geral dos recursos que você cria e com que interage no AI Platform.
-
Como gerenciar modelos e jobs
Gerencie os recursos do AI Platform que você criou.
-
Como rotular recursos
Organize jobs, modelos e versões de modelo com rótulos personalizados.
-
Como compartilhar modelos
Compartilhe o acesso aos recursos do AI Platform Prediction com outros usuários, grupos ou contas de serviço.
Tutoriais
-
Como criar uma rotina de previsão personalizada com o Keras
Implante um modelo do Keras junto com o código de pré-processamento e pós-processamento para processar as solicitações.
-
Como fazer previsões com o XGBoost
Implante um modelo do XGBoost e solicite previsões.
-
Como fazer previsões on-line com o scikit-learn
Implante um modelo do scikit-learn que use um pipeline com muitos transformadores.
-
Predições com canais scikit-learn
Implante um modelo do scikit-learn que use um pipeline com uma etapa de pré-processamento e uma de classificação.
-
Como usar um pipeline de scikit-learn com transformadores personalizados
Implante um pipeline do scikit-learn com pré-processamento personalizado.
-
Como criar uma rotina de previsão personalizada com o scikit-learn
Implante um modelo do scikit-learn com um código de pré-processamento e pós-processamento para processar as solicitações.
-
Como usar o scikit-learn no Kaggle e no AI Platform
Treine um modelo no Kaggle e implemente-o no AI Platform Prediction.
Versões de tempo de execução
Regiões
AI Explanations
-
Visão geral do AI Explanations
Uma introdução ao uso do AI Explanations com o AI Platform Prediction.
-
Primeiros passos com o AI Explanations
Implante modelos do TensorFlow e faça solicitações de explicação.
-
Limitações do AI Explanations
Considerações ao usar o AI Explanations.
-
Como usar atribuições de recurso
Configure o modelo de machine learning para o AI Explanations e solicite explicações.
-
Como salvar modelos do TensorFlow
Salve os modelos do TensorFlow 2 e do TensorFlow 1.15 corretamente para o AI Explanations.
-
Como preparar metadados
Crie o arquivo de metadados de explicação necessário para o AI Explanations usando o SDK do Explainable AI.
-
Como visualizar explicações
Visualize explicações com o AI Explanations.
-
Noções básicas sobre entradas e saídas para explicação
Encontre tensores de entrada e saída para criar o arquivo de metadados de explicação manualmente antes de implantar um modelo existente do TensorFlow 1.15 no AI Explanations.
Avaliação contínua
-
Visão geral da avaliação contínua
Uma introdução à avaliação contínua.
-
Antes de iniciar a avaliação contínua
Preparação do modelo de machine learning para compatibilidade com a avaliação contínua.
-
Como criar um job de avaliação
Configure como você quer que sua versão de modelo seja avaliada.
-
Como visualizar métricas de avaliação
Visualize as métricas do seu modelo calculadas pela avaliação contínua.
-
Como atualizar, pausar ou excluir um job de avaliação
Atualize um job atual de avaliação contínua.