Crie e implemente modelos de IA generativa e aprendizagem automática numa empresa

Last reviewed 2024-03-28 UTC

À medida que a IA generativa e os modelos de aprendizagem automática (AA) se tornam mais comuns nas atividades e nos processos empresariais das empresas, estas precisam cada vez mais de orientações sobre o desenvolvimento de modelos para garantir a consistência, a repetibilidade, a segurança e a proteção. Para ajudar as grandes empresas a criar e implementar modelos de IA generativa e AA, criámos o projeto de IA generativa e aprendizagem automática empresarial. Este plano detalhado oferece-lhe um guia abrangente para todo o ciclo de vida de desenvolvimento da IA, desde a exploração de dados preliminar e a experimentação até à preparação, implementação e monitorização de modelos.

O plano detalhado de IA generativa e AA empresarial oferece-lhe muitas vantagens, incluindo as seguintes:

  • Orientações normativas: orientações claras sobre como pode criar, configurar e implementar um ambiente de desenvolvimento de IA generativa e ML que se baseia no Vertex AI. Pode usar a Vertex AI para desenvolver os seus próprios modelos.
  • Maior eficiência: automatização extensiva para ajudar a reduzir o esforço excessivo na implementação de infraestruturas e no desenvolvimento de modelos de IA generativa e ML. A automatização permite-lhe concentrar-se em tarefas de valor acrescentado, como a conceção de modelos e a experimentação.
  • Governança e capacidade de auditoria melhoradas: a capacidade de reprodução, a rastreabilidade e a implementação controlada de modelos estão incorporadas na conceção deste esquema. Esta vantagem permite-lhe gerir melhor o ciclo de vida da IA generativa e dos modelos de ML, e ajuda a garantir que pode voltar a preparar e avaliar os modelos de forma consistente, com trilhos de auditoria claros.
  • Segurança: o plano foi concebido para estar alinhado com os requisitos da framework do Instituto Nacional de Padrões e Tecnologia (NIST) e da framework do Cyber Risk Institute (CRI).

O plano detalhado de IA generativa e ML empresarial inclui o seguinte:

  • Um repositório do GitHub que contém um conjunto de configurações do Terraform, um notebook Jupyter, uma definição dos Vertex AI Pipelines, um gráfico acíclico dirigido (DAG) do Cloud Composer e scripts auxiliares. Os componentes no repositório concluem o seguinte:
    • A configuração do Terraform configura uma plataforma de desenvolvimento de modelos do Vertex AI que pode suportar várias equipas de desenvolvimento de modelos.
    • O bloco de notas do Jupyter permite-lhe desenvolver um modelo de forma interativa.
    • A definição do Vertex AI Pipelines traduz o bloco de notas do Jupyter num padrão reproduzível que pode ser usado para ambientes de produção.
    • O DAG do Cloud Composer oferece um método alternativo aos pipelines do Vertex AI.
    • Os scripts auxiliares ajudam a implementar o código e os pipelines do Terraform.
  • Um guia para a arquitetura, o design, os controlos de segurança e os processos operacionais que usa este plano para implementar (este documento).

O plano detalhado de IA generativa e AA empresarial foi concebido para ser compatível com o plano detalhado de bases empresariais. O esquema detalhado das bases empresariais fornece vários serviços de nível base nos quais este esquema detalhado se baseia, como as redes VPC. Pode implementar o esquema de IA generativa e ML empresarial sem implementar o esquema de bases empresariais se o seu Google Cloud ambiente fornecer a funcionalidade necessária para suportar o esquema de IA generativa e ML empresarial.

Este documento destina-se a arquitetos da nuvem, cientistas de dados e engenheiros de dados que podem usar o esquema para criar e implementar novos modelos de IA generativa ou ML no Google Cloud. Este documento pressupõe que tem conhecimentos sobre a IA generativa e o desenvolvimento de modelos de ML e a plataforma de aprendizagem automática Vertex AI.

Para uma vista geral dos princípios e recomendações de arquitetura específicos das cargas de trabalho de IA e ML no Google Cloud, consulte aperspetiva de IA e ML no Well-Architected Framework.

Vista geral do projeto de IA generativa e ML empresarial

O projeto de IA generativa e ML empresarial adota uma abordagem em camadas para oferecer as capacidades que permitem a preparação de modelos de IA generativa e ML. O esquema destina-se a ser implementado e controlado através de um fluxo de trabalho de operações de ML (MLOps). O diagrama seguinte mostra como a camada de MLOps implementada por este projeto relaciona-se com outras camadas no seu ambiente.

As camadas do projeto.

Este diagrama inclui o seguinte:

  • A Google Cloud infraestrutura oferece-lhe capacidades de segurança, como encriptação em repouso e encriptação em trânsito, bem como blocos de construção básicos, como computação e armazenamento.
  • A base empresarial oferece-lhe uma base de recursos, como identidade, rede, registo, monitorização e sistemas de implementação, que lhe permitem adotar Google Cloud para as suas cargas de trabalho de IA.
  • A camada de dados é uma camada opcional na pilha de desenvolvimento que lhe oferece várias capacidades, como carregamento de dados, armazenamento de dados, controlo de acesso aos dados, administração de dados, monitorização de dados e partilha de dados.
  • A camada de IA generativa e AA (este esquema) permite-lhe criar e implementar modelos. Pode usar esta camada para a exploração e experimentação de dados preliminares, a preparação de modelos, a publicação de modelos e a monitorização.
  • A CI/CD oferece-lhe as ferramentas para automatizar o aprovisionamento, a configuração, a gestão e a implementação de infraestrutura, fluxos de trabalho e componentes de software. Estes componentes ajudam a garantir implementações consistentes, fiáveis e auditáveis; minimizam os erros manuais; e aceleram o ciclo de desenvolvimento geral.

Para mostrar como o ambiente de IA generativa e ML é usado, o plano detalhado inclui um exemplo de desenvolvimento de modelo de ML. O desenvolvimento do modelo de amostra explica como criar um modelo, criar pipelines operacionais, preparar o modelo, testar o modelo e implementar o modelo.

Arquitetura

O plano de IA generativa e AA empresarial permite-lhe trabalhar diretamente com dados. Pode criar modelos num ambiente interativo (de programação) e promovê-los para um ambiente operacional (de produção ou não produção).

No ambiente interativo, desenvolve modelos de ML com o Vertex AI Workbench, que é um serviço do Jupyter Notebook gerido pela Google. Cria capacidades de extração de dados, transformação de dados e ajuste de modelos no ambiente interativo e promove-as para o ambiente operacional.

No ambiente operacional (não de produção), usa pipelines para criar e testar os respetivos modelos de forma repetível e controlável. Depois de ficar satisfeito com o desempenho do modelo, pode implementá-lo no ambiente operacional (de produção). O diagrama seguinte mostra os vários componentes dos ambientes interativos e operacionais.

A arquitetura do projeto.

Este diagrama inclui o seguinte:

  1. Sistemas de implementação: serviços como o Service Catalog e o Cloud Build implementam Google Cloud recursos no ambiente interativo. O Cloud Build também implementa Google Cloud recursos e fluxos de trabalho de criação de modelos no ambiente operacional.
  2. Origens de dados: serviços como o BigQuery, Cloud Storage, Spanner, e o AlloyDB para PostgreSQL alojam os seus dados. O esquema fornece dados de exemplo no BigQuery e no Cloud Storage.
  3. Ambiente interativo: um ambiente onde pode interagir diretamente com os dados, fazer experiências com modelos e criar pipelines para utilização no ambiente operacional.
  4. Ambiente operacional: um ambiente onde pode criar e testar os seus modelos de forma repetível e, em seguida, implementá-los na produção.
  5. Serviços de modelos: os seguintes serviços suportam várias atividades de MLOps:
  6. Armazenamento de artefactos: estes serviços armazenam o código e os contentores para o desenvolvimento de modelos e pipelines. Estes serviços incluem o seguinte:
    • O Artifact Registry armazena contentores usados por pipelines no ambiente operacional para controlar os vários estágios do desenvolvimento do modelo.
    • O repositório Git armazena a base de código dos vários componentes usados no desenvolvimento do modelo.

Personagens fictícias da plataforma

Quando implementa o esquema, cria quatro tipos de grupos de utilizadores: um grupo de engenheiros de MLOps, um grupo de engenheiros de DevOps, um grupo de cientistas de dados e um grupo de engenheiros de dados. Os grupos têm as seguintes responsabilidades:

  • O grupo MLOps engineer desenvolve os modelos do Terraform usados pelo Service Catalog. Esta equipa fornece modelos usados por muitos modelos.
  • O grupo Engenheiro de DevOps aprova os modelos do Terraform que o grupo de programadores de MLOps cria.
  • O grupo de cientistas de dados desenvolve modelos, pipelines e os contentores que são usados pelos pipelines. Normalmente, uma única equipa dedica-se à criação de um único modelo.
  • O grupo de engenheiros de dados aprova a utilização dos artefactos criados pelo grupo de ciência de dados.

Estrutura da organização

Este esquema usa a estrutura organizacional do esquema de base empresarial como base para implementar cargas de trabalho de IA e AA. O diagrama seguinte mostra os projetos que são adicionados à base para ativar cargas de trabalho de IA e ML.

A estrutura organizacional do modelo.

A tabela seguinte descreve os projetos usados pelo esquema de IA generativa e ML.

Pasta Projeto Descrição

common

prj-c-infra-pipeline

Contém o pipeline de implementação usado para criar os componentes de IA generativa e ML do esquema. Para mais informações, consulte o pipeline de infraestrutura no projeto de base empresarial.

prj-c-service-catalog

Contém a infraestrutura usada pelo Service Catalog para implementar recursos no ambiente interativo.

development

prj-d-machine-learning

Contém os componentes para desenvolver um exemplo de utilização de IA e aprendizagem automática num modo interativo.

non-production

prj-n-machine-learning

Contém os componentes para testar e avaliar um exemplo de utilização de IA e ML que pode ser implementado em produção.

production

prj-p-machine-learning

Contém os componentes para implementar um exemplo de utilização de IA e aprendizagem automática em produção.

Trabalhar em rede

O esquema usa a rede VPC partilhada criada no esquema base empresarial. No ambiente interativo (de programação), os notebooks do Vertex AI Workbench são implementados em projetos de serviço. Os utilizadores no local podem aceder aos projetos através do espaço de endereços IP privados na rede VPC partilhada. Os utilizadores no local podem aceder às APIs Google Cloud, como o Cloud Storage, através do Private Service Connect. Cada rede de VPC partilhada (desenvolvimento, não produção e produção) tem um ponto final do Private Service Connect distinto.

A rede do projeto.

O ambiente operacional (não de produção e de produção) tem duas redes VPC partilhadas separadas às quais os recursos no local podem aceder através de endereços IP privados. Os ambientes interativos e operacionais estão protegidos através dos VPC Service Controls.

Cloud Logging

Este esquema usa as capacidades do Cloud Logging fornecidas pelo esquema de base empresarial.

Cloud Monitoring

Para monitorizar tarefas de preparação personalizadas, o plano inclui um painel de controlo que lhe permite monitorizar as seguintes métricas:

  • Utilização da CPU de cada nó de preparação
  • Utilização da memória de cada nó de preparação
  • Utilização da rede

Se uma tarefa de preparação personalizada falhar, o esquema usa o Cloud Monitoring para lhe fornecer um mecanismo de alerta por email que o notifica da falha. Para a monitorização de modelos implementados que usam o ponto final do Vertex AI, o projeto vem com um painel de controlo que tem as seguintes métricas:

  • Métricas de desempenho:
    • Previsões por segundo
    • Latência do modelo
  • Utilização de recursos:
    • Utilização da CPU
    • Utilização de memória

Configuração da política organizacional

Além das políticas organizacionais criadas pelo esquema base empresarial, este esquema base adiciona as políticas organizacionais indicadas na postura predefinida para IA segura, alargada.

Operações

Esta secção descreve os ambientes incluídos no projeto.

Ambiente interativo

Para lhe permitir explorar dados e desenvolver modelos, mantendo a postura de segurança da sua organização, o ambiente interativo oferece-lhe um conjunto controlado de ações que pode realizar. Pode implementar Google Cloud recursos através de um dos seguintes métodos:

  • Usando o catálogo de serviços, que é pré-configurado através da automatização com modelos de recursos
  • Criar artefactos de código e consolidá-los em repositórios Git através dos blocos de notas do Vertex AI Workbench

O diagrama seguinte representa o ambiente interativo.

O ambiente interativo do projeto.

Um fluxo interativo típico tem os seguintes passos e componentes associados:

  1. O catálogo de serviços oferece uma lista organizada de Google Cloud recursos que os cientistas de dados podem implementar no ambiente interativo. O cientista de dados implementa o recurso do bloco de notas do Vertex AI Workbench a partir do catálogo de serviços.
  2. Os blocos de notas do Vertex AI Workbench são a interface principal que os cientistas de dados usam para trabalhar com Google Cloud recursos implementados no ambiente interativo. Os blocos de notas permitem aos cientistas de dados extrair o respetivo código do Git e atualizá-lo conforme necessário.
  3. Os dados de origem são armazenados fora do ambiente interativo e geridos separadamente deste plano. O acesso aos dados é controlado por um proprietário dos dados. Os cientistas de dados podem pedir acesso de leitura aos dados de origem, mas não podem escrever nos dados de origem.
  4. Os cientistas de dados podem transferir dados de origem para o ambiente interativo em recursos criados através do catálogo de serviços. No ambiente interativo, os cientistas de dados podem ler, escrever e manipular os dados. No entanto, os cientistas de dados não podem transferir dados para fora do ambiente interativo nem conceder acesso a recursos criados pelo catálogo de serviços. O BigQuery armazena dados estruturados e semiestruturados, e o Cloud Storage armazena dados não estruturados.
  5. O Feature Store oferece aos cientistas de dados acesso de baixa latência a funcionalidades para a preparação de modelos.
  6. Os cientistas de dados preparam modelos usando tarefas de preparação personalizadas do Vertex AI. O projeto também usa a Vertex AI para o ajuste de hiperparâmetros.

  7. Os cientistas de dados avaliam os modelos através da utilização de experiências do Vertex AI e do Vertex AI TensorBoard. As experiências do Vertex AI permitem-lhe executar várias preparações num modelo com diferentes parâmetros, técnicas de modelagem, arquiteturas e entradas. O Vertex AI TensorBoard permite-lhe acompanhar, visualizar e comparar as várias experiências que executou e, em seguida, escolher o modelo com as melhores características observadas para validar.

  8. Os cientistas de dados validam os respetivos modelos com a avaliação do Vertex AI. Para validar os respetivos modelos, os cientistas de dados dividem os dados de origem num conjunto de dados de preparação e num conjunto de dados de validação, e executam uma avaliação da Vertex AI em relação ao seu modelo.

  9. Os cientistas de dados criam contentores com o Cloud Build, armazenam os contentores no Artifact Registry e usam os contentores em pipelines que estão no ambiente operacional.

Ambiente operacional

O ambiente operacional usa um repositório Git e pipelines. Este ambiente inclui o ambiente de produção e o ambiente de não produção do projeto de base empresarial. No ambiente de não produção, o cientista de dados seleciona um pipeline a partir de um dos pipelines que foi desenvolvido no ambiente interativo. O cientista de dados pode executar o pipeline no ambiente de não produção, avaliar os resultados e, em seguida, determinar que modelo promover para o ambiente de produção.

O projeto inclui um exemplo de pipeline criado com o Cloud Composer e um exemplo de pipeline criado com os Vertex AI Pipelines. O diagrama abaixo mostra o ambiente operacional.

O ambiente operacional do projeto.

Um fluxo operacional típico tem os seguintes passos:

  1. Um cientista de dados une com êxito um ramo de desenvolvimento a um ramo de implementação.
  2. A união no ramo de implementação aciona um pipeline do Cloud Build.
  3. Ocorre um dos seguintes itens:
    • Se um cientista de dados estiver a usar o Cloud Composer como o orquestrador, o pipeline do Cloud Build move um DAG para o Cloud Storage.
    • Se o cientista de dados estiver a usar o Vertex AI Pipelines como orquestrador, o pipeline move um ficheiro Python para o Cloud Storage.
  4. O pipeline do Cloud Build aciona o orquestrador (Cloud Composer ou Vertex AI Pipelines).
  5. O orquestrador extrai a definição do pipeline do Cloud Storage e começa a executar o pipeline.
  6. O pipeline extrai um contentor do Artifact Registry que é usado por todas as fases do pipeline para acionar os serviços da Vertex AI.
  7. O pipeline, através do contentor, aciona uma transferência de dados do projeto de dados de origem para o ambiente operacional.
  8. Os dados são transformados, validados, divididos e preparados para a preparação e a validação do modelo pelo pipeline.
  9. Se necessário, o pipeline move os dados para o Vertex AI Feature Store para facilitar o acesso durante a preparação do modelo.
  10. O pipeline usa a preparação de modelos personalizados do Vertex AI para preparar o modelo.
  11. O pipeline usa a avaliação da Vertex AI para validar o modelo.
  12. Um modelo validado é importado para o Model Registry pelo pipeline.
  13. Em seguida, o modelo importado é usado para gerar previsões através de previsões online ou previsões em lote.
  14. Após a implementação do modelo no ambiente de produção, o pipeline usa o Vertex AI Model Monitoring para detetar se o desempenho do modelo se degrada através da monitorização da divergência entre a preparação e a publicação e da deriva de previsão.

Implementação

O projeto usa uma série de pipelines do Cloud Build para aprovisionar a infraestrutura do projeto, o pipeline no ambiente operacional e os contentores usados para criar modelos de IA generativa e ML. Os pipelines usados e os recursos aprovisionados são os seguintes:

  • Pipeline de infraestrutura: Esta pipeline faz parte do projeto de base empresarial. Este pipeline aprovisiona os Google Cloud recursos associados ao ambiente interativo e ao ambiente operacional.
  • Pipeline interativo: o pipeline interativo faz parte do ambiente interativo. Este pipeline copia modelos do Terraform de um repositório Git para um contentor do Cloud Storage que o Service Catalog pode ler. O pipeline interativo é acionado quando é feito um pedido de envio para fazer a união com o ramo principal.
  • Pipeline de contentores: o plano inclui um pipeline do Cloud Build para criar contentores usados no pipeline operacional. Os contentores implementados em vários ambientes são imagens de contentores imutáveis. As imagens de contentores imutáveis ajudam a garantir que a mesma imagem é implementada em todos os ambientes e não pode ser modificada enquanto está em execução. Se precisar de modificar a aplicação, tem de recompilar e reimplementar a imagem. As imagens de contentores usadas no projeto são armazenadas no Artifact Registry e referenciadas pelos ficheiros de configuração usados no pipeline operacional.
  • Pipeline operacional: o pipeline operacional faz parte do ambiente operacional. Esta pipeline copia DAGs para o Cloud Composer ou as Vertex AI Pipelines, que são depois usados para criar, testar e implementar modelos.

Catálogo de serviços

O catálogo de serviços permite que os programadores e os administradores da nuvem tornem as respetivas soluções utilizáveis por utilizadores empresariais internos. Os módulos do Terraform no Service Catalog são criados e publicados como artefactos no contentor do Cloud Storage com o pipeline de CI/CD do Cloud Build. Depois de os módulos serem copiados para o contentor, os programadores podem usá-los para criar soluções do Terraform na página de administração do Service Catalog, adicionar as soluções ao Service Catalog e partilhá-las com projetos de ambiente interativo para que os utilizadores possam implementar os recursos.

O ambiente interativo usa o catálogo de serviços para permitir que os cientistas de dados implementem recursos de uma forma que esteja em conformidade com a postura de segurança da respetiva empresa. Google Cloud Quando desenvolve um modelo que requer Google Cloud recursos, como um contentor do Cloud Storage, o cientista de dados seleciona o recurso no catálogo de serviços, configura o recurso e implementa-o no ambiente interativo. O catálogo de serviços contém modelos pré-configurados para vários Google Cloud recursos que o cientista de dados pode implementar no ambiente interativo. O cientista de dados não pode alterar os modelos de recursos, mas pode configurar os recursos através das variáveis de configuração que o modelo expõe. O diagrama seguinte mostra a estrutura da relação entre o catálogo de serviços e o ambiente interativo.

O catálogo de blueprints.

Os cientistas de dados implementam recursos através do Service Catalog, conforme descrito nos seguintes passos:

  1. O engenheiro de MLOps coloca um modelo de recurso do Terraform para Google Cloud num repositório Git.
  2. O commit para o Git aciona um pipeline do Cloud Build.
  3. O Cloud Build copia o modelo e todos os ficheiros de configuração associados para o Cloud Storage.
  4. O engenheiro de MLOps configura as soluções do catálogo de serviços e o catálogo de serviços manualmente. Em seguida, o engenheiro partilha o catálogo de serviços com um projeto de serviço no ambiente interativo.
  5. O cientista de dados seleciona um recurso no catálogo de serviços.
  6. O catálogo de serviços implementa o modelo no ambiente interativo.
  7. O recurso extrai todos os scripts de configuração necessários.
  8. O cientista de dados interage com os recursos.

Repositórios

Os pipelines descritos na secção Implementação são acionados por alterações no respetivo repositório. Para ajudar a garantir que ninguém pode fazer alterações independentes ao ambiente de produção, existe uma separação de responsabilidades entre os utilizadores que podem enviar código e os utilizadores que podem aprovar alterações ao código. A tabela seguinte descreve os repositórios de planos detalhados, bem como os respetivos autores e aprovadores.

Repositório Fornecimento Descrição Remetente Aprovador

ml-foundation

Infraestrutura
Contém o código Terraform para o esquema de IA generativa e ML que cria os ambientes interativos e operacionais. Engenheiro de MLOps Engenheiro de DevOps

service-catalog

Interativo Contém os modelos dos recursos que o catálogo de serviços pode implementar. Engenheiro de MLOps Engenheiro de DevOps

artifact-publish

Contentor Contém os contentores que os pipelines no ambiente operacional podem usar. Cientista de dados Engenheiro de dados

machine-learning

Operacional Contém o código-fonte que os pipelines no ambiente operacional podem usar. Cientista de dados Engenheiro de dados

Estratégia de ramificação

O projeto usa ramificações persistentes para implementar código no ambiente associado. O esquema usa três ramificações (desenvolvimento, não produção e produção) que refletem os ambientes correspondentes.

Controlos de segurança

O esquema de IA generativa e ML empresarial usa um modelo de segurança de defesa em profundidade em camadas que usa as Google Cloud capacidadesGoogle Cloud , os serviços e as capacidades de segurança predefinidos que são configurados através do esquema de base empresarial. O diagrama seguinte mostra a sobreposição dos vários controlos de segurança para o esquema.

Os controlos de segurança do projeto.

As funções das camadas são as seguintes:

  • Interface: fornece aos cientistas de dados serviços que lhes permitem interagir com o esquema de forma controlada.
  • A Implementação oferece uma série de pipelines que implementam infraestruturas, criam contentores e criam modelos. A utilização de pipelines permite a capacidade de auditoria, a rastreabilidade e a repetibilidade.
  • Rede: oferece proteções contra a exfiltração de dados em torno dos recursos de projeto na camada de API e na camada de IP.
  • Gestão do acesso: controla quem pode aceder a que recursos e ajuda a impedir a utilização não autorizada dos seus recursos.
  • Encriptação: permite-lhe controlar as suas chaves de encriptação, segredos e ajudar a proteger os seus dados através da encriptação em repouso e da encriptação em trânsito predefinidas.
  • Detective: ajuda a detetar configurações incorretas e atividade maliciosa.
  • Preventiva: oferece-lhe os meios para controlar e restringir a forma como a sua infraestrutura é implementada.

A tabela seguinte descreve os controlos de segurança associados a cada camada.

Camada Recurso Controlo de segurança
Interface Vertex AI Workbench Oferece uma experiência de notebook gerida que incorpora o controlo de acesso do utilizador, o controlo de acesso à rede, o controlo de acesso da IAM e as transferências de ficheiros desativadas. Estas funcionalidades permitem uma experiência do utilizador mais segura.
Repositórios Git Oferece controlo de acesso do utilizador para proteger os seus repositórios.
Catálogo de serviços Oferece aos cientistas de dados uma lista organizada de recursos que só podem ser implementados em configurações aprovadas.
Implementação Pipeline de infraestrutura Fornece um fluxo seguro para implementar a infraestrutura do projeto através da utilização do Terraform.
Pipeline interativo Oferece um fluxo seguro para transferir modelos de um repositório Git para um contentor na sua organização do Google Cloud .
Pipeline de contentores Fornece um fluxo seguro para criar contentores usados pelo pipeline operacional.
Pipeline operacional Oferece um fluxo controlado para formar, testar, validar e implementar modelos.
Artifact Registry Armazena imagens de contentores de forma segura através do controlo de acesso aos recursos
Rede Private Service Connect Permite-lhe comunicar com as APIs Google Cloud através de endereços IP privados para que possa evitar a exposição do tráfego à Internet.
VPC com endereços IP privados O projeto usa VPCs com endereços IP privados para ajudar a remover a exposição a ameaças na Internet.
VPC Service Controls Ajuda a proteger os recursos protegidos contra a exfiltração de dados.
Firewall Ajuda a proteger a rede VPC contra o acesso não autorizado.
Gestão do acesso Cloud ID Oferece gestão de utilizadores centralizada, reduzindo o risco de acesso não autorizado.
IAM Oferece um controlo detalhado de quem pode fazer o quê a que recursos, permitindo assim o menor privilégio na gestão de acessos.
Encriptação Cloud KMS Permite-lhe controlar as chaves de encriptação que são usadas na sua Google Cloud organização.
Secret Manager Fornece um armazenamento secreto para os seus modelos que é controlado pela IAM.
Encriptação em repouso Por predefinição, Google Cloud encripta os dados em repouso.
Encriptação em trânsito Por predefinição, Google Cloud encripta os dados em trânsito.
Detetive Security Command Center Fornece detetores de ameaças que ajudam a proteger a sua Google Cloud organização.
Arquitetura contínua Verifica continuamente a sua Google Cloud organização em relação a uma série de políticas do agente de políticas abertas (OPA) que definiu.
IAM Recommender Analisa as autorizações dos utilizadores e fornece sugestões sobre a redução das autorizações para ajudar a aplicar o princípio do menor privilégio.
Firewall Insights Analisa as regras de firewall, identifica regras de firewall excessivamente permissivas e sugere firewalls mais restritivos para ajudar a reforçar a sua postura de segurança geral.
Cloud Logging Oferece visibilidade da atividade do sistema e ajuda a ativar a deteção de anomalias e atividade maliciosa.
Cloud Monitoring Monitoriza sinais e eventos principais que podem ajudar a identificar atividade suspeita.
Preventivo Serviço de políticas da organização Permite-lhe restringir ações na sua Google Cloud organização.

O que se segue?