Compila e implementa modelos de IA generativa y aprendizaje automático en una empresa

Last reviewed 2024-03-28 UTC

A medida que los modelos de IA generativa y de aprendizaje automático (AA) se vuelven más comunes en las actividades y los procesos comerciales de las empresas, cada vez más empresas necesitan orientación sobre el desarrollo de modelos para garantizar la coherencia, la repetibilidad, la seguridad y la seguridad. Para ayudar a las grandes empresas a crear e implementar modelos de IA y AA generativos, creamos el plano de IA generativa y aprendizaje automático empresarial. Este plano te proporciona una guía completa de todo el ciclo de vida del desarrollo de la IA, desde la exploración y experimentación preliminar de datos hasta el entrenamiento, la implementación y la supervisión de modelos.

El plano de IA generativa y AA empresarial te brinda muchos beneficios, incluidos los siguientes:

  • Orientación prescriptiva: Orientación clara sobre cómo crear, configurar e implementar un entorno de desarrollo de IA generativa y AA basado en Vertex AI. Puedes usar Vertex AI para desarrollar tus propios modelos.
  • Mayor eficiencia: Amplia automatización para ayudar a reducir el trabajo repetitivo de implementar infraestructura y desarrollar modelos de AA y IA generativa. La automatización te permite enfocarte en tareas agregadas por valor, como el diseño y la experimentación de modelos.
  • Administración y auditabilidad mejoradas: La reproducibilidad, la trazabilidad y la implementación controlada de los modelos se incorporan en el diseño de este plano. Este beneficio te permite administrar mejor el ciclo de vida de los modelos de IA y AA generativos y te ayuda a garantizar que puedas volver a entrenar y evaluar los modelos de forma coherente, con registros de auditoría claros.
  • Seguridad: el plano está diseñado para alinearse con los requisitos del framework del Instituto Nacional de Normas y Tecnología (NIST) y del framework del Cyber Risk Institute (CRI).

El plano de IA generativa y AA empresarial incluye lo siguiente:

  • Un repositorio de GitHub que contiene un conjunto de opciones de configuración de Terraform, un notebook de Jupyter, una definición VVertex AI Pipelines, un grafo acíclico dirigido (DAG) de Cloud Composer y secuencias de comandos auxiliares. Los componentes del repositorio completan lo siguiente:
    • La configuración de Terraform establece una plataforma de desarrollo de modelos de Vertex AI que puede admitir varios equipos de desarrollo de modelos.
    • El notebook de Jupyter te permite desarrollar un modelo de forma interactiva.
    • La definición de Vertex AI Pipelines traduce el notebook de Jupyter en un patrón reproducible que se puede usar para entornos de producción.
    • El DAG de Cloud Composer proporciona un método alternativo a Vertex AI Pipelines.
    • Las secuencias de comandos complementarias ayudan a implementar el código y las canalizaciones de Terraform.
  • Una guía sobre la arquitectura, el diseño, los controles de seguridad y los procesos operativos que usas con este plano para implementar (este documento).

El plano de AA y IA generativa empresarial está diseñado para ser compatible con el plano de bases empresarial. El plano de base empresarial proporciona una serie de servicios de nivel base en los que se basa este plano, como las redes de VPC. Puedes implementar el plano de IA generativa y AA empresarial sin implementar el plano de base empresarial si tu entorno de Google Cloud proporciona la funcionalidad necesaria para admitir el plano de IA generativa y AA empresarial.

Este documento está dirigido a ingenieros de datos, arquitectos de la nube y científicos de datos que pueden usar el plano para compilar y, luego, implementar modelos de IA generativa o AA nuevos en Google Cloud. En este documento, se supone que estás familiarizado con el desarrollo de modelos de IA y AA de IA generativa y la plataforma de aprendizaje automático de Vertex AI.

Descripción general del plano de IA generativa y AA empresarial

El plano de IA y AA generativa empresarial adopta un enfoque en capas para proporcionar las capacidades que permiten el entrenamiento de modelos de IA y AA generativos. El plano está diseñado para implementarse y controlarse a través de un flujo de trabajo de operaciones de AA (MLOps). En el siguiente diagrama, se muestra cómo se relaciona la capa de MLOps que implementa este plano con otras capas en el entorno.

Las capas del plano.

En este diagrama, se incluye lo siguiente:

  • La infraestructura de Google Cloud te proporciona funciones de seguridad como la encriptación en reposo y la encriptación en tránsito., así como con componentes básicos, como el procesamiento y el almacenamiento.
  • La base empresarial te proporciona un modelo de referencia de recursos como sistemas de identidad, herramientas de redes, registro, supervisión e implementación que te permiten adoptar Google Cloud para tus cargas de trabajo de IA.
  • La capa de datos es una capa opcional de la pila de desarrollo que te proporciona varias capacidades, como la transferencia de datos, el almacenamiento de datos, el control de acceso a los datos y la administración de datos, la supervisión y el uso compartido de datos.
  • La capa de AA y IA generativa (este plano) te permite compilar e implementar modelos. Puedes usar esta capa para la exploración y experimentación de datos preliminares, el entrenamiento de modelos, la entrega y la supervisión de modelos.
  • La CI/CD te proporciona las herramientas para automatizar el aprovisionamiento, la configuración, la administración y la implementación de la infraestructura, los flujos de trabajo y los componentes de software. Estos componentes te ayudan a garantizar implementaciones coherentes, confiables y auditables, a minimizar los errores manuales y a acelerar el ciclo de desarrollo general.

Para mostrar cómo se usan el entorno de AA y IA generativa, el plano incluye un desarrollo de modelo de AA de muestra. El desarrollo del modelo de muestra te guía para compilar un modelo, crear canalizaciones operativas, entrenar el modelo, probarlo y, luego, implementarlo.

Arquitectura

El plano de IA generativa y AA empresarial te brinda la capacidad de trabajar directamente con los datos. Puedes crear modelos en un entorno interactivo (desarrollo) y promoverlos a un entorno operativo (de producción o de no producción).

En el entorno interactivo, desarrollas modelos de AA con Vertex AI Workbench, que es un servicio de notebook de Jupyter administrado por Google. Compilarás capacidades de extracción de datos, transformación de datos y ajuste de modelos en el entorno interactivo y promoverlas al entorno operativo.

En el entorno operativo (no producción), usa canalizaciones para compilar y probar sus modelos de manera repetible y controlable. Una vez que estés satisfecho con el rendimiento del modelo, puedes implementarlo en el entorno operativo (producción). En el siguiente diagrama, se muestran los distintos componentes de los entornos interactivos y operativos.

La arquitectura del plano.

En este diagrama, se incluye lo siguiente:

  1. Sistemas de implementación: Los servicios como el catálogo de servicios y Cloud Build implementan recursos de Google Cloud en el entorno interactivo. Cloud Build también implementa recursos de Google Cloud y flujos de trabajo de creación de modelos en el entorno operativo.
  2. Fuentes de datos: Servicios como BigQuery, Cloud Storage, Spanner y AlloyDB para PostgreSQL alojan tus datos. El plano proporciona datos de ejemplo en BigQuery y Cloud Storage.
  3. Entorno interactivo: Es un entorno en el que puedes interactuar directamente con los datos, experimentar con modelos y compilar canalizaciones para usarlas en el entorno operativo.
  4. Entorno operativo: Un entorno en el que puedes compilar y probar tus modelos de forma repetible y, luego, implementarlos en producción.
  5. Servicios de modelo: Los siguientes servicios admiten varias actividades de MLOps:
  6. Almacenamiento de artefactos: Estos servicios almacenan el código y los contenedores, y para el desarrollo y las canalizaciones de modelos. Entre estos servicios, se incluyen los siguientes:
    • Artifact Registry almacena los contenedores que usan las canalizaciones en el entorno operativo para controlar las distintas etapas del desarrollo del modelo.
    • El repositorio de Git almacena la base de código de los diversos componentes que se usan en el desarrollo del modelo.

Arquetipos de la plataforma

Cuando implementas el plano, creas cuatro tipos de grupos de usuarios: un grupo de ingenieros de MLOps, un grupo de ingenieros DevOps, un grupo de científicos de datos y un grupo de ingenieros de datos. Los grupos tienen las siguientes responsabilidades:

  • El grupo Ingeniero de MLOps desarrolla las plantillas de Terraform que usa el catálogo de servicios. Este equipo proporciona plantillas que usan muchos modelos.
  • El grupo Ingeniero DevOps aprueba las plantillas de Terraform que crea el grupo de desarrolladores de MLOps.
  • El grupo científicos de datos desarrolla modelos, canalizaciones y contenedores que usan las canalizaciones. Por lo general, un solo equipo se dedica a crear un solo modelo.
  • El grupo Ingeniero de datos aprueba el uso de los artefactos que crea el grupo de ciencia de datos.

Estructura de la organización

Este plano usa la estructura organizativa del plano de base empresarial como la base para implementar cargas de trabajo de IA y AA. En el siguiente diagrama, se muestran los proyectos que se agregan a la base para habilitar las cargas de trabajo de IA y AA.

La estructura organizativa del plano.

En la siguiente tabla, se describen los proyectos que usan el plano de IA generativa y AA.

Carpeta Proyecto Descripción

common

prj-c-infra-pipeline

Contiene la canalización de implementación que se usa para compilar los componentes de IA generativa y AA del plano. Para obtener más información, consulta la canalización de infraestructura en el plano de base empresarial.

prj-c-service-catalog

Contiene la infraestructura que usa el catálogo de servicios para implementar recursos en el entorno interactivo.

development

prj-d-machine-learning

Contiene los componentes para desarrollar un caso de uso de IA y AA en un modo interactivo.

non-production

prj-n-machine-learning

Contiene los componentes para probar y evaluar un caso de uso de IA y AA que se pueden implementar en producción.

production

prj-p-machine-learning

Contiene los componentes para implementar un caso de uso de IA y AA en la producción.

Redes

El plano usa la red de VPC compartida creada en el plano de base empresarial. En el entorno interactivo (desarrollo), los notebooks de Vertex AI Workbench se implementan en proyectos de servicio. Los usuarios locales pueden acceder a los proyectos mediante el espacio de direcciones IP privadas en la red de VPC compartida. Los usuarios locales pueden acceder a las APIs de Google Cloud, como Cloud Storage, a través de Private Service Connect. Cada red de VPC compartida (desarrollo, no producción y producción) tiene un extremo de Private Service Connect distinto.

La red del plano.

El entorno operativo (producción y no producción) tiene dos redes de VPC compartidas independientes a las que los recursos locales pueden acceder a través de direcciones IP privadas. Los entornos interactivos y operativos están protegidos mediante los Controles del servicio de VPC.

Cloud Logging

Este plano usa las capacidades de Cloud Logging que proporciona el plano de base empresarial.

Cloud Monitoring

Para supervisar los trabajos de entrenamiento personalizados, el plano incluye un panel que te permite supervisar las siguientes métricas:

  • Uso de CPU de cada nodo de entrenamiento
  • Uso de memoria de cada nodo de entrenamiento
  • Uso de red

Si un trabajo de entrenamiento personalizado falló, el plano usa Cloud Monitoring para proporcionarte un mecanismo de alerta por correo electrónico a fin de notificarte sobre la falla. Para la supervisión de los modelos implementados que usan el extremo de Vertex AI, el plano viene con un panel con las siguientes métricas:

  • Métricas de rendimiento:
    • Predicciones por segundo
    • Latencia del modelo
  • Uso de recursos:
    • Uso de CPU
    • Uso de memoria

Configuración de las políticas de la organización

Además de las políticas de la organización creadas por el plano de base empresarial, este plano agrega las políticas de la organización que se enumeran en Postura predefinida para una IA segura, extendida.

Operaciones

En esta sección, se describen los entornos que se incluyen en el plano.

Entorno interactivo

Para que puedas explorar datos y desarrollar modelos mientras mantienes la postura de seguridad de tu organización, el entorno interactivo te proporciona un conjunto controlado de acciones que puedes realizar. Puedes implementar los recursos de Google Cloud con uno de los siguientes métodos:

  • Usar el catálogo de servicios, que se configura previamente mediante la automatización con plantillas de recursos
  • Compilar artefactos de código y confirmarlos en repositorios de Git mediante notebooks de Vertex AI Workbench

En el siguiente diagrama, se muestra el entorno interactivo.

El entorno interactivo del plano.

Un flujo interactivo típico tiene los siguientes pasos y componentes asociados:

  1. El catálogo de servicios proporciona una lista seleccionada de recursos de Google Cloud que los científicos de datos pueden implementar en el entorno interactivo. El científico de datos implementa el recurso de notebook de Vertex AI Workbench desde el catálogo de servicios.
  2. Los notebooks de Vertex AI Workbench son la interfaz principal que usan los científicos de datos para trabajar con recursos de Google Cloud que se implementan en el entorno interactivo. Los notebooks permiten a los científicos de datos extraer su código de Git y actualizarlo según sea necesario.
  3. Los datos de origen se almacenan fuera del entorno interactivo y se administran por separado de este plano. Un propietario de los datos controla el acceso a los datos. Los científicos de datos pueden solicitar acceso de lectura a los datos de origen, pero no pueden escribir en ellos.
  4. Los científicos de datos pueden transferir datos de origen al entorno interactivo hacia recursos creados a través del catálogo de servicios. En el entorno interactivo, los científicos de datos pueden leer, escribir y manipular los datos. Sin embargo, los científicos de datos no pueden transferir datos fuera del entorno interactivo ni otorgar acceso a los recursos que crea el catálogo de servicios. BigQuery almacena datos estructurados y semiestructurados, y Cloud Storage almacena datos no estructurados.
  5. Feature Store proporciona a los científicos de datos acceso de baja latencia a los atributos para el entrenamiento de modelos.
  6. Los científicos de datos entrenan modelos mediante trabajos de entrenamiento personalizados de Vertex AI. El plano también usa Vertex AI para el ajuste de hiperparámetros.

  7. Los científicos de datos evalúan modelos mediante el uso de Vertex AI Experiments y Vertex AI TensorBoard. Vertex AI Experiments te permite ejecutar varios entrenamientos en un modelo con diferentes parámetros, técnicas de modelado, arquitecturas y entradas. Vertex AI TensorBoard te permite hacer un seguimiento, visualizar y comparar los diversos experimentos que ejecutaste y, luego, elegir el modelo con las mejores características observadas para validar.

  8. Los científicos de datos validan sus modelos con la evaluación de Vertex AI. Para validar sus modelos, los científicos de datos dividen los datos de origen en un conjunto de datos de entrenamiento y un conjunto de datos de validación, y ejecutan una evaluación de Vertex AI en el modelo.

  9. Los científicos de datos compilan contenedores mediante Cloud Build, los almacenan en Artifact Registry y los usan en canalizaciones que se encuentran en el entorno operativo.

Entorno operativo

El entorno operativo usa un repositorio de Git y canalizaciones. Este entorno incluye el entorno de producción y el de no producción del plano de base empresarial. En el entorno que no es de producción, el científico de datos selecciona una canalización de una de las canalizaciones que se desarrolló en el entorno interactivo. El científico de datos puede ejecutar la canalización en el entorno que no es de producción, evaluar los resultados y, luego, determinar qué modelo promover al entorno de producción.

El plano incluye una canalización de ejemplo que se compiló con Cloud Composer y una canalización de ejemplo que se compiló con Vertex AI Pipelines. En el siguiente diagrama, se muestra el entorno operativo.

El entorno operativo del plano.

Un flujo operativo típico tiene los siguientes pasos:

  1. Un científico de datos fusiona una rama de desarrollo con éxito en una rama de implementación.
  2. La combinación en la rama de implementación activa una canalización de Cloud Build.
  3. Ocurre uno de los siguientes elementos:
    • Si un científico de datos usa Cloud Composer como organizador, la canalización de Cloud Build mueve un DAG a Cloud Storage.
    • Si el científico de datos usa Vertex AI Pipelines como organizador, la canalización mueve un archivo de Python a Cloud Storage.
  4. La canalización de Cloud Build activa el organizador (Cloud Composer o Vertex AI Pipelines).
  5. El organizador extrae su definición de canalización de Cloud Storage y comienza a ejecutar la canalización.
  6. La canalización extrae un contenedor de Artifact Registry que usan todas las etapas de la canalización para activar los servicios de Vertex AI.
  7. La canalización, mediante el contenedor, activa una transferencia de datos desde el proyecto de datos de origen al entorno operativo.
  8. La canalización transforma, valida, divide y prepara los datos para el entrenamiento y la validación de modelos.
  9. Si es necesario, la canalización mueve los datos a Vertex AI Feature Store para un acceso fácil durante el entrenamiento de modelos.
  10. La canalización usa el entrenamiento de modelos personalizados de Vertex AI para entrenar el modelo.
  11. La canalización usa la evaluación de Vertex AI para validar el modelo.
  12. La canalización importa un modelo validado a Model Registry.
  13. El modelo importado se usa para generar predicciones a través de predicciones en línea o predicciones por lotes.
  14. Después de implementar el modelo en el entorno de producción, la canalización usa Vertex AI Model Monitoring para detectar si el rendimiento del modelo se degrada mediante la supervisión del sesgo del entrenamiento y del desvío de predicción.

Deployment

El plano usa una serie de canalizaciones de Cloud Build para aprovisionar la infraestructura del plano, la canalización en el entorno operativo y los contenedores usados a fin de crear modelos de AA y IA generativa. Las canalizaciones usadas y los recursos aprovisionados son las siguientes:

  • Canalización de infraestructura: Esta canalización es parte del plano de base empresarial. Esta canalización aprovisiona los recursos de Google Cloud asociados con el entorno interactivo y el entorno operativo.
  • Canalización interactiva: La canalización interactiva es parte del entorno interactivo. Esta canalización copia las plantillas de Terraform de un repositorio de Git a un bucket de Cloud Storage que el catálogo de servicios puede leer. La canalización interactiva se activa cuando se realiza una solicitud de extracción para fusionarse con la rama principal.
  • Canalización de contenedores: El plano incluye una canalización de Cloud Build para compilar contenedores que se usan en la canalización operativa. Los contenedores que se implementan en varios entornos son imágenes de contenedor inmutables. Las imágenes de contenedor inmutables ayudan a garantizar que la misma imagen se implemente en todos los entornos y que no se pueda modificar mientras se ejecutan. Si necesitas modificar la aplicación, debes volver a compilar y volver a implementar la imagen. Las imágenes de contenedor que se usan en el plano se almacenan en Artifact Registry y se hacen referencia a ellas en los archivos de configuración que se usan en la canalización operativa.
  • Canalización operativa: La canalización operativa es parte del entorno operativo. Esta canalización copia los DAG para Cloud Composer o Vertex AI Pipelines, que luego se usan a fin de compilar, probar e implementar modelos.

Catálogo de servicios

El catálogo de servicios permite a los desarrolladores y administradores de la nube hacer que los usuarios empresariales internos puedan usar sus soluciones. Los módulos de Terraform en el catálogo de servicios se compilan y publican como artefactos en el bucket de Cloud Storage con la canalización de CI/CD de Cloud Build. Después de copiar los módulos en el bucket, los desarrolladores pueden usarlos para crear soluciones de Terraform en la página de administrador del catálogo de servicios, agregar las soluciones al catálogo de servicios y compartir las soluciones con proyectos de entorno interactivos para que usuarios pueden implementar los recursos.

El entorno interactivo usa el catálogo de servicios para permitir que los científicos de datos implementen recursos de Google Cloud de una manera que cumpla con la postura de seguridad de su empresa. Cuando se desarrolla un modelo que requiere recursos de Google Cloud, como un bucket de Cloud Storage, el científico de datos selecciona el recurso del catálogo de servicios, lo configura y lo implementa en el entorno interactivo. El catálogo de servicios contiene plantillas preconfiguradas para varios recursos de Google Cloud que los científicos de datos pueden implementar en el entorno interactivo. Los científicos de datos no pueden modificar las plantillas de recursos, pero pueden configurarlos a través de las variables de configuración que expone la plantilla. En el siguiente diagrama, se muestra la estructura de cómo se interrelacionan el catálogo de servicios y el entorno interactivo.

El catálogo de planos.

Los científicos de datos implementan recursos mediante el catálogo de servicios, como se describe en los siguientes pasos:

  1. El ingeniero de MLOps coloca una plantilla de recursos de Terraform para Google Cloud en un repositorio de Git.
  2. La confirmación a Git activa una canalización de Cloud Build.
  3. Cloud Build copia la plantilla y los archivos de configuración asociados en Cloud Storage.
  4. El ingeniero de MLOps configura las soluciones del catálogo de servicios y el catálogo de servicios de forma manual. Luego, el ingeniero comparte el catálogo de servicios con un proyecto de servicio en el entorno interactivo.
  5. El científico de datos selecciona un recurso del catálogo de servicios.
  6. El catálogo de servicios implementa la plantilla en el entorno interactivo.
  7. El recurso extrae las secuencias de comandos de configuración necesarias.
  8. El científico de datos interactúa con los recursos.

Repositorios

Las canalizaciones descritas en Implementación se activan mediante cambios en su repositorio correspondiente. Para garantizar que nadie pueda realizar cambios independientes en el entorno de producción, existe una separación de responsabilidades entre los usuarios que pueden enviar el código y los que pueden aprobar cambios en el código. En la siguiente tabla, se describen los repositorios de planos, y sus remitentes y responsables de aprobación.

Repositorio Canalización Descripción Remitente Aprobador

ml-foundation

Infraestructura
Contiene el código de Terraform para el plano de AA y IA generativa que crea los entornos interactivos y operativos. Ingeniero de MLOps Ingeniero DevOps

service-catalog

Interactiva Contiene las plantillas para los recursos que el catálogo de servicios puede implementar. Ingeniero de MLOps Ingeniero DevOps

artifact-publish

Contenedor Contiene los contenedores que pueden usar las canalizaciones en el entorno operativo. Científico de datos Ingeniero de datos

machine-learning

Operativos Contiene el código fuente que pueden usar las canalizaciones en el entorno operativo. Científico de datos Ingeniero de datos

Estrategia de ramificación

El plano usa ramificaciones persistentes para implementar código en el entorno asociado. El plano usa tres ramas (desarrollo, no producción y producción) que reflejan los entornos correspondientes.

Controles de seguridad

El plano de AA y IA generativa empresarial usa un modelo de seguridad de defensa en profundidad en capas que usa las funciones predeterminadas de Google Cloud, los servicios de Google Cloud y las capacidades de seguridad que se configuran a través del plano de base empresarial. En el siguiente diagrama, se muestran las capas de los diversos controles de seguridad del plano.

Los controles de seguridad del plano.

Las funciones de las capas son las siguientes:

  • Interfaz: Proporciona a los científicos de datos servicios que les permiten interactuar con el plano de manera controlada.
  • Implementación: proporciona una serie de canalizaciones que implementan infraestructura, compilan contenedores y crean modelos. El uso de canalizaciones permite la auditabilidad, la trazabilidad y la repetibilidad.
  • Herramientas de redes: proporciona protecciones contra el robo de datos alrededor de los recursos del plano en la capa de la API y la capa de IP.
  • Administración de acceso: controla quién puede acceder a qué recursos y ayuda a evitar el uso no autorizado de los recursos.
  • Encriptación: te permite controlar tus claves de encriptación y los Secrets, y ayudar a proteger tus datos a través de la encriptación en reposo y en tránsito predeterminada.
  • Detectivo: Te ayuda a detectar opciones de configuración incorrectas y actividad maliciosa.
  • Preventivo: Te proporciona los medios para controlar y restringir la forma en que se implementa tu infraestructura.

En la siguiente tabla, se describen los controles de seguridad asociados con cada capa.

Capa Recurso Control de seguridad
Interfaz Vertex AI Workbench Proporciona una experiencia de notebook administrada que incorpora el control de acceso de los usuarios, el control de acceso a la red, el control de acceso de IAM y las descargas de archivos inhabilitadas. Estas funciones permiten brindar una experiencia del usuario más segura.
Repositorios de Git Proporciona control de acceso de usuario para proteger tus repositorios.
Catálogo de servicios Proporciona a los científicos de datos una lista seleccionada de recursos que solo se pueden implementar en opciones de configuración aprobadas.
Deployment Canalización de infraestructura Proporciona un flujo seguro para implementar la infraestructura de plano mediante el uso de Terraform.
Canalización interactiva Proporciona un flujo seguro para transferir plantillas de un repositorio de Git a un bucket dentro de tu organización de Google Cloud.
Canalización de contenedor Proporciona un flujo seguro para compilar contenedores que usa la canalización operativa.
Canalización operativa Proporciona un flujo controlado para entrenar, probar, validar e implementar modelos.
Artifact Registry Almacena imágenes de contenedores de manera segura mediante el control de acceso a los recursos.
Red Private Service Connect Te permite comunicarte con las APIs de Google Cloud mediante direcciones IP privadas para que puedas evitar exponer el tráfico a Internet.
VPC con direcciones IP privadas El plano usa VPC con direcciones IP privadas para ayudar a quitar la exposición a las amenazas orientadas a Internet.
Controles del servicio de VPC Ayuda a proteger los recursos protegidos contra el robo de datos.
Firewall Ayuda a proteger la red de VPC contra el acceso no autorizado.
Administración de accesos Cloud Identity Proporciona administración de usuarios centralizada, lo que reduce el riesgo de acceso no autorizado.
IAM Proporciona un control detallado de quién puede hacer qué con qué recursos, lo que habilita el privilegio mínimo en la administración del acceso.
Encriptación Cloud KMS Te permite controlar las claves de encriptación que se usan en tu organización de Google Cloud.
Secret Manager Proporciona un almacén secreto para tus modelos que controla IAM.
Encriptación en reposo De forma predeterminada, Google Cloud encripta los datos en reposo.
Encriptación en tránsito De forma predeterminada, Google Cloud encripta los datos en tránsito.
De detección Security Command Center Proporciona detectores de amenazas que ayudan a proteger tu organización de Google Cloud.
Arquitectura continua Revisa de forma continua tu organización de Google Cloud con una serie de políticas de agente de política abierta (OPA) que definiste.
Recomendador de IAM Analiza los permisos del usuario y proporciona sugerencias sobre la reducción de permisos para ayudar a aplicar el principio de privilegio mínimo.
Estadísticas de firewall Analiza reglas de firewall, identifica reglas de firewall demasiado permisivas y sugiere firewalls más restrictivos para ayudar a fortalecer tu postura de seguridad general.
Cloud Logging Proporciona visibilidad de la actividad del sistema y ayuda a permitir la detección de anomalías y actividad maliciosa.
Cloud Monitoring Realiza un seguimiento de las señales y los eventos clave que pueden ayudar a identificar actividades sospechosas.
Preventivo Servicio de políticas de la organización Te permite restringir acciones dentro de la organización de Google Cloud.

¿Qué sigue?