Marco para la IA Segura (SAIF) y Google Cloud

GShield

Marco para la IA Segura (SAIF) y Google Cloud

Marco para la IA Segura (SAIF) y Google Cloud

El Marco para la IA Segura (SAIF) ofrece orientación a las empresas que quieren proteger sus sistemas de IA.

Google ha creado SAIF.google, que incluye una autoevaluación de riesgos de SAIF para facilitar la implementación de SAIF en las empresas y ayudarlas a crear y desplegar sistemas de IA de forma segura.

A continuación, analizaremos la cartera de Google Cloud Security a través de la SAIF y mostraremos cómo podemos ayudar a tu empresa a mitigar los posibles riesgos de la IA con varias soluciones y controles en la nube.

Cómo funciona

¿Quieres abordar los riesgos que se han identificado en tu informe de riesgos de SAIF? Empieza hoy mismo.

Usos habituales

Contaminación de datos

Como parte del compromiso de Google Cloud con la seguridad, nuestros modelos básicos cuentan con controles de acceso exhaustivos para evitar la copia o lectura no autorizada, así como funciones de detección de última generación para monitorizar las acciones no autorizadas.

Google Cloud también proporciona controles que los clientes pueden configurar en nuestra plataforma para proteger el uso de nuestros modelos o de sus propios servicios de terceros. Las políticas de la organización y los controles de servicio de VPC impiden la exfiltración de datos, y los controles detallados de gestión de identidades y accesos (IAM) impiden el acceso no autorizado.

Más información sobre las formas en que Google Cloud ayuda a los clientes a proteger sus datos:

  • Controles de servicio de VPC: evita las filtraciones externas de datos creando perímetros de aislamiento alrededor de tus recursos en la nube, datos sensibles y redes, incluidas políticas específicas de Vertex AI.
  • Proporcionar barreras de seguridad para aplicar qué configuraciones de recursos se permiten o deniegan con el servicio de políticas de organización.
  • Organiza, monitoriza y gestiona el ciclo de vida de los modelos de aprendizaje automático con el Registro de modelos de Vertex AI.
  • Gestión de la posición de seguridad de los datos: gobierna los modelos, los conjuntos de datos y los artefactos de aprendizaje automático relacionados para garantizar la seguridad, la privacidad y el cumplimiento mediante políticas de acceso y control de flujo.
  • La IA confidencial basada en Confidential Computing amplía la protección de datos y modelos basada en hardware con confidencialidad, integridad y aislamiento desde la CPU hasta las GPUs, lo que permite agilizar las cargas de trabajo esenciales para la IA y el aprendizaje automático. Hace poco, anunciamos dos nuevas ofertas de Confidential Computing diseñadas específicamente para proteger la privacidad y la confidencialidad de las cargas de trabajo de IA y aprendizaje automático: máquinas virtuales confidenciales con GPUs NVIDIA H100 Tensor Core y máquinas virtuales confidenciales con compatibilidad con Advanced Matrix Extensions (Intel AMX) de Intel. Más información
  • Privileged Access Management de Google: protege tus datos y el acceso a las claves de cifrado con Aprobaciones de acceso, Transparencia de acceso y Justificaciones de acceso a claves. Google comparte las solicitudes de acceso a datos de clientes realizadas por empleados de Google y ofrece a los clientes la posibilidad de exigir controles explícitos (aprobación de acceso para el cliente como Aprobador multiparte) o basados en justificaciones con medidas de seguridad criptográficas (Justificaciones de Acceso a Claves) para el acceso a datos de proveedores de servicios en la nube, incluidas las cargas de trabajo de IA. La verificación criptográfica y los registros detallados garantizan una transparencia y un control totales, lo que genera confianza en la gestión que hace Google de tus datos sensibles, incluidos los datos relacionados con la IA. 

    Como parte del compromiso de Google Cloud con la seguridad, nuestros modelos básicos cuentan con controles de acceso exhaustivos para evitar la copia o lectura no autorizada, así como funciones de detección de última generación para monitorizar las acciones no autorizadas.

    Google Cloud también proporciona controles que los clientes pueden configurar en nuestra plataforma para proteger el uso de nuestros modelos o de sus propios servicios de terceros. Las políticas de la organización y los controles de servicio de VPC impiden la exfiltración de datos, y los controles detallados de gestión de identidades y accesos (IAM) impiden el acceso no autorizado.

    Más información sobre las formas en que Google Cloud ayuda a los clientes a proteger sus datos:

    • Controles de servicio de VPC: evita las filtraciones externas de datos creando perímetros de aislamiento alrededor de tus recursos en la nube, datos sensibles y redes, incluidas políticas específicas de Vertex AI.
    • Proporcionar barreras de seguridad para aplicar qué configuraciones de recursos se permiten o deniegan con el servicio de políticas de organización.
    • Organiza, monitoriza y gestiona el ciclo de vida de los modelos de aprendizaje automático con el Registro de modelos de Vertex AI.
    • Gestión de la posición de seguridad de los datos: gobierna los modelos, los conjuntos de datos y los artefactos de aprendizaje automático relacionados para garantizar la seguridad, la privacidad y el cumplimiento mediante políticas de acceso y control de flujo.
    • La IA confidencial basada en Confidential Computing amplía la protección de datos y modelos basada en hardware con confidencialidad, integridad y aislamiento desde la CPU hasta las GPUs, lo que permite agilizar las cargas de trabajo esenciales para la IA y el aprendizaje automático. Hace poco, anunciamos dos nuevas ofertas de Confidential Computing diseñadas específicamente para proteger la privacidad y la confidencialidad de las cargas de trabajo de IA y aprendizaje automático: máquinas virtuales confidenciales con GPUs NVIDIA H100 Tensor Core y máquinas virtuales confidenciales con compatibilidad con Advanced Matrix Extensions (Intel AMX) de Intel. Más información
    • Privileged Access Management de Google: protege tus datos y el acceso a las claves de cifrado con Aprobaciones de acceso, Transparencia de acceso y Justificaciones de acceso a claves. Google comparte las solicitudes de acceso a datos de clientes realizadas por empleados de Google y ofrece a los clientes la posibilidad de exigir controles explícitos (aprobación de acceso para el cliente como Aprobador multiparte) o basados en justificaciones con medidas de seguridad criptográficas (Justificaciones de Acceso a Claves) para el acceso a datos de proveedores de servicios en la nube, incluidas las cargas de trabajo de IA. La verificación criptográfica y los registros detallados garantizan una transparencia y un control totales, lo que genera confianza en la gestión que hace Google de tus datos sensibles, incluidos los datos relacionados con la IA. 

      ¿Necesitas más ayuda para abordar los riesgos de la IA, como la exfiltración de modelos, la manipulación de fuentes de modelos y la contaminación de datos?

      Los servicios de consultoría de Google Cloud te ayudan a lograr una posición de seguridad sólida en IA para los controles de acceso a datos y modelos. 

      • Bases seguras en la nube: establece una infraestructura sólida y segura con las protecciones necesarias para ejecutar cargas de trabajo de IA.
      • Acelerador de seguridad de la IA generativa: descubre de la mano de los especialistas en seguridad de la IA de Google cómo implementar el Marco para la IA Segura de Google para proteger tus cargas de trabajo de IA generativa frente a riesgos específicos de la IA.
      • Refuerzo de la seguridad: diseño seguro y despliegue de servicios de IA de extremo a extremo mediante la infraestructura como código (IaC).
      • Simulaciones de amenazas avanzadas: simula amenazas de IA reales en un entorno aislado de Google Cloud para formar a los equipos de seguridad y evaluar su capacidad de respuesta ante incidentes de seguridad.

      Contactar con los servicios de consultoría de Google Cloud

      Colabora con expertos de Mandiant para aprovechar la IA de forma segura. 

      • Equipo rojo para la IA: valida las defensas que protegen los sistemas de IA y evalúa tu capacidad para detectar y responder a un ataque activo que involucre sistemas de IA.
      • Protege el uso de la IA: evalúa la arquitectura, las defensas de datos y las aplicaciones que se han creado a partir de modelos de IA, y desarrolla modelos de amenazas mediante marcos de seguridad.

      Contacta con los expertos de seguridad de Mandiant


      ¿Quieres saber a qué preguntas de la autoevaluación de riesgos de SAIF se refiere esta categoría de riesgos?

      • ¿Puedes detectar, eliminar y solucionar los cambios maliciosos o accidentales en tus datos de entrenamiento, ajuste o evaluación? 
      • ¿Tienes un inventario completo de todos los modelos, conjuntos de datos (para entrenar, ajustar o evaluar) y artefactos de aprendizaje automático relacionados (como el código)? 
      • ¿Tienes controles de acceso sólidos en todos los modelos, conjuntos de datos y artefactos de aprendizaje automático relacionados para minimizar, detectar y evitar la lectura o copia no autorizada? 
      • ¿Puedes asegurarte de que todos los datos, modelos y códigos que se usan para entrenar, afinar o evaluar modelos no puedan manipularse sin que se detecte durante el desarrollo y la implementación de los modelos?
      • ¿Los frameworks, bibliotecas, sistemas de software y componentes de hardware que se usan en el desarrollo y el despliegue de tus modelos se analizan y protegen frente a vulnerabilidades de seguridad?

        Denegación del servicio de aprendizaje automático

        La seguridad es uno de los principios fundamentales de Google Cloud, y aplicamos un enfoque de defensa en profundidad. Como parte de nuestras medidas sólidas, contamos con funciones eficaces para protegernos contra interrupciones del servicio, como la denegación de servicio distribuidos (DDoS). También proporcionamos controles adicionales que los clientes pueden utilizar para protegerse frente a este tipo de ataques DDoS y de capa de aplicación a través de Cloud Armor.

        Nuestra solución integrada de seguridad y gestión de riesgos, Security Command Center, protege las aplicaciones de Vertex AI con controles preventivos y de detección. Esto incluye la respuesta a eventos de seguridad de Vertex AI y la simulación de rutas de ataque para simular cómo podría un atacante real acceder a las cargas de trabajo de Vertex AI y ponerlas en peligro.   

        En el caso de las aplicaciones de IA, los clientes también pueden usar Model Armor para inspeccionar, enrutar y proteger las peticiones y respuestas del modelo fundacional. Puede ayudar a los clientes a mitigar riesgos como las inyecciones de peticiones, el jailbreaking, el contenido tóxico y la filtración de datos sensibles. Model Armor se integrará con productos de Google Cloud, como Vertex AI. Si quieres obtener más información sobre el acceso anticipado a Model Armor, puedes registrarte aquí o ver nuestro vídeo bajo demanda.


          La seguridad es uno de los principios fundamentales de Google Cloud, y aplicamos un enfoque de defensa en profundidad. Como parte de nuestras medidas sólidas, contamos con funciones eficaces para protegernos contra interrupciones del servicio, como la denegación de servicio distribuidos (DDoS). También proporcionamos controles adicionales que los clientes pueden utilizar para protegerse frente a este tipo de ataques DDoS y de capa de aplicación a través de Cloud Armor.

          Nuestra solución integrada de seguridad y gestión de riesgos, Security Command Center, protege las aplicaciones de Vertex AI con controles preventivos y de detección. Esto incluye la respuesta a eventos de seguridad de Vertex AI y la simulación de rutas de ataque para simular cómo podría un atacante real acceder a las cargas de trabajo de Vertex AI y ponerlas en peligro.   

          En el caso de las aplicaciones de IA, los clientes también pueden usar Model Armor para inspeccionar, enrutar y proteger las peticiones y respuestas del modelo fundacional. Puede ayudar a los clientes a mitigar riesgos como las inyecciones de peticiones, el jailbreaking, el contenido tóxico y la filtración de datos sensibles. Model Armor se integrará con productos de Google Cloud, como Vertex AI. Si quieres obtener más información sobre el acceso anticipado a Model Armor, puedes registrarte aquí o ver nuestro vídeo bajo demanda.


            ¿Necesitas más ayuda para abordar los riesgos de la IA, como la denegación del servicio de aprendizaje automático y la ingeniería inversa de modelos?

            Colabora con expertos de Mandiant para aprovechar la IA de forma segura.

            • Equipo rojo para la IA: valida las defensas que protegen los sistemas de IA y evalúa tu capacidad para detectar y responder a un ataque activo que involucre sistemas de IA.
            • Protege el uso de la IA: evalúa la arquitectura, las defensas de datos y las aplicaciones que se han creado a partir de modelos de IA, y desarrolla modelos de amenazas mediante marcos de seguridad.

            Contacta con los expertos de seguridad de Mandiant


            ¿Quieres saber a qué preguntas de la autoevaluación de riesgos de SAIF se refiere esta categoría de riesgos?

            • ¿Proteges tus aplicaciones y modelos de IA generativa frente a consultas maliciosas a gran escala procedentes de cuentas de usuario, dispositivos o APIs?
              Generar una solución
              ¿Qué problema intentas resolver?
              What you'll get:
              Guía paso a paso
              Arquitectura de referencia
              Soluciones prediseñadas disponibles
              Este servicio se ha creado con Vertex AI. Debes tener al menos 18 años para usarlo. No incluyas información sensible, confidencial ni personal.

              Refuerza tu posición de seguridad de la IA con Google Cloud

              ¿Quieres saber qué hace que la seguridad de la IA sea única? Descubre las diferencias en materia de seguridad entre el desarrollo de software tradicional y el basado en IA.

              ¿Necesitas iniciar la conversación sobre la IA en tu empresa? Empieza hoy mismo con siete preguntas clave que los CISO deberían hacerse y responder para usar la IA de forma segura y aprovechar sus ventajas en materia de seguridad.

              IA generativa, privacidad y Google Cloud: ¿estás preparado para abordar los componentes de datos de la IA? Consulta más información sobre el enfoque de Google Cloud en materia de privacidad y protección de datos al desarrollar servicios de IA generativa.

              Google Cloud