Secure AI Framework (SAIF) y Google Cloud

GShield

Secure AI Framework (SAIF) y Google Cloud

Secure AI Framework (SAIF) y Google Cloud

Secure AI Framework (SAIF) ofrece orientación a las organizaciones que buscan proteger los sistemas de IA.

Google creó SAIF.google, que incluye una autoevaluación de riesgos de SAIF para respaldar la implementación de SAIF en las organizaciones y ayudar a crear y a implementar sistemas de IA de forma segura.

A continuación, analizamos la cartera de Google Cloud Security a través de la lente de SAIF y mostramos cómo podemos ayudar a tu organización a mitigar los posibles riesgos de la IA con varias soluciones y controles de la nube.

Cómo funciona

¿Quieres abordar los riesgos identificados en tu informe de riesgos de SAIF? Comienza hoy mismo.

Usos comunes

Contaminación de datos

Como parte del compromiso de Google Cloud con la seguridad, nuestros modelos básicos tienen controles de acceso amplios para evitar la lectura o copia no autorizadas, así como capacidades de detección de vanguardia para supervisar las acciones no autorizadas.

Google Cloud también proporciona controles que nuestros clientes pueden configurar en nuestra plataforma para proteger el uso de nuestros modelos o sus propios servicios de terceros. Las políticas organizativas y los controles del servicio de VPC evitan el robo de datos junto con los controles detallados de administración de identidades y accesos (IAM) que impiden el acceso no autorizado.

Obtén más información sobre las formas en que Google Cloud ayuda a los clientes a proteger sus datos:

  • Controles del servicio de VPC: Crea perímetros de aislamiento alrededor de tus recursos en la nube, datos sensibles y redes para evitar el robo de datos, incluidas las políticas específicas de Vertex AI.
  • Proporcionar protecciones de seguridad para aplicar qué configuraciones de recursos se permiten o se deniegan con el servicio de políticas de la organización
  • Organiza, haz un seguimiento y administra el ciclo de vida de los modelos de AA con Vertex AI Model Registry.
  • Administración de la postura de seguridad de los datos: Administra los modelos, los conjuntos de datos y los artefactos de AA relacionados para la seguridad, la privacidad y el cumplimiento a través de políticas de control de acceso y flujo.
  • La IA confidencial impulsada por Confidential Computing extiende la protección de datos y modelos basada en hardware con confidencialidad, integridad y aislamiento de la CPU a las GPU, lo que permite cargas de trabajo aceleradas fundamentales para la IA y el aprendizaje automático. Hace poco, anunciamos dos nuevas ofertas de Confidential Computing diseñadas específicamente para proteger la privacidad y la confidencialidad de las cargas de trabajo de IA/AA: Confidential VMs con la tecnología de las GPU NVIDIA H100 Tensor Core y Confidential VMs con compatibilidad con las Extensiones de Matriz Avanzadas (Intel AMX) de Intel. Obtén más información.
  • Privileged Access Manager de Google: Asegure la confianza en sus datos y el acceso a la clave de encriptación con la Aprobación de acceso, la Transparencia de acceso y las Key Access Justifications. Google comparte las solicitudes de acceso a los datos de clientes de los empleados de Google y les brinda la capacidad de exigir controles explícitos (aprobación de acceso para el cliente como aprobador de varias partes) o basados en justificaciones y aplicados de forma criptográfica (Key Access Justifications) sobre el acceso a los datos del proveedor de servicios en la nube, incluidas las cargas de trabajo de IA. La verificación criptográfica y los registros detallados garantizan una transparencia y un control totales, lo que genera confianza en el manejo de tus datos sensibles por parte de Google, incluidos los datos relacionados con la IA. 

    Como parte del compromiso de Google Cloud con la seguridad, nuestros modelos básicos tienen controles de acceso amplios para evitar la lectura o copia no autorizadas, así como capacidades de detección de vanguardia para supervisar las acciones no autorizadas.

    Google Cloud también proporciona controles que nuestros clientes pueden configurar en nuestra plataforma para proteger el uso de nuestros modelos o sus propios servicios de terceros. Las políticas organizativas y los controles del servicio de VPC evitan el robo de datos junto con los controles detallados de administración de identidades y accesos (IAM) que impiden el acceso no autorizado.

    Obtén más información sobre las formas en que Google Cloud ayuda a los clientes a proteger sus datos:

    • Controles del servicio de VPC: Crea perímetros de aislamiento alrededor de tus recursos en la nube, datos sensibles y redes para evitar el robo de datos, incluidas las políticas específicas de Vertex AI.
    • Proporcionar protecciones de seguridad para aplicar qué configuraciones de recursos se permiten o se deniegan con el servicio de políticas de la organización
    • Organiza, haz un seguimiento y administra el ciclo de vida de los modelos de AA con Vertex AI Model Registry.
    • Administración de la postura de seguridad de los datos: Administra los modelos, los conjuntos de datos y los artefactos de AA relacionados para la seguridad, la privacidad y el cumplimiento a través de políticas de control de acceso y flujo.
    • La IA confidencial impulsada por Confidential Computing extiende la protección de datos y modelos basada en hardware con confidencialidad, integridad y aislamiento de la CPU a las GPU, lo que permite cargas de trabajo aceleradas fundamentales para la IA y el aprendizaje automático. Hace poco, anunciamos dos nuevas ofertas de Confidential Computing diseñadas específicamente para proteger la privacidad y la confidencialidad de las cargas de trabajo de IA/AA: Confidential VMs con la tecnología de las GPU NVIDIA H100 Tensor Core y Confidential VMs con compatibilidad con las Extensiones de Matriz Avanzadas (Intel AMX) de Intel. Obtén más información.
    • Privileged Access Manager de Google: Asegure la confianza en sus datos y el acceso a la clave de encriptación con la Aprobación de acceso, la Transparencia de acceso y las Key Access Justifications. Google comparte las solicitudes de acceso a los datos de clientes de los empleados de Google y les brinda la capacidad de exigir controles explícitos (aprobación de acceso para el cliente como aprobador de varias partes) o basados en justificaciones y aplicados de forma criptográfica (Key Access Justifications) sobre el acceso a los datos del proveedor de servicios en la nube, incluidas las cargas de trabajo de IA. La verificación criptográfica y los registros detallados garantizan una transparencia y un control totales, lo que genera confianza en el manejo de tus datos sensibles por parte de Google, incluidos los datos relacionados con la IA. 

      ¿Necesitas asistencia adicional para abordar riesgos de la IA como la exfiltración de modelos, la manipulación de la fuente del modelo y la contaminación de datos?

      Los servicios de consultoría de Google Cloud te ayudan a lograr una postura de seguridad de IA sólida para los controles de acceso a modelos y datos. 

      • Bases de seguridad en la nube: Establece bases de infraestructura sólidas y seguras con las protecciones necesarias para ejecutar cargas de trabajo de IA.
      • Acelerador de seguridad de la IA generativa: Aprende de los especialistas en seguridad de la IA de Google cómo implementar el Secure AI Framework de Google para proteger tus cargas de trabajo de la IA generativa contra riesgos específicos de la IA.
      • Endurecimiento de la seguridad: Diseño seguro y la implementación de servicios de IA de extremo a extremo mediante la infraestructura como código (IaC).
      • Simulaciones de amenazas avanzadas: Simula amenazas de IA del mundo real en un entorno aislado de Google Cloud para entrenar a los equipos de seguridad y evaluar su preparación para responder a incidentes de seguridad.

      Contacta a los servicios de Google Cloud Consulting

      Trabaja con expertos de Mandiant para aprovechar la IA de forma segura. 

      • Equipo rojo para la IA: Valida tus defensas que protegen los sistemas de IA y evalúa tu capacidad para detectar y responder a un ataque activo que involucre sistemas de IA.
      • Protege el uso de la IA: Evalúa la arquitectura, las defensas de datos y las aplicaciones creadas con modelos de IA, y desarrolla modelos de amenazas con frameworks de seguridad.

      Comunícate con los expertos en seguridad de Mandiant


      ¿Te preguntas a qué preguntas de la autoevaluación de riesgos de SAIF se relaciona esta categoría de riesgo?

      • ¿Puedes detectar, quitar y corregir cambios maliciosos o accidentales en tus datos de entrenamiento, ajuste o evaluación? 
      • ¿Tienes un inventario completo de todos los modelos, conjuntos de datos (para entrenamiento, ajuste o evaluación) y artefactos de AA relacionados (como código)? 
      • ¿Tienes controles de acceso sólidos en todos los modelos, conjuntos de datos y artefactos de AA relacionados para minimizar, detectar y evitar la lectura o copia no autorizada? 
      • ¿Puedes garantizar que todos los datos, modelos y código que se usan para entrenar, ajustar o evaluar modelos no se pueden alterar sin que se detecte durante el desarrollo y la implementación del modelo?
      • ¿Los frameworks, bibliotecas, sistemas de software y componentes de hardware que se usan en el desarrollo y la implementación de tus modelos se analizan para detectar vulnerabilidades de seguridad y se protegen contra ellas?
      Realiza la autoevaluación de riesgos de SAIF

        Denegación del servicio de AA

        La seguridad es un principio clave de Google Cloud y adoptamos un enfoque de defensa en profundidad. Como parte de nuestras medidas sólidas, contamos con capacidades sólidas para protegernos contra interrupciones del servicio, como los ataques de denegación de servicio distribuido (DDoS). También proporcionamos controles adicionales que los clientes pueden usar para protegerse contra ataques de DDoS y de capa de aplicación a través de Cloud Armor.

        Nuestra solución de administración de seguridad y riesgos integrada, Security Command Center, protege las aplicaciones de Vertex AI con controles preventivos y de detección. Esto incluye responder a los eventos de seguridad de Vertex AI y la simulación de la ruta de ataque para imitar cómo un atacante del mundo real podría acceder a las cargas de trabajo de Vertex AI y comprometerlas.   

        Para las aplicaciones de IA, los clientes también pueden usar Model Armor para inspeccionar, enrutar y proteger las instrucciones y respuestas del modelo de base. Puede ayudar a los clientes a mitigar riesgos como las inyecciones de instrucciones, los jailbreaks, el contenido tóxico y la filtración de datos sensibles. Model Armor se integrará en productos de Google Cloud, incluido Vertex AI. Si quieres obtener más información sobre el acceso anticipado a Model Armor, puedes registrarte aquí o mirar nuestro video on demand.


          La seguridad es un principio clave de Google Cloud y adoptamos un enfoque de defensa en profundidad. Como parte de nuestras medidas sólidas, contamos con capacidades sólidas para protegernos contra interrupciones del servicio, como los ataques de denegación de servicio distribuido (DDoS). También proporcionamos controles adicionales que los clientes pueden usar para protegerse contra ataques de DDoS y de capa de aplicación a través de Cloud Armor.

          Nuestra solución de administración de seguridad y riesgos integrada, Security Command Center, protege las aplicaciones de Vertex AI con controles preventivos y de detección. Esto incluye responder a los eventos de seguridad de Vertex AI y la simulación de la ruta de ataque para imitar cómo un atacante del mundo real podría acceder a las cargas de trabajo de Vertex AI y comprometerlas.   

          Para las aplicaciones de IA, los clientes también pueden usar Model Armor para inspeccionar, enrutar y proteger las instrucciones y respuestas del modelo de base. Puede ayudar a los clientes a mitigar riesgos como las inyecciones de instrucciones, los jailbreaks, el contenido tóxico y la filtración de datos sensibles. Model Armor se integrará en productos de Google Cloud, incluido Vertex AI. Si quieres obtener más información sobre el acceso anticipado a Model Armor, puedes registrarte aquí o mirar nuestro video on demand.


            ¿Necesitas asistencia adicional para abordar los riesgos de la IA, como la denegación del servicio de AA y la ingeniería inversa de modelos?

            Trabaja con expertos de Mandiant para aprovechar la IA de forma segura.

            • Equipo rojo para la IA: Valida tus defensas que protegen los sistemas de IA y evalúa tu capacidad para detectar y responder a un ataque activo que involucre sistemas de IA.
            • Protege el uso de la IA: Evalúa la arquitectura, las defensas de datos y las aplicaciones creadas con modelos de IA, y desarrolla modelos de amenazas con frameworks de seguridad.

            Comunícate con los expertos en seguridad de Mandiant


            ¿Te preguntas a qué preguntas de la autoevaluación de riesgos de SAIF se relaciona esta categoría de riesgo?

            • ¿Proteges tus aplicaciones y modelos de IA generativa contra consultas maliciosas a gran escala desde cuentas de usuarios, dispositivos o a través de APIs?
            Realiza la autoevaluación de riesgos de SAIF

              Fortalece tu postura de seguridad de IA con Google Cloud

              ¿Quieres entender qué hace que la seguridad de la IA sea única? Descubre las diferencias de seguridad entre la IA y el desarrollo de software tradicional.

              ¿Necesitas iniciar la conversación sobre la IA en tu organización? Comienza hoy mismo con siete preguntas clave que los CISO deberían hacerse y responder para usar la IA de forma segura y aprovechar sus beneficios de seguridad.

              IA generativa, privacidad y Google Cloud: ¿Estás listo para abordar los componentes de datos de la IA? Obtén más información sobre el enfoque de Google Cloud para la privacidad y la protección de datos cuando se desarrollan servicios de IA generativa.

              Google Cloud