Framework de IA segura (SAIF) e Google Cloud

GShield

Framework de IA segura (SAIF) e Google Cloud

Framework de IA segura (SAIF) e Google Cloud

O framework de IA segura (SAIF) oferece orientação para organizações que buscam proteger sistemas de IA.

O Google criou o SAIF.google, que inclui uma autoavaliação de risco do SAIF para apoiar a implementação do SAIF nas organizações e ajudar a criar e implantar sistemas de IA com segurança.

A seguir, vamos analisar o portfólio de segurança do Google Cloud com base no SAIF e mostrar como podemos ajudar sua organização a reduzir os riscos potenciais de IA com várias soluções e controles de nuvem.

Como funciona

Quer tratar dos riscos identificados no seu relatório de risco SAIF? Comece hoje mesmo.

Usos comuns

Envenenamento de dados

Como parte do compromisso do Google Cloud com a segurança, nossos modelos de fundação têm controles de acesso abrangentes para evitar cópias ou leituras não autorizadas, além de recursos de detecção de última geração para monitorar ações não autorizadas.

O Google Cloud também oferece controles que os clientes podem configurar na nossa plataforma para proteger o uso dos modelos ou dos serviços de terceiros. As políticas organizacionais e os controles do serviço VPC impedem a exfiltração de dados, além de controles detalhados de gerenciamento de acesso e identidade (IAM) que evitam acessos não autorizados.

Saiba mais sobre como o Google Cloud ajuda os clientes a proteger os dados:

    Como parte do compromisso do Google Cloud com a segurança, nossos modelos de fundação têm controles de acesso abrangentes para evitar cópias ou leituras não autorizadas, além de recursos de detecção de última geração para monitorar ações não autorizadas.

    O Google Cloud também oferece controles que os clientes podem configurar na nossa plataforma para proteger o uso dos modelos ou dos serviços de terceiros. As políticas organizacionais e os controles do serviço VPC impedem a exfiltração de dados, além de controles detalhados de gerenciamento de acesso e identidade (IAM) que evitam acessos não autorizados.

    Saiba mais sobre como o Google Cloud ajuda os clientes a proteger os dados:

      Precisa de mais suporte para lidar com riscos de IA, como exfiltração de modelos, adulteração de fontes de modelos e envenenamento de dados?

      Os serviços de consultoria do Google Cloud ajudam você a alcançar uma postura de segurança de IA sólida para possibilitar controles de acesso a modelos e dados. 

      • Fundamentos seguros da nuvem: estabeleça bases de infraestrutura fortes e seguras com as proteções necessárias para executar cargas de trabalho de IA.
      • Acelerador de segurança de IA generativa: aprenda com especialistas em segurança de IA do Google a implementar o framework de IA segura do Google para proteger suas cargas de trabalho de IA generativa contra riscos específicos de IA.
      • Aumento da segurança: design seguro e implantação de serviços de IA completos usando a infraestrutura como código (IaC).
      • Simulações de ameaças avançadas: simule ameaças de IA reais em um ambiente isolado do Google Cloud para treinar equipes de segurança e avaliar a preparação delas para responder a incidentes de segurança.

      Entre em contato com os serviços de consultoria do Google Cloud

      Trabalhe com especialistas da Mandiant para aproveitar a IA com segurança. 

      • Equipes vermelhas para IA: valide suas defesas que protegem sistemas de IA e avalie sua capacidade de detectar e responder a um ataque ativo envolvendo sistemas de IA.
      • Como proteger o uso de IA: avalie a arquitetura, as defesas de dados e os aplicativos criados com modelos de IA e desenvolva modelos de ameaças usando frameworks de segurança.

      Entre em contato com os especialistas em segurança da Mandiant


      Quer saber quais são as perguntas da autoavaliação de risco do SAIF associadas a essa categoria de risco?

      • Você consegue detectar, remover e corrigir mudanças maliciosas ou acidentais nos seus dados de treinamento, ajuste ou avaliação? 
      • Você tem um inventário completo de todos os modelos, conjuntos de dados (para treinamento, ajuste ou avaliação) e artefatos de ML relacionados (como código)? 
      • Você tem controles de acesso robustos em todos os modelos, conjuntos de dados e artefatos de ML relacionados para minimizar, detectar e impedir a leitura ou cópia não autorizada? 
      • Você consegue garantir que todos os dados, modelos e códigos usados para treinar, ajustar ou avaliar modelos não possam ser adulterados sem detecção durante o desenvolvimento e a implantação do modelo?
      • Os frameworks, bibliotecas, sistemas de software e componentes de hardware usados no desenvolvimento e na implantação dos modelos são analisados e protegidos contra vulnerabilidades de segurança?
      Faça a autoavaliação de risco SAIF

        Negação de serviço de ML

        A segurança é um princípio fundamental do Google Cloud, e adotamos uma abordagem de defesa em profundidade. Como parte das nossas medidas robustas, temos recursos avançados para proteger contra interrupções de serviço, como ataques distribuídos de negação de serviço (DDoS). Também oferecemos controles adicionais que os clientes podem usar para se proteger contra ataques DDoS e de camada do aplicativo usando o Cloud Armor.

        Nossa solução integrada de segurança e gerenciamento de riscos, o Security Command Center, protege os aplicativos da Vertex AI com controles preventivos e de detecção. Isso inclui responder a eventos de segurança da Vertex AI e simular caminhos de ataque para simular como um invasor real poderia acessar e comprometer as cargas de trabalho da Vertex AI.   

        Para aplicativos de IA, os clientes também podem usar o Model Armor para inspecionar, rotear e proteger comandos e respostas do modelo de fundação. Ele ajuda os clientes a reduzir riscos como injeções de comandos, jailbreaks, conteúdo tóxico e vazamento de dados sensíveis. O Model Armor vai se integrar a produtos do Google Cloud, incluindo a Vertex AI. Se quiser saber mais sobre o acesso antecipado ao Model Armor, inscreva-se aqui ou assista a nosso vídeo sob demanda.


          A segurança é um princípio fundamental do Google Cloud, e adotamos uma abordagem de defesa em profundidade. Como parte das nossas medidas robustas, temos recursos avançados para proteger contra interrupções de serviço, como ataques distribuídos de negação de serviço (DDoS). Também oferecemos controles adicionais que os clientes podem usar para se proteger contra ataques DDoS e de camada do aplicativo usando o Cloud Armor.

          Nossa solução integrada de segurança e gerenciamento de riscos, o Security Command Center, protege os aplicativos da Vertex AI com controles preventivos e de detecção. Isso inclui responder a eventos de segurança da Vertex AI e simular caminhos de ataque para simular como um invasor real poderia acessar e comprometer as cargas de trabalho da Vertex AI.   

          Para aplicativos de IA, os clientes também podem usar o Model Armor para inspecionar, rotear e proteger comandos e respostas do modelo de fundação. Ele ajuda os clientes a reduzir riscos como injeções de comandos, jailbreaks, conteúdo tóxico e vazamento de dados sensíveis. O Model Armor vai se integrar a produtos do Google Cloud, incluindo a Vertex AI. Se quiser saber mais sobre o acesso antecipado ao Model Armor, inscreva-se aqui ou assista a nosso vídeo sob demanda.


            Precisa de mais suporte para lidar com riscos de IA, como negação de serviço de ML e engenharia reversa de modelo?

            Colabore com especialistas da Mandiant para usar a IA com segurança.

            • Equipes vermelhas para IA: valide suas defesas que protegem sistemas de IA e avalie sua capacidade de detectar e responder a um ataque ativo envolvendo sistemas de IA.
            • Como proteger o uso de IA: avalie a arquitetura, as defesas de dados e os aplicativos criados com modelos de IA e desenvolva modelos de ameaças usando frameworks de segurança.

            Entre em contato com os especialistas em segurança da Mandiant


            Quer saber quais são as perguntas da autoavaliação de risco do SAIF associadas a essa categoria de risco?

            • Você protege seus aplicativos e modelos de IA generativa contra consultas maliciosas em grande escala de contas de usuário, dispositivos ou APIs?
            Faça a autoavaliação de risco SAIF

              Reforce sua postura de segurança de IA com o Google Cloud

              Quer entender o que torna a segurança da IA única? Descubra as diferenças de segurança entre o desenvolvimento de software tradicional e com IA.

              Precisa dar início às conversas sobre IA para sua organização? Comece hoje mesmo com sete perguntas importantes que os CISOs devem fazer e responder para usar a IA com segurança e aproveitar os benefícios de proteção.

              IA generativa, privacidade e Google Cloud: você tem o que precisa para lidar com os componentes de dados de IA? Saiba mais sobre a abordagem do Google Cloud em relação à privacidade e à proteção de dados ao desenvolver serviços de IA generativa.

              Google Cloud