Esse princípio no pilar de segurança do Google Cloud framework bem estruturado oferece recomendações para ajudar a proteger seus sistemas de IA. Essas recomendações estão alinhadas ao framework de IA segura (SAIF) do Google, que oferece uma abordagem prática para lidar com as preocupações de segurança e risco dos sistemas de IA. O SAIF é um framework conceitual que visa fornecer padrões em todo o setor para criar e implantar IA de maneira responsável.
Visão geral do princípio
Para garantir que seus sistemas de IA atendam aos requisitos de segurança, privacidade e compliance, adote uma estratégia holística que comece com o design inicial e se estenda à implantação e às operações. É possível implementar essa estratégia holística aplicando os seis elementos principais do SAIF.
O Google usa a IA para melhorar as medidas de segurança, como identificar ameaças, automatizar tarefas de segurança e melhorar os recursos de detecção, mantendo as pessoas envolvidas nas decisões críticas.
O Google enfatiza uma abordagem colaborativa para melhorar a segurança da IA. Essa abordagem envolve parcerias com clientes, setores e governos para aprimorar as diretrizes do SAIF e oferecer recursos práticos e úteis.
As recomendações para implementar esse princípio estão agrupadas nas seguintes seções:
Recomendações para usar a IA com segurança
Para usar a IA com segurança, você precisa de controles de segurança básicos e específicos para IA. Esta seção fornece uma visão geral das recomendações para garantir que as implantações de IA e ML atendam aos requisitos de segurança, privacidade e compliance da sua organização. Para ter uma visão geral dos princípios e recomendações de arquitetura específicos para cargas de trabalho de IA e ML em Google Cloud, consulte a perspectiva de IA e ML no Framework bem estruturado.
Definir metas e requisitos claros para o uso da IA
Essa recomendação é relevante para as seguintes áreas de foco:
- Governança, risco e compliance na nuvem
- Segurança de IA e ML
Essa recomendação está alinhada ao elemento do SAIF sobre contextualizar os riscos do sistema de IA nos processos comerciais de apoio. Ao projetar e evoluir sistemas de IA, é importante entender as metas de negócios, os riscos e os requisitos de compliance específicos.
Manter os dados seguros e evitar perdas ou manuseio indevido
Essa recomendação é relevante para as seguintes áreas de foco:
- Segurança da infraestrutura
- Gerenciamento de identidade e acesso
- Segurança de dados
- Segurança para aplicativos
- Segurança de IA e ML
Essa recomendação está alinhada com os seguintes elementos do SAIF:
- Amplie as bases robustas de segurança para o ecossistema de IA. Esse elemento inclui coleta, armazenamento, controle de acesso e proteção contra envenenamento de dados.
- Contextualize os riscos dos sistemas de IA. Dê ênfase na segurança de dados para apoiar os objetivos de negócios e a conformidade.
Manter os pipelines de IA seguros e robustos contra adulteração
Essa recomendação é relevante para as seguintes áreas de foco:
- Segurança da infraestrutura
- Gerenciamento de identidade e acesso
- Segurança de dados
- Segurança para aplicativos
- Segurança de IA e ML
Essa recomendação está alinhada com os seguintes elementos do SAIF:
- Amplie as bases robustas de segurança para o ecossistema de IA. Como elemento chave para estabelecer um sistema de IA seguro, proteja seus artefatos de código e modelo.
- Ajustar os controles para ciclos de feedback mais rápidos. Como é importante para a mitigação e a resposta a incidentes, acompanhe seus recursos e execuções de pipeline.
Implantar apps em sistemas seguros usando ferramentas e artefatos seguros
Essa recomendação é relevante para as seguintes áreas de foco:
- Segurança da infraestrutura
- Gerenciamento de identidade e acesso
- Segurança de dados
- Segurança para aplicativos
- Segurança de IA e ML
O uso de sistemas seguros e ferramentas e artefatos validados em aplicativos baseados em IA está alinhado com o elemento do SAIF sobre a expansão de bases de segurança fortes para o ecossistema de IA e a cadeia de suprimentos. Para resolver essa recomendação, siga estas etapas:
- Implementar um ambiente seguro para treinamento e implantação de ML
- Usar imagens de contêiner validadas
- Aplicar orientações de Níveis da cadeia de suprimentos para artefatos de software (SLSA).
Proteger e monitorar entradas
Essa recomendação é relevante para as seguintes áreas de foco:
- Geração de registros, auditoria e monitoramento
- Operações de segurança
- Segurança de IA e ML
Essa recomendação está alinhada com o elemento SAIF sobre estender a detecção e resposta para trazer a IA para o universo de ameaças da organização. Para evitar problemas, é fundamental gerenciar comandos para sistemas de IA generativa, monitorar entradas e controlar o acesso do usuário.
Recomendações para governança de IA
Todas as recomendações desta seção são relevantes para a seguinte área de foco: governança, risco e compliance na nuvem.
OGoogle Cloud oferece um conjunto robusto de ferramentas e serviços que podem ser usados para criar sistemas de IA responsáveis e éticos. Também oferecemos um framework de políticas, procedimentos e considerações éticas que podem orientar o desenvolvimento, a implantação e o uso de sistemas de IA.
Como refletido nas nossas recomendações, a abordagem do Google para governança de IA é guiada pelos seguintes princípios:
- Imparcialidade
- Transparência
- Responsabilidade
- Privacidade
- Segurança
Usar indicadores de imparcialidade
A Vertex AI pode detectar vieses durante a coleta de dados ou o processo de avaliação pós-treinamento. A Vertex AI fornece métricas de avaliação de modelo como viés de dados e viés de modelo para ajudar você a avaliar o modelo quanto ao viés.
Essas métricas estão relacionadas à imparcialidade em diferentes categorias, como raça, gênero e classe. No entanto, interpretar desvios estatísticos não é um exercício simples, porque as diferenças entre as categorias podem não ser resultado de viés ou um indicador de dano.
Usar a Vertex Explainable AI
Para entender como os modelos de IA tomam decisões, use a Vertex Explainable AI. Esse recurso ajuda a identificar possíveis vieses ocultos na lógica do modelo.
Esse recurso de explicabilidade é integrado ao BigQuery ML e à Vertex AI, que oferecem explicações baseadas em atributos. É possível fazer a explicabilidade no BigQuery ML ou registrar seu modelo na Vertex AI e fazer a explicabilidade na Vertex AI.
Rastrear linhagem de dados
Acompanhe a origem e a transformação dos dados usados nos seus sistemas de IA. Esse rastreamento ajuda a entender a jornada dos dados e identificar possíveis fontes de viés ou erro.
A linhagem de dados é um recurso do Dataplex que permite acompanhar como os dados se movimentam nos sistemas: de onde vêm, para onde são transmitidos e quais transformações são aplicadas a eles.
Estabelecer a responsabilidade
Estabeleça responsabilidades claras para o desenvolvimento, a implantação e os resultados dos seus sistemas de IA.
Use o Cloud Logging para registrar os principais eventos e decisões feitas pelos seus sistemas de IA. Os registros fornecem um histórico de auditoria para ajudar você a entender o desempenho do sistema e identificar áreas que precisam de melhorias.
Use o Error Reporting para analisar sistematicamente os erros cometidos pelos sistemas de IA. Essa análise pode revelar padrões que apontam para vieses ou áreas em que o modelo precisa de mais refinamento.
Implementar a privacidade diferencial
Durante o treinamento do modelo, adicione ruído aos dados para dificultar a identificação de pontos de dados individuais, mas permitindo que o modelo aprenda de maneira eficaz. Com o SQL no BigQuery, é possível transformar os resultados de uma consulta com agregações diferencialmente particulares.