Usar a IA de forma segura e responsável

Last reviewed 2025-02-05 UTC

Esse princípio no pilar de segurança do Google Cloud framework bem estruturado oferece recomendações para ajudar a proteger seus sistemas de IA. Essas recomendações estão alinhadas ao framework de IA segura (SAIF) do Google, que oferece uma abordagem prática para lidar com as preocupações de segurança e risco dos sistemas de IA. O SAIF é um framework conceitual que visa fornecer padrões em todo o setor para criar e implantar IA de maneira responsável.

Visão geral do princípio

Para garantir que seus sistemas de IA atendam aos requisitos de segurança, privacidade e compliance, adote uma estratégia holística que comece com o design inicial e se estenda à implantação e às operações. É possível implementar essa estratégia holística aplicando os seis elementos principais do SAIF.

O Google usa a IA para melhorar as medidas de segurança, como identificar ameaças, automatizar tarefas de segurança e melhorar os recursos de detecção, mantendo as pessoas envolvidas nas decisões críticas.

O Google enfatiza uma abordagem colaborativa para melhorar a segurança da IA. Essa abordagem envolve parcerias com clientes, setores e governos para aprimorar as diretrizes do SAIF e oferecer recursos práticos e úteis.

As recomendações para implementar esse princípio estão agrupadas nas seguintes seções:

Recomendações para usar a IA com segurança

Para usar a IA com segurança, você precisa de controles de segurança básicos e específicos para IA. Esta seção fornece uma visão geral das recomendações para garantir que as implantações de IA e ML atendam aos requisitos de segurança, privacidade e compliance da sua organização. Para ter uma visão geral dos princípios e recomendações de arquitetura específicos para cargas de trabalho de IA e ML em Google Cloud, consulte a perspectiva de IA e ML no Framework bem estruturado.

Definir metas e requisitos claros para o uso da IA

Essa recomendação é relevante para as seguintes áreas de foco:

  • Governança, risco e compliance na nuvem
  • Segurança de IA e ML

Essa recomendação está alinhada ao elemento do SAIF sobre contextualizar os riscos do sistema de IA nos processos comerciais de apoio. Ao projetar e evoluir sistemas de IA, é importante entender as metas de negócios, os riscos e os requisitos de compliance específicos.

Manter os dados seguros e evitar perdas ou manuseio indevido

Essa recomendação é relevante para as seguintes áreas de foco:

  • Segurança da infraestrutura
  • Gerenciamento de identidade e acesso
  • Segurança de dados
  • Segurança para aplicativos
  • Segurança de IA e ML

Essa recomendação está alinhada com os seguintes elementos do SAIF:

  • Amplie as bases robustas de segurança para o ecossistema de IA. Esse elemento inclui coleta, armazenamento, controle de acesso e proteção contra envenenamento de dados.
  • Contextualize os riscos dos sistemas de IA. Dê ênfase na segurança de dados para apoiar os objetivos de negócios e a conformidade.

Manter os pipelines de IA seguros e robustos contra adulteração

Essa recomendação é relevante para as seguintes áreas de foco:

  • Segurança da infraestrutura
  • Gerenciamento de identidade e acesso
  • Segurança de dados
  • Segurança para aplicativos
  • Segurança de IA e ML

Essa recomendação está alinhada com os seguintes elementos do SAIF:

  • Amplie as bases robustas de segurança para o ecossistema de IA. Como elemento chave para estabelecer um sistema de IA seguro, proteja seus artefatos de código e modelo.
  • Ajustar os controles para ciclos de feedback mais rápidos. Como é importante para a mitigação e a resposta a incidentes, acompanhe seus recursos e execuções de pipeline.

Implantar apps em sistemas seguros usando ferramentas e artefatos seguros

Essa recomendação é relevante para as seguintes áreas de foco:

  • Segurança da infraestrutura
  • Gerenciamento de identidade e acesso
  • Segurança de dados
  • Segurança para aplicativos
  • Segurança de IA e ML

O uso de sistemas seguros e ferramentas e artefatos validados em aplicativos baseados em IA está alinhado com o elemento do SAIF sobre a expansão de bases de segurança fortes para o ecossistema de IA e a cadeia de suprimentos. Para resolver essa recomendação, siga estas etapas:

Proteger e monitorar entradas

Essa recomendação é relevante para as seguintes áreas de foco:

  • Geração de registros, auditoria e monitoramento
  • Operações de segurança
  • Segurança de IA e ML

Essa recomendação está alinhada com o elemento SAIF sobre estender a detecção e resposta para trazer a IA para o universo de ameaças da organização. Para evitar problemas, é fundamental gerenciar comandos para sistemas de IA generativa, monitorar entradas e controlar o acesso do usuário.

Recomendações para governança de IA

Todas as recomendações desta seção são relevantes para a seguinte área de foco: governança, risco e compliance na nuvem.

OGoogle Cloud oferece um conjunto robusto de ferramentas e serviços que podem ser usados para criar sistemas de IA responsáveis e éticos. Também oferecemos um framework de políticas, procedimentos e considerações éticas que podem orientar o desenvolvimento, a implantação e o uso de sistemas de IA.

Como refletido nas nossas recomendações, a abordagem do Google para governança de IA é guiada pelos seguintes princípios:

  • Imparcialidade
  • Transparência
  • Responsabilidade
  • Privacidade
  • Segurança

Usar indicadores de imparcialidade

A Vertex AI pode detectar vieses durante a coleta de dados ou o processo de avaliação pós-treinamento. A Vertex AI fornece métricas de avaliação de modelo como viés de dados e viés de modelo para ajudar você a avaliar o modelo quanto ao viés.

Essas métricas estão relacionadas à imparcialidade em diferentes categorias, como raça, gênero e classe. No entanto, interpretar desvios estatísticos não é um exercício simples, porque as diferenças entre as categorias podem não ser resultado de viés ou um indicador de dano.

Usar a Vertex Explainable AI

Para entender como os modelos de IA tomam decisões, use a Vertex Explainable AI. Esse recurso ajuda a identificar possíveis vieses ocultos na lógica do modelo.

Esse recurso de explicabilidade é integrado ao BigQuery ML e à Vertex AI, que oferecem explicações baseadas em atributos. É possível fazer a explicabilidade no BigQuery ML ou registrar seu modelo na Vertex AI e fazer a explicabilidade na Vertex AI.

Rastrear linhagem de dados

Acompanhe a origem e a transformação dos dados usados nos seus sistemas de IA. Esse rastreamento ajuda a entender a jornada dos dados e identificar possíveis fontes de viés ou erro.

A linhagem de dados é um recurso do Dataplex que permite acompanhar como os dados se movimentam nos sistemas: de onde vêm, para onde são transmitidos e quais transformações são aplicadas a eles.

Estabelecer a responsabilidade

Estabeleça responsabilidades claras para o desenvolvimento, a implantação e os resultados dos seus sistemas de IA.

Use o Cloud Logging para registrar os principais eventos e decisões feitas pelos seus sistemas de IA. Os registros fornecem um histórico de auditoria para ajudar você a entender o desempenho do sistema e identificar áreas que precisam de melhorias.

Use o Error Reporting para analisar sistematicamente os erros cometidos pelos sistemas de IA. Essa análise pode revelar padrões que apontam para vieses ou áreas em que o modelo precisa de mais refinamento.

Implementar a privacidade diferencial

Durante o treinamento do modelo, adicione ruído aos dados para dificultar a identificação de pontos de dados individuais, mas permitindo que o modelo aprenda de maneira eficaz. Com o SQL no BigQuery, é possível transformar os resultados de uma consulta com agregações diferencialmente particulares.