Este princípio no pilar de segurança do Google Cloud Well-Architected Framework fornece recomendações para ajudar a proteger os seus sistemas de IA. Estas recomendações estão alinhadas com a Secure AI Framework (SAIF) da Google, que oferece uma abordagem prática para resolver as preocupações de segurança e risco dos sistemas de IA. A SAIF é uma framework concetual que visa fornecer normas para toda a indústria para criar e implementar a IA de forma responsável.
Vista geral do princípio
Para ajudar a garantir que os seus sistemas de IA cumprem os requisitos de segurança, privacidade e conformidade, tem de adotar uma estratégia holística que comece com a conceção inicial e se estenda à implementação e às operações. Pode implementar esta estratégia holística aplicando os seis elementos fundamentais da SAIF.
A Google usa a IA para melhorar as medidas de segurança, como a identificação de ameaças, a automatização de tarefas de segurança e a melhoria das capacidades de deteção, ao mesmo tempo que mantém a intervenção humana para decisões críticas.
A Google enfatiza uma abordagem colaborativa para o desenvolvimento da segurança da IA. Esta abordagem envolve parcerias com clientes, indústrias e governos para melhorar as diretrizes da SAIF e oferecer recursos práticos e acionáveis.
As recomendações para implementar este princípio estão agrupadas nas seguintes secções:
Recomendações para usar a IA em segurança
Para usar a IA de forma segura, precisa de controlos de segurança fundamentais e controlos de segurança específicos da IA. Esta secção oferece uma vista geral das recomendações para garantir que as suas implementações de IA e ML cumprem os requisitos de segurança, privacidade e conformidade da sua organização. Para uma vista geral dos princípios e recomendações de arquitetura específicos das cargas de trabalho de IA e ML no Google Cloud, consulte aperspetiva de IA e ML no Well-Architected Framework.
Defina objetivos e requisitos claros para a utilização da IA
Esta recomendação é relevante para as seguintes áreas de foco:
- Governança, risco e conformidade na nuvem
- Segurança de IA e ML
Esta recomendação está alinhada com o elemento da SAIF sobre a contextualização dos riscos dos sistemas de IA nos processos empresariais circundantes. Quando concebe e desenvolve sistemas de IA, é importante compreender os seus objetivos de negócio específicos, riscos e requisitos de conformidade.
Mantenha os dados seguros e evite a perda ou o manuseamento indevido
Esta recomendação é relevante para as seguintes áreas de foco:
- Segurança das infraestruturas
- Gestão de identidade e de acesso
- Segurança dos dados
- Segurança para aplicações
- Segurança de IA e ML
Esta recomendação está alinhada com os seguintes elementos da SAIF:
- Expanda bases de segurança sólidas para o ecossistema de IA. Este elemento inclui a recolha de dados, o armazenamento, o controlo de acesso e a proteção contra a contaminação de dados.
- Contextualize os riscos dos sistemas de IA. Realce a segurança dos dados para apoiar os objetivos empresariais e a conformidade.
Mantenha os pipelines de IA seguros e robustos contra adulteração
Esta recomendação é relevante para as seguintes áreas de foco:
- Segurança das infraestruturas
- Gestão de identidade e de acesso
- Segurança dos dados
- Segurança para aplicações
- Segurança de IA e ML
Esta recomendação está alinhada com os seguintes elementos da SAIF:
- Expanda bases de segurança sólidas para o ecossistema de IA. Como elemento fundamental para estabelecer um sistema de IA seguro, proteja o seu código e os artefactos do modelo.
- Adapte os controlos para ciclos de feedback mais rápidos. Porque é importante para a mitigação e a resposta a incidentes, acompanhe os seus recursos e execuções de pipelines.
Implemente apps em sistemas seguros através de ferramentas e artefactos seguros
Esta recomendação é relevante para as seguintes áreas de foco:
- Segurança das infraestruturas
- Gestão de identidade e de acesso
- Segurança dos dados
- Segurança para aplicações
- Segurança de IA e ML
A utilização de sistemas seguros e ferramentas e artefactos validados em aplicações baseadas em IA está alinhada com o elemento da SAIF sobre a expansão de bases de segurança sólidas para o ecossistema de IA e a cadeia de fornecimento. Esta recomendação pode ser resolvida através dos seguintes passos:
- Implemente um ambiente seguro para a preparação e a implementação de ML
- Use imagens de contentores validadas
- Aplique as diretrizes dos níveis da cadeia de fornecimento para artefactos de software (SLSA)
Proteja e monitorize entradas
Esta recomendação é relevante para as seguintes áreas de foco:
- Registo, auditoria e monitorização
- Operações de segurança
- Segurança de IA e ML
Esta recomendação está alinhada com o elemento SAIF sobre a extensão da deteção e da resposta para introduzir a IA no universo de ameaças de uma organização. Para evitar problemas, é fundamental gerir os comandos para sistemas de IA generativa, monitorizar as entradas e controlar o acesso dos utilizadores.
Recomendações para a governação da IA
Todas as recomendações nesta secção são relevantes para a seguinte área de foco: Governança, risco e conformidade na nuvem.
Google Cloud oferece um conjunto robusto de ferramentas e serviços que pode usar para criar sistemas de IA responsáveis e éticos. Também oferecemos uma framework de políticas, procedimentos e considerações éticas que podem orientar o desenvolvimento, a implementação e a utilização de sistemas de IA.
Conforme refletido nas nossas recomendações, a abordagem da Google à governação da IA é orientada pelos seguintes princípios:
- Imparcialidade
- Transparência
- Responsabilidade
- Privacidade
- Segurança
Use indicadores de equidade
A Vertex AI pode detetar parcialidade durante a recolha de dados ou o processo de avaliação pós-preparação. O Vertex AI fornece métricas de avaliação de modelos como tendências nos dados e tendências nos modelos para ajudar a avaliar o seu modelo quanto a tendências.
Estas métricas estão relacionadas com a equidade em diferentes categorias, como raça, género e classe. No entanto, a interpretação dos desvios estatísticos não é um exercício simples, uma vez que as diferenças entre categorias podem não ser o resultado de parcialidade ou um sinal de dano.
Use o Vertex Explainable AI
Para compreender como os modelos de IA tomam decisões, use a Vertex Explainable AI. Esta funcionalidade ajuda a identificar potenciais parcialidades que podem estar ocultas na lógica do modelo.
Esta funcionalidade de explicabilidade está integrada com o BigQuery ML e o Vertex AI, que fornecem explicações baseadas em caraterísticas. Pode realizar a explicabilidade no BigQuery ML ou registar o seu modelo no Vertex AI e realizar a explicabilidade no Vertex AI.
Acompanhe a linhagem de dados
Monitorize a origem e a transformação dos dados usados nos seus sistemas de IA. Este acompanhamento ajuda a compreender o percurso dos dados e a identificar potenciais origens de parcialidade ou erro.
A linhagem de dados é uma funcionalidade do catálogo universal do Dataplex que lhe permite acompanhar a forma como os dados se movem nos seus sistemas: de onde vêm, para onde são transmitidos e que transformações lhes são aplicadas.
Estabeleça a responsabilidade
Estabeleça uma responsabilidade clara pelo desenvolvimento, implementação e resultados dos seus sistemas de IA.
Use o Cloud Logging para registar eventos principais e decisões tomadas pelos seus sistemas de IA. Os registos fornecem uma trilha de auditoria para ajudar a compreender o desempenho do sistema e identificar áreas de melhoria.
Use os relatórios de erros para analisar sistematicamente os erros cometidos pelos sistemas de IA. Esta análise pode revelar padrões que apontam para preconceitos subjacentes ou áreas onde o modelo precisa de mais refinamento.
Implemente a privacidade diferencial
Durante a preparação do modelo, adicione ruído aos dados para dificultar a identificação de pontos de dados individuais, mas permitir que o modelo aprenda de forma eficaz. Com o SQL no BigQuery, pode transformar os resultados de uma consulta com agregações diferencialmente privadas.