Este documento no Well-Architected Framework: perspetiva de IA e ML oferece uma vista geral dos princípios e das recomendações para garantir que as suas implementações de IA e ML cumprem os requisitos de segurança e conformidade da sua organização. As recomendações neste documento estão alinhadas com o pilar de segurança da Google Cloud Well-Architected Framework.
A implementação segura de cargas de trabalho de IA e ML é um requisito essencial, especialmente em ambientes empresariais. Para cumprir este requisito, tem de adotar uma abordagem de segurança holística que começa na conceptualização inicial das suas soluções de IA e ML e se estende ao desenvolvimento, implementação e operações contínuas. Google Cloud oferece ferramentas e serviços robustos concebidos para ajudar a proteger as suas cargas de trabalho de IA e ML.
Defina objetivos e requisitos claros
É mais fácil integrar os controlos de segurança e conformidade necessários no início do processo de design e desenvolvimento do que adicioná-los após o desenvolvimento. Desde o início do processo de design e desenvolvimento, tome decisões adequadas ao seu ambiente de risco específico e às prioridades específicas da sua empresa.
Considere as seguintes recomendações:
- Identifique potenciais vetores de ataque e adote uma perspetiva de segurança e conformidade desde o início. À medida que cria e desenvolve os seus sistemas de IA, acompanhe a superfície de ataque, os potenciais riscos e as obrigações que pode enfrentar.
- Alinhe os seus esforços de segurança de IA e ML com os objetivos da sua empresa e certifique-se de que a segurança é parte integrante da sua estratégia global. Compreenda os efeitos das suas escolhas de segurança nos principais objetivos de negócio.
Mantenha os dados seguros e evite a perda ou o manuseamento indevido
Os dados são um recurso valioso e sensível que tem de ser mantido em segurança. A segurança de dados ajuda a manter a confiança dos utilizadores, apoiar os objetivos da sua empresa e cumprir os requisitos de conformidade.
Considere as seguintes recomendações:
- Não recolha, guarde nem use dados que não sejam estritamente necessários para os seus objetivos de negócio. Se possível, use dados sintéticos ou totalmente anónimos.
- Monitorize a recolha, o armazenamento e a transformação de dados. Manter registos de todas as atividades de acesso e manipulação de dados. Os registos ajudam a auditar o acesso aos dados, detetar tentativas de acesso não autorizado e impedir o acesso indesejado.
- Implemente diferentes níveis de acesso (por exemplo, sem acesso, só de leitura ou gravação) com base nas funções do utilizador. Certifique-se de que as autorizações são atribuídas com base no princípio do menor privilégio. Os utilizadores só devem ter as autorizações mínimas necessárias para lhes permitir realizar as atividades da respetiva função.
- Implemente medidas como a encriptação, os perímetros seguros e as restrições no movimento de dados. Estas medidas ajudam a evitar a exfiltração e a perda de dados.
- Proteja-se contra o envenenamento de dados para os seus sistemas de preparação de ML.
Mantenha os pipelines de IA seguros e robustos contra adulteração
O seu código de IA e ML, bem como os pipelines definidos por código, são recursos críticos. O código que não está protegido pode ser adulterado, o que pode levar a fugas de dados, falhas de conformidade e interrupção de atividades empresariais críticas. Manter o código de IA e ML seguro ajuda a garantir a integridade e o valor dos seus modelos e resultados dos modelos.
Considere as seguintes recomendações:
- Use práticas de programação seguras, como a gestão de dependências ou a validação e a limpeza de entradas, durante o desenvolvimento do modelo para evitar vulnerabilidades.
- Proteja o código do pipeline e os artefactos do modelo, como ficheiros, ponderações do modelo e especificações de implementação, contra o acesso não autorizado. Implemente diferentes níveis de acesso para cada artefacto com base nas funções e nas necessidades dos utilizadores.
- Aplique a linhagem e a monitorização dos seus recursos e execuções de pipelines. Esta aplicação ajuda a cumprir os requisitos de conformidade e a evitar comprometer os sistemas de produção.
Implemente em sistemas seguros com ferramentas e artefactos seguros
Certifique-se de que o seu código e modelos são executados num ambiente seguro que tem um sistema de controlo de acesso robusto com garantias de segurança para as ferramentas e os artefactos implementados no ambiente.
Considere as seguintes recomendações:
- Forme e implemente os seus modelos num ambiente seguro com controlos de acesso adequados e proteção contra utilização ou manipulação não autorizada.
- Siga as diretrizes padrão dos níveis da cadeia de abastecimento para artefactos de software (SLSA) para os seus artefactos específicos de IA, como modelos e pacotes de software.
- Prefira usar imagens de contentores pré-criados validadas que foram especificamente concebidas para cargas de trabalho de IA.
Proteja e monitorize entradas
Os sistemas de IA precisam de entradas para fazer previsões, gerar conteúdo ou automatizar ações. Algumas entradas podem representar riscos ou ser usadas como vetores de ataque que têm de ser detetados e limpos. A deteção precoce de potenciais entradas maliciosas ajuda a manter os seus sistemas de IA seguros e a funcionar conforme previsto.
Considere as seguintes recomendações:
- Implemente práticas seguras para desenvolver e gerir comandos para sistemas de IA generativa e certifique-se de que os comandos são filtrados quanto a intenções prejudiciais.
- Monitorize as entradas nos sistemas preditivos ou generativos para evitar problemas, como pontos finais sobrecarregados ou comandos que os sistemas não foram concebidos para processar.
- Certifique-se de que apenas os utilizadores pretendidos de um sistema implementado o podem usar.
Monitorize, avalie e prepare-se para responder às saídas
Os sistemas de IA oferecem valor porque produzem resultados que aumentam, otimizam ou automatizam a tomada de decisões humanas. Para manter a integridade e a fidedignidade dos seus sistemas e aplicações de IA, tem de se certificar de que as saídas são seguras e estão dentro dos parâmetros esperados. Também precisa de um plano para responder a incidentes.
Considere as seguintes recomendações:
- Monitorize os resultados dos seus modelos de IA e ML em produção e identifique problemas de desempenho, segurança e conformidade.
- Avalie o desempenho do modelo implementando métricas robustas e medidas de segurança, como a identificação de respostas generativas fora do âmbito ou resultados extremos em modelos preditivos. Recolher feedback dos utilizadores sobre o desempenho do modelo.
- Implemente procedimentos de resposta a incidentes e alertas robustos para resolver potenciais problemas.
Colaboradores
Autores:
- Kamilla Kurta | Customer Engineer especialista em IA gen/ML
- Filipe Gracio, PhD | Engenheiro de clientes, especialista em IA/AA
- Mohamed Fawzi | Benelux Security and Compliance Lead
Outros colaboradores:
- Daniel Lees | Arquiteto de segurança da nuvem
- Kumar Dhanagopal | Cross-Product Solution Developer
- Marwan Al Shawi | Partner Customer Engineer
- Wade Holmes | Global Solutions Director