Este princípio no pilar de segurança da Google Cloud estrutura bem arquitetada fornece recomendações para usar a IA para ajudar a melhorar a segurança das suas cargas de trabalho na nuvem.
Devido ao número crescente e à sofisticação dos ciberataques, é importante tirar partido do potencial da IA para ajudar a melhorar a segurança. A IA pode ajudar a reduzir o número de ameaças, o esforço manual exigido pelos profissionais de segurança e a compensar a escassez de especialistas no domínio da cibersegurança.
Vista geral do princípio
Use as capacidades de IA para melhorar os seus sistemas e processos de segurança existentes. Pode usar o Gemini in Security bem como as capacidades de IA intrínsecas incorporadas nos Google Cloud serviços.
Estas capacidades de IA podem transformar a segurança, oferecendo assistência em todas as fases do ciclo de vida da segurança. Por exemplo, pode usar a IA para fazer o seguinte:
- Analise e explique código potencialmente malicioso sem engenharia reversa.
- Reduzir o trabalho repetitivo para os profissionais de cibersegurança.
- Use a linguagem natural para gerar consultas e interagir com dados de eventos de segurança.
- Apresentar informações contextuais.
- Oferecer recomendações para respostas rápidas.
- Ajudar na remediação de eventos.
- Resumir alertas de alta prioridade para configurações incorretas e vulnerabilidades, realçar potenciais impactos e recomendar mitigações.
Níveis de autonomia de segurança
A IA e a automatização podem ajudar a alcançar melhores resultados de segurança quando lida com ameaças de cibersegurança em constante evolução. Ao usar a IA para segurança, pode alcançar níveis mais elevados de autonomia para detetar e impedir ameaças, bem como melhorar a sua postura de segurança geral. A Google define quatro níveis de autonomia quando usa a IA para segurança e descreve a função crescente da IA na assistência e, eventualmente, na liderança de tarefas de segurança:
- Manual: os humanos executam todas as tarefas de segurança (impedir, detetar, priorizar e responder) em todo o ciclo de vida da segurança.
- Assistida: as ferramentas de IA, como o Gemini, aumentam a produtividade humana resumindo informações, gerando estatísticas e fazendo recomendações.
- Semi-autónoma: a IA assume a responsabilidade principal por muitas tarefas de segurança e delega-as a humanos apenas quando necessário.
- Autónomo: a IA atua como um assistente fidedigno que impulsiona o ciclo de vida da segurança com base nos objetivos e nas preferências da sua organização, com uma intervenção humana mínima.
Recomendações
As secções seguintes descrevem as recomendações para usar a IA para segurança. As secções também indicam como as recomendações se alinham com os elementos fundamentais da Secure AI Framework (SAIF) da Google e como são relevantes para os níveis de autonomia de segurança.
- Melhore a deteção e a resposta a ameaças com a IA
- Simplifique a segurança para especialistas e não especialistas
- Automatize tarefas de segurança demoradas com IA
- Incorpore a IA nos processos de gestão de riscos e governação
- Implemente práticas de desenvolvimento seguras para sistemas de IA
Melhore a deteção e a resposta a ameaças com a IA
Esta recomendação é relevante para as seguintes áreas de foco:
- Operações de segurança (SecOps)
- Registo, auditoria e monitorização
A IA pode analisar grandes volumes de dados de segurança, oferecer estatísticas sobre o comportamento dos autores de ameaças e automatizar a análise de código potencialmente malicioso. Esta recomendação está alinhada com os seguintes elementos da SAIF:
- Alargue a deteção e a resposta para introduzir a IA no universo de ameaças da sua organização.
- Automatize as defesas para acompanhar o ritmo das ameaças existentes e novas.
Consoante a sua implementação, esta recomendação pode ser relevante para os seguintes níveis de autonomia:
- Assistida: a IA ajuda na análise e deteção de ameaças.
- Semi-autónoma: a IA assume mais responsabilidade pela tarefa de segurança.
A Google Threat Intelligence, que usa a IA para analisar o comportamento dos autores de ameaças e o código malicioso, pode ajudar a implementar esta recomendação.
Simplifique a segurança para especialistas e não especialistas
Esta recomendação é relevante para as seguintes áreas de foco:
- Operações de segurança (SecOps)
- Governança, risco e conformidade na nuvem
As ferramentas com tecnologia de IA podem resumir alertas e recomendar mitigações, e estas capacidades podem tornar a segurança mais acessível a um maior número de pessoas. Esta recomendação está alinhada com os seguintes elementos da SAIF:
- Automatize as defesas para acompanhar o ritmo das ameaças existentes e novas.
- Harmonize os controlos ao nível da plataforma para garantir uma segurança consistente em toda a organização.
Consoante a sua implementação, esta recomendação pode ser relevante para os seguintes níveis de autonomia:
- Assistida: a IA ajuda a melhorar a acessibilidade das informações de segurança.
- Semiautónoma: a IA ajuda a tornar as práticas de segurança mais eficazes para todos os utilizadores.
O Gemini no Security Command Center pode fornecer resumos de alertas de configurações incorretas e vulnerabilidades.
Automatize tarefas de segurança demoradas com IA
Esta recomendação é relevante para as seguintes áreas de foco:
- Segurança das infraestruturas
- Operações de segurança (SecOps)
- Segurança para aplicações
A IA pode automatizar tarefas como analisar software malicioso, gerar regras de segurança e identificar erros de configuração. Estas capacidades podem ajudar a reduzir a carga de trabalho das equipas de segurança e acelerar os tempos de resposta. Esta recomendação está alinhada com o elemento da SAIF sobre a automatização das defesas para acompanhar o ritmo das ameaças existentes e novas.
Consoante a sua implementação, esta recomendação pode ser relevante para os seguintes níveis de autonomia:
- Assistido: a IA ajuda a automatizar tarefas.
- Semi-autónoma: a IA assume a responsabilidade principal pelas tarefas de segurança e só pede assistência humana quando necessário.
O Gemini no Google SecOps pode ajudar a automatizar tarefas de alta intensidade, assistindo os analistas, obtendo contexto relevante e fazendo recomendações para os passos seguintes.
Incorpore a IA nos processos de gestão de riscos e governação
Esta recomendação é relevante para a seguinte área de foco: Governança, risco e conformidade na nuvem.
Pode usar a IA para criar um inventário de modelos e perfis de risco. Também pode usar a IA para implementar políticas de privacidade de dados, risco cibernético e risco de terceiros. Esta recomendação está alinhada com o elemento da SAIF sobre a contextualização dos riscos dos sistemas de IA nos processos empresariais circundantes.
Consoante a sua implementação, esta recomendação pode ser relevante para o nível de autonomia semiautónomo. Neste nível, a IA pode orquestrar agentes de segurança que executam processos para alcançar os seus objetivos de segurança personalizados.
Implemente práticas de desenvolvimento seguras para sistemas de IA
Esta recomendação é relevante para as seguintes áreas de foco:
- Segurança para aplicações
- Segurança de IA e ML
Pode usar a IA para programação segura, limpeza de dados de preparação e validação de ferramentas e artefactos. Esta recomendação está alinhada com o elemento da SAIF sobre a expansão de bases de segurança sólidas para o ecossistema de IA.
Esta recomendação pode ser relevante para todos os níveis de autonomia de segurança, porque é necessário ter um sistema de IA seguro antes de poder usar a IA de forma eficaz para a segurança. A recomendação é mais relevante para o nível assistido, em que as práticas de segurança são melhoradas pela IA.
Para implementar esta recomendação, siga as diretrizes dos níveis da cadeia de fornecimento para artefactos de software (SLSA) para artefactos de IA e use imagens de contentores validadas.