Computação confidencial para análise de dados, IA e aprendizagem federada

Last reviewed 2024-12-20 UTC

Este documento oferece uma vista geral da computação confidencial, incluindo como pode usá-la para colaboração segura de dados, preparação de modelos de IA e aprendizagem federada. O documento também fornece informações sobre os serviços de computação confidencial no Google Cloud e referências de arquitetura para diferentes exemplos de utilização.

Este documento destina-se a ajudar os executivos de tecnologia a compreender o potencial empresarial da computação confidencial com IA generativa e IA aplicada em vários setores, incluindo serviços financeiros e cuidados de saúde.

O que é a computação confidencial?

As práticas de segurança de dados têm-se centrado convencionalmente na proteção de dados em repouso e em trânsito através da encriptação. A computação confidencial adiciona uma nova camada de proteção ao resolver a vulnerabilidade dos dados durante a respetiva utilização ativa. Esta tecnologia garante que as informações confidenciais permanecem confidenciais mesmo enquanto estão a ser processadas, ajudando assim a colmatar uma lacuna crítica na segurança dos dados.

Um ambiente de computação confidencial implementa a proteção de dados em utilização com um ambiente de execução fiável (AEF) baseado em hardware. Um AEF é uma área segura num processador que protege a confidencialidade e a integridade do código e dos dados carregados no respetivo interior. O AEF funciona como uma sala segura para operações confidenciais, o que mitiga o risco para os dados, mesmo que o sistema seja comprometido. Com a computação confidencial, os dados podem ser mantidos encriptados na memória durante o tratamento.

Por exemplo, pode usar a computação confidencial para a análise de dados e a aprendizagem automática para ajudar a alcançar o seguinte:

  • Privacidade melhorada: faça análises em conjuntos de dados confidenciais (por exemplo, registos médicos ou dados financeiros) sem expor os dados à infraestrutura subjacente nem às partes envolvidas no cálculo.
  • Colaboração segura: prepare em conjunto modelos de aprendizagem automática ou realize análises nos conjuntos de dados combinados de várias partes sem revelar dados individuais entre si. A computação confidencial fomenta a confiança e permite o desenvolvimento de modelos mais robustos e generalizáveis, particularmente em setores como os cuidados de saúde e as finanças.
  • Segurança de dados melhorada: mitigue o risco de violações de dados e acesso não autorizado, garantindo a conformidade com os regulamentos de proteção de dados, como o Regulamento Geral sobre a Proteção de Dados (RGPD) ou a Lei de Portabilidade e Responsabilidade dos Seguros de Saúde (HIPAA).
  • Maior confiança e transparência: forneça provas verificáveis de que os cálculos são realizados nos dados pretendidos e num ambiente seguro, o que aumenta a confiança entre as partes interessadas.

Como funciona um ambiente de computação confidencial

Os ambientes de computação confidencial têm as seguintes propriedades:

  • Encriptação em tempo de execução: o processador mantém todos os dados do ambiente de computação confidencial encriptados na memória. Qualquer componente do sistema ou atacante de hardware que tente ler dados do ambiente de computação confidencial diretamente da memória só vê dados encriptados. Da mesma forma, a encriptação impede a modificação dos dados do ambiente de computação confidencial através do acesso direto à memória.
  • Isolamento: o processador bloqueia o acesso baseado em software ao ambiente de computação confidencial. O sistema operativo e outras aplicações só podem comunicar com o ambiente de computação confidencial através de interfaces específicas.
  • Atestação: no contexto da computação confidencial, a atestação verifica a fiabilidade do ambiente de computação confidencial. Através da atestação, os utilizadores podem ver as provas de que a computação confidencial está a salvaguardar os respetivos dados, uma vez que a atestação permite-lhe autenticar a instância do AAE.

    Durante o processo de atestação, o chip da CPU que suporta o AEF produz um relatório assinado criptograficamente (conhecido como relatório de atestação) da medição da instância. Em seguida, a medição é enviada para um serviço de atestação. Uma atestação para isolamento de processos autentica uma aplicação. Uma atestação para isolamento de VMs autentica uma VM, o firmware virtual usado para iniciar a VM ou ambos.

  • Segurança do ciclo de vida dos dados: a computação confidencial cria um ambiente de processamento seguro para oferecer proteção baseada em hardware para os dados em utilização.

Tecnologia de computação confidencial

As seguintes tecnologias permitem a computação confidencial:

  • Enclaves seguros, também conhecidos como computação confidencial baseada em aplicações
  • Confidential VMs e GPUs, também conhecidas como computação confidencial baseada em VMs

OGoogle Cloud usa a VM confidencial para ativar a computação confidencial. Para mais informações, consulte o artigo Implemente a computação confidencial no Google Cloud.

Enclaves seguros

Um enclave seguro é um ambiente de computação que fornece isolamento para código e dados do sistema operativo através de isolamento baseado em hardware ou isolando uma VM inteira ao colocar o hipervisor na base de computação fidedigna (TCB). Os enclaves seguros são concebidos para garantir que mesmo os utilizadores com acesso físico ou de raiz às máquinas e ao sistema operativo não conseguem saber o conteúdo da memória do enclave seguro nem adulterar a execução do código no interior do enclave. Um exemplo de um enclave seguro é a extensão Intel Software Guard (SGX).

Confidential VMs e GPUs confidenciais

Uma VM confidencial é um tipo de VM que usa a encriptação de memória baseada em hardware para ajudar a proteger os dados e as aplicações. A VM confidencial oferece isolamento e atestação para melhorar a segurança. As tecnologias de computação de VMs confidenciais incluem AMD SEV, AMD SEV-SNP, Intel TDX, Arm CCA, IBM Z, IBM LinuxONE e GPU confidencial da Nvidia.

As GPUs confidenciais ajudam a proteger os dados e a acelerar a computação, especialmente em ambientes na nuvem e partilhados. Usam técnicas de encriptação e isolamento baseadas em hardware para ajudar a proteger os dados enquanto estão a ser processados na GPU, garantindo que mesmo o fornecedor de nuvem ou os intervenientes maliciosos não conseguem aceder a informações confidenciais.

Exemplos de utilização de estatísticas de dados confidenciais, IA e aprendizagem federada

As secções seguintes fornecem exemplos de utilização da computação confidencial para várias indústrias.

Cuidados de saúde e ciências da vida

A computação confidencial permite a partilha e a análise seguras de dados entre organizações, ao mesmo tempo que preserva a privacidade dos pacientes. A computação confidencial permite que as organizações de cuidados de saúde participem em investigação colaborativa, modelagem de doenças, descoberta de medicamentos e planos de tratamento personalizados.

A tabela seguinte descreve alguns exemplos de utilizações da computação confidencial na área da saúde.

Exemplo de utilização Descrição

Previsão de doenças e deteção precoce

Os hospitais preparam um modelo de aprendizagem federada para detetar lesões cancerosas a partir de dados de imagens médicas (por exemplo, ressonâncias magnéticas ou tomografias computorizadas em vários hospitais ou regiões hospitalares), mantendo a confidencialidade dos pacientes.

Monitorização de pacientes em tempo real

Os prestadores de cuidados de saúde analisam os dados de dispositivos de saúde wearable e apps de saúde móvel para monitorização e alertas em tempo real. Por exemplo, os dispositivos vestíveis recolhem dados sobre os níveis de glucose, a atividade física e os hábitos alimentares para fornecer recomendações personalizadas e avisos antecipados de flutuações de açúcar no sangue.

Descoberta colaborativa de medicamentos

As empresas farmacêuticas preparam modelos em conjuntos de dados proprietários para acelerar a descoberta de medicamentos, melhorando a colaboração e protegendo a propriedade intelectual.

Serviços financeiros

A computação confidencial permite que as instituições financeiras criem um sistema financeiro mais seguro e resiliente.

A tabela seguinte descreve alguns exemplos de utilizações da computação confidencial nos serviços financeiros.

Exemplo de utilização Descrição

Crimes financeiros

As instituições financeiras podem colaborar em esforços de modelos gerais de combate ao branqueamento de capitais (AML) ou à fraude, partilhando informações sobre transações suspeitas, ao mesmo tempo que protegem a privacidade dos clientes. Através da computação confidencial, as instituições podem analisar estes dados partilhados de forma segura e preparar os modelos para identificar e interromper esquemas complexos de branqueamento de capitais de forma mais eficaz.

Avaliação de risco de crédito de preservação da privacidade

Os credores podem avaliar o risco de crédito através de uma gama mais ampla de origens de dados, incluindo dados de outras instituições financeiras ou até mesmo entidades não financeiras. Através da computação confidencial, os credores podem aceder e analisar estes dados sem os expor a partes não autorizadas, o que melhora a precisão dos modelos de avaliação de crédito e mantém a privacidade dos dados.

Descoberta de preços de preservação da privacidade

No mundo financeiro, especialmente em áreas como mercados de balcão ou ativos ilíquidos, a determinação de preços precisa é crucial. A computação confidencial permite que várias instituições calculem preços precisos em colaboração, sem revelarem os respetivos dados confidenciais entre si.

Setor público

A computação confidencial permite que os governos criem serviços mais transparentes, eficientes e eficazes, ao mesmo tempo que mantêm o controlo e a soberania dos respetivos dados.

A tabela seguinte descreve alguns exemplos de utilizações da computação confidencial no setor público.

Exemplo de utilização Descrição

Soberania digital

A computação confidencial garante que os dados estão sempre encriptados, mesmo durante o processamento. Permite migrações seguras para a nuvem dos dados dos cidadãos, com os dados a serem protegidos mesmo quando alojados em infraestrutura externa, em ambientes híbridos, públicos ou de várias nuvens. A computação confidencial suporta e permite a soberania digital e a autonomia digital, com controlo e proteção de dados adicionais para os dados em utilização, de modo que as chaves de encriptação não sejam acessíveis ao fornecedor de nuvem.

Estatísticas confidenciais de várias agências

A computação confidencial permite a análise de dados de várias partes em várias agências governamentais (por exemplo, saúde, impostos e educação) ou em vários governos em diferentes regiões ou países. A computação confidencial ajuda a garantir que os limites de confiança e a privacidade dos dados estão protegidos, ao mesmo tempo que permite a análise de dados (através da prevenção contra a perda de dados [DLP], da análise em grande escala e dos motores de políticas), bem como a preparação e a publicação de IA.

IA fidedigna

Os dados governamentais são essenciais e podem ser usados para preparar modelos de IA privados de forma fidedigna para melhorar os serviços internos, bem como as interações com os cidadãos. A computação confidencial permite estruturas de IA fidedignas, com pedidos confidenciais ou preparação de geração aumentada de recuperação (RAG) confidencial para manter os dados e os modelos dos cidadãos privados e seguros.

Cadeia de abastecimento

A computação confidencial permite que as organizações geram a respetiva cadeia de fornecimento e colaborem em sustentabilidade, bem como partilhem estatísticas, mantendo a privacidade dos dados.

A tabela seguinte descreve alguns exemplos de utilizações da computação confidencial nas cadeias de abastecimento.

Exemplo de utilização Descrição

Previsão da procura e otimização do inventário

Com a computação confidencial, cada empresa prepara o seu próprio modelo de previsão da procura com base nos seus próprios dados de vendas e inventário. Estes modelos são, em seguida, agregados de forma segura num modelo global, o que oferece uma vista mais precisa e holística dos padrões de procura em toda a cadeia de fornecimento.

Avaliação de risco de fornecedores de preservação da privacidade

Cada organização envolvida na avaliação de risco de fornecedores (por exemplo, compradores, instituições financeiras e auditores) prepara o seu próprio modelo de avaliação de risco com os seus próprios dados. Estes modelos são agregados para criar um perfil de risco do fornecedor abrangente e que preserva a privacidade, o que permite a identificação precoce de potenciais riscos dos fornecedores, uma maior resiliência da cadeia de abastecimento e uma melhor tomada de decisões na seleção e gestão de fornecedores.

Acompanhamento e redução da pegada de carbono

A computação confidencial oferece uma solução para enfrentar os desafios da privacidade e transparência dos dados nos esforços de acompanhamento e redução da pegada de carbono. A computação confidencial permite que as organizações partilhem e analisem dados sem revelar a respetiva forma não processada, o que permite às organizações tomar decisões informadas e tomar medidas eficazes para um futuro mais sustentável.

Publicidade digital

A publicidade digital afastou-se dos cookies de terceiros e avançou para alternativas mais seguras em termos de privacidade, como o Privacy Sandbox. O Privacy Sandbox suporta exemplos de utilização de publicidade críticos, ao mesmo tempo que limita o acompanhamento entre sites e aplicações. O Privacy Sandbox usa AEsF para garantir o processamento seguro dos dados dos utilizadores por parte das empresas de publicidade.

Pode usar TEEs nos seguintes exemplos de utilização de publicidade digital:

  • Algoritmos de correspondência: encontrar correspondências ou relações em conjuntos de dados.
  • Atribuição: associar efeitos ou eventos às respetivas causas prováveis.
  • Agregação: calcular resumos ou estatísticas a partir dos dados não processados.

Implemente a computação confidencial em Google Cloud

OGoogle Cloud inclui os seguintes serviços que permitem a computação confidencial:

  • VM confidencial: ative a encriptação de dados em utilização para cargas de trabalho que usam VMs
  • GKE confidencial: ative a encriptação de dados em utilização para cargas de trabalho que usam contentores
  • Fluxo de dados confidenciais: ative a encriptação de dados em utilização para a transmissão em fluxo contínuo de estatísticas e aprendizagem automática
  • Dataproc confidencial: ative a encriptação de dados em utilização para o processamento de dados
  • Espaço confidencial: ative a encriptação dos dados em utilização para análise de dados conjunta e aprendizagem automática

Estes serviços permitem-lhe reduzir o limite de confiança para que menos recursos tenham acesso aos seus dados confidenciais. Por exemplo, num ambiente sem computação confidencial, o limite de confiança inclui a infraestrutura (hardware, hipervisor e SO anfitrião) e o SO convidado. Google CloudGoogle Cloud Num Google Cloud ambiente que inclui computação confidencial (sem espaço confidencial), o limite de confiança inclui apenas o SO convidado e a aplicação. Num ambiente com um espaço confidencial, o limite de confiança é apenas a aplicação e o respetivo espaço de memória associado. Google CloudA tabela seguinte mostra como o limite de confiança é reduzido com a computação confidencial e o espaço confidencial.

Elementos Dentro do limite de confiança sem usar a computação confidencial Dentro do limite de confiança quando usa a computação confidencial Dentro do limite de confiança quando usa o Espaço confidencial

Administradores e pilha da nuvem

Sim

Não

Não

BIOS e firmware

Sim

Não

Não

SO anfitrião e hipervisor

Sim

Não

Não

Administrador convidado da VM

Sim

Sim

Não

SO convidado da VM

Sim

Sim

Sim, medido e atestado

Aplicações

Sim

Sim

Sim, medido e atestado

Dados confidenciais

Sim

Sim

Sim

O Confidential Space cria uma área segura numa MV para oferecer o nível mais elevado de isolamento e proteção para dados e aplicações confidenciais. As principais vantagens de segurança do Confidential Space incluem o seguinte:

  • Defesa em profundidade: adiciona uma camada adicional de segurança além das tecnologias de computação confidencial existentes.
  • Superfície de ataque reduzida: isola as aplicações de potenciais vulnerabilidades no SO convidado.
  • Controlo melhorado: oferece controlo detalhado sobre o acesso e as autorizações no ambiente seguro.
  • Maior confiança: oferece maior garantia de confidencialidade e integridade dos dados.

O espaço confidencial foi concebido para processar cargas de trabalho altamente sensíveis, especialmente em setores regulamentados ou cenários que envolvem colaborações multipartidárias em que a privacidade dos dados é fundamental.

Referências de arquitetura para estatísticas confidenciais, IA e aprendizagem federada

Pode implementar a computação confidencial no Google Cloud para resolver os seguintes exemplos de utilização:

  • Estatísticas confidenciais
  • IA confidencial
  • Aprendizagem federada confidencial

As secções seguintes fornecem mais informações sobre a arquitetura destes exemplos de utilização, incluindo exemplos para empresas financeiras e de cuidados de saúde.

Arquitetura de estatísticas confidenciais para instituições de cuidados de saúde

A arquitetura de estatísticas confidenciais demonstra como várias instituições de cuidados de saúde (como fornecedores, biofarmacêuticas e instituições de investigação) podem trabalhar em conjunto para acelerar a investigação de medicamentos. Esta arquitetura usa técnicas de computação confidencial para criar uma sala limpa digital para executar análises colaborativas confidenciais.

Esta arquitetura tem as seguintes vantagens:

  • Estatísticas melhoradas: a análise colaborativa permite que as organizações de saúde obtenham estatísticas mais amplas e diminuam o tempo de lançamento no mercado para a descoberta de medicamentos melhorada.
  • Privacidade dos dados: os dados de transações confidenciais permanecem encriptados e nunca são expostos a outros participantes nem ao AEF, o que garante a confidencialidade.
  • Conformidade regulamentar: a arquitetura ajuda as instituições de saúde a agir em conformidade com os regulamentos de proteção de dados, mantendo um controlo rigoroso sobre os respetivos dados.
  • Confiança e colaboração: a arquitetura permite a colaboração segura entre instituições concorrentes, fomentando um esforço coletivo para descobrir medicamentos.

O diagrama seguinte mostra esta arquitetura.

Diagrama da arquitetura de estatísticas confidenciais para instituições de cuidados de saúde.

Os componentes principais desta arquitetura incluem o seguinte:

  • Servidor de agregação OLAP do AEF: um ambiente seguro e isolado onde ocorre a preparação e a inferência do modelo de aprendizagem automática. Os dados e o código no AEF estão protegidos contra acesso não autorizado, mesmo a partir do sistema operativo subjacente ou do fornecedor de nuvem.
  • Parceiros de colaboração: cada instituição de saúde participante tem um ambiente local que atua como intermediário entre os dados privados da instituição e o AEF.
  • Dados encriptados específicos do fornecedor: cada instituição de cuidados de saúde armazena os seus próprios dados privados e encriptados dos pacientes, que incluem registos de saúde eletrónicos. Estes dados permanecem encriptados durante o processo de estatísticas, o que garante a privacidade dos dados. Os dados só são disponibilizados ao AAE depois de validar as reivindicações de atestação dos fornecedores individuais.
  • Cliente do Analytics: as instituições de saúde participantes podem executar consultas confidenciais nos respetivos dados para obter estatísticas imediatas.

Arquitetura de IA confidencial para instituições financeiras

Este padrão arquitetónico demonstra como as instituições financeiras podem formar colaborativamente um modelo de deteção de fraudes enquanto usam etiquetas de fraudes para preservar a confidencialidade dos respetivos dados de transações confidenciais. A arquitetura usa técnicas de computação confidencial para permitir uma aprendizagem automática segura e multipartidária.

Esta arquitetura tem as seguintes vantagens:

  • Deteção de fraudes melhorada: a preparação colaborativa usa um conjunto de dados maior e mais diversificado, o que resulta num modelo de deteção de fraudes mais preciso e eficaz.
  • Privacidade dos dados: os dados de transações confidenciais permanecem encriptados e nunca são expostos a outros participantes nem ao AEF, o que garante a confidencialidade.
  • Conformidade regulamentar: a arquitetura ajuda as instituições financeiras a agir em conformidade com os regulamentos de proteção de dados, mantendo um controlo rigoroso sobre os respetivos dados.
  • Confiança e colaboração: esta arquitetura permite a colaboração segura entre instituições concorrentes, fomentando um esforço coletivo para combater a fraude financeira.

O diagrama seguinte mostra esta arquitetura.

Diagrama da arquitetura de estatísticas confidenciais para instituições financeiras.

Os componentes principais desta arquitetura incluem o seguinte:

  • Servidor de agregação OLAP do AEF: um ambiente seguro e isolado onde ocorre a preparação e a inferência do modelo de aprendizagem automática. Os dados e o código no AEF estão protegidos contra acesso não autorizado, mesmo a partir do sistema operativo subjacente ou do fornecedor de nuvem.
  • Preparação do modelo de AEF: o modelo base de fraude global é incluído em contentores para executar a preparação de AA. Dentro do AEF, o modelo global é ainda mais preparado com os dados encriptados de todos os bancos participantes. O processo de preparação usa técnicas como a aprendizagem federada ou a computação multipartidária segura para garantir que não são expostos dados não processados.
  • Parceiros colaboradores: cada instituição financeira participante tem um ambiente local que atua como intermediário entre os dados privados da instituição e o AEF.
  • Dados encriptados específicos do banco: cada banco detém os seus próprios dados de transações privados e encriptados, que incluem etiquetas de fraude. Estes dados permanecem encriptados durante todo o processo, garantindo a privacidade dos dados. Os dados só são divulgados ao AAE após a validação das declarações de atestação de bancos individuais.
  • Repositório de modelos: um modelo de deteção de fraudes pré-preparado que serve como ponto de partida para a preparação colaborativa.
  • Modelo e ponderações preparados de fraude global (simbolizados pela linha verde): o modelo de deteção de fraude melhorado, juntamente com as respetivas ponderações aprendidas, é trocado de forma segura com os bancos participantes. Em seguida, podem implementar este modelo melhorado localmente para a deteção de fraudes nas suas próprias transações.

Arquitetura de aprendizagem federada confidencial para instituições financeiras

A aprendizagem federada oferece uma solução avançada para os clientes que valorizam a privacidade de dados e a soberania de dados rigorosas. A arquitetura de aprendizagem federada confidencial oferece uma forma segura, escalável e eficiente de usar dados para aplicações de IA. Esta arquitetura traz os modelos para a localização onde os dados são armazenados, em vez de centralizar os dados numa única localização, reduzindo assim os riscos associados à fuga de dados.

Este padrão arquitetónico demonstra como várias instituições financeiras podem formar colaborativamente um modelo de deteção de fraudes, preservando a confidencialidade dos respetivos dados de transações confidenciais com etiquetas de fraudes. Usa a aprendizagem federada juntamente com técnicas de computação confidencial para permitir a aprendizagem automática segura e multipartidária sem movimento de dados de preparação.

Esta arquitetura tem as seguintes vantagens:

  • Privacidade e segurança dos dados melhoradas: a aprendizagem federada permite a privacidade dos dados e a localidade dos dados, garantindo que os dados confidenciais permanecem em cada local. Além disso, as instituições financeiras podem usar técnicas de preservação da privacidade, como a encriptação homomórfica e os filtros de privacidade diferencial, para proteger ainda mais os dados transferidos (como os pesos do modelo).
  • Precisão e diversidade melhoradas: através da preparação com uma variedade de origens de dados em diferentes clientes, as instituições financeiras podem desenvolver um modelo global robusto e generalizável para representar melhor conjuntos de dados heterogéneos.
  • Escalabilidade e eficiência da rede: com a capacidade de realizar a formação na periferia, as instituições podem dimensionar a aprendizagem federada em todo o mundo. Além disso, as instituições só precisam de transferir os pesos do modelo em vez de conjuntos de dados completos, o que permite uma utilização eficiente dos recursos de rede.

O diagrama seguinte mostra esta arquitetura.

Diagrama da arquitetura de aprendizagem federada confidencial.

Os componentes principais desta arquitetura incluem o seguinte:

  • Servidor federado no cluster de AEF: um ambiente seguro e isolado onde o servidor de aprendizagem federada orquestra a colaboração de vários clientes enviando primeiro um modelo inicial para os clientes de aprendizagem federada. Os clientes realizam a preparação nos respetivos conjuntos de dados locais e, em seguida, enviam as atualizações do modelo de volta para o servidor de aprendizagem federada para agregação, de modo a formar um modelo global.
  • Repositório de modelos de aprendizagem federada: um modelo de deteção de fraudes pré-preparado que serve como ponto de partida para a aprendizagem federada.
  • Motor de inferência de aplicações locais: uma aplicação que executa tarefas, realiza cálculos e aprendizagem locais com conjuntos de dados locais e envia os resultados de volta para o servidor de aprendizagem federada para agregação segura.
  • Dados privados locais: cada banco detém os seus próprios dados de transações privados e encriptados que incluem etiquetas de fraude. Estes dados permanecem encriptados durante todo o processo, o que garante a privacidade dos dados.
  • Protocolo de agregação segura (simbolizado pela linha azul pontilhada): o servidor de aprendizagem federada não precisa de aceder à atualização de nenhum banco individual para preparar o modelo. Requer apenas as médias ponderadas por elementos dos vetores de atualização, retiradas de um subconjunto aleatório de bancos ou sites. A utilização de um protocolo de agregação seguro para calcular estas médias ponderadas ajuda a garantir que o servidor só consegue saber que um ou mais bancos neste subconjunto selecionado aleatoriamente escreveram uma determinada palavra, mas não quais os bancos, preservando assim a privacidade de cada participante no processo de aprendizagem federada.
  • Modelo global preparado para deteção de fraudes e ponderações agregadas (simbolizado pela linha verde): o modelo de deteção de fraudes melhorado, juntamente com as respetivas ponderações aprendidas, é enviado de volta em segurança para os bancos participantes. Os bancos podem, em seguida, implementar este modelo melhorado localmente para a deteção de fraudes nas suas próprias transações.

O que se segue?

Colaboradores