Confidential Computing per l'analisi dei dati e l'IA

Last reviewed 2024-12-20 UTC

Questo documento fornisce una panoramica generale del calcolo confidenziale, inclusa la modalità di utilizzo per la collaborazione sicura dei dati e l'apprendimento federato. Il documento fornisce inoltre informazioni sui servizi Confidential Computing in Google Cloud e riferimenti all'architettura per diversi casi d'uso.

Questo documento intende aiutare i responsabili della tecnologia a comprendere il potenziale commerciale del calcolo riservato con l'AI generativa e l'AI applicata in vari settori, tra cui i servizi finanziari e la sanità.

Panoramica del Confidential Computing

Le pratiche di sicurezza dei dati si sono tradizionalmente concentrate sulla protezione dei dati inattivi e in transito tramite crittografia. Confidential Computing aggiunge un nuovo livello di protezione affrontando la vulnerabilità dei dati durante il loro utilizzo attivo. Questa tecnologia garantisce che le informazioni sensibili rimangano riservate anche durante l'elaborazione, contribuendo così a colmare una lacuna critica nella sicurezza dei dati.

Un ambiente di calcolo confidenziale implementa la protezione dei dati in uso con un Trusted Execution Environment (TEE) basato su hardware. Un TEE è un'area sicura all'interno di un processore che protegge la riservatezza e l'integrità del codice e dei dati caricati al suo interno. Il TEE funge da stanza sicura per le operazioni sensibili, il che riduce il rischio per i dati anche se il sistema è compromesso. Con il confidential computing, i dati possono essere tenuti criptati in memoria durante l'elaborazione.

Ad esempio, puoi utilizzare il confidential computing per l'analisi dei dati e il machine learning per:

  • Maggiore privacy: esegui analisi su set di dati sensibili (ad esempio, cartelle cliniche o dati finanziari) senza esporre i dati all'infrastruttura di base o alle parti coinvolte nel calcolo.
  • Collaborazione sicura:addestrare congiuntamente i modelli di machine learning o eseguire analisi sui set di dati combinati di più parti senza rivelare i dati individuali. Il Confidential Computing favorisce la fiducia e consente lo sviluppo di modelli più solidi e generalizzabili, in particolare in settori come la sanità e la finanza.
  • Maggiore sicurezza dei dati: riduci il rischio di violazioni dei dati e accessi non autorizzati, garantendo la conformità alle normative sulla protezione dei dati, come il Regolamento generale sulla protezione dei dati (GDPR) o l'Health Insurance Portability and Accountability Act (HIPAA).
  • Maggiore fiducia e trasparenza: fornisci una prova verificabile che i calcoli vengono eseguiti sui dati previsti e in un ambiente sicuro, aumentando la fiducia tra gli stakeholder.

Come funziona un ambiente di Confidential Computing

Gli ambienti di calcolo riservato hanno le seguenti proprietà:

  • Crittografia in fase di esecuzione: il processore mantiene criptati in memoria tutti i dati dell'ambiente di Confidential Computing. Qualsiasi componente di sistema o attacco hardware che tenta di leggere i dati dell'ambiente di calcolo riservato direttamente dalla memoria vede solo i dati criptati. Analogamente, la crittografia impedisce la modifica dei dati dell'ambiente di Confidential Computing tramite l'accesso diretto alla memoria.
  • Isolamento:il processore blocca l'accesso basato su software all'ambiente di calcolo riservato. Il sistema operativo e altre applicazioni possono comunicare con l'ambiente di calcolo riservato solo tramite interfacce specifiche.
  • Attestazione:nel contesto del calcolo confidenziale, l'attestazione verifica l'affidabilità dell'ambiente di calcolo confidenziale. Con l'attestazione, gli utenti possono vedere la prova che il calcolo confidente sta salvaguardando i loro dati perché l'attestazione consente di autenticare l'istanza TEE.

    Durante la procedura di attestazione, il chip della CPU che supporta il TEE produce un report firmato con crittografia (noto come report di attestazione) della misurazione dell'istanza. La misurazione viene poi inviata a un servizio di attestazione. Un'attestazione per l'isolamento dei processi autentica un'applicazione. Un'attestazione per l'isolamento della VM autentica una VM, il firmware virtuale utilizzato per avviarla o entrambi.

  • Sicurezza del ciclo di vita dei dati:Confidential Computing crea un ambiente di elaborazione sicuro per fornire protezione hardware per i dati in uso.

Tecnologia Confidential Computing

Le seguenti tecnologie consentono il Confidential Computing:

  • Enclave sicure, note anche come computing riservato basato su applicazioni
  • VM e GPU riservate, note anche come Confidential Computing basato su VM

Google Cloud utilizza Confidential VM per abilitare il calcolo confidente. Per ulteriori informazioni, consulta Implementare il calcolo riservato su Google Cloud.

Enclave sicure

Un'enclave sicura è un ambiente di calcolo che fornisce l'isolamento del codice e dei dati del sistema operativo utilizzando l'isolamento basato su hardware o isolando un'intera VM inserendo l'hypervisor all'interno della base di calcolo attendibile (TCB). Gli enclave sicuri sono progettati per garantire che anche gli utenti con accesso fisico o amministrativo alle macchine e al sistema operativo non possano conoscere i contenuti della memoria dell'enclave sicuro o manomettere l'esecuzione del codice all'interno dell'enclave. Un esempio di enclave sicuro è Intel Software Guard Extension (SGX).

VM e GPU riservate

Una Confidential VM è un tipo di VM che utilizza la crittografia della memoria basata su hardware per contribuire a proteggere dati e applicazioni. Confidential VM offre isolamento e attestazione per migliorare la sicurezza. Le tecnologie di calcolo delle VM riservate includono AMD SEV, AMD SEV-SNP, Intel TDX, Arm CCA, IBM Z, IBM LinuxONE e GPU Nvidia Confidential.

Le GPU Confidential contribuiscono a proteggere i dati e ad accelerare l'elaborazione, in particolare in ambienti cloud e condivisi. Utilizzano tecniche di crittografia e isolamento basate su hardware per contribuire a proteggere i dati durante l'elaborazione sulla GPU, garantendo che anche il provider cloud o gli utenti malintenzionati non possano accedere alle informazioni sensibili.

Casi d'uso per settore

Le sezioni che seguono forniscono esempi di casi d'uso del calcolo riservato per vari settori.

Sanità e scienze biologiche

Il calcolo riservato consente la condivisione e l'analisi sicura dei dati tra le organizzazioni, preservando al contempo la privacy dei pazienti. Il calcolo riservato consente alle organizzazioni sanitarie di partecipare a ricerche collaborative, alla modellazione delle malattie, alla scoperta di farmaci e a piani di cura personalizzati.

La seguente tabella descrive alcuni esempi di utilizzo del calcolo riservato nel settore sanitario.

Caso d'uso Descrizione

Prevenzione e rilevamento precoce delle malattie

Gli ospedali addestrano un modello di machine learning federato per rilevare le lesioni tumorali dai dati di imaging medico (ad esempio, risonanza magnetica o TAC in più ospedali o regioni ospedaliere) mantenendo la segretezza del paziente.

Monitoraggio dei pazienti in tempo reale

I fornitori di servizi sanitari analizzano i dati dei dispositivi per la salute indossabili e delle app per la salute mobile per il monitoraggio e gli avvisi in tempo reale. Ad esempio, i dispositivi indossabili raccoglieranno dati su livelli di glucosio, attività fisica e abitudini alimentari per fornire consigli personalizzati e avvisi precoci in caso di fluttuazioni della glicemia.

Scoperta di farmaci collaborativa

Le aziende farmaceutiche addestrano i modelli su set di dati proprietari per accelerare la scoperta di farmaci, migliorare la collaborazione e proteggere la proprietà intellettuale.

Servizi finanziari

Il Confidential Computing consente agli istituti finanziari di creare un sistema finanziario più sicuro e resiliente.

La seguente tabella descrive alcuni esempi di utilizzo del calcolo riservato nei servizi finanziari.

Caso d'uso Descrizione

Reati finanziari

Gli istituti finanziari possono collaborare per la lotta al riciclaggio di denaro (AML) o per la creazione di modelli di frode generali condividendo informazioni su transazioni sospette, proteggendo al contempo la privacy dei clienti. Utilizzando il calcolo riservato, gli istituti possono analizzare questi dati condivisi in modo sicuro e addestrare i modelli per identificare e interrompere in modo più efficace schemi complessi di riciclaggio di denaro.

Valutazione del rischio di credito nel rispetto della privacy

I creditori possono valutare il rischio di credito utilizzando una gamma più ampia di origini dati, inclusi i dati di altri istituti finanziari o anche di persone giuridiche non finanziarie. Grazie al calcolo riservato, i creditori possono accedere e analizzare questi dati senza esporli a terze parti non autorizzate, migliorando l'accuratezza dei modelli di scoring del credito mantenendo la privacy dei dati.

Rilevamento dei prezzi che tutela la privacy

Nel mondo finanziario, in particolare in aree come i mercati over-the-counter o gli asset illiquidi, la definizione di prezzi accurati è fondamentale. Il calcolo in modo riservato consente a più istituzioni di calcolare in modo collaborativo prezzi accurati, senza rivelare i propri dati sensibili l'una all'altra.

Settore pubblico

Il Confidential Computing consente ai governi di creare servizi più trasparenti, efficienti ed efficaci, mantenendo al contempo il controllo e la sovranità sui propri dati.

La seguente tabella descrive alcuni esempi di utilizzo del calcolo riservato nel settore pubblico.

Caso d'uso Descrizione

Sovranità digitale

Il Confidential Computing garantisce che i dati siano sempre criptati, anche durante l'elaborazione. Consente migrazioni sicure dei dati dei cittadini sul cloud, con dati protetti anche quando sono ospitati su infrastrutture esterne, in ambienti ibridi, pubblici o multi-cloud. Il calcolo riservato supporta e potenzia la sovranità e l'autonomia digitale, con un ulteriore controllo e protezione dei dati in uso in modo che le chiavi di crittografia non siano accessibili al fornitore di servizi cloud.

Dati riservati di più agenzie

Il calcolo riservato consente l'analisi dei dati tra più parti in più enti governativi (ad esempio sanità, fisco e istruzione) o in più governi in regioni o paesi diversi. Il calcolo riservato contribuisce a garantire la protezione dei confini di attendibilità e della privacy dei dati, nonché a abilitare l'analisi dei dati (utilizzando la prevenzione della perdita di dati (DLP), l'analisi su larga scala e i motori di criteri) e l'addestramento e il servizio dell'AI.

IA attendibile

I dati governativi sono fondamentali e possono essere utilizzati per addestrare modelli di AI privati in modo affidabile per migliorare i servizi interni e le interazioni con i cittadini. Il Confidential Computing consente di utilizzare framework di AI attendibili, con prompt riservati o addestramento RAG (Retrieval Augmented Generation) riservato per mantenere privati e sicuri i dati e i modelli dei cittadini.

Catena di fornitura

Il calcolo riservato consente alle organizzazioni di gestire la catena di approvvigionamento e la sostenibilità, collaborare e condividere approfondimenti, il tutto rispettando la privacy dei dati.

La seguente tabella descrive alcuni esempi di utilizzo del calcolo riservato nelle catene di approvvigionamento.

Caso d'uso Descrizione

Previsione della domanda e ottimizzazione dell'inventario

Con il calcolo riservato, ogni attività addestra il proprio modello di previsione della domanda sui propri dati di vendita e inventario. Questi modelli vengono poi aggregati in modo sicuro in un modello globale, fornendo una visione più accurata e olistica dei modelli di domanda lungo la catena di approvvigionamento.

Valutazione dei rischi dei fornitori che tutelano la privacy

Ogni organizzazione coinvolta nella valutazione del rischio dei fornitori (ad esempio acquirenti, istituti finanziari e revisori) addestra il proprio modello di valutazione del rischio sui propri dati. Questi modelli vengono aggregati per creare un profilo di rischio dei fornitori completo e incentrato sulla tutela della privacy, consentendo così l'identificazione precoce dei potenziali rischi dei fornitori, una maggiore resilienza della catena di approvvigionamento e una migliore presa di decisioni nella selezione e nella gestione dei fornitori.

Monitoraggio e riduzione dell'impronta di carbonio

Il calcolo riservato offre una soluzione per affrontare le sfide della privacy e della trasparenza dei dati nel monitoraggio e nel tentativo di ridurre l'impronta di carbonio. Il calcolo riservato consente alle organizzazioni di condividere e analizzare i dati senza rivelarne la forma non elaborata, il che consente loro di prendere decisioni consapevoli e intraprendere azioni efficaci verso un futuro più sostenibile.

Pubblicità digitale

La pubblicità digitale si è allontanata dai cookie di terze parti e si è orientata verso alternative più rispettose della privacy, come Privacy Sandbox. Privacy Sandbox supporta casi d'uso pubblicitari critici, limitando al contempo il monitoraggio tra siti e applicazioni. Privacy Sandbox utilizza i TEE per garantire l'elaborazione sicura dei dati degli utenti da parte delle aziende pubblicitarie.

Puoi utilizzare TEEs nei seguenti casi d'uso della pubblicità digitale:

  • Algoritmi di corrispondenza: per trovare corrispondenze o relazioni all'interno dei set di dati.
  • Attribuzione: collegamento di effetti o eventi alle loro cause probabili.
  • Aggregazione:calcolo di riepiloghi o statistiche dai dati non elaborati.

Implementa il calcolo riservato su Google Cloud

Google Cloud include i seguenti servizi che consentono il calcolo confidente:

  • Confidential VM: abilita la crittografia dei dati in uso per i carichi di lavoro che utilizzano le VM
  • Confidential GKE:abilita la crittografia dei dati in uso per i carichi di lavoro che utilizzano i contenitori
  • Dataflow riservato:abilita la crittografia dei dati in uso per l'analisi e il machine learning in streaming
  • Confidential Dataproc:abilita la crittografia dei dati in uso per l'elaborazione dei dati
  • Spazio riservato: abilita la crittografia dei dati in uso per l'analisi congiunto dei dati e il machine learning

Questi servizi ti consentono di ridurre il confine di attendibilità in modo che meno risorse abbiano accesso ai tuoi dati riservati. Ad esempio, in un Google Cloud ambiente senza Confidential Computing, il confine di attendibilità include laGoogle Cloud infrastruttura (hardware, hypervisor e sistema operativo host) e il sistema operativo guest. In un Google Cloud ambiente che include Confidential Computing (senza Confidential Space), il confine di attendibilità include solo il sistema operativo guest e l'applicazione. In un Google Cloud ambiente con uno spazio riservato, il confine di attendibilità è solo l' applicazione e lo spazio di memoria associato. La tabella seguente mostra come il confine di attendibilità viene ridotto con Confidential Computing e Confidential Space.

Elementi All'interno del confine di attendibilità senza utilizzare Confidential Computing All'interno del confine di attendibilità quando si utilizza il Confidential Computing All'interno del confine di attendibilità quando si utilizza Confidential Space

Cloud stack e amministratori

No

No

BIOS e firmware

No

No

Sistema operativo host e hypervisor

No

No

Amministratore guest VM

No

Sistema operativo guest della VM

Sì, misurati e attestati

Applicazioni

Sì, misurati e attestati

Dati riservati

Confidential Space crea un'area sicura all'interno di una VM per fornire il massimo livello di isolamento e protezione per dati e applicazioni sensibili. I principali vantaggi in termini di sicurezza di Confidential Space includono:

  • Difesa in profondità: aggiunge un ulteriore livello di sicurezza alle tecnologie di calcolo riservato esistenti.
  • Superficie di attacco ridotta:isola le applicazioni dalle potenziali vulnerabilità nel sistema operativo guest.
  • Controllo avanzato:fornisce un controllo granulare su autorizzazioni e accesso all'interno dell'ambiente sicuro.
  • Maggiore fiducia:offre una maggiore garanzia di riservatezza e integrità dei dati.

Confidential Space è progettato per gestire carichi di lavoro altamente sensibili, in particolare in settori regolamentati o scenari che prevedono collaborazioni tra più parti in cui la privacy dei dati è fondamentale.

Riferimenti all'architettura

Puoi implementare il confidential computing su Google Cloud per gestire i seguenti casi d'uso:

  • Dati e analisi confidenziali
  • IA riservata
  • Apprendimento federato confidenziale

Le sezioni seguenti forniscono ulteriori informazioni sull'architettura per questi casi d'uso, inclusi esempi per attività finanziarie e sanitarie.

Architettura di analisi riservata per gli istituti sanitari

L'architettura di analisi riservata dimostra in che modo più enti sanitari (come fornitori, aziende biofarmaceutiche e istituti di ricerca) possono collaborare per accelerare la ricerca di farmaci. Questa architettura utilizza tecniche di calcolo riservato per creare una stanza pulita digitale per eseguire analisi collaborative riservate.

Questa architettura presenta i seguenti vantaggi:

  • Approfondimenti migliorati: l'analisi collaborativa consente alle organizzazioni sanitarie di ottenere informazioni più ampie e di ridurre il time-to-market per una scoperta di farmaci migliorata.
  • Privacy dei dati:i dati sensibili delle transazioni rimangono criptati e non vengono mai esposti ad altri partecipanti o al TEE, garantendo la riservatezza.
  • Conformità normativa:l'architettura aiuta gli istituti sanitari a rispettare le normative sulla protezione dei dati mantenendo un controllo rigoroso sui propri dati.
  • Fiducia e collaborazione:l'architettura consente una collaborazione sicura tra istituti in concorrenza, favorendo uno sforzo collettivo per scoprire nuovi farmaci.

Il seguente diagramma mostra questa architettura.

Diagramma dell'architettura di analisi confidenziale per gli istituti sanitari.

I componenti chiave di questa architettura includono:

  • Server di aggregazione OLAP TEE: un ambiente sicuro e isolato in cui vengono eseguiti l'addestramento e l'inferenza dei modelli di machine learning. I dati e il codice all'interno del TEE sono protetti da accessi non autorizzati, anche dal sistema operativo o dal fornitore di servizi cloud sottostanti.
  • Partner di collaborazione: ogni istituto sanitario partecipante dispone di un ambiente locale che funge da intermediario tra i dati privati dell'istituto e il TEE.
  • Dati criptati specifici del fornitore: ogni istituto sanitario archivia i propri dati dei pazienti criptati e privati, inclusi i record sanitari elettronici. Questi dati rimangono criptati durante il processo di analisi, il che garantisce la loro privacy. I dati vengono rilasciati al TEE solo dopo la convalida delle rivendicazioni di attestazione dei singoli fornitori.
  • Client di analisi:gli istituti sanitari partecipanti possono eseguire query riservate sui propri dati per ottenere approfondimenti immediati.

Architettura di IA riservata per gli istituti finanziari

Questo pattern di architettura mostra in che modo gli istituti finanziari possono addestrare in collaborazione un modello di rilevamento di attività fraudolente utilizzando le etichette di attività fraudolenta per preservare la riservatezza dei dati sulle transazioni sensibili. L'architettura utilizza tecniche di calcolo riservato per consentire il machine learning sicuro tra più parti.

Questa architettura presenta i seguenti vantaggi:

  • Rilevamento avanzato delle attività fraudolente:l'addestramento collaborativo utilizza un set di dati più grande e diversificato, che consente di ottenere un modello di rilevamento delle attività fraudolente più preciso ed efficace.
  • Privacy dei dati:i dati sensibili delle transazioni rimangono criptati e non vengono mai esposti ad altri partecipanti o al TEE, garantendo la riservatezza.
  • Conformità normativa:l'architettura aiuta gli istituti finanziari a rispettare le normative sulla protezione dei dati mantenendo un controllo rigoroso sui propri dati.
  • Fiducia e collaborazione: questa architettura consente la collaborazione sicura tra istituti concorrenti, favorendo uno sforzo collettivo per combattere le frodi finanziarie.

Il seguente diagramma mostra questa architettura.

Diagramma dell'architettura di analisi confidenziale per gli istituti finanziari.

I componenti chiave di questa architettura includono:

  • Server di aggregazione OLAP TEE: un ambiente sicuro e isolato in cui vengono eseguiti l'addestramento e l'inferenza dei modelli di machine learning. I dati e il codice all'interno del TEE sono protetti da accessi non autorizzati, anche dal sistema operativo o dal fornitore di servizi cloud sottostanti.
  • Addestramento del modello TEE: il modello di base per le frodi a livello globale è pacchettizzato come contenitori per eseguire l'addestramento dell'ML. All'interno del TEE, il modello globale viene ulteriormente addestrato utilizzando i dati criptati di tutte le banche partecipanti. Il processo di addestramento impiega tecniche come l'apprendimento federato o il calcolo multi-parte sicuro per garantire che non vengano esposti dati non elaborati.
  • Partner collaboratori: ogni istituto finanziario partecipante dispone di un ambiente locale che funge da intermediario tra i dati privati dell'istituto e il TEE.
  • Dati criptati specifici della banca:ogni banca detiene i propri dati sulle transazioni criptati e privati, che includono le etichette di attività fraudolenta. Questi dati rimangono criptati durante l'intera procedura, garantendo la privacy dei dati. I dati vengono rilasciati al TEE solo dopo la convalida delle richieste di attestazione da parte delle singole banche.
  • Repository dei modelli: un modello di rilevamento delle frodi preaddestrato che funge da punto di partenza per l'addestramento collaborativo.
  • Modello e pesi addestrati per le frodi a livello globale (simbolizzati dalla linea verde): il modello di rilevamento delle frodi migliorato, insieme ai relativi pesi appresi, viene nuovamente scambiato in modo sicuro con le banche partecipanti. Potranno quindi implementare questo modello migliorato a livello locale per il rilevamento delle frodi sulle proprie transazioni.

Architettura di apprendimento federato riservato per gli istituti finanziari

L'apprendimento federato offre una soluzione avanzata per i clienti che danno valore alla privacy e alla sovranità dei dati. L'architettura di apprendimento federato riservato offre un modo sicuro, scalabile ed efficiente per utilizzare i dati per le applicazioni di AI. Questa architettura porta i modelli nella posizione in cui vengono archiviati i dati, anziché centralizzarli in un'unica posizione, riducendo così i rischi associati alla fuga di dati.

Questo pattern di architettura mostra come più istituti finanziari possono collaborare per addestrare un modello di rilevamento di attività fraudolente, preservando al contempo la riservatezza dei dati sulle transazioni sensibili con le etichette di attività fraudolenta. Utilizza l'apprendimento federato insieme a tecniche di calcolo riservato per consentire un machine learning sicuro e multipartito senza trasferimento di dati di addestramento.

Questa architettura presenta i seguenti vantaggi:

  • Maggiore privacy e sicurezza dei dati: l'apprendimento federato consente la privacy e la localizzazione dei dati garantendo che i dati sensibili rimangano su ogni sito. Inoltre, gli istituti finanziari possono utilizzare tecniche di tutela della privacy come la crittografia omomorfica e i filtri di privacy differenziale per proteggere ulteriormente i dati trasferiti (ad esempio i pesi del modello).
  • Maggiore accuratezza e diversità: grazie all'addestramento con una serie di fonti di dati di diversi clienti, gli istituti finanziari possono sviluppare un modello globale solido e generalizzabile per rappresentare meglio i set di dati eterogenei.
  • Scalabilità ed efficienza della rete:grazie alla possibilità di eseguire l'addestramento sul perimetro, gli istituti possono scalare l'apprendimento federato in tutto il mondo. Inoltre, gli istituti devono trasferire solo i pesi del modello anziché interi set di dati, il che consente un uso efficiente delle risorse di rete.

Il seguente diagramma mostra questa architettura.

Diagramma dell'architettura dell'apprendimento federato riservato.

I componenti chiave di questa architettura includono:

  • Server federato nel cluster TEE: un ambiente sicuro e isolato in cui il server di apprendimento federato orchestra la collaborazione di più client inviando prima un modello iniziale ai client di apprendimento federato. I client eseguono l'addestramento sui propri set di dati locali, quindi inviano gli aggiornamenti del modello al server di apprendimento federato per l'aggregazione in modo da formare un modello globale.
  • Repository di modelli di apprendimento federato: un modello di rilevamento delle frodi preaddestrato che funge da punto di partenza per l'apprendimento federato.
  • Motore di inferenza delle applicazioni locali:un'applicazione che esegue attività, calcoli e apprendimento locali con set di dati locali e invia nuovamente i risultati al server di apprendimento federato per l'aggregazione sicura.
  • Dati privati locali: ogni banca detiene i propri dati sulle transazioni private e criptati che includono le etichette di attività fraudolenta. Questi dati rimangono criptati durante l'intero processo, garantendo la privacy dei dati.
  • Protocollo di aggregazione sicura (simbolizzato dalla linea tratteggiata blu): il server di apprendimento federato non deve accedere all'aggiornamento di singole banche per addestrare il modello. Richiede solo gli elementi ponderati medi dei vettori di aggiornamento, ricavati da un sottoinsieme casuale di banche o siti. L'utilizzo di un protocollo di aggregazione sicuro per calcolare questi valori medi ponderati contribuisce a garantire che il server possa apprendere solo che una o più banche in questo sottoinsieme selezionato in modo casuale hanno scritto una determinata parola, ma non quali banche, preservando così la privacy di ogni partecipante al processo di apprendimento federato.
  • Modello globale addestrato per il rilevamento delle frodi e pesi aggregati (simbolizzati dalla linea verde): il modello di rilevamento delle frodi migliorato, insieme ai relativi pesi appresi, viene inviato in modo sicuro alle banche partecipanti. Le banche possono quindi implementare questo modello avanzato a livello locale per il rilevamento delle frodi sulle proprie transazioni.

Passaggi successivi

Collaboratori