En este documento, se proporciona una descripción general de la computación confidencial, incluido cómo puedes usarla para la colaboración de datos segura y el aprendizaje federado. En el documento, también se proporciona información sobre los servicios de Confidential Computing en Google Cloud y referencias de arquitectura para diferentes casos de uso.
El objetivo de este documento es ayudar a los ejecutivos de tecnología a comprender el potencial empresarial de la computación confidencial con IA generativa y aplicada en varios sectores, incluidos los servicios financieros y la atención médica.
Descripción general de la computación confidencial
Las prácticas de seguridad de los datos se han centrado tradicionalmente en proteger los datos en reposo y en tránsito a través de la encriptación. La computación confidencial agrega una nueva capa de protección, ya que aborda la vulnerabilidad de los datos durante su uso activo. Esta tecnología garantiza que la información sensible permanezca confidencial incluso mientras se está procesando, lo que ayuda a cerrar una brecha fundamental en la seguridad de los datos.
Un entorno de computación confidencial implementa la protección de los datos en uso con un entorno de ejecución confiable (TEE) basado en hardware. Un TEE es un área segura dentro de un procesador que protege la confidencialidad y la integridad del código y los datos cargados en él. El TEE actúa como una sala segura para las operaciones sensibles, lo que mitiga el riesgo para los datos, incluso si el sistema está comprometido. Con la computación confidencial, los datos se pueden mantener encriptados en la memoria durante el procesamiento.
Por ejemplo, puedes usar la computación confidencial para la analítica de datos y el aprendizaje automático para lograr lo siguiente:
- Privacidad mejorada: Realiza análisis en conjuntos de datos sensibles (por ejemplo, registros médicos o datos financieros) sin exponer los datos a la infraestructura subyacente ni a las partes involucradas en el procesamiento.
- Colaboración segura: Entrena modelos de aprendizaje automático de forma conjunta o realiza análisis en los conjuntos de datos combinados de varias partes sin revelar datos individuales entre sí. La computación confidencial fomenta la confianza y permite el desarrollo de modelos más sólidos y generalizables, en particular, en sectores como la atención médica y las finanzas.
- Mayor seguridad de los datos: Mitiga el riesgo de violaciones de la seguridad de los datos y el acceso no autorizado, lo que garantiza el cumplimiento de las reglamentaciones de protección de datos, como el Reglamento General de Protección de Datos (RGPD) o la Ley de Responsabilidad y Portabilidad de Seguros Médicos (HIPAA).
- Mayor confianza y transparencia: Proporciona pruebas verificables de que las operaciones se realizan en los datos previstos y en un entorno seguro, lo que aumenta la confianza entre las partes interesadas.
Cómo funciona un entorno de computación confidencial
Los entornos de procesamiento confidencial tienen las siguientes propiedades:
- Encriptación del tiempo de ejecución: El procesador mantiene todos los datos del entorno de procesamiento confidencial encriptados en la memoria. Cualquier atacante de componentes del sistema o hardware que intente leer datos confidenciales del entorno de procesamiento directamente desde la memoria solo verá datos encriptados. Del mismo modo, la encriptación evita la modificación de los datos del entorno de procesamiento confidencial a través del acceso directo a la memoria.
- Aislamiento: El procesador bloquea el acceso basado en software al entorno de computación confidencial. El sistema operativo y otras aplicaciones solo pueden comunicarse con el entorno de procesamiento confidencial a través de interfaces específicas.
Certificación: En el contexto de la computación confidencial, la certificación verifica la confiabilidad del entorno de computación confidencial. Con la certificación, los usuarios pueden ver la evidencia de que la computación confidencial protege sus datos, ya que la certificación te permite autenticar la instancia de TEE.
Durante el proceso de certificación, el chip de la CPU que admite el TEE produce un informe firmado criptográficamente (conocido como informe de certificación) de la medición de la instancia. Luego, la medición se envía a un servicio de certificación. Una certificación para el aislamiento de procesos autentica una aplicación. Una certificación para el aislamiento de VM autentica una VM, el firmware virtual que se usa para iniciarla o ambos.
Seguridad del ciclo de vida de los datos: La computación confidencial crea un entorno de procesamiento seguro para proporcionar protección respaldada por hardware para los datos en uso.
Tecnología de Confidential Computing
Las siguientes tecnologías habilitan el procesamiento confidencial:
- Enclaves seguros, también conocidos como computación confidencial basada en aplicaciones
- GPUs y Confidential VMs, también conocidas como procesamiento confidencial basado en VMs
Google Cloud usa Confidential VM para habilitar el procesamiento confidencial. Para obtener más información, consulta Implementa el procesamiento confidencial en Google Cloud.
Enclaves seguros
Un enclave seguro es un entorno de computación que proporciona aislamiento para el código y los datos del sistema operativo mediante aislamiento basado en hardware o aislando una VM completa colocando el hipervisor dentro de la base de computación confiable (TCB). Los enclaves seguros están diseñados para garantizar que incluso los usuarios con acceso físico o raíz a las máquinas y al sistema operativo no puedan conocer el contenido de la memoria del enclave seguro ni manipular la ejecución de código dentro del enclave. Un ejemplo de un enclave seguro es la extensión de protección de software (SGX) de Intel.
Confidential VMs y GPUs confidenciales
Una Confidential VM es un tipo de VM que usa la encriptación de memoria basada en hardware para ayudar a proteger los datos y las aplicaciones. La VM confidencial ofrece aislamiento y certificación para mejorar la seguridad. Las tecnologías de procesamiento de Confidential VM incluyen AMD SEV, AMD SEV-SNP, Intel TDX, Arm CCA, IBM Z, IBM LinuxONE y GPU confidencial de Nvidia.
Las GPUs confidenciales ayudan a proteger los datos y acelerar el procesamiento, en especial en la nube y en entornos compartidos. Usan técnicas de encriptación y aislamiento basados en hardware para ayudar a proteger los datos mientras se procesan en la GPU, lo que garantiza que incluso el proveedor de servicios en la nube o los agentes maliciosos no puedan acceder a la información sensible.
Casos de uso por industria
En las siguientes secciones, se proporcionan ejemplos de casos de uso de computación confidencial para varias industrias.
Salud y ciencias biológicas
La computación confidencial permite el análisis y el uso compartido de datos seguros entre las organizaciones y, al mismo tiempo, preserva la privacidad de los pacientes. La computación confidencial permite que las organizaciones de atención médica participen en investigaciones colaborativas, modelado de enfermedades, descubrimiento de medicamentos y planes de tratamiento personalizados.
En la siguiente tabla, se describen algunos usos de ejemplo de la computación confidencial en la atención médica.
Caso de uso | Descripción |
---|---|
Predicción y detección temprana de enfermedades |
Los hospitales entrenan un modelo de aprendizaje federado para detectar lesiones cancerosas a partir de datos de imágenes médicas (por ejemplo, tomografías computarizadas o resonancias magnéticas en varios hospitales o regiones hospitalarias) y, al mismo tiempo, mantener la confidencialidad de los pacientes. |
Supervisión de pacientes en tiempo real |
Los proveedores de atención médica analizan los datos de los dispositivos de salud portátiles y las apps de salud para dispositivos móviles para realizar alertas y supervisión en tiempo real. Por ejemplo, los dispositivos portátiles recopilan datos sobre los niveles de glucosa, la actividad física y los hábitos alimentarios para proporcionar recomendaciones personalizadas y advertencias anticipadas sobre las fluctuaciones de la glucosa en sangre. |
Descubrimiento de fármacos colaborativo |
Las empresas farmacéuticas entrenan modelos en conjuntos de datos propietarios para acelerar el descubrimiento de medicamentos, mejorar la colaboración y proteger la propiedad intelectual. |
Servicios financieros
La computación confidencial permite que las instituciones financieras creen un sistema financiero más seguro y resiliente.
En la siguiente tabla, se describen algunos ejemplos de usos de la computación confidencial en los servicios financieros.
Caso de uso | Descripción |
---|---|
Delitos financieros |
Las instituciones financieras pueden colaborar en iniciativas de prevención del lavado de dinero (AML) o de modelos generales de fraude compartiendo información sobre transacciones sospechosas y, al mismo tiempo, protegiendo la privacidad de los clientes. Con la computación confidencial, las instituciones pueden analizar estos datos compartidos de forma segura y entrenar los modelos para identificar y desarticular esquemas complejos de lavado de dinero de manera más eficaz. |
Evaluación del riesgo crediticio que preserva la privacidad |
Los prestamistas pueden evaluar el riesgo crediticio con un rango más amplio de fuentes de datos, incluidos los datos de otras instituciones financieras o incluso de entidades no financieras. Con el procesamiento confidencial, los prestamistas pueden acceder a estos datos y analizarlos sin exponerlos a partes no autorizadas, lo que mejora la precisión de los modelos de puntuación de crédito y, al mismo tiempo, mantiene la privacidad de los datos. |
Descubrimiento de precios que preserva la privacidad |
En el mundo financiero, especialmente en áreas como los mercados extrabursátiles o los activos ilíquidos, los precios precisos son fundamentales. El procesamiento confidencial permite que varias instituciones calculen precios precisos de forma colaborativa, sin revelar sus datos sensibles entre sí. |
Sector público
La computación confidencial permite a los gobiernos crear servicios más transparentes, eficientes y efectivos, a la vez que conservan el control y la soberanía de sus datos.
En la siguiente tabla, se describen algunos usos de ejemplo de la computación confidencial en el sector público.
Caso de uso | Descripción |
---|---|
Soberanía digital |
La computación confidencial garantiza que los datos siempre estén encriptados, incluso mientras se procesan. Permite migraciones seguras de datos de los ciudadanos a la nube, con protección de los datos incluso cuando se alojan en infraestructura externa, en entornos híbridos, públicos o de múltiples nubes. El procesamiento confidencial admite y fortalece la soberanía y la autonomía digitales, con control y protección de datos adicionales para los datos en uso, de modo que el proveedor de servicios en la nube no pueda acceder a las claves de encriptación. |
Estadísticas confidenciales de varias agencias |
El procesamiento confidencial permite la realización de análisis de datos de múltiples partes en varias agencias gubernamentales (por ejemplo, salud, impuestos y educación) o en varios gobiernos de diferentes regiones o países. La computación confidencial ayuda a garantizar que se protejan los límites de confianza y la privacidad de los datos, a la vez que habilita el análisis de datos (con prevención de pérdida de datos [DLP], análisis a gran escala y motores de políticas) y el entrenamiento y la publicación de IA. |
IA de confianza |
Los datos del Gobierno son fundamentales y se pueden usar para entrenar modelos de IA privados de una manera confiable y mejorar los servicios internos, así como las interacciones con los ciudadanos. El procesamiento confidencial permite frameworks de IA confiables, con indicaciones confidenciales o entrenamiento de generación aumentada de recuperación (RAG) confidencial para mantener los datos y los modelos de los ciudadanos privados y seguros. |
Cadena de suministro
La computación confidencial permite a las organizaciones administrar su cadena de suministro y colaborar en la sostenibilidad, y compartir estadísticas mientras se mantiene la privacidad de los datos.
En la siguiente tabla, se describen algunos usos de ejemplo de la computación confidencial en las cadenas de suministro.
Caso de uso | Descripción |
---|---|
Previsión de la demanda y optimización del inventario |
Con el procesamiento confidencial, cada empresa entrena su propio modelo de previsión de la demanda con sus propios datos de ventas e inventario. Luego, estos modelos se agregan de forma segura en un modelo global, lo que proporciona una vista más precisa y holística de los patrones de demanda en toda la cadena de suministro. |
Evaluación de riesgos de proveedores que preserva la privacidad |
Cada organización involucrada en la evaluación de riesgos de los proveedores (por ejemplo, compradores, instituciones financieras y auditores) entrena su propio modelo de evaluación de riesgos con sus propios datos. Estos modelos se agregan para crear un perfil de riesgo del proveedor integral que preserva la privacidad, lo que permite identificar con anticipación los posibles riesgos de los proveedores, mejorar la resiliencia de la cadena de suministro y tomar mejores decisiones en la selección y administración de proveedores. |
Seguimiento y reducción de la huella de carbono |
La computación confidencial ofrece una solución para abordar los desafíos de la privacidad y la transparencia de los datos en el seguimiento y la reducción de la huella de carbono. La computación confidencial permite a las organizaciones compartir y analizar datos sin revelar su forma sin procesar, lo que las faculta para tomar decisiones fundamentadas y realizar acciones eficaces hacia un futuro más sostenible. |
Publicidad digital
La publicidad digital dejó de lado las cookies de terceros y se orientó a alternativas más seguras para la privacidad, como Privacy Sandbox. Privacy Sandbox admite casos de uso publicitarios fundamentales y, al mismo tiempo, limita el seguimiento entre sitios y aplicaciones. Privacy Sandbox usa TEE para garantizar que las empresas publicitarias procesen de forma segura los datos de los usuarios.
Puedes usar TEEs en los siguientes casos de uso de publicidad digital:
- Algoritmos de coincidencia: Encuentra correspondencias o relaciones dentro de los conjuntos de datos.
- Atribución: Vincula los efectos o eventos con sus causas probables.
- Agregación: Calcula resúmenes o estadísticas a partir de los datos sin procesar.
Implementa la computación confidencial en Google Cloud
Google Cloud incluye los siguientes servicios que habilitan la computación confidencial:
- Confidential VM: Habilita la encriptación de datos en uso para las cargas de trabajo que usan VMs.
- Confidential GKE: Habilita la encriptación de los datos en uso para las cargas de trabajo que usan contenedores.
- Dataflow confidencial: Habilita la encriptación de los datos en uso para la transmisión de análisis y aprendizaje automático.
- Dataproc confidencial: Habilita la encriptación de datos en uso para el procesamiento de datos.
- Espacio confidencial: Habilita la encriptación de los datos en uso para el análisis de datos conjunto y el aprendizaje automático.
Estos servicios te permiten reducir tu límite de confianza para que menos recursos tengan acceso a tus datos confidenciales. Por ejemplo, en un entorno de Google Cloud sin Confidential Computing, el límite de confianza incluye la infraestructura deGoogle Cloud (hardware, hipervisor y SO host) y el SO invitado. En un entorno de Google Cloud que incluye Confidential Computing (sin Confidential Space), el límite de confianza solo incluye el SO invitado y la aplicación. En un entorno de Google Cloudcon Confidential Space, el límite de confianza es solo la aplicación y su espacio de memoria asociado. En la siguiente tabla, se muestra cómo se reduce el límite de confianza con la Confidential Computing y Confidential Space.
Elementos | Dentro del límite de confianza sin usar Confidential Computing | Dentro del límite de confianza cuando se usa Confidential Computing | Dentro del límite de confianza cuando se usa Confidential Space |
---|---|---|---|
Pila de nube y administradores |
Sí |
No |
No |
BIOS y firmware |
Sí |
No |
No |
SO host y hipervisor |
Sí |
No |
No |
Administrador de invitado de la VM |
Sí |
Sí |
No |
SO invitado de la VM |
Sí |
Sí |
Sí, se midieron y certificaron |
Aplicaciones |
Sí |
Sí |
Sí, se midieron y certificaron |
Datos confidenciales |
Sí |
Sí |
Sí |
El Espacio confidencial crea un área segura dentro de una VM para proporcionar el más alto nivel de aislamiento y protección para datos y aplicaciones sensibles. Estos son algunos de los principales beneficios de seguridad de Confidential Space:
- Defensa en profundidad: Agrega una capa adicional de seguridad a las tecnologías de procesamiento confidencial existentes.
- Superficie de ataque reducida: Aísla las aplicaciones de posibles vulnerabilidades en el SO invitado.
- Control mejorado: Proporciona un control detallado sobre el acceso y los permisos dentro del entorno seguro.
- Mayor confianza: Ofrece una mayor garantía de confidencialidad y integridad de los datos.
Confidential Space se diseñó para controlar cargas de trabajo muy sensibles, en especial en sectores regulados o situaciones que involucran colaboraciones de varias partes en las que la privacidad de los datos es fundamental.
Referencias de arquitectura
Puedes implementar la computación confidencial en Google Cloud para abordar los siguientes casos de uso:
- Estadísticas confidenciales
- IA confidencial
- Aprendizaje federado confidencial
En las siguientes secciones, se proporciona más información sobre la arquitectura de estos casos de uso, incluidos ejemplos de empresas financieras y de atención médica.
Arquitectura de estadísticas confidenciales para instituciones de atención médica
La arquitectura de análisis confidencial demuestra cómo varias instituciones de atención médica (como proveedores, instituciones de investigación y biofarmacéuticas) pueden trabajar juntas para acelerar la investigación de medicamentos. Esta arquitectura usa técnicas de computación confidencial para crear una sala limpia digital para ejecutar análisis colaborativos confidenciales.
Esta arquitectura tiene los siguientes beneficios:
- Estadísticas mejoradas: Los análisis colaborativos permiten que las organizaciones de salud obtengan estadísticas más amplias y disminuyan el tiempo de lanzamiento para mejorar el descubrimiento de medicamentos.
- Privacidad de los datos: Los datos sensibles de las transacciones permanecen encriptados y nunca se exponen a otros participantes ni al TEE, lo que garantiza la confidencialidad.
- Cumplimiento de las reglamentaciones: La arquitectura ayuda a las instituciones de salud a satisfacer las reglamentaciones de protección de datos, ya que mantiene un control estricto sobre sus datos.
- Confianza y colaboración: La arquitectura permite la colaboración segura entre instituciones que compiten, lo que fomenta un esfuerzo colectivo para descubrir medicamentos.
En el siguiente diagrama, se muestra esta arquitectura.
Los componentes clave de esta arquitectura incluyen los siguientes:
- Servidor de agregación de OLAP de TEE: Es un entorno seguro y aislado en el que se produce el entrenamiento y la inferencia de modelos de aprendizaje automático. Los datos y el código dentro del TEE están protegidos contra el acceso no autorizado, incluso desde el sistema operativo subyacente o el proveedor de servicios en la nube.
- Socios de colaboración: Cada institución de salud participante tiene un entorno local que actúa como intermediario entre los datos privados de la institución y el TEE.
- Datos encriptados específicos del proveedor: Cada institución de atención médica almacena sus propios datos privados encriptados de los pacientes, que incluyen registros médicos electrónicos. Estos datos permanecen encriptados durante el proceso de análisis, lo que garantiza la privacidad de los datos. Los datos solo se liberan al TEE después de validar las afirmaciones de certificación de los proveedores individuales.
- Cliente de Analytics: Las instituciones de salud participantes pueden ejecutar consultas confidenciales en sus datos para obtener estadísticas inmediatas.
Arquitectura de IA confidencial para instituciones financieras
Este patrón de arquitectura demuestra cómo las instituciones financieras pueden entrenar de forma colaborativa un modelo de detección de fraudes mientras usan etiquetas de fraude para preservar la confidencialidad de sus datos de transacciones sensibles. La arquitectura usa técnicas de computación confidencial para habilitar el aprendizaje automático seguro y multipartido.
Esta arquitectura tiene los siguientes beneficios:
- Detección de fraudes mejorada: El entrenamiento colaborativo usa un conjunto de datos más grande y diverso, lo que genera un modelo de detección de fraudes más preciso y eficaz.
- Privacidad de los datos: Los datos sensibles de las transacciones permanecen encriptados y nunca se exponen a otros participantes ni al TEE, lo que garantiza la confidencialidad.
- Cumplimiento normativo: La arquitectura ayuda a las instituciones financieras a satisfacer las reglamentaciones de protección de datos, ya que mantiene un control estricto sobre sus datos.
- Confianza y colaboración: Esta arquitectura permite la colaboración segura entre instituciones que compiten, lo que fomenta un esfuerzo colectivo para combatir el fraude financiero.
En el siguiente diagrama, se muestra esta arquitectura.
Los componentes clave de esta arquitectura incluyen los siguientes:
- Servidor de agregación de OLAP de TEE: Es un entorno seguro y aislado en el que se produce el entrenamiento y la inferencia de modelos de aprendizaje automático. Los datos y el código dentro del TEE están protegidos contra el acceso no autorizado, incluso desde el sistema operativo subyacente o el proveedor de servicios en la nube.
- Entrenamiento de modelos de TEE: El modelo base de fraude global se empaqueta como contenedores para ejecutar el entrenamiento de AA. Dentro del TEE, el modelo global se entrena con mayor detalle con los datos encriptados de todos los bancos participantes. El proceso de entrenamiento emplea técnicas como el aprendizaje federado o la computación segura multiparte para garantizar que no se expongan datos sin procesar.
- Socios colaboradores: Cada institución financiera participante tiene un entorno local que actúa como intermediario entre los datos privados de la institución y el TEE.
- Datos encriptados específicos del banco: Cada banco tiene sus propios datos de transacciones privados y encriptados que incluyen etiquetas de fraude. Estos datos permanecen encriptados durante todo el proceso, lo que garantiza la privacidad de los datos. Los datos solo se entregan al TEE después de validar las declaraciones de certificación de bancos individuales.
- Repositorio de modelos: Un modelo de detección de fraudes previamente entrenado que sirve como punto de partida para el entrenamiento colaborativo.
- Modelo y pesos entrenados de fraude global (simbolizados por la línea verde): El modelo mejorado de detección de fraudes, junto con sus pesos aprendidos, se intercambia de forma segura con los bancos participantes. Luego, pueden implementar este modelo mejorado de forma local para la detección de fraudes en sus propias transacciones.
Arquitectura de aprendizaje federado confidencial para instituciones financieras
El aprendizaje federado ofrece una solución avanzada para los clientes que valoran la privacidad y la soberanía de los datos estrictas. La arquitectura de aprendizaje federado confidencial proporciona una forma segura, escalable y eficiente de usar los datos para aplicaciones de IA. Esta arquitectura lleva los modelos a la ubicación donde se almacenan los datos, en lugar de centralizarlos en una sola ubicación, lo que reduce los riesgos asociados con la filtración de datos.
Este patrón de arquitectura demuestra cómo varias instituciones financieras pueden entrenar de forma colaborativa un modelo de detección de fraude y, al mismo tiempo, preservar la confidencialidad de sus datos de transacciones sensibles con etiquetas de fraude. Usa el aprendizaje federado junto con técnicas de computación confidencial para habilitar el aprendizaje automático seguro y multiparte sin el movimiento de datos de entrenamiento.
Esta arquitectura tiene los siguientes beneficios:
- Privacidad y seguridad de los datos mejoradas: El aprendizaje federado permite la privacidad y la localidad de los datos, ya que garantiza que los datos sensibles permanezcan en cada sitio. Además, las instituciones financieras pueden usar técnicas de preservación de la privacidad, como la encriptación homomórfica y los filtros de privacidad diferencial, para proteger aún más los datos transferidos (como los pesos del modelo).
- Mayor precisión y diversidad: Cuando se entrena con una variedad de fuentes de datos en diferentes clientes, las instituciones financieras pueden desarrollar un modelo global sólido y generalizable para representar mejor los conjuntos de datos heterogéneos.
- Escalabilidad y eficiencia de la red: Con la capacidad de realizar la capacitación en el perímetro, las instituciones pueden escalar el aprendizaje federado en todo el mundo. Además, las instituciones solo deben transferir los pesos del modelo en lugar de conjuntos de datos completos, lo que permite un uso eficiente de los recursos de la red.
En el siguiente diagrama, se muestra esta arquitectura.
Los componentes clave de esta arquitectura incluyen los siguientes:
- Servidor federado en el clúster de TEE: Es un entorno seguro y aislado en el que el servidor de aprendizaje federado orquesta la colaboración de varios clientes. Para ello, primero envía un modelo inicial a los clientes de aprendizaje federado. Los clientes realizan el entrenamiento en sus conjuntos de datos locales y, luego, envían las actualizaciones del modelo al servidor de aprendizaje federado para que se agreguen y formen un modelo global.
- Repositorio de modelos de aprendizaje federado: Un modelo de detección de fraudes previamente entrenado que sirve como punto de partida para el aprendizaje federado.
- Motor de inferencia de aplicaciones locales: Es una aplicación que ejecuta tareas, realiza procesamiento y aprendizaje locales con conjuntos de datos locales y envía los resultados al servidor de aprendizaje federado para la agregación segura.
- Datos privados locales: Cada banco tiene sus propios datos de transacciones privados y encriptados que incluyen etiquetas de fraude. Estos datos permanecen encriptados durante todo el proceso, lo que garantiza la privacidad de los datos.
- Protocolo de agregación seguro (simbolizado por la línea azul punteada): El servidor de aprendizaje federado no necesita acceder a la actualización de ningún banco individual para entrenar el modelo. Solo requiere los promedios ponderados por elemento de los vectores de actualización, tomados de un subconjunto aleatorio de bancos o sitios. El uso de un protocolo de agregación seguro para calcular estos promedios ponderados ayuda a garantizar que el servidor pueda aprender solo que uno o más bancos de este subconjunto seleccionado de forma aleatoria escribieron una palabra determinada, pero no cuáles, lo que preserva la privacidad de cada participante en el proceso de aprendizaje federado.
- Modelo global entrenado para detectar fraudes y pesos agregados (simbolizado por la línea verde): El modelo mejorado de detección de fraudes, junto con sus pesos aprendidos, se envía de forma segura a los bancos participantes. Luego, los bancos pueden implementar este modelo mejorado de forma local para la detección de fraudes en sus propias transacciones.
¿Qué sigue?
Lee Confidential AI: Intel seeks to overcome AI's data protection problem.
Mira Enabling secure multi-party collaboration with confidential computing by Keith Moyer (Google) | OC3 (YouTube).
Consulta What's new in confidential computing? (YouTube).
Implementa Confidential Computing y Confidencial Space en tu entorno.
Obtén más información sobre los conceptos básicos de la Confidential Computing enGoogle Cloud.
Obtén más información para habilitar una IA generativa más privada.
Colaboradores
- Arun Santhanagopalan | Director de Tecnología y Incubación, Google Cloud
- Pablo Rodríguez | Director técnico, Oficina del director de Tecnología
- Vineet Dave | Director de Tecnología y Incubación, Google Cloud