Este principio del pilar de seguridad del Google Cloud framework Well-Architected ofrece recomendaciones para ayudarte a proteger tus sistemas de IA. Estas recomendaciones se ajustan al Marco para la IA Segura (SAIF) de Google, que ofrece un enfoque práctico para abordar las preocupaciones sobre la seguridad y los riesgos de los sistemas de IA. El SAIF es un marco conceptual que tiene como objetivo proporcionar estándares en todo el sector para desarrollar e implementar la IA de forma responsable.
Descripción general de los principios
Para asegurarte de que tus sistemas de IA cumplen tus requisitos de seguridad, privacidad y cumplimiento, debes adoptar una estrategia integral que empiece con el diseño inicial y se extienda a la implementación y las operaciones. Puedes implementar esta estrategia integral aplicando los seis elementos clave del SAIF.
Google usa la IA para mejorar las medidas de seguridad, como identificar amenazas, automatizar tareas de seguridad y mejorar las funciones de detección, sin dejar de contar con la intervención humana en las decisiones críticas.
Google hace hincapié en un enfoque colaborativo para mejorar la seguridad de la IA. Este enfoque implica colaborar con clientes, sectores y gobiernos para mejorar las directrices del SAIF y ofrecer recursos prácticos y útiles.
Las recomendaciones para implementar este principio se agrupan en las siguientes secciones:
Recomendaciones para usar la IA de forma segura
Para usar la IA de forma segura, necesitas controles de seguridad básicos y controles de seguridad específicos para la IA. En esta sección se ofrece una descripción general de las recomendaciones para asegurarse de que las implementaciones de IA y aprendizaje automático cumplen los requisitos de seguridad, privacidad y cumplimiento de su organización. Para obtener una descripción general de los principios y las recomendaciones de arquitectura específicos de las cargas de trabajo de IA y aprendizaje automático en Google Cloud, consulta la sección Perspectiva de IA y aprendizaje automático del framework Well-Architected.
Define objetivos y requisitos claros para el uso de la IA
Esta recomendación está relacionada con las siguientes áreas de interés:
- Gobernanza, riesgos y cumplimiento en la nube
- Seguridad de la IA y el aprendizaje automático
Esta recomendación se ajusta al elemento del SAIF sobre la contextualización de los riesgos de los sistemas de IA en los procesos empresariales del entorno. Cuando diseñes y desarrolles sistemas de IA, es importante que conozcas tus objetivos de negocio, riesgos y requisitos de cumplimiento específicos.
Mantener los datos protegidos y evitar que se pierdan o se traten de forma inadecuada
Esta recomendación está relacionada con las siguientes áreas de interés:
- Seguridad de la infraestructura
- Gestión de identidades y accesos
- Seguridad de los datos
- Seguridad para aplicaciones
- Seguridad de la IA y el aprendizaje automático
Esta recomendación se ajusta a los siguientes elementos de la guía de información de seguridad de aplicaciones:
- Ampliar cimientos de seguridad sólidos al ecosistema de la IA. Este elemento incluye la recogida, el almacenamiento y el control de acceso a los datos, así como la protección frente a la contaminación de datos.
- Contextualiza los riesgos de los sistemas de IA. Destaca la seguridad de los datos para alcanzar los objetivos empresariales y cumplir las normativas.
Mantener protegidos los flujos de trabajo de IA y evitar que se manipulen
Esta recomendación está relacionada con las siguientes áreas de interés:
- Seguridad de la infraestructura
- Gestión de identidades y accesos
- Seguridad de los datos
- Seguridad para aplicaciones
- Seguridad de la IA y el aprendizaje automático
Esta recomendación se ajusta a los siguientes elementos de la guía de información de seguridad de aplicaciones:
- Ampliar cimientos de seguridad sólidos al ecosistema de la IA. Como elemento clave para establecer un sistema de IA seguro, protege tu código y tus artefactos de modelo.
- Adapta los controles para crear ciclos de retroalimentación más rápidos. Es importante para la mitigación y la respuesta a incidentes, así que haz un seguimiento de tus recursos y ejecuciones de la canalización.
Desplegar aplicaciones en sistemas seguros con herramientas y artefactos seguros
Esta recomendación está relacionada con las siguientes áreas de interés:
- Seguridad de la infraestructura
- Gestión de identidades y accesos
- Seguridad de los datos
- Seguridad para aplicaciones
- Seguridad de la IA y el aprendizaje automático
Usar sistemas seguros y herramientas y artefactos validados en aplicaciones basadas en IA se ajusta al elemento del SAIF sobre la ampliación de cimientos de seguridad sólidos al ecosistema y la cadena de suministro de la IA. Para solucionar este problema, sigue estos pasos:
- Implementar un entorno seguro para el entrenamiento y el despliegue de aprendizaje automático
- Usar imágenes de contenedor validadas
- Aplicar las directrices de Niveles de la cadena de suministro para artefactos de software (SLSA)
Proteger y monitorizar las entradas
Esta recomendación está relacionada con las siguientes áreas de interés:
- Registro, auditoría y monitorización
- Operaciones de seguridad
- Seguridad de la IA y el aprendizaje automático
Esta recomendación se ajusta al elemento SAIF sobre la ampliación de la detección y la respuesta para introducir la IA en el universo de amenazas de una organización. Para evitar problemas, es fundamental gestionar las peticiones de los sistemas de IA generativa, monitorizar las entradas y controlar el acceso de los usuarios.
Recomendaciones para la gobernanza de la IA
Todas las recomendaciones de esta sección están relacionadas con la siguiente área de enfoque: control, riesgos y cumplimiento en la nube.
Google Cloud ofrece un conjunto de herramientas y servicios que puedes usar para crear sistemas de IA responsables y éticos. También ofrecemos un marco de políticas, procedimientos y consideraciones éticas que pueden guiar el desarrollo, la implementación y el uso de sistemas de IA.
Tal como se refleja en nuestras recomendaciones, el enfoque de Google para la gobernanza de la IA se rige por los siguientes principios:
- Imparcialidad
- Transparencia
- Responsabilidad
- Privacidad
- Seguridad
Usar indicadores de equidad
Vertex AI puede detectar sesgos durante el proceso de recogida de datos o de evaluación posterior al entrenamiento. Vertex AI proporciona métricas de evaluación de modelos, como sesgos en los datos y sesgos en los modelos, para ayudarte a evaluar los sesgos de tu modelo.
Estas métricas están relacionadas con la equidad entre diferentes categorías, como raza, sexo y clase. Sin embargo, interpretar las desviaciones estadísticas no es una tarea sencilla, ya que las diferencias entre categorías pueden no deberse a sesgos ni ser una señal de daño.
Usar Vertex Explainable AI
Para saber cómo toman decisiones los modelos de IA, usa Vertex Explainable AI. Esta función te ayuda a identificar posibles sesgos que puedan estar ocultos en la lógica del modelo.
Esta función de interpretabilidad se integra con BigQuery ML y Vertex AI, que proporcionan explicaciones basadas en las características. Puedes realizar la interpretabilidad en BigQuery ML o registrar tu modelo en Vertex AI y realizar la interpretabilidad en Vertex AI.
Monitorizar el linaje de datos
Monitoriza el origen y la transformación de los datos que se usan en tus sistemas de IA. Este seguimiento te ayuda a comprender el recorrido de los datos e identificar posibles fuentes de sesgo o error.
El linaje de datos es una función de Dataplex Universal Catalog que te permite hacer un seguimiento de cómo se mueven los datos por tus sistemas: de dónde proceden, a dónde se transfieren y qué transformaciones se les aplican.
Establecer responsabilidades
Establece responsabilidades claras en cuanto al desarrollo, la implementación y los resultados de tus sistemas de IA.
Usa Cloud Logging para registrar los eventos clave y las decisiones que tomen tus sistemas de IA. Los registros proporcionan un historial de auditoría que te ayuda a entender el rendimiento del sistema e identificar áreas de mejora.
Usa Error Reporting para analizar sistemáticamente los errores cometidos por los sistemas de IA. Este análisis puede revelar patrones que indiquen sesgos subyacentes o áreas en las que el modelo necesite más ajustes.
Implementar la privacidad diferencial
Durante el entrenamiento del modelo, se añade ruido a los datos para que sea difícil identificar puntos de datos concretos, pero se permite que el modelo aprenda de forma eficaz. Con SQL en BigQuery, puedes transformar los resultados de una consulta con agregaciones con privacidad diferencial.