Este principio del pilar de seguridad del Google Cloud framework bien estructurado proporciona recomendaciones para ayudarte a proteger tus sistemas de IA. Estas recomendaciones se alinean con el framework de IA segura (SAIF) de Google, que proporciona un enfoque práctico para abordar las preocupaciones de seguridad y riesgo de los sistemas de IA. El SAIF es un marco conceptual que tiene como objetivo proporcionar estándares para toda la industria para desarrollar e implementar IA de manera responsable.
Descripción general de los principios
Para garantizar que tus sistemas de IA cumplan con los requisitos de seguridad, privacidad y cumplimiento, debes adoptar una estrategia integral que comience con el diseño inicial y se extienda a la implementación y las operaciones. Para implementar esta estrategia integral, aplica los seis elementos principales de SAIF.
Google utiliza la IA para mejorar las medidas de seguridad, como identificar amenazas, automatizar tareas de seguridad y mejorar las capacidades de detección, a la vez que mantiene a las personas involucradas en las decisiones críticas.
Google enfatiza un enfoque colaborativo para mejorar la seguridad de la IA. Este enfoque implica asociarse con clientes, industrias y gobiernos para mejorar los lineamientos del SAIF y ofrecer recursos prácticos y prácticos.
Las recomendaciones para implementar este principio se agrupan en las siguientes secciones:
Recomendaciones para usar la IA de forma segura
Para usar la IA de forma segura, necesitas controles de seguridad básicos y controles de seguridad específicos de la IA. En esta sección, se proporciona una descripción general de las recomendaciones para garantizar que tus implementaciones de IA y de AA cumplan con los requisitos de seguridad, privacidad y cumplimiento de tu organización. Para obtener una descripción general de los principios y las recomendaciones arquitectónicos específicos de las cargas de trabajo de IA y AA en Google Cloud, consulta la perspectiva de IA y AA en el Framework de arquitectura bien diseñada.
Define objetivos y requisitos claros para el uso de la IA
Esta recomendación es relevante para las siguientes áreas de enfoque:
- Administración, riesgo y cumplimiento de la nube
- Seguridad de la IA y el AA
Esta recomendación se alinea con el elemento de SAIF sobre la contextualización de los riesgos del sistema de IA en los procesos comerciales circundantes. Cuando diseñas y evolucionas sistemas de IA, es importante comprender tus objetivos comerciales, riesgos y requisitos de cumplimiento específicos.
Mantén la seguridad de los datos y evita pérdidas o manejos inadecuados
Esta recomendación es relevante para las siguientes áreas de enfoque:
- Seguridad de la infraestructura
- Administración de identidades y accesos
- Seguridad de los datos
- Seguridad para aplicaciones
- Seguridad de la IA y el AA
Esta recomendación se alinea con los siguientes elementos de la SAIF:
- Expande medidas de seguridad sólidas en el ecosistema de IA. Este elemento incluye la recopilación, el almacenamiento, el control de acceso y la protección contra el envenenamiento de datos.
- Contextualiza los riesgos del sistema de IA. Enfatiza la seguridad de los datos para respaldar los objetivos comerciales y el cumplimiento.
Mantén las canalizaciones de IA seguras y resistentes a la manipulación
Esta recomendación es relevante para las siguientes áreas de enfoque:
- Seguridad de la infraestructura
- Administración de identidades y accesos
- Seguridad de los datos
- Seguridad para aplicaciones
- Seguridad de la IA y el AA
Esta recomendación se alinea con los siguientes elementos de la SAIF:
- Expande medidas de seguridad sólidas en el ecosistema de IA. Como elemento clave para establecer un sistema de IA seguro, protege tu código y tus artefactos de modelos.
- Adapta los controles para crear ciclos de retroalimentación más rápidos. Debido a que es importante para la mitigación y la respuesta ante incidentes, haz un seguimiento de tus activos y ejecuciones de canalización.
Implementa apps en sistemas seguros con herramientas y artefactos seguros
Esta recomendación es relevante para las siguientes áreas de enfoque:
- Seguridad de la infraestructura
- Administración de identidades y accesos
- Seguridad de los datos
- Seguridad para aplicaciones
- Seguridad de la IA y el AA
El uso de sistemas seguros, herramientas y artefactos validados en aplicaciones basadas en IA se alinea con el elemento SAIF sobre la expansión de bases de seguridad sólidas al ecosistema de IA y la cadena de suministro. Para abordar esta recomendación, sigue estos pasos:
- Implementa un entorno seguro para el entrenamiento y la implementación de AA
- Usa imágenes de contenedor validadas
- Aplica los lineamientos de los Niveles de cadena de suministro para artefactos de software (SLSA)
Protege y supervisa las entradas
Esta recomendación es relevante para las siguientes áreas de enfoque:
- Registro, auditoría y supervisión
- Operaciones de seguridad
- Seguridad de la IA y el AA
Esta recomendación se alinea con el elemento del SAIF sobre la ampliación de la detección y la respuesta para incorporar la IA al universo de amenazas de una organización. Para evitar problemas, es fundamental administrar las instrucciones de los sistemas de IA generativa, supervisar las entradas y controlar el acceso de los usuarios.
Recomendaciones para la gobernanza de la IA
Todas las recomendaciones de esta sección son relevantes para el siguiente área de enfoque: Administración, riesgos y cumplimiento de la nube.
Google Cloud ofrece un conjunto sólido de herramientas y servicios que puedes usar para compilar sistemas de IA responsables y éticos. También ofrecemos un marco de políticas, procedimientos y consideraciones éticas que pueden guiar el desarrollo, la implementación y el uso de sistemas de IA.
Como se refleja en nuestras recomendaciones, el enfoque de Google para la gobernanza de la IA se basa en los siguientes principios:
- Equidad
- Transparencia
- Responsabilidad
- Privacidad
- Seguridad
Usa indicadores de equidad
Vertex AI puede detectar sesgos durante el proceso de recopilación de datos o la evaluación posterior al entrenamiento. Vertex AI proporciona métricas de evaluación de modelos, como el sesgo de los datos y el sesgo del modelo, para ayudarte a evaluar si tu modelo tiene sesgos.
Estas métricas se relacionan con la equidad en diferentes categorías, como el origen étnico, el género y la clase. Sin embargo, interpretar las desviaciones estadísticas no es un ejercicio sencillo, ya que las diferencias entre las categorías pueden no ser un resultado de un sesgo o un indicador de daño.
Usar Vertex Explainable AI
Para comprender cómo toman decisiones los modelos de IA, usa Vertex Explainable AI. Esta función te ayuda a identificar posibles sesgos que podrían estar ocultos en la lógica del modelo.
Esta función de explicabilidad está integrada en BigQuery ML y Vertex AI, que proporcionan explicaciones basadas en atributos. Puedes realizar la explicación en BigQuery ML o registrar tu modelo en Vertex AI y realizar la explicación allí.
Realizar un seguimiento de linaje de datos
Hacer un seguimiento del origen y la transformación de los datos que se usan en tus sistemas de IA Este seguimiento te ayuda a comprender el recorrido de los datos y a identificar posibles fuentes de sesgo o error.
El linaje de datos es una función de Dataplex que te permite hacer un seguimiento de cómo los datos se mueven a través de tus sistemas: de dónde provienen, a dónde se pasan y qué transformaciones se les aplican.
Establece la responsabilidad
Establece una responsabilidad clara para el desarrollo, la implementación y los resultados de tu sistema de IA.
Usa Cloud Logging para registrar los eventos y las decisiones clave que toman tus sistemas de IA. Los registros proporcionan un registro de auditoría para ayudarte a comprender el rendimiento del sistema y a identificar las áreas que se pueden mejorar.
Usa Error Reporting para analizar de forma sistemática los errores que cometen los sistemas de IA. Este análisis puede revelar patrones que apuntan a sesgos subyacentes o áreas en las que el modelo necesita mayor refinamiento.
Implementa la privacidad diferencial
Durante el entrenamiento del modelo, agrega ruido a los datos para dificultar la identificación de datos individuales, pero permite que el modelo aprenda de manera eficaz. Con SQL en BigQuery, puedes transformar los resultados de una consulta con agregaciones diferencialmente privadas.