En esta página se describen las prácticas recomendadas para usar las puntuaciones de riesgo y la interpretabilidad.
Usar puntuaciones de riesgo
Las puntuaciones de riesgo se pueden usar en el proceso de investigación para priorizar las investigaciones de las partes de alto riesgo.
Entre los enfoques habituales se incluyen las alertas basadas en la carga del investigador o en un nivel de riesgo elegido:
Centrado en la capacidad: alerta o investiga a las n partes principales de la tabla de resultados en función de la puntuación de riesgo en orden descendente, según el volumen de investigadores disponibles.
Basado en el riesgo: alerta o investiga a todas las partes con una puntuación de riesgo superior a un umbral fijo que se establece cada mes. También se basa en los resultados de las pruebas retrospectivas, que ofrecen un nivel aceptable de recuperación de casos anteriores y de descubrimiento de nuevos riesgos. Para obtener más información, consulta Recoger artefactos de gobernanza de modelos y riesgos.
Usar la explicabilidad
Las familias de funciones con las puntuaciones de atribución positivas más altas se pueden proporcionar a los investigadores para dirigir sus investigaciones, reducir el tiempo necesario por investigación o aumentar el porcentaje de éxito. La experiencia sugiere que los resultados negativos (que indican que una familia de funciones ha reducido el riesgo de un caso) pueden ser difíciles de usar para un investigador y que algunos clientes de IA de lucha contra el blanqueo de capitales no los muestran a sus investigadores. Para obtener los mejores resultados, ten en cuenta qué formación u orientación necesitan tus investigadores para gestionar las investigaciones relacionadas con las diferentes familias de funciones.
También puedes usar la interpretabilidad para otros fines:
- Determinar si el comportamiento de un cliente ha cambiado lo suficiente como para justificar una nueva investigación en caso de que se produzca una segunda alerta o una alerta repetida para ese cliente
- Obtener estadísticas agregadas de las contribuciones de la familia de funciones a lo largo del tiempo
Filtrar alertas repetidas
Las puntuaciones de riesgo de la IA de PLA identifican a las partes de alto riesgo, pero no separan las alertas repetidas. Por ejemplo, un cliente que suponga un riesgo alto en marzo del 2023 puede tener una puntuación igualmente alta en abril del 2023, lo que generaría dos casos consecutivos a pesar de que su comportamiento siga siendo el mismo. Puede que quieras aplicar reglas para filtrar las alertas repetidas y evitar que se vuelva a alertar a una parte con una investigación en curso o que se haya completado recientemente sin que haya cambios significativos en la puntuación de riesgo o en la explicabilidad.