Para crear conjuntos de datos de IA de AML en una instancia, debes preparar los datos en BigQuery dentro de ese proyecto de Google Cloud. Las siguientes secciones mostrar una forma de preparar estos conjuntos de datos y tablas.
Crea un conjunto de datos de salida de BigQuery
Ejecuta el siguiente comando para crear un conjunto de datos que se que se usa para enviar los resultados de la canalización a BigQuery. En el siguiente comando, selecciona un nombre para BQ_OUTPUT_DATASET_NAME que contenga solo letras (mayúsculas o minúsculas), números y guiones bajos. No puedes usar guiones.
Bash
bq mk \
--location=LOCATION \
--project_id=PROJECT_ID \
BQ_OUTPUT_DATASET_NAME
powershell
bq mk `
--location=LOCATION `
--project_id=PROJECT_ID `
BQ_OUTPUT_DATASET_NAME
Para ver los resultados de la IA contra el lavado de dinero, consulta Modelo de datos de salidas del lavado de dinero.
Crea el conjunto de datos de entrada de BigQuery
Crea un conjunto de datos de entrada de BigQuery. Más adelante, ingresarás los datos de transacciones de tu institución financiera en este conjunto de datos.
gcloud
bq mk \
--location=LOCATION \
--project_id=PROJECT_ID \
BQ_INPUT_DATASET_NAME
PowerShell
bq mk `
--location=LOCATION `
--project_id=PROJECT_ID `
BQ_INPUT_DATASET_NAME
Crea las tablas del conjunto de datos de entrada de BigQuery y sube los datos de la transacción
Proporcionamos el esquema del modelo de datos de entrada contra el lavado de dinero en los siguientes formatos:
- Un solo archivo CSV
aml-input-data-model.csv
con todas las tablas incluidas - Un único archivo JSON
aml-input-data-model.json
con todos tablas incluidas - Archivos JSON individuales para cada tabla:
Te proporcionamos tabla de registro de partes en formato JSON. Utilizarás esta tabla más adelante cuando registres partes para hacer lo siguiente: crear resultados de predicción.
Para descargar el archivo JSON de cada tabla y usarlo para crear los archivos Tabla de BigQuery aplicando el esquema, ejecuta el siguiente comando kubectl.
for table in party_registration party account_party_link transaction risk_case_event party_supplementary_data
do
curl -O "https://cloud.google.com/financial-services/anti-money-laundering/docs/reference/schemas/${table}.json"
bq mk --table --project_id PROJECT_ID BQ_INPUT_DATASET_NAME.$table $table.json
done
Sube los datos de transacciones de tu institución financiera a las tablas del conjunto de datos. Para obtener más información, consulta cualquiera de los Guías de inicio rápido de BigQuery.
Otorga acceso a los conjuntos de datos de BigQuery
La API crea automáticamente una cuenta de servicio en tu proyecto. El servicio necesita acceso a los conjuntos de datos de entrada y salida de BigQuery.
Para PROJECT_NUMBER, usa el número de proyecto asociado con PROJECT_ID Puedes encontrar el número de proyecto en la página Configuración de IAM.
- Instala
jq
en tu máquina de desarrollo. Si no puedes instalarjq
en tu máquina de desarrollo, haz lo siguiente: puedes usar Cloud Shell o uno de los otros métodos para otorgar acceso a un recurso que se encuentran en la documentación de BigQuery. Ejecuta los siguientes comandos para otorgar acceso de lectura al conjunto de datos de entrada y a sus tablas.
# The BigQuery input dataset name. You created this dataset and # uploaded the financial data into it in a previous step. This dataset should be # stored in the Google Cloud project. export BQ_INPUT_DATASET_NAME="BQ_INPUT_DATASET_NAME" # The BigQuery tables in the input dataset. These tables should # be part of the same project as the intended instance. # Make sure to replace each table variable with the appropriate table name. export PARTY_TABLE="PARTY_TABLE" export ACCOUNT_PARTY_LINK_TABLE="ACCOUNT_PARTY_LINK_TABLE" export TRANSACTION_TABLE="TRANSACTION_TABLE" export RISK_CASE_EVENT_TABLE="RISK_CASE_EVENT_TABLE" # Optional table export PARTY_SUPPLEMENTARY_DATA_TABLE="PARTY_SUPPLEMENTARY_DATA_TABLE" # Registered parties table export PARTY_REGISTRATION_TABLE="PARTY_REGISTRATION_TABLE" # Grant the API read access to the BigQuery dataset. # Update the current access permissions on the BigQuery dataset and store in a temp file. # Note: This step requires jq as a dependency. # If jq is not available, the file /tmp/mydataset.json may be created manually. bq show --format=prettyjson "PROJECT_ID:BQ_INPUT_DATASET_NAME" | jq '.access+=[{"role":"READER","userByEmail":"service-PROJECT_NUMBER@gcp-sa-financialservices.iam.gserviceaccount.com" }]'> /tmp/mydataset.json # Update the BigQuery dataset access permissions using the temp file. bq update --source /tmp/mydataset.json "PROJECT_ID:BQ_INPUT_DATASET_NAME" # Grant the API read access to the BigQuery table if the table is provided. for TABLE in $PARTY_TABLE $TRANSACTION_TABLE $ACCOUNT_PARTY_LINK_TABLE $RISK_CASE_EVENT_TABLE $PARTY_SUPPLEMENTARY_DATA_TABLE $PARTY_REGISTRATION_TABLE; do [ -n TABLE ] && bq add-iam-policy-binding \ --member="serviceAccount:service-PROJECT_NUMBER@gcp-sa-financialservices.iam.gserviceaccount.com" --role="roles/bigquery.dataViewer" \ PROJECT_ID:BQ_INPUT_DATASET_NAME.${TABLE} done
Ejecuta los siguientes comandos para otorgar acceso de escritura al conjunto de datos de salida.
# Note: This step requires jq as a dependency. # If jq isn't available, the file /tmp/mydataset.json may be created manually. bq show --format=prettyjson PROJECT_ID:BQ_OUTPUT_DATASET_NAME | jq '.access+=[{"role":"roles/bigquery.dataEditor","userByEmail":"service-PROJECT_NUMBER@gcp-sa-financialservices.iam.gserviceaccount.com" }]'> /tmp/perms.json bq update --source /tmp/perms.json PROJECT_ID:BQ_OUTPUT_DATASET_NAME