Étape 6: Exécuter le déploiement

Cette page décrit la sixième étape du déploiement de Cortex Framework Data Foundation, le cœur de Cortex Framework. À cette étape, vous exécutez le déploiement de la fondation de données du framework Cortex.

Processus de compilation

Après avoir configuré le fichier config.json comme décrit à l'étape 5: Configurer le déploiement, suivez ces instructions pour créer votre processus.

  1. Exécutez la commande suivante pour vous placer dans le dépôt cloné:

    cd cortex-data-foundation
    
  2. Exécutez la commande de compilation avec le bucket de journaux cible:

    gcloud builds submit --project EXECUTION_PROJECT\
        --substitutions=_GCS_BUCKET=LOGS_BUCKET
    

    Remplacez les éléments suivants :

    • EXECUTION_PROJECT avec le projet d'exécution, probablement le projet source.
    • LOGS_BUCKET par le nom du bucket pour le stockage des journaux. Le compte de service Cloud Build doit avoir accès pour les écrire ici.
  3. Suivez le processus de compilation principal en consultant les journaux dans le terminal ou dans la console Cloud Build, si vous disposez d'autorisations suffisantes. Pour en savoir plus, consultez les images suivantes.

    Progression des journaux

    Figure 1 Exemple d'affichage de la progression des journaux dans le terminal.

    Progression des journaux

    Figure 2 Exemple d'affichage de la progression des journaux dans la console.
  4. Suivez les étapes de compilation enfant déclenchées à partir de la console Cloud Build ou dans les journaux créés à partir des étapes. Pour en savoir plus, consultez les images suivantes.

    Suivi des étapes de compilation enfant

    Figure 3 Exemple de suivi des étapes de compilation enfant dans la console.

    Suivi des étapes de compilation enfant

    Figure 4. Exemple de suivi des étapes de compilation enfant dans les journaux.
  5. Identifiez les problèmes liés à chaque build. Corrigez les erreurs, le cas échéant. Nous vous recommandons de coller le code SQL généré dans BigQuery pour identifier et corriger les erreurs. La plupart des erreurs sont liées à des champs sélectionnés, mais qui ne figurent pas dans la source répliquée. L'interface utilisateur de BigQuery permet de les identifier et de les commenter.

    Identifier les problèmes

    Figure 5 Exemple d'identification de problèmes à l'aide des journaux Cloud Build.

Déplacer des fichiers vers le bucket DAG Cloud Composer (Airflow)

Si vous avez choisi de générer des fichiers d'intégration ou de CDC et que vous disposez d'une instance de Cloud Composer (Airflow), vous pouvez les déplacer vers leur bucket final à l'aide de la commande suivante:

  gcloud storage -m cp -r  gs://OUTPUT_BUCKET/dags/ gs://COMPOSER_DAG_BUCKET/
  gcloud storage -m cp -r  gs://OUTPUT_BUCKET/data/ gs://COMPOSER_DAG_BUCKET/

Remplacez les éléments suivants :

  • OUTPUT_BUCKET par le bucket de sortie.
  • COMPOSER_DAG_BUCKET avec le bucket de DAG Cloud Composer (Airflow).

Personnaliser et préparer la mise à niveau

De nombreux clients professionnels ont des personnalisations spécifiques de leurs systèmes, comme des documents supplémentaires dans un flux ou des types d'enregistrements spécifiques. Ils sont spécifiques à chaque client et configurés par les analystes fonctionnels à mesure que les besoins de l'entreprise évoluent.

Cortex utilise des balises ## CORTEX-CUSTOMER dans le code pour indiquer les emplacements où de telles personnalisations sont probablement requises. Utilisez la commande grep -R CORTEX-CUSTOMER pour vérifier tous les commentaires ## CORTEX-CUSTOMER que vous devez personnaliser.

En plus des balises CORTEX-CUSTOMER, vous devrez peut-être personnaliser davantage les éléments suivants en validant toutes ces modifications avec une balise claire dans le code dans votre propre dépôt dissocié ou cloné:

  • Ajouter des règles métier
  • Ajouter d'autres ensembles de données et les associer à des vues ou des tables existantes
  • Réutiliser les modèles fournis pour appeler des API supplémentaires
  • Modifier les scripts de déploiement
  • Application d'autres concepts de maillage de données
  • Adaptation de certaines tables ou API installées pour inclure des champs supplémentaires non inclus dans la norme.

Adoptez un pipeline CI/CD adapté à votre organisation pour tester ces améliorations et maintenir votre solution globale dans un état fiable et robuste. Un pipeline peut réutiliser les scripts cloudbuild.yaml pour déclencher un déploiement de bout en bout périodiquement ou en fonction des opérations git en fonction du dépôt de votre choix en automatisant les builds.

Utilisez le fichier config.json pour définir différents ensembles de projets et de ensembles de données pour les environnements de développement, de préproduction et de production. Utilisez des tests automatisés avec vos propres exemples de données pour vous assurer que les modèles produisent toujours ce que vous attendez.

Le taggage visible de vos propres modifications dans votre fork ou clone d'un dépôt, ainsi que l'automatisation du déploiement et des tests, vous aide à effectuer des mises à niveau.

Assistance

Si vous rencontrez des problèmes ou si vous avez des demandes de fonctionnalités concernant ces modèles ou ces déployeurs, créez un problème dans le dépôt Cortex Framework Data Foundation. Pour vous aider à collecter les informations nécessaires, exécutez support.sh à partir du répertoire cloné. Ce script vous guide tout au long d'une série d'étapes pour vous aider à résoudre le problème.

Pour toute demande ou tout problème concernant Cortex Framework, consultez la section Assistance de la page "Présentation".

Blocs Looker et tableaux de bord

Profitez des blocs Looker et des tableaux de bord disponibles. Il s'agit essentiellement de modèles de données réutilisables pour les modèles d'analyse et les sources de données courants de Cortex Framework. Pour en savoir plus, consultez la page Présentation des blocs Looker et des tableaux de bord.