Migrer vers Batch depuis Cloud Life Sciences

Cette page explique comment migrer vers Batch depuis Cloud Life Sciences.

Le 17 juillet 2023, Google Cloud a annoncé que Cloud Life Sciences, qui était en version bêta, est désormais obsolète. Le service ne sera plus disponible sur Google Cloud après le 8 juillet 2025. Toutefois, Batch est en disponibilité générale, et constitue un successeur complet qui prend en charge tous les cas d'utilisation pour Cloud Life Sciences.

Apprenez-en plus sur Batch. Cloud Life Sciences et le lancement d'un produit étapes.

Comparaison entre Cloud Life Sciences et Batch

Migrer de Cloud Life Sciences vers Batch vous devez avant tout savoir comment utiliser Batch pour les charges de travail que vous exécutez actuellement Pipelines Cloud Life Sciences

Pour comprendre comment exécuter vos solutions Cloud Life Sciences charges de travail sur Batch, consultez toutes les sections suivantes:

Présentation

Un pipeline Cloud Life Sciences décrit une séquence d'actions (conteneurs) à exécuter et l'environnement dans lesquels exécuter les conteneurs.

Un job Batch décrit un tableau comportant une ou plusieurs tâches et la dans lequel exécuter ces tâches. Vous définissez la charge de travail d'un job séquence d'un ou de plusieurs exécutables (conteneurs et/ou scripts) à exécuter. Chaque tâche d'une tâche représente une exécution de sa séquence d'exécutables.

Les pipelines Cloud Life Sciences peuvent être exprimés sous forme de tâches par lot à tâche unique.

Par exemple, les exemples suivants décrivent un schéma Pipeline Cloud Life Sciences et son équivalent Job par lot:

Pipeline Cloud Life Sciences Tâche par lot
  {
    "actions": [
      {
        "imageUri": "bash",
        "commands": [
          "-c",
          "echo Hello, world!"
        ]
      }
    ]
  }
  
    {
      "taskGroups" : [{
        "taskSpec" : {
          "runnables" : [{
            "container":{
              "imageUri": "bash",
              "commands": [
                "-c",
                "echo Hello, world!"
              ]
            }
          }]
        }
      }]
    }
    

Les jobs par lot multitâches sont semblables aux pipelines Cloud Life Sciences copiés.

Contrairement à Cloud Life Sciences, Batch vous permet programmer automatiquement plusieurs exécutions de votre charge de travail. Vous indiquez le nombre de fois où vous souhaitez exécuter la séquence de exécutables pour une tâche en définissant le nombre de tâches. Lorsqu'un job présente plusieurs tâches, vous spécifiez la manière dont vous voulez que chaque exécution varie à référencer l'index de la tâche dans vos exécutables. Vous pouvez également configurer les planifications relatives des tâches d'un job (par exemple, autoriser l'exécution de plusieurs tâches en parallèle ou exiger des tâches à exécuter dans un ordre séquentiel et un par un. Batch gère les tâches de planification du job: Lorsqu'une tâche se termine, la tâche suivante démarre automatiquement, le cas échéant.

Par exemple, reportez-vous au job Batch suivant. Cet exemple comporte 100 tâches exécutées sur 10 instances de machines virtuelles (VM), ce qui fait qu'environ 10 tâches sont exécutées en parallèle à tout moment. Chaque tâche de cet exemple de job n'exécute qu'un seul exécutable: un script qui imprime un message et l'index de la tâche, lequel est défini par le Variable d'environnement prédéfinie BATCH_TASK_INDEX.

{
  "taskGroups" : [{
    "taskSpec" : {
      "runnables" : [{
        "script":{
          "text": "echo Hello world! This is task ${BATCH_TASK_INDEX}."
        }
      }]
    },
    "taskCount": 100,
    "parallelism": 10
  }]
}

Workflows impliquant la création et la surveillance de plusieurs Les pipelines Cloud Life Sciences peuvent parfois être simplifiés en appliquant de la planification intégrée de Batch.

Opérations de base

Cette section décrit les opérations de base dans Cloud Life Sciences et par lot.

Le tableau suivant récapitule les options d'opérations de base pour Cloud Life Sciences et Batch.

Opération de base Options de Cloud Life Sciences Options de traitement par lot
Exécuter une charge de travail
  • exécuter un pipeline ;
  • Créer et exécuter un job
Affichez toutes vos charges de travail.
  • Répertorie les opérations de longue durée.
  • Affichez la liste de vos jobs.
Affichez les détails et l'état d'une charge de travail.
  • Permet d'obtenir les détails d'une opération de longue durée.
  • Interrogez une opération de longue durée.
  • Afficher les détails d'une tâche.
  • Afficher la liste des tâches d'une mission.
  • Affichez les détails d'une tâche.
Arrêter et supprimer une charge de travail
  • Annule une opération de longue durée.
  • Supprimer (et annuler) un job
  • Vérifiez l'état d'une demande de suppression de job.

Les opérations de base pour Cloud Life Sciences et Batch présentent quelques différences clés.

Tout d'abord, les ressources d'opération de longue duréee n'ont pas le même rôle par lot dans Cloud Life Sciences. Ressources d'opérations de longue durée (LRO) dans Cloud Life Sciences sont la principale ressource utilisée pour lister et afficher vos pipelines. Toutefois, des ressources d'opérations de longue durée dans Batch et d'autres API Google Cloud servent uniquement à surveiller l'état d'une requête terminé. Plus précisément, dans Batch, la seule requête que renvoie une ressource d'opération de longue durée qui supprime un job. Pour en savoir plus sur les ressources d'opération de longue durée pour par lot, consultez la Documentation de référence de l'API Batch pour la ressource REST projects.locations.operations Au lieu d'utiliser des ressources d'opération de longue durée, Batch que vous pouvez afficher et supprimer pour vos charges de travail.

Deuxièmement, l'affichage des détails d'une charge de travail dans Batch implique différentes de celles de Cloud Life Sciences. Vous pouvez afficher un job voir à la fois les détails et l'état. Mais chacune des tâches d'un travail dispose également de ses propres détails et état, que vous pouvez consulter afficher la liste des tâches d'une tâche et afficher les détails d'une tâche.

Pour mieux comprendre les opérations de base Cloud Life Sciences par rapport à Batch, fournissent des exemples de commandes de la Google Cloud CLI et les chemins des requêtes API pour certaines de ces opérations de base.

Exemples de commandes de gcloud CLI

Pour la gcloud CLI, les commandes Cloud Life Sciences commencer par les commandes gcloud beta lifesciences et Batch commencent par gcloud batch. Par exemple, consultez les commandes de gcloud CLI suivantes.

  • Exemples de commandes de gcloud CLI pour Cloud Life Sciences:

    • Exécutez un pipeline:

      gcloud beta lifesciences pipelines run \
        --project=PROJECT_ID \
        --regions=LOCATION \
        --pipeline-file=JSON_CONFIGURATION_FILE
      
    • Obtenez les détails d'une opération de longue durée:

      gcloud beta lifesciences operations describe OPERATION_ID
      

    Remplacez les éléments suivants :

    • PROJECT_ID: le ID du projet de votre projet.
    • LOCATION: emplacement de la pipeline.
    • JSON_CONFIGURATION_FILE: configuration JSON pour le pipeline.
    • OPERATION_ID: identifiant de de opération de longue durée renvoyée par la requête pour exécuter pipeline.
  • Exemples de commandes de gcloud CLI par lot:

    • Créez et exécutez un job:

      gcloud batch jobs submit JOB_NAME \
        --project=PROJECT_ID \
        --location=LOCATION \
        --config=JSON_CONFIGURATION_FILE
      
    • Afficher les détails d'une mission:

      gcloud batch jobs describe JOB_NAME \
        --project=PROJECT_ID \
        --location=LOCATION \
      
    • Afficher la liste des tâches d'une mission:

      ​​gcloud batch tasks list \
        --project=PROJECT_ID \
        --location=LOCATION \
        --job=JOB_NAME
      
    • Afficher les détails d'une tâche:

      gcloud batch tasks describe TASK_INDEX \
        --project=PROJECT_ID \
        --location=LOCATION \
        --job=JOB_NAME \
        --task_group=TASK_GROUP
      
    • Supprimer (et annuler) une tâche:

      gcloud batch jobs delete JOB_NAME \
        --project=PROJECT_ID \
        --location=LOCATION
      

    Remplacez les éléments suivants :

    • JOB_NAME: nom de la tâche.
    • PROJECT_ID: le ID du projet de votre projet.
    • LOCATION: emplacement du travail.
    • JSON_CONFIGURATION_FILE: chemin d'accès d'un fichier JSON contenant les détails de configuration du job.
    • TASK_INDEX: index de la tâche que vous souhaitez afficher. dans les détails. Dans un groupe de tâches, l'index de la tâche commence à 0 pour la première tâche et augmente de 1 à chaque tâche supplémentaire. Par exemple, une tâche qui contient quatre tâches possède les index 0, 1, 2 et 3.
    • TASK_GROUP_NAME: nom du groupe de tâches que dont vous souhaitez afficher les détails. La valeur doit être définie sur group0.

Exemples de chemins de requêtes API

Pour les API, Cloud Life Sciences utilise Chemins de requête lifesciences.googleapis.com et utilisations de Batch Chemins de requête batch.googleapis.com. Par exemple, consultez les chemins de requête API suivants. Retirer le "J’aime" Cloud Life Sciences, Batch ne dispose pas d'API RPC. il ne dispose que d'une API REST.

  • Exemples de chemins de requête de l'API Cloud Life Sciences:

    • Exécutez un pipeline:

      POST https://lifesciences.googleapis.com/v2beta/projects/PROJECT_ID/locations/LOCATION/pipelines:run
      
    • Obtenez les détails d'une opération de longue durée:

      GET https://lifesciences.googleapis.com/v2beta/projects/PROJECT_ID/locations/LOCATION/operations/OPERATION_ID
      

    Remplacez les éléments suivants :

    • PROJECT_ID: le ID du projet de votre projet.
    • LOCATION: emplacement de la pipeline.
    • OPERATION_ID: identifiant de de opération de longue durée renvoyée par la requête pour exécuter pipeline.
  • Exemples de chemins de requêtes API par lot:

    • Créez et exécutez un job:

      POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
      
    • Afficher les détails d'une mission:

      GET https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs/JOB_NAME
      
    • Afficher la liste des tâches d'une mission:

      GET https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs/JOB_NAME/taskGroups/TASK_GROUP/tasks
      
    • Supprimer une offre d'emploi

      DELETE https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs/JOB_NAME
      
    • Vérifiez l'état de la demande de suppression de tâche:

      GET https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/operations/OPERATION_ID
      

    Remplacez les éléments suivants :

    • PROJECT_ID: le ID du projet de votre projet.
    • LOCATION: emplacement du travail.
    • JOB_NAME: nom de la tâche.
    • TASK_GROUP_NAME: nom du groupe de tâches que dont vous souhaitez afficher les détails. La valeur doit être définie sur group0.
    • OPERATION_ID: identifiant de de opération de longue durée renvoyée par la requête pour supprimer d'un projet.

Rôles et autorisations IAM

Cette section récapitule les différences entre Identity and Access Management et rôles et autorisations pour Cloud Life Sciences par lot. Pour en savoir plus sur les rôles et leurs autorisations, consultez les Documentation de référence sur les rôles de base et prédéfinis IAM

Le tableau suivant décrit les rôles prédéfinis et leurs autorisations. requis pour les utilisateurs de Cloud Life Sciences.

Rôles Cloud Life Sciences Autorisations

Parmi les suivantes :

  • Administrateur Cloud Life Sciences (roles/lifesciences.admin) sur le projet
  • Éditeur Cloud Life Sciences (roles/lifesciences.editor) sur le projet
  • Exécuteur de workflows Cloud Life Sciences (roles/lifesciences.workflowsRunner) sur le projet
  • lifesciences.workflows.run
  • lifesciences.operations.cancel
  • lifesciences.operations.get
  • lifesciences.operations.list
Lecteur Cloud Life Sciences (roles/lifesciences.viewer) sur le projet
  • lifesciences.operations.get
  • lifesciences.operations.list
  • resourcemanager.projects.get
  • resourcemanager.projects.list

Le tableau suivant décrit certains des rôles prédéfinis et leurs autorisations. pour Batch. Contrairement à Cloud Life Sciences, Batch vous oblige à accorder des autorisations aux utilisateurs compte de service pour une tâche. Pour en savoir plus sur la les exigences IAM, consultez Conditions préalables pour Batch.

Attribuer des rôles aux utilisateurs par lot Autorisations
Éditeur de jobs par lot (roles/batch.jobsEditor) sur le projet
  • batch.jobs.create
  • batch.jobs.delete
  • batch.jobs.get
  • batch.jobs.list
  • batch.locations.get
  • batch.locations.list
  • batch.operations.get
  • batch.operations.list
  • batch.tasks.get
  • batch.tasks.list
  • resourcemanager.projects.get
  • resourcemanager.projects.list
Lecteur de jobs par lot (roles/batch.jobsViewer) sur le projet
  • batch.jobs.get
  • batch.jobs.list
  • batch.locations.get
  • batch.locations.list
  • batch.operations.get
  • batch.operations.list
  • batch.tasks.get
  • batch.tasks.list
  • resourcemanager.projects.get
  • resourcemanager.projects.list
Utilisateur du compte de service (roles/iam.serviceAccountUser) sur le compte de service de la tâche
  • iam.serviceAccounts.actAs
  • iam.serviceAccounts.get
  • iam.serviceAccounts.list
  • resourcemanager.projects.get
  • resourcemanager.projects.list
Rôles par lot pour les comptes de service Autorisations
Batch Agent Reporter (roles/batch.agentReporter) sur le projet
  • batch.states.report

Fonctionnalités correspondantes

Le tableau suivant décrit les fonctionnalités Cloud Life Sciences, les fonctionnalités équivalentes pour Batch, et détaille les différences qui existent entre eux.

Chaque caractéristique est représentée par une description et sa syntaxe JSON. Vous pouvez utiliser la syntaxe JSON lorsque vous accédez Traitement par lot via l'API ou lors de la spécification d'une configuration JSON via la Google Cloud CLI. Toutefois, notez que vous pouvez également utiliser les fonctionnalités de traitement par lot via d'autres méthodes, par exemple via les champs de la console Google Cloud, les options gcloud CLI et les bibliothèques clientes, décrites dans la documentation Documentation par lot

Pour en savoir plus sur chaque fonctionnalité et sa syntaxe JSON, consultez les pages suivantes:

Fonctionnalités de Cloud Life Sciences Fonctionnalités de traitement par lot Détails
pipeline (pipeline) Job (job) et ses tâches (taskGroups[])

Un job par lot consiste en un tableau d'une ou de plusieurs tâches qui exécutent chacun les mêmes exécutables. Un pipeline Cloud Life Sciences est similaire à un job par lot avec une tâche. Toutefois, Cloud Life Sciences n'a pas de concept équivalent pour les tâches (tâches à tâches multiples), un peu comme les répétitions d'un pipeline.

Pour plus d'informations sur les tâches et les tâches, consultez Présentation de Batch.

d'actions (actions[]) pour un pipeline exécutables (runnables[]) pour les tâches d'un job

Une action Cloud Life Sciences décrit un conteneur, L'exécutable par lot peut contenir un conteneur ou un script.

identifiants (credentials) pour une action

pour un conteneur exécutable:

Dans Cloud Life Sciences, les identifiants d'une action doivent être un service Cloud Key Management Service chiffré contenant les paires clé-valeur du nom d'utilisateur et du mot de passe.

Dans Batch, le nom d'utilisateur et le mot de passe d'un conteneur exécutable se trouvent dans des champs distincts. L'un ou l'autre champ peut être spécifié en texte brut ou avec le nom d'un Secret Secret Manager.

pour une action:

pour un environnement:

environnements possibles:

Cloud Life Sciences vous permet de spécifier les variables d'environnement pour une action mise en forme en tant que texte brut ou en tant que dictionnaire chiffré. Dans Batch, cela revient à utiliser l'environnement pour un exécutable (champ environment dans runnables[]) incluent des variables formatées comme suit : le texte brut (variables) ou une dictionnaire chiffré (encryptedVariables).

Mais Batch offre aussi plus d'options pour spécifier variables d'environnement:

  • Au lieu de spécifier des variables sous forme de texte brut, ou un dictionnaire chiffré, vous pouvez spécifier des variables en utilisant des codes secrets Secret Manager à l'aide de Une variable de secret (secretVariables)
  • Au lieu de spécifier une variable d'environnement pour un exécutable, vous pouvez spécifier une variable d'environnement pour tous les exécutables en procédant comme suit : à l'aide du champ environment dans taskSpec.
  • Au lieu de spécifier une variable d'environnement possédant le rôle même valeur pour chaque tâche, vous pouvez spécifier une variable d'environnement qui a une valeur différente pour chaque tâche en utilisant le taskEnvironments[] dans taskGroups[].

Pour en savoir plus, consultez Utilisez des variables d'environnement.

étiquettes d'une requête pour exécuter un pipeline (labels dans le corps de la requête) Étiquettes pour une tâche (labels dans la ressource de job)

Contrairement à Cloud Life Sciences, Batch n'inclut pas de champ d'étiquettes dans la requête créer une tâche. L'option la plus proche pour Batch consiste à utiliser des étiquettes qui ne sont associées qu'à la tâche.

Batch comporte plusieurs types d'étiquettes (champs labels) que vous pouvez utiliser lors de la création d'une tâche. Pour plus d'informations, consultez Organiser les ressources à l'aide d'étiquettes.

des régions (regions[]) et des zones (zones[]) pour les ressources d'un pipeline (resources) emplacements autorisés (allowedLocations) pour la règle d'emplacement des ressources d'un job (locationPolicy)

Dans Cloud Life Sciences, un pipeline s'exécute sur une seule VM, pour lesquelles vous pouvez spécifier les régions et/ou zones souhaitées.

Dans Batch, l'option équivalente est la liste des emplacements autorisés d'un job, que vous pouvez définir comme une ou plusieurs régions ou zones et spécifie où les VM d'un job peuvent être créées. Toutes les VM d'un même job par lot appartiennent à un seul un groupe d'instances géré (MIG) existant dans une région particulière ; Toutefois, des VM individuelles peuvent se trouver dans différentes zones de cette région.

En particulier, la spécification du champ "Allowed locations" (Emplacements autorisés pour un emploi) est facultative. car il est distinct du lieu de travail. Contrairement à l'emplacement du poste, l'emplacement autorisé n'a aucune incidence sur l'emplacement utilisé pour créer Tâche par lot et stockage des métadonnées de job. Pour en savoir plus, consultez la section Emplacements des lots.

pour les ressources d'un pipeline (resources):

pour la stratégie de ressources d'un job (allocationPolicy):

Dans Cloud Life Sciences, vous pouvez configurer la VM qu'un sur lequel s'exécute le pipeline.

Dans Batch, les mêmes options pour les VM sont disponibles dans les champs la règle d'allocation des ressources du job (allocationPolicy):

  • Le compte de service, les étiquettes et la configuration réseau des VM sont définis dans leurs champs dédiés.
  • Le champ de la VM (instances), que vous pouvez définir ou à l'aide d'un modèle d'instance, inclut les options de configuration le type de machine, la plate-forme de CPU minimale autorisée, le disque de démarrage et tous les autres disques associés, et les GPU et pilotes de GPU.

pour une action:

pour un exécutable:

Ces différentes options de commodité de Cloud Life Sciences sont équivalents dans sauf qu'ils sont spécifiés pour chaque exécutable (qui peuvent contenir un script ou un conteneur) au lieu de chaque action (conteneur).

pour une action:

  • option de publication des ports exposés (publishExposedPorts)
  • Option permettant de spécifier l'espace de noms de l'ID de processus (PID) (pidNamespace)
  • et une option permettant de spécifier des mappages de ports de conteneur à hôte (portMappings)
Options (options) pour un conteneur exécutable

Ces options Cloud Life Sciences (et d'autres) sont disponibles Examiner de manière groupée le champ d'options (options) pour un conteneur exécutable. Définissez le champ "options" sur toutes les options que vous que Batch ajoute à la commande docker run : exemple : -P --pid mynamespace -p 22:22.

pour une action:

aucun équivalent

Batch précharge les images et traite les sorties de tous les exécutables de manière identique, conformément à l'état la règle de journaux (logsPolicy).

option permettant de bloquer les réseaux externes (blockExternalNetwork) pour une action option permettant de bloquer les réseaux externes (blockExternalNetwork) pour un conteneur exécutable

L'option Cloud Life Sciences permet de bloquer les réseaux externes est semblable à l'option "Par lot" pour bloquer les d'un conteneur.

Batch offre également de nombreuses autres options de mise en réseau, comme pour bloquer les réseaux externes pour toutes les VM d'un job. Pour plus d'informations, consultez la section Présentation de la mise en réseau par lots.

Installation (mounts[]) pour une action volumes pour tous les exécutables (volumes[] dans taskSpec) et options de volume pour un conteneur (volumes[] dans container)

Dans Batch, vous pouvez utiliser Champ volumes[] dans taskSpec pour définir les volumes d'une tâche et leurs chemins d'installation. Installation par lot des volumes de stockage sur les VM du job et les volumes de stockage sont accessibles à tous les exécutables du job (scripts ou conteneurs). Ce montage est effectué avant que la VM exécute des tâches ou des exécutables.

De plus, Batch prend en charge les options de volume explicites sur les exécutables de conteneurs Champ volumes[] dans container. Ces options d'installation sont transmises au conteneur sous forme d'options l'option --volume de la commande docker run : par exemple, la valeur [ "/etc:/etc", "/foo:/bar" ] est traduit en commande docker run --volume /etc:/etc --volume /foo:/bar sur le conteneur.

Pour en savoir plus sur l'utilisation de volumes de stockage avec Par lot, consultez la section Créer et exécuter un job qui utilise des volumes de stockage.

option permettant d'activer Cloud Storage FUSE (enableFuse) pour une action aucun équivalent

Batch gère l'installation de n'importe quel volume de stockage, tel qu'un bucket Cloud Storage, que vous spécifiez pour une tâche. Par conséquent, vous n'activez aucun outil d'installation tel que Cloud Storage FUSE pour Batch; Toutefois, vous pouvez spécifier des options d'installation pour vos volumes de stockage à l'aide du Champ mountOptions[].

Pour en savoir plus sur l'utilisation de buckets Cloud Storage avec Par lot, consultez la section Créer et exécuter un job qui utilise des volumes de stockage.

Sujet Pub/Sub (pubSubTopic) pour une requête d'exécution d'un pipeline

Pour les configurations de notification d'une tâche (notifications[]):

Le traitement par lot permet une plus grande personnalisation des mises à jour de statut que Cloud Life Sciences. Par exemple, les utilisateurs Batch peuvent recevoir une notification sur un sujet Pub/Sub lorsque des tâches individuelles changent d'état ou uniquement lorsque la tâche globale change d'état.

Services de workflow

Si vous utilisez un service de workflow avec Cloud Life Sciences, le processus de migration implique également de configurer un service de workflow avec Batch. Cette section récapitule les services de workflow que vous pouvez utiliser avec Batch.

Batch est compatible avec Workflows, un de workflow de Google Cloud. Si vous souhaitez utiliser Workflows avec Batch, consultez Exécutez un job Batch à l'aide de Workflows. Sinon, le tableau suivant décrit d'autres services de workflows que vous pouvez utiliser pour Cloud Life Sciences, que vous pouvez également utiliser avec par lot. Ce tableau liste les principales différences d'utilisation de chaque de workflow avec Batch au lieu de Cloud Life Sciences et des informations sur l'utilisation de chaque service avec Batch.

Service de workflow Principales différences Détails
Cromwell

Pour utiliser un fichier de configuration Cromwell pour la classe API Cloud Life Sciences v2beta avec l'API Batch apportez plutôt les modifications suivantes:

  1. Pour le champ actor-factory, remplacez cromwell.backend.google.pipelines.v2beta.PipelinesApiLifecycleActorFactory par cromwell.backend.google.batch.GcpBatchLifecycleActorFactory.
  2. Supprimez le champ genomics.endpoint-url.
  3. Générez un nouveau fichier de configuration.
Pour en savoir plus sur l'utilisation de Batch avec Cromwell, consultez la Documentation Cromwell pour Batch et le tutoriel Cromwell pour Batch.
dsub

Pour utiliser une exécution de votre pipeline dsub pour Cloud Life Sciences : avec Batch, apportez les modifications suivantes:

  • Pour le champ provider, remplacez google-cls-v2 par google-batch.
Pour en savoir plus sur l'utilisation de Batch avec dsub, consultez les Documentation dsub pour Batch
Nextflow

Pour utiliser un fichier de configuration Nextflow pour Cloud Life Sciences avec Batch, apportez les modifications suivantes:

  1. Pour le champ executor, remplacez google-lifesciences par google-batch.
  2. Pour tous les préfixes config, remplacez google.lifeScience par google.batch.
Pour en savoir plus sur l'utilisation de Batch avec Nextflow, consultez un Tutoriel par lot ou Tutoriel Nextflow Pour en savoir plus sur les options de configuration, consultez la Documentation Nextflow
Snakemake

Utiliser un pipeline Snakemake pour l'API Cloud Life Sciences v2beta avec l'API Batch, effectuez les opérations suivantes : modifications:

  1. Assurez-vous d'utiliser Snakemake 8 ou une version ultérieure. Pour en savoir plus, consultez Migration entre les versions de Snakemake
  2. Apportez les modifications suivantes à la commande snakemake:

    • Remplacez l'option --google-lifesciences par le --executor googlebatch.
    • Remplacez tout indicateur supplémentaire comportant le paramètre le préfixe --google-lifesciences- pour utiliser --googlebatch- à la place.
Pour en savoir plus sur l'utilisation de Batch avec Snakemake, consultez les Documentation Snakemake pour Batch.

Étape suivante

  • Pour configurer Batch pour les nouveaux utilisateurs et projets, consultez la page Commencer
  • Pour savoir comment exécuter des charges de travail à l'aide de Batch, consultez Créer une tâche.