Les applications Spark dépendent souvent de bibliothèques tierces Java ou Scala. Voici les méthodes recommandées pour inclure ces dépendances lorsque vous envoyez une tâche Spark à un cluster Dataproc :
Lorsque vous envoyez une tâche depuis votre ordinateur local avec la
gcloud dataproc jobs submit
utilisez l'option--properties spark.jars.packages=[DEPENDENCIES]
.
Exemple :gcloud dataproc jobs submit spark \ --cluster=my-cluster \ --region=region \ --properties=spark.jars.packages='com.google.cloud:google-cloud-translate:1.35.0,org.apache.bahir:spark-streaming-pubsub_2.11:2.2.0'
Quand ? Envoyer une tâche directement sur votre cluster Exécutez la commande
spark-submit
avec le paramètre--packages=[DEPENDENCIES]
.
Exemple :spark-submit --packages='com.google.cloud:google-cloud-translate:1.35.0,org.apache.bahir:spark-streaming-pubsub_2.11:2.2.0'
Éviter les conflits de dépendance
Les approches ci-dessus peuvent échouer si les dépendances de l'application Spark entrent en conflit avec les dépendances de Hadoop. Ce conflit peut survenir du fait que Hadoop injecte ses dépendances dans le paramètre classpath de l'application. Par conséquent, ses dépendances sont prioritaires par rapport aux dépendances de l'application. En cas de conflit, NoSuchMethodError
ou d'autres erreurs peuvent s'afficher.
Exemple:
Guava
est la bibliothèque principale de Google pour Java. Elle est utilisée par de nombreux frameworks et bibliothèques, y compris
Hadoop. Un conflit de dépendance peut survenir si une tâche ou ses dépendances nécessitent une version de Guava plus récente que celle utilisée par Hadoop.
Hadoop v3.0 a résolu ce problème, mais les applications qui reposent sur des versions antérieures de Hadoop requièrent la solution suivante en deux étapes pour éviter d'éventuels conflits de dépendance.
- Créez un fichier JAR unique contenant le package de l'application et toutes ses dépendances.
- Transférez les packages de dépendance en conflit dans le fichier uber JAR pour éviter que les noms de leurs chemins d'accès n'entrent en conflit avec ceux des packages de dépendance Hadoop. Plutôt que de modifier votre code, utilisez un plug-in (voir ci-dessous) pour effectuer automatiquement ce transfert (ou "ombrage") dans le cadre du processus d'empaquetage.
Créer un uber JAR ombré avec Maven
Maven est un outil de gestion de package permettant de créer des applications Java. Le plug-in Maven scala permet de créer des applications écrites en Scala, le langage utilisé par les applications Spark. Les teintes Maven pour créer un fichier JAR ombré.
Vous trouverez ci-dessous un exemple de fichier de configuration pom.xml
qui effectue un ombrage sur la bibliothèque Guava, située dans le package com.google.common
. Cette configuration demande à Maven de renommer le package com.google.common
avec repackaged.com.google.common
et de mettre à jour toutes les références aux classes issues du package d'origine.
<?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <properties> <maven.compiler.source>1.8</maven.compiler.source> <maven.compiler.target>1.8</maven.compiler.target> </properties> <groupId><!-- YOUR_GROUP_ID --></groupId> <artifactId><!-- YOUR_ARTIFACT_ID --></artifactId> <version><!-- YOUR_PACKAGE_VERSION --></version> <dependencies> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-sql_2.11</artifactId> <version><!-- YOUR_SPARK_VERSION --></version> <scope>provided</scope> </dependency> <!-- YOUR_DEPENDENCIES --> </dependencies> <build> <plugins> <plugin> <groupId>net.alchim31.maven</groupId> <artifactId>scala-maven-plugin</artifactId> <executions> <execution> <goals> <goal>compile</goal> <goal>testCompile</goal> </goals> </execution> </executions> <configuration> <scalaVersion><!-- YOUR_SCALA_VERSION --></scalaVersion> </configuration> </plugin> <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-shade-plugin</artifactId> <executions> <execution> <phase>package</phase> <goals> <goal>shade</goal> </goals> <configuration> <transformers> <transformer implementation="org.apache.maven.plugins.shade.resource.ManifestResourceTransformer"> <mainClass><!-- YOUR_APPLICATION_MAIN_CLASS --></mainClass> </transformer> <!-- This is needed if you have dependencies that use Service Loader. Most Google Cloud client libraries do. --> <transformer implementation="org.apache.maven.plugins.shade.resource.ServicesResourceTransformer"/> </transformers> <filters> <filter> <artifact>*:*</artifact> <excludes> <exclude>META-INF/maven/**</exclude> <exclude>META-INF/*.SF</exclude> <exclude>META-INF/*.DSA</exclude> <exclude>META-INF/*.RSA</exclude> </excludes> </filter> </filters> <relocations> <relocation> <pattern>com</pattern> <shadedPattern>repackaged.com.google.common</shadedPattern> <includes> <include>com.google.common.**</include> </includes> </relocation> </relocations> </configuration> </execution> </executions> </plugin> </plugins> </build> </project>
Pour exécuter la version, procédez comme suit :
mvn package
Remarques sur pom.xml
:
- ManifestResourceTransformer
traite les attributs dans le fichier manifeste de l'uber JAR (
MANIFEST.MF
). Le fichier manifeste peut également spécifier le point d'entrée de votre application. - Champ d'application de Spark
est
provided
, car Spark est installé sur Dataproc. - Spécifiez la version de Spark installée sur votre cluster Dataproc (consultez la section Liste des versions Dataproc). Si votre application nécessite une version de Spark différente de celle installée sur votre cluster Dataproc, vous pouvez écrire une action d'initialisation ou créer une image personnalisée qui installera la version de Spark utilisée par votre application.
- L'entrée
<filters>
exclut les fichiers de signature des répertoiresMETA-INF
de vos dépendances. Sans cette entrée, une exception d'exécutionjava.lang.SecurityException: Invalid signature file digest for Manifest main attributes
peut se produire, car les fichiers de signature ne sont pas valides dans le contexte de votre fichier uber JAR. - Vous devrez peut-être ombrer plusieurs bibliothèques. Pour ce faire, incluez plusieurs chemins d'accès.
L'exemple suivant illustre l'ombrage des bibliothèques Guava et Protobuf :
<relocation> <pattern>com</pattern> <shadedPattern>repackaged.com</shadedPattern> <includes> <include>com.google.protobuf.**</include> <include>com.google.common.**</include> </includes> </relocation>
Créer un uber JAR ombré avec SBT
SBT est un outil permettant de créer des applications Scala. Pour créer un fichier JAR ombré avec SBT, ajoutez le plug-in sbt-assembly
à la description de votre build, en commençant par créer un fichier nommé assembly.sbt
dans le répertoire project/
:
├── src/ └── build.sbt └── project/ └── assembly.sbt
Puis, ajoutez la ligne suivante dans assembly.sbt
:
addSbtPlugin("com.eed3si9n" % "sbt-assembly" % "0.14.6")
Vous trouverez ci-dessous un exemple de fichier de configuration build.sbt
qui effectue un ombrage sur la bibliothèque Guava, située dans le package com.google.common package
.
lazy val commonSettings = Seq( organization := "YOUR_GROUP_ID", name := "YOUR_ARTIFACT_ID", version := "YOUR_PACKAGE_VERSION", scalaVersion := "YOUR_SCALA_VERSION", ) lazy val shaded = (project in file(".")) .settings(commonSettings) mainClass in (Compile, packageBin) := Some("YOUR_APPLICATION_MAIN_CLASS") libraryDependencies ++= Seq( "org.apache.spark" % "spark-sql_2.11" % "YOUR_SPARK_VERSION" % "provided", // YOUR_DEPENDENCIES ) assemblyShadeRules in assembly := Seq( ShadeRule.rename("com.google.common.**" -> "repackaged.com.google.common.@1").inAll )
Pour exécuter la version, procédez comme suit :
sbt assembly
Remarques sur build.sbt
:
- La règle d'ombrage de l'exemple ci-dessus est susceptible de ne pas résoudre tous les conflits de dépendance, car SBT utilise des stratégies de résolution de conflit strictes. Par conséquent, vous devrez peut-être fournir des règles plus détaillées permettant de fusionner explicitement des types de fichiers en conflit spécifiques à l'aide des stratégies
MergeStrategy.first
,last
,concat
,filterDistinctLines
,rename
oudiscard
. Découvrir la stratégie de fusion desbt-assembly
pour en savoir plus. - Vous devrez peut-être ombrer plusieurs bibliothèques. Pour ce faire, incluez plusieurs chemins d'accès.
L'exemple suivant illustre l'ombrage des bibliothèques Guava et Protobuf :
assemblyShadeRules in assembly := Seq( ShadeRule.rename("com.google.common.**" -> "repackaged.com.google.common.@1").inAll, ShadeRule.rename("com.google.protobuf.**" -> "repackaged.com.google.protobuf.@1").inAll )
Envoyer un fichier uber JAR à Dataproc
Une fois que vous avez créé un fichier uber JAR ombré contenant vos applications Spark et ses dépendances, vous êtes prêt à envoyer une tâche à Dataproc.
Étape suivante
- Consultez spark-translate, un exemple d'application Spark contenant des fichiers de configuration pour Maven et SBT.
- Apprenez à écrire et à exécuter des tâches Spark Scala sur un cluster Dataproc à l'aide du guide de démarrage rapide Dataproc Écrire et exécuter des tâches Spark Scala.