Kurzanleitung: Cloud TPU VM JAX

In diesem Dokument wird eine kurze Einführung in die Arbeit mit JAX und Cloud TPU beschrieben.

Bevor Sie mit dieser Kurzanleitung beginnen, müssen Sie ein Google Cloud Platform-Konto erstellen und das Cloud SDK installieren. und konfigurieren Sie den Befehl gcloud. Weitere Informationen finden Sie unter Konto und Cloud TPU-Projekt einrichten.

Cloud SDK installieren

Das Cloud SDK enthält Tools und Bibliotheken für die Interaktion mit Produkten und Diensten von Google Cloud. Weitere Informationen finden Sie unter Cloud SDK installieren.

gcloud-Befehl konfigurieren

Führen Sie die folgenden Befehle aus, um gcloud für die Verwendung Ihres GCP-Projekts zu konfigurieren und die für die TPU-VM-Vorschau erforderlichen Komponenten zu installieren.

  $ gcloud config set account your-email-account
  $ gcloud config set project project-id

Cloud TPU API aktivieren

  1. Aktivieren Sie die Cloud TPU API mit dem folgenden gcloud-Befehl in Cloud Shell. Sie können das Tool auch über die Google Cloud Console aktivieren.

    $ gcloud services enable tpu.googleapis.com
    
  2. Führen Sie den folgenden Befehl aus, um eine Dienstidentität zu erstellen.

    $ gcloud beta services identity create --service tpu.googleapis.com
    

Cloud TPU-VM mit gcloud erstellen

Mit Cloud TPU-VMs werden Ihr Modell und Ihr Code direkt auf dem TPU-Hostcomputer ausgeführt. Sie können eine SSH-Verbindung direkt zum TPU-Host herstellen. Sie können beliebigen Code ausführen, Pakete installieren, Logs ansehen und Code direkt auf dem TPU-Host debuggen.

  1. Führen Sie den folgenden Befehl in einer GCP Cloud Shell oder auf Ihrem Computerterminal aus, auf dem das Cloud SDK installiert ist, um die TPU-VM zu erstellen.

    (vm)$  gcloud alpha compute tpus tpu-vm create tpu-name \
    --zone europe-west4-a \
    --accelerator-type v3-8 \
    --version v2-alpha

    Pflichtfelder

    zone
    Die Zone, in der Sie die Cloud TPU erstellen möchten.
    accelerator-type
    Der Typ der zu erstellenden Cloud TPU.
    version
    Die Version der Cloud TPU-Laufzeit. Legen Sie „v2-alpha” fest, wenn Sie JAX auf einzelnen TPU-Geräten, Pod-Slices oder ganzen Pods verwenden.

Verbindung zur Cloud TPU-VM herstellen

Stellen Sie eine SSH-Verbindung zu Ihrer TPU-VM her, indem Sie den folgenden Befehl verwenden:

$  gcloud alpha compute tpus tpu-vm ssh tpu-name --zone europe-west4-a

Pflichtfelder

tpu_name
Der Name der TPU-VM, mit der Sie eine Verbindung herstellen möchten.
zone
Die Zone, in der Sie die Cloud TPU erstellt haben.

JAX auf der Cloud TPU-VM installieren

(vm)$ pip install "jax[tpu]>=0.2.16" -f https://storage.googleapis.com/jax-releases/libtpu_releases.html

Systemüberprüfung

Testen Sie, ob alles korrekt installiert ist. Prüfen Sie dazu, ob JAX die Cloud TPU-Kerne sieht und grundlegende Vorgänge ausführen kann:

Starten Sie den Python 3-Interpreter:

(vm)$ python3
>>> import jax

Rufen Sie die Anzahl der verfügbaren TPU-Kerne auf:

>>> jax.device_count()

Die Anzahl der TPU-Kerne wird angezeigt. Diese sollte 8 sein.

Führen Sie eine einfache Berechnung durch:

>>> jax.numpy.add(1, 1)

Das Ergebnis von "numpy add" wird angezeigt:

Ausgabe des Befehls:

DeviceArray(2, dtype=int32)

Beenden Sie den Python-Interpreter:

>>> exit()

JAX-Code auf einer TPU-VM ausführen

Sie können jetzt jeden JAX-Code ausführen. Die flax-Beispiele sind ein guter Ausgangspunkt, um Standard-ML-Modelle in JAX auszuführen. So trainieren Sie beispielsweise ein einfaches MNIST-Convolutional Network (eine Art „faltendes neuronales Netzwerk“):

  1. TensorFlow-Datasets installieren

    (vm)$ pip install --upgrade clu
    
  2. Installieren Sie FLAX.

    (vm)$ git clone https://github.com/google/flax.git
    (vm)$ pip install --user -e flax
    
  3. FLAX MNIST-Trainingsskript ausführen

    (vm)$ cd flax/examples/mnist
    (vm)$ python3 main.py --workdir=/tmp/mnist \
    --config=configs/default.py \
    --config.learning_rate=0.05 \
    --config.num_epochs=5
    

    Die Ausgabe des Skripts sollte in etwa so aussehen:

    I0513 21:09:35.448946 140431261813824 train.py:125] train epoch: 1, loss: 0.2312, accuracy: 93.00
    I0513 21:09:36.402860 140431261813824 train.py:176] eval epoch: 1, loss: 0.0563, accuracy: 98.05
    I0513 21:09:37.321380

Bereinigen

Wenn Sie mit Ihrer TPU-VM fertig sind, führen Sie die folgenden Schritte aus, um Ihre Ressourcen zu bereinigen.

  1. Trennen Sie die Verbindung zur Compute Engine-Instanz, sofern noch nicht geschehen:

    (vm)$ exit
    
  2. Löschen Sie Ihre Cloud TPU.

    $  gcloud alpha compute tpus tpu-vm delete tpu-name \
      --zone europe-west4-a
    
  3. Überprüfen Sie mit dem folgenden Befehl, ob die Ressourcen gelöscht wurden. Achten Sie darauf, dass Ihre TPU nicht mehr aufgeführt wird. Der Löschvorgang kann einige Minuten dauern.

Hinweise zur Leistung

Im Folgenden finden Sie einige wichtige Details, die für die Verwendung von TPUs in JAX besonders relevant sind.

Padding

Eine der häufigsten Ursachen für eine langsame Leistung auf TPUs stellt versehentliches Padding dar:

  • Arrays in der Cloud TPU sind gekachelt. Dies bedeutet, dass eine der Dimensionen auf ein Vielfaches von 8 und eine andere auf ein Vielfaches von 128 aufgefüllt wird.
  • Die Matrixmultiplikationseinheit funktioniert am besten mit Paaren großer Matrizen, die die Notwendigkeit von Padding minimieren.

bfloat16 dtype

Standardmäßig verwendet die Matrixmultiplikation in JAX auf TPUs bfloat16 mit der Akkumulation float32. Dies kann mit dem Genauigkeitsargument für relevante "jax.numpy"-Funktionsaufrufe (matmul, dot, einsum usw.) gesteuert werden. Beispiele:

  • precision=jax.lax.Precision.DEFAULT verwendet die gemischte bfloat16-Genauigkeit (am schnellsten)
  • precision=jax.lax.Precision.HIGH verwendet mehrere MXU-Durchläufe, um eine höhere Genauigkeit zu erreichen
  • precision=jax.lax.Precision.HIGHEST verwendet noch mehr MXU-Durchläufe, um eine vollständige float32-Genauigkeit zu erreichen

JAX fügt außerdem den bfloat16-dtype hinzu, mit dem Sie explizit Arrays in bfloat16 umwandeln können, z.B. jax.numpy.array(x, dtype=jax.numpy.bfloat16).

JAX in einem Colab ausführen

Wenn Sie JAX-Code in einem Colab-Notebook ausführen, erstellt Colab automatisch einen Legacy-TPU-Knoten. TPU-Knoten haben eine andere Architektur. Weitere Informationen finden Sie unter Systemarchitektur.