Classificazione di immagini
Elaborazione distribuita su un pod
Modelli linguistici di grandi dimensioni (LLM)
-
Addestramento su una TPU a un solo dispositivo utilizzando Pax
Una guida per addestrare un modello SPMD con Pax su una Cloud TPU con un solo dispositivo.
-
Inferenza JetStream MaxText su v5e
Una guida per configurare e utilizzare JetStream con MaxText per l'inferenza.
-
Inferenza JetStream PyTorch su v5e
Una guida per configurare e utilizzare JetStream con PyTorch per l'inferenza.
-
Gestisci un LLM utilizzando TPU su GKE con vLLM
Una guida all'utilizzo di vLLM per pubblicare modelli linguistici di grandi dimensioni (LLM) utilizzando le unità di elaborazione tensoriale (TPU) su Google Kubernetes Engine (GKE).