Classificazione di immagini
-
Esecuzione di MNIST su Cloud TPU (TF 2.x)
Un modello di classificazione delle immagini MNIST che utilizza TensorFlow, ottimizzato per l'esecuzione su Cloud TPU.
-
Addestramento ResNet su Cloud TPU (TF 2.x)
Un modello di classificazione delle immagini ResNet che utilizza TensorFlow, ottimizzato per l'esecuzione su Cloud TPU.
-
Addestramento Keras ResNet-RS su Cloud TPU (TF 2.x)
Un modello Keras ResNet-RS che utilizza TensorFlow, ottimizzato per l'esecuzione su Cloud TPU.
-
Addestramento ResNet su Cloud TPU (PyTorch)
Un modello di classificazione delle immagini ResNet che utilizza PyTorch, ottimizzato per l'esecuzione su Cloud TPU.
-
Addestramento EfficientNet su Cloud TPU (TF 2.x)
Un modello di classificazione delle immagini EfficientNet che utilizza TensorFlow, ottimizzato per l'esecuzione su Cloud TPU.
Rilevamento di oggetti
-
Addestramento RetinaNet su Cloud TPU (TF 2.x)
Un modello di rilevamento degli oggetti RetinaNet che utilizza TensorFlow, ottimizzato per l'esecuzione su Cloud TPU.
-
Addestramento ShapeMask su Cloud TPU (TF 2.x)
Un modello di rilevamento degli oggetti ShapeMask che utilizza TensorFlow, ottimizzato per l'esecuzione su Cloud TPU.
-
Maschera di addestramento RCNN su Cloud TPU (TF 2.x)
Un modello Maschera RCNN che utilizza TensorFlow, ottimizzato per l'esecuzione su Cloud TPU.
Sistemi di suggerimento
-
Addestrare il modello DLRM su Cloud TPU (PyTorch)
Una guida all'addestramento del modello DLRM PyTorch su Cloud TPU.
-
Addestramento di modelli DLRM e DCN su Cloud TPU (TF 2.x)
Una guida all'addestramento dei modelli di ranking DLRM e DCN v2 per attività come la previsione della percentuale di clic (CTR).
-
Addestramento di un modello di filtro Nerra della collaborazione su Cloud TPU (TF 2.x)
Un'implementazione del framework Neural Collaborative Filtering (NCF) con il modello Neural Matrix factorization (NeuMF)
Elaborazione distribuita su un pod
Elaborazione del linguaggio naturale
-
BERT FineTuning con Cloud TPU: attività di classificazione delle coppie di frasi e frasi (TF 2.x)
Scopri come utilizzare le rappresentazioni bidirezionale dei codificatori da Transformers (BERT) con Cloud TPU.
-
FairSeq RoBERTa prima dell'addestramento su Cloud TPU (PyTorch)
Una guida all'addestramento preliminare della versione FairSeq del modello RoBERTa su Cloud TPU utilizzando il set di dati pubblico wikitext-103.
Strumento di trasformazione T2T
-
Addestramento trasformatore su Cloud TPU (TF 2.x)
Una guida all'addestramento del modello di trasformatore Tensor2Tensor su Cloud TPU, per la traduzione dall'inglese al tedesco.
-
Addestramento FairSeq Transformer su Cloud TPU (PyTorch)
Una guida all'addestramento della versione FairSeq del modello Transformer su Cloud TPU ed esecuzione dell'attività di traduzione WMT 18 che traduce dall'inglese al tedesco.