Classificazione di immagini
-
Esecuzione di MNIST su Cloud TPU (TF 2.x)
Un modello di classificazione di immagini MNIST che utilizza TensorFlow, ottimizzato per l'esecuzione su Cloud TPU.
-
Addestramento di ResNet su Cloud TPU (TF 2.x)
Un modello di classificazione di immagini ResNet che utilizza TensorFlow, ottimizzato per l'esecuzione su Cloud TPU.
-
Addestramento di Keras ResNet-RS su Cloud TPU (TF 2.x)
Un modello Keras ResNet-RS che utilizza TensorFlow, ottimizzato per l'esecuzione su Cloud TPU.
-
Addestramento di ResNet su Cloud TPU (PyTorch)
Un modello di classificazione di immagini ResNet che utilizza PyTorch, ottimizzato per l'esecuzione su Cloud TPU.
-
Addestramento di EfficientNet su Cloud TPU (TF 2.x)
Un modello di classificazione di immagini EfficientNet che utilizza TensorFlow, ottimizzato per l'esecuzione su Cloud TPU.
Rilevamento di oggetti
-
Addestramento di RetinaNet su Cloud TPU (TF 2.x)
Un modello di rilevamento di oggetti RetinaNet che utilizza TensorFlow, ottimizzato per l'esecuzione su Cloud TPU.
-
Addestramento di ShapeMask su Cloud TPU (TF 2.x)
Un modello di rilevamento degli oggetti ShapeMask che utilizza TensorFlow, ottimizzato per l'esecuzione su Cloud TPU.
-
Maschera di addestramento RCNN su Cloud TPU (TF 2.x)
Un modello RCNN di maschera utilizzando TensorFlow, ottimizzato per l'esecuzione su Cloud TPU.
Sistemi di generazione dei suggerimenti
-
Addestramento di modelli DLRM e DCN su Cloud TPU (TF 2.x)
Una guida per addestrare i modelli di ranking DLRM e DCN v2 per attività come la previsione della percentuale di clic (CTR).
-
Addestramento di un modello di filtraggio della collaborazione neurale su Cloud TPU (TF 2.x)
Un'implementazione del framework Neural Collaborative Filtering (NCF) con il modello Neural Matrix Factorization (NeuMF)
Elaborazione distribuita su un pod
Elaborazione del linguaggio naturale
-
BERT FineTuning con Cloud TPU: attività di classificazione a coppie di frasi e frasi (TF 2.x)
Scopri come utilizzare Bidirectional Encoder Representations from Transformers (BERT) con Cloud TPU.
-
Pre-formazione FairSeq RoBERTa su Cloud TPU (PyTorch)
Una guida per preaddestrare la versione FairSeq del modello RoBERTa su Cloud TPU utilizzando il set di dati pubblico wikitext-103.