Classification d'images
-
Exécuter MNIST sur Cloud TPU (TF 2.x)
Modèle de classification d'images MNIST utilisant TensorFlow, optimisé pour fonctionner sur Cloud TPU.
-
Entraîner ResNet sur Cloud TPU (TF 2.x)
Modèle de classification d'images ResNet utilisant TensorFlow, optimisé pour fonctionner sur Cloud TPU.
-
Entraîner Keras ResNet-RS sur Cloud TPU (TF 2.x)
Modèle Keras ResNet-RS utilisant TensorFlow, optimisé pour fonctionner sur Cloud TPU.
-
Entraîner ResNet sur Cloud TPU (PyTorch)
Modèle de classification d'images ResNet utilisant PyTorch, optimisé pour fonctionner sur Cloud TPU.
-
Entraîner EfficientNet sur Cloud TPU (TF 1.x)
Modèle de classification d'images EfficientNet utilisant TensorFlow, optimisé pour fonctionner sur Cloud TPU.
Détection d'objet
-
Entraîner RetinaNet sur Cloud TPU (TF 2.x)
Modèle de détection d'objets RetinaNet utilisant TensorFlow, optimisé pour fonctionner sur Cloud TPU.
-
Entraîner ShapeMask sur Cloud TPU (TF 2.x)
Modèle de détection d'objets ShapeMask utilisant TensorFlow, optimisé pour fonctionner sur Cloud TPU.
-
Entraîner le modèle Mask RCNN sur Cloud TPU (TF 2.x)
Modèle de Mask RCNN utilisant TensorFlow, optimisé pour fonctionner sur Cloud TPU.
Systèmes de recommandation
-
Entraîner des modèles DLRM et DCN sur Cloud TPU (TF 2.x)
Guide consacré à l'entraînement des modèles de classement DLRM et DCN v2 pour des tâches telles que la prédiction du taux de clics (CTR).
-
Entraîner un modèle de filtrage collaboratif neuronale sur Cloud TPU (TF 2.x)
Une mise en œuvre du framework de filtrage collaboratif neuronal (NCF) avec le modèle de factorisation matricielle neuronale (NeuMF)
Traitement distribué sur un pod
Traitement du langage naturel
-
Optimiser BERT avec Cloud TPU : tâches de classification de phrases et de paires de phrases (TF 2.x)
Découvrez comment utiliser le modèle BERT (Bidirectional Encoder Representations from Transformers) avec Cloud TPU.
-
Pré-entraînement pour FairSeq RoBERTa sur Cloud TPU (PyTorch)
Guide de pré-entraînement de la version FairSeq du modèle RoBERTa sur Cloud TPU en utilisant l'ensemble de données public wikitext-103.