Classification d'images
-
Exécuter MNIST sur Cloud TPU (TF 2.x)
Modèle de classification d'images MNIST utilisant TensorFlow, optimisé pour fonctionner sur Cloud TPU.
-
Entraîner ResNet sur Cloud TPU (TF 2.x)
Modèle de classification d'images ResNet utilisant TensorFlow, optimisé pour fonctionner sur Cloud TPU.
-
Entraîner Keras ResNet-RS sur Cloud TPU (TF 2.x)
Modèle Keras ResNet-RS utilisant TensorFlow, optimisé pour fonctionner sur Cloud TPU.
-
Entraîner ResNet sur Cloud TPU (PyTorch)
Modèle de classification d'images ResNet utilisant PyTorch, optimisé pour fonctionner sur Cloud TPU.
-
Entraîner EfficientNet sur Cloud TPU (TF 1.x)
Modèle de classification d'images EfficientNet utilisant TensorFlow, optimisé pour fonctionner sur Cloud TPU.
Détection d'objet
-
Entraîner RetinaNet sur Cloud TPU (TF 2.x)
Modèle de détection d'objets RetinaNet utilisant TensorFlow, optimisé pour fonctionner sur Cloud TPU.
-
Entraîner ShapeMask sur Cloud TPU (TF 2.x)
Modèle de détection d'objets ShapeMask utilisant TensorFlow, optimisé pour fonctionner sur Cloud TPU.
-
Entraîner le modèle Mask RCNN sur Cloud TPU (TF 2.x)
Modèle de Mask RCNN utilisant TensorFlow, optimisé pour fonctionner sur Cloud TPU.
Systèmes de recommandation
-
Entraîner un modèle DLRM sur Cloud TPU (PyTorch)
Guide pour l'entraînement du modèle DLRM (PyTorch) sur Cloud TPU.
-
Entraîner des modèles DLRM et DCN sur Cloud TPU (TF 2.x)
Guide consacré à l'entraînement des modèles de classement DLRM et DCN v2 pour des tâches telles que la prédiction du taux de clics (CTR).
-
Entraîner un modèle de filtrage collaboratif neuronale sur Cloud TPU (TF 2.x)
Implémentation du framework de filtrage collaboratif neuronal (NCF) avec le modèle de factorisation matricielle neuronale (NeuMF)
Traitement distribué sur un pod
Traitement du langage naturel
-
Optimiser BERT avec Cloud TPU : tâches de classification de phrases et de paires de phrases (TF 2.x)
Découvrez comment utiliser le modèle BERT (Bidirectional Encoder Representations from Transformers) avec Cloud TPU.
-
Pré-entraîner FairSeq RoBERTa sur Cloud TPU (PyTorch)
Guide de pré-entraînement de la version FairSeq du modèle RoBERTa sur Cloud TPU avec l'ensemble de données public wikitext-103.
Modèle Transformer de T2T
-
Entraîner Transformer sur Cloud TPU (TF 2.x)
Guide d'entraînement du modèle Transformer de Tensor2Tensor sur Cloud TPU, pour la traduction en anglais et en allemand.
-
Entraîner FairSeq Transformer sur Cloud TPU (PyTorch)
Guide d'entraînement de la version FairSeq du modèle Transformer sur Cloud TPU et de l'exécution de la tâche de traduction WMT 18 pour traduire de l'anglais vers l'allemand.