Clasificación de imágenes
-
Ejecuta MNIST en Cloud TPU (TF 2.x)
Modelo de clasificación de imágenes MNIST que utiliza TensorFlow y está optimizado para ejecutarse en Cloud TPU.
-
Entrena a un transformador en Cloud TPU (TF 2.x)
Modelo de clasificación de imágenes ResNet que usa TensorFlow y está optimizado para ejecutarse en Cloud TPU.
-
Entrena ResNet-RS de Keras en Cloud TPU (TF 2.x)
Modelo ResNet-RS de Keras que usa TensorFlow y está optimizado para ejecutarse en Cloud TPU.
-
Entrena ResNet en Cloud TPU (PyTorch)
Modelo de clasificación de imágenes ResNet que usa PyTorch y está optimizado para ejecutarse en Cloud TPU.
-
Entrena EfficientNet en Cloud TPU (TF 2.x)
Modelo de clasificación de imágenes EfficientNet que usa TensorFlow y está optimizado para ejecutarse en Cloud TPU.
Detección de objetos
-
Entrena a un transformador en Cloud TPU (TF 2.x)
Modelo de detección de objetos RetinaNet que utiliza TensorFlow y está optimizado para ejecutarse en Cloud TPU.
-
Entrena ShapeMask en Cloud TPU (TF 2.x)
Modelo de detección de objetos ShapeMask que usa TensorFlow y está optimizado para ejecutarse en Cloud TPU.
-
Máscara de entrenamiento RCNN en Cloud TPU (TF 2.x)
Modelo Mask RCNN que usa TensorFlow y está optimizado para ejecutarse en Cloud TPU.
Sistemas de recomendación
-
Entrena modelos de DLRM y DCN en Cloud TPU (TF 2.x)
Una guía para entrenar los modelos de clasificación DLRM y DCN v2 para tareas como la predicción de la tasa de clics (CTR).
-
Entrena un modelo de filtrado colaborativo neuronal en Cloud TPU (TF 2.x)
Implementación del marco de trabajo de filtrado colaborativo neuronal (NCF) con el modelo de factorización de matrices neuronales (NeuMF)
Procesamiento distribuido en un pod
Procesamiento de lenguaje natural
-
BERT Función de ajuste con Cloud TPU: Tareas de clasificación de oraciones y pares (OF 2.x)
Descubre cómo usar las representaciones de codificador bidireccional de transformadores (BERT) con Cloud TPU.
-
Entrenamiento previo de FairSeq RoBERTa en Cloud TPU (PyTorch)
Guía para entrenar previamente la versión FairSeq del modelo RoBERTa en Cloud TPU con el conjunto de datos público wikitext-103.