Mais modelos

Nesta página, descrevemos alguns dos modelos experimentais otimizados para execução no Cloud TPU. No momento, esses modelos não são oficialmente compatíveis com o Google, mas podem ser úteis para alguns tipos de pesquisa.

Como conseguir o código

O código-fonte dos modelos experimentais está disponível no GitHub (em inglês). É comum adicionarmos modelos ao repositório. Portanto, verifique o GitHub periodicamente.

Vários modelos estão pré-instalados na imagem de VM tf-1-15 configurada de acordo com o guia de início rápido. Os modelos estão localizados nos seguintes diretórios da VM:

/usr/share/models/official/
/usr/share/tpu/

Classificação de imagens

DenseNet

O DenseNet é uma variação do modelo de classificação de imagens ResNet, que contém um conjunto completo ("denso") de conexões skip-layer. Veja o modelo do DenseNet otimizado para a Cloud TPU (em inglês) no GitHub. Este exemplo é uma implementação do modelo de classificação de imagens DenseNet (em inglês).

MobileNet

O MobileNet é um modelo de classificação de imagens que aproveita convoluções separáveis em profundidade e tem bom desempenho em dispositivos com limitação de energia, como celulares. Veja o modelo MobileNet v1 otimizado para o Cloud TPU no GitHub. Este exemplo é uma implementação do modelo de classificação de imagens MobileNet (em inglês).

O código do modelo é baseado no MobileNet_v1 do TensorFlow original com os seguintes ajustes:

  • interface da TPUEstimator
  • canal de processamento de dados para o ImageNet

SqueezeNet

O SqueezeNet é um modelo de classificação de imagens otimizado para um número menor de parâmetros e um tamanho de modelo bem menor sem comprometer a qualidade se comparado aos modelos de classificação de imagens contemporâneos (AlexNet). Veja o modelo do SqueezeNet otimizado para a Cloud TPU (em inglês) no GitHub. Este exemplo é uma implementação do modelo de classificação de imagens SqueezeNet (em inglês).

Geração de imagens

O projeto DCGAN (em inglês) experimental treina um modelo de redes adversárias generativas convolucionais profundas (DCGAN, na sigla em inglês) para gerar imagens baseadas nos conjuntos de dados the MNIST e CIFAR-10.

O projeto inclui modelos geradores e discriminadores simples baseados nos modelos convolucional e desconvolucional apresentados no documento Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks.

A seguir