Esta página foi traduzida pela API Cloud Translation.
Switch to English

Mais modelos

Nesta página, descrevemos alguns dos modelos experimentais otimizados para execução no Cloud TPU. No momento, esses modelos não são oficialmente compatíveis com o Google, mas podem ser úteis para alguns tipos de pesquisa.

Como conseguir o código

O código-fonte dos modelos experimentais está disponível no GitHub (em inglês). É comum adicionarmos modelos ao repositório. Portanto, verifique o GitHub periodicamente.

Vários modelos estão pré-instalados na imagem de VM tf-1-15 configurada de acordo com o guia de início rápido. Os modelos estão localizados nos seguintes diretórios da VM:

/usr/share/models/official/
/usr/share/tpu/

Classificação de imagens

DenseNet

O DenseNet é uma variação do modelo de classificação de imagens ResNet. Ele contém um conjunto completo ("denso") de conexões skip-layer. Veja o modelo do DenseNet otimizado para a Cloud TPU (em inglês) no GitHub. Este exemplo é uma implementação do modelo de classificação de imagens DenseNet (em inglês).

MobileNet

O MobileNet é um modelo de classificação de imagens que aproveita convoluções separáveis em profundidade e tem bom desempenho em dispositivos com limitação de energia, como celulares. Veja o modelo MobileNet v1 otimizado para o Cloud TPU no GitHub. Este exemplo é uma implementação do modelo de classificação de imagens MobileNet (em inglês).

O código do modelo é baseado no MobileNet_v1 do TensorFlow original com os seguintes ajustes:

  • interface da TPUEstimator
  • canal de processamento de dados para o ImageNet

SqueezeNet

O SqueezeNet é um modelo de classificação de imagens que é otimizado para menos parâmetros e tamanho de modelo muito menor, sem perder qualidade em comparação com os modelos de classificação de imagem atuais (AlexNet). Veja o modelo do SqueezeNet otimizado para a Cloud TPU (em inglês) no GitHub. Este exemplo é uma implementação do modelo de classificação de imagens SqueezeNet (em inglês).

Geração de imagens

O projeto DCGAN (em inglês) experimental treina um modelo de redes adversárias generativas convolucionais profundas (DCGAN, na sigla em inglês) para gerar imagens baseadas nos conjuntos de dados the MNIST e CIFAR-10.

O projeto inclui modelos geradores e discriminadores simples baseados nos modelos convolucional e desconvolucional apresentados no documento Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks.

Próximas etapas