Faça previsões com modelos do TensorFlow importados

Neste tutorial, importa modelos do TensorFlow para um conjunto de dados do BigQuery ML. Em seguida, usa uma consulta SQL para fazer previsões a partir dos modelos importados.

Objetivos

  • Use a declaração CREATE MODEL para importar modelos do TensorFlow para o BigQuery ML.
  • Use a função ML.PREDICT para fazer previsões com os modelos do TensorFlow importados.

Custos

Neste documento, usa os seguintes componentes faturáveis do Google Cloud:

Para gerar uma estimativa de custos com base na sua utilização projetada, use a calculadora de preços.

Os novos Google Cloud utilizadores podem ser elegíveis para uma avaliação gratuita.

Quando terminar as tarefas descritas neste documento, pode evitar a faturação contínua eliminando os recursos que criou. Para mais informações, consulte o artigo Limpe.

Antes de começar

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

    Go to project selector

  3. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

    Go to project selector

  4. Verify that billing is enabled for your Google Cloud project.

  5. Certifique-se de que a API BigQuery está ativada.

    Ative a API

  6. Certifique-se de que tem as autorizações necessárias para realizar as tarefas descritas neste documento.
  7. Funções necessárias

    Se criar um novo projeto, é o proprietário do projeto e são-lhe concedidas todas as autorizações de gestão de identidade e de acesso (IAM) necessárias para concluir este tutorial.

    Se estiver a usar um projeto existente, a função Administrador do BigQuery Studio (roles/bigquery.studioAdmin) concede todas as autorizações necessárias para concluir este tutorial.

    Make sure that you have the following role or roles on the project: BigQuery Studio Admin (roles/bigquery.studioAdmin).

    Check for the roles

    1. In the Google Cloud console, go to the IAM page.

      Go to IAM
    2. Select the project.
    3. In the Principal column, find all rows that identify you or a group that you're included in. To learn which groups you're included in, contact your administrator.

    4. For all rows that specify or include you, check the Role column to see whether the list of roles includes the required roles.

    Grant the roles

    1. In the Google Cloud console, go to the IAM page.

      Aceder ao IAM
    2. Selecione o projeto.
    3. Clique em Conceder acesso.
    4. No campo Novos responsáveis, introduza o identificador do utilizador. Normalmente, este é o endereço de email de uma Conta Google.

    5. Na lista Selecionar uma função, selecione uma função.
    6. Para conceder funções adicionais, clique em Adicionar outra função e adicione cada função adicional.
    7. Clique em Guardar.
    8. Para mais informações acerca das autorizações da IAM no BigQuery, consulte Autorizações do BigQuery.

      Crie um conjunto de dados

      Crie um conjunto de dados do BigQuery para armazenar o seu modelo de ML.

      Consola

      1. Na Google Cloud consola, aceda à página BigQuery.

        Aceda à página do BigQuery

      2. No painel Explorador, clique no nome do projeto.

      3. Clique em Ver ações > Criar conjunto de dados

      4. Na página Criar conjunto de dados, faça o seguinte:

        • Para o ID do conjunto de dados, introduza bqml_tutorial.

        • Em Tipo de localização, selecione Várias regiões e, de seguida, selecione EUA (várias regiões nos Estados Unidos).

        • Deixe as restantes predefinições como estão e clique em Criar conjunto de dados.

      bq

      Para criar um novo conjunto de dados, use o comando bq mk com a flag --location. Para uma lista completa de parâmetros possíveis, consulte a referência do comando bq mk --dataset.

      1. Crie um conjunto de dados com o nome bqml_tutorial com a localização dos dados definida como US e uma descrição de BigQuery ML tutorial dataset:

        bq --location=US mk -d \
         --description "BigQuery ML tutorial dataset." \
         bqml_tutorial

        Em vez de usar a flag --dataset, o comando usa o atalho -d. Se omitir -d e --dataset, o comando cria um conjunto de dados por predefinição.

      2. Confirme que o conjunto de dados foi criado:

        bq ls

      API

      Chame o método datasets.insert com um recurso de conjunto de dados definido.

      {
        "datasetReference": {
           "datasetId": "bqml_tutorial"
        }
      }

      DataFrames do BigQuery

      Antes de experimentar este exemplo, siga as instruções de configuração dos DataFrames do BigQuery no início rápido do BigQuery com os DataFrames do BigQuery. Para mais informações, consulte a documentação de referência do BigQuery DataFrames.

      Para se autenticar no BigQuery, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure o ADC para um ambiente de desenvolvimento local.

      import google.cloud.bigquery
      
      bqclient = google.cloud.bigquery.Client()
      bqclient.create_dataset("bqml_tutorial", exists_ok=True)

      Importe um modelo do TensorFlow

      Os passos seguintes mostram como importar um modelo do Cloud Storage. O caminho para o modelo é gs://cloud-training-demos/txtclass/export/exporter/1549825580/*. O nome do modelo importado é imported_tf_model.

      Tenha em atenção que o URI do Cloud Storage termina num caráter universal (*). Este caráter indica que o BigQuery ML deve importar todos os recursos associados ao modelo.

      O modelo importado é um modelo de classificador de texto do TensorFlow que prevê que Website publicou um determinado título de artigo.

      Para importar o modelo do TensorFlow para o conjunto de dados, siga estes passos.

      Consola

      1. Na Google Cloud consola, aceda à página BigQuery.

        Aceda à página do BigQuery

      2. Para Criar novo, clique em Consulta SQL.

      3. No editor de consultas, introduza esta declaração CREATE MODEL e, de seguida, clique em Executar.

          CREATE OR REPLACE MODEL `bqml_tutorial.imported_tf_model`
          OPTIONS (MODEL_TYPE='TENSORFLOW',
            MODEL_PATH='gs://cloud-training-demos/txtclass/export/exporter/1549825580/*')

        Quando a operação estiver concluída, deve ver uma mensagem como Successfully created model named imported_tf_model.

      4. O novo modelo é apresentado no painel Recursos. Os modelos são indicados pelo ícone de modelo: model
icon.

      5. Se selecionar o novo modelo no painel Recursos, as informações sobre o modelo aparecem abaixo do Editor de consultas.

        Informações do modelo do TensorFlow

      bq

      1. Importe o modelo do TensorFlow do Cloud Storage introduzindo a seguinte declaração CREATE MODEL.

        bq query --use_legacy_sql=false \
        "CREATE OR REPLACE MODEL
          `bqml_tutorial.imported_tf_model`
        OPTIONS
          (MODEL_TYPE='TENSORFLOW',
            MODEL_PATH='gs://cloud-training-demos/txtclass/export/exporter/1549825580/*')"
      2. Depois de importar o modelo, verifique se este é apresentado no conjunto de dados.

        bq ls -m bqml_tutorial

        O resultado é semelhante ao seguinte:

        tableId             Type
        ------------------- -------
        imported_tf_model   MODEL

      API

      Insira uma nova tarefa e preencha a propriedade jobs#configuration.query no corpo do pedido.

      {
        "query": "CREATE MODEL `PROJECT_ID:bqml_tutorial.imported_tf_model` OPTIONS(MODEL_TYPE='TENSORFLOW' MODEL_PATH='gs://cloud-training-demos/txtclass/export/exporter/1549825580/*')"
      }

      Substitua PROJECT_ID pelo nome do seu projeto e conjunto de dados.

      DataFrames do BigQuery

      Antes de experimentar este exemplo, siga as instruções de configuração dos DataFrames do BigQuery no início rápido do BigQuery com os DataFrames do BigQuery. Para mais informações, consulte a documentação de referência do BigQuery DataFrames.

      Para se autenticar no BigQuery, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure o ADC para um ambiente de desenvolvimento local.

      Importe o modelo através do objeto TensorFlowModel.

      import bigframes
      from bigframes.ml.imported import TensorFlowModel
      
      bigframes.options.bigquery.project = PROJECT_ID
      # You can change the location to one of the valid locations: https://cloud.google.com/bigquery/docs/locations#supported_locations
      bigframes.options.bigquery.location = "US"
      
      imported_tensorflow_model = TensorFlowModel(
          model_path="gs://cloud-training-demos/txtclass/export/exporter/1549825580/*"
      )

      Para mais informações sobre a importação de modelos do TensorFlow para o BigQuery ML, incluindo os requisitos de formato e armazenamento, consulte a declaração CREATE MODEL para importar modelos do TensorFlow.

      Faça previsões com o modelo do TensorFlow importado

      Depois de importar o modelo do TensorFlow, usa a ML.PREDICT função para fazer previsões com o modelo.

      A consulta seguinte usa imported_tf_model para fazer previsões com dados de entrada da tabela full no conjunto de dados público hacker_news. Na consulta, a função serving_input_fn do modelo do TensorFlow especifica que o modelo espera uma única string de entrada denominada input. A subconsulta atribui o alias input à coluna title na declaração SELECT da subconsulta.

      Para fazer previsões com o modelo do TensorFlow importado, siga estes passos.

      Consola

      1. Na Google Cloud consola, aceda à página BigQuery.

        Aceda à página do BigQuery

      2. Em Criar novo, clique em Consulta SQL.

      3. No editor de consultas, introduza esta consulta que usa a função ML.PREDICT.

        SELECT *
          FROM ML.PREDICT(MODEL `bqml_tutorial.imported_tf_model`,
            (
             SELECT title AS input
             FROM bigquery-public-data.hacker_news.full
            )
        )

        Os resultados da consulta devem ter o seguinte aspeto:

        Resultados da consulta

      bq

      Introduza este comando para executar a consulta que usa ML.PREDICT.

      bq query \
      --use_legacy_sql=false \
      'SELECT *
      FROM ML.PREDICT(
        MODEL `bqml_tutorial.imported_tf_model`,
        (SELECT title AS input FROM `bigquery-public-data.hacker_news.full`))'

      Os resultados devem ter o seguinte aspeto:

      +------------------------------------------------------------------------+----------------------------------------------------------------------------------+
      |                               dense_1                                  |                                       input                                      |
      +------------------------------------------------------------------------+----------------------------------------------------------------------------------+
      |   ["0.6251608729362488","0.2989124357700348","0.07592673599720001"]    | How Red Hat Decides Which Open Source Companies t...                             |
      |   ["0.014276246540248394","0.972910463809967","0.01281337533146143"]   | Ask HN: Toronto/GTA mastermind around side income for big corp. dev?             |
      |   ["0.9821603298187256","1.8601855117594823E-5","0.01782100833952427"] | Ask HN: What are good resources on strategy and decision making for your career? |
      |   ["0.8611106276512146","0.06648492068052292","0.07240450382232666"]   | Forget about promises, use harvests                                              |
      +------------------------------------------------------------------------+----------------------------------------------------------------------------------+
      

      API

      Insira um novo emprego e preencha a propriedade jobs#configuration.query, como no corpo do pedido. Substitua project_id pelo nome do seu projeto.

      {
        "query": "SELECT * FROM ML.PREDICT(MODEL `project_id.bqml_tutorial.imported_tf_model`, (SELECT * FROM input_data))"
      }

      DataFrames do BigQuery

      Antes de experimentar este exemplo, siga as instruções de configuração dos DataFrames do BigQuery no início rápido do BigQuery com os DataFrames do BigQuery. Para mais informações, consulte a documentação de referência do BigQuery DataFrames.

      Para se autenticar no BigQuery, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure o ADC para um ambiente de desenvolvimento local.

      Use a função predict para executar o modelo do TensorFlow:

      import bigframes.pandas as bpd
      
      df = bpd.read_gbq("bigquery-public-data.hacker_news.full")
      df_pred = df.rename(columns={"title": "input"})
      predictions = imported_tensorflow_model.predict(df_pred)
      predictions.head(5)

      Os resultados devem ter o seguinte aspeto:

      Result_visualization

      Nos resultados da consulta, a coluna dense_1 contém uma matriz de valores de probabilidade e a coluna input contém os valores de string correspondentes da tabela de entrada. Cada valor do elemento da matriz representa a probabilidade de a string de entrada correspondente ser o título de um artigo de uma publicação específica.

      Limpar

      Para evitar incorrer em custos na sua conta do Google Cloud pelos recursos usados neste tutorial, elimine o projeto que contém os recursos ou mantenha o projeto e elimine os recursos individuais.

      Elimine o projeto

      Consola

      1. In the Google Cloud console, go to the Manage resources page.

        Go to Manage resources

      2. In the project list, select the project that you want to delete, and then click Delete.
      3. In the dialog, type the project ID, and then click Shut down to delete the project.

      gcloud

      1. In the Google Cloud console, go to the Manage resources page.

        Go to Manage resources

      2. In the project list, select the project that you want to delete, and then click Delete.
      3. In the dialog, type the project ID, and then click Shut down to delete the project.

      Elimine recursos individuais

      Em alternativa, remova os recursos individuais usados neste tutorial:

      1. Elimine o modelo importado.

      2. Opcional: elimine o conjunto de dados.

      O que se segue?