Notas da versão

Estas notas da versão aplicam-se ao Cloud Dataprep by Trifacta. Consulte esta página periodicamente para ver anúncios sobre recursos novos, atualizados ou com funcionalidade obsoleta, além de correções de bugs e problemas conhecidos.

Para receber as atualizações de produtos mais recentes, adicione o URL desta página ao leitor de feeds.

20 de março de 2019

  • TD-39411: não é possível importar a tabela ou visualização do BigQuery quando a origem é do Google Suite.

    • O Cloud Dataprep by TRIFACTA é compatível apenas com tabelas e visualizações nativas do BigQuery. Ele não é compatível com origens do BigQuery que fazem referência a dados armazenados no Google Suite, como o Planilhas Google.
    • Alternativa: crie uma cópia da tabela do BigQuery vinculada à origem do Google Suite no BigQuery. Em seguida, importe a tabela nativa do BigQuery como um conjunto de dados no Cloud Dataprep by TRIFACTA usando a página Importar conjunto de dados.
  • TD-39386: alguns usuários podem não conseguir editar conjuntos de dados com parâmetros, recebendo um erro HTTP 403 (permissão negada) em origens que deveriam estar acessíveis.

    • Alternativa: crie do zero um conjunto de dados de substituição com parâmetros e troque o conjunto de dados antigo pelo novo com parâmetros.
  • TD-39296: não é possível executar jobs do Cloud Dataflow em conjuntos de dados com parâmetros provenientes do arquivo ou arquivos Parquet.

    • Alternativa: gere a origem usando outro formato de arquivo compatível ou una todos os conjuntos de dados originados em Parquet como primeiro passo.
  • TD-39295: os jobs Parquet falham no Cloud Dataflow quando o conjunto de dados contém colunas do tipo de dados INT96.

    • Solução: o tipo de dados INT96 se tornou obsoleto da biblioteca usada para converter dados Parquet. Altere a origem para outro tipo de dados e reimporte. Para mais informações, consulte PARQUET-1480 no GitHub.
  • TD-39173: não é possível visualizar os conjuntos de dados importados quando a origem é um arquivo Avro.

    • Alternativa: o arquivo ainda pode ser importado e convertido.
  • TD-38869: o upload de arquivos Parquet não é compatível com valores aninhados, que aparecem como valores nulos na página Transformer.

    • Alternativa: desaninhe os valores antes de importar para a plataforma.
  • TD-37688: a documentação do novo painel Detalhes da seleção não foi atualizada.

    • O painel Detalhes da seleção substitui e estende o painel Cartões de sugestão. O recurso está presente, mas a documentação está desatualizada.
    • A documentação atualizada estará disponível na próxima versão.
    • Alternativa: a documentação do novo painel Detalhes da seleção está disponível aqui: Painel Detalhes da seleção.
  • TD-37683: o envio de uma cópia não cria conjuntos independentes de roteiros e conjuntos de dados no novo fluxo. Se os conjuntos de dados importados forem removidos no fluxo de origem, eles desaparecerão da versão enviada.

    • Alternativa: crie novas versões dos conjuntos de dados importados no fluxo enviado.
  • TD-36332: a grade de dados pode exibir resultados incorretos se uma amostra for coletada e o conjunto de dados for unido.
  • TD-36192: cancelar uma etapa no painel de roteiros pode resultar no desaparecimento dos menus de coluna na grade de dados.
  • TD-31252: a atribuição de um esquema de destino por meio do Navegador de colunas não atualiza a página.
  • DP-98: o BigQuery não aceita leitura de tabelas armazenadas em regiões que não sejam dos EUA ou da UE.

19 de novembro de 2018

  • Modificações de variáveis:
  • Novas transformações:
    • Coluna Bin: coloque valores numéricos em classes de tamanho igual ou personalizado para o intervalo de valores.
    • Coluna de escala: dimensione valores de uma coluna para um intervalo fixo ou para distribuições de variância unitária com média zero.
    • Codificação one-hot: codifique valores de uma coluna em colunas separadas contendo 0 ou 1, dependendo da ausência ou da presença do valor na linha correspondente.
    • Agrupar por: gere novas colunas ou tabelas de substituição com base em funções agregadas aplicadas a valores agrupados de uma ou mais colunas.
  • Opções de publicação CSV: adicione cotações como opções de publicação de arquivo CSV. Consulte a página "Executar job".
  • Revisar e selecionar padrões: os padrões estão disponíveis para revisão e seleção, solicitando sugestões, no painel de contexto. Consulte o painel "Detalhes do padrão".
  • Trocar conjuntos de dados dinâmicos: troque um conjunto de dados importado estático por um conjunto de dados com parâmetros na visualização de fluxo. Consulte a página "Visualização de fluxo".
  • Amostras nomeadas: as amostras geradas podem ser nomeadas. Consulte o painel "Amostras".
  • Painel "Mesclagem": a página "Mesclagem" foi substituída pelo novo painel "Mesclagem" no painel de contexto. Consulte o painel "Mesclagem".
  • Expressões aninhadas: as expressões podem ser aninhadas dentro das expressões no Wrangle. Consulte Linguagem Wrangle.
  • TD-34840: a plataforma não fornece sugestões para transformações durante a seleção de chaves de um objeto com muitas delas.
  • TD-34822: as variações que diferenciam maiúsculas de minúsculas em valores de período não são correspondidas durante a criação de um conjunto de dados com parâmetros.
    • OBSERVAÇÃO: os parâmetros de período agora são indiferentes a maiúsculas.
  • DP-98: o BigQuery não aceita leitura de tabelas armazenadas em regiões que não sejam dos EUA ou da UE.
  • TD-34574: não é possível importar tabelas e visualizações do BigQuery com o tipo de dados NUMERIC.
  • TD-33428: execução de job na receita com limite alto em transformação dividida devido ao erro "Java Null Pointer Error" durante a criação de perfil.
    • OBSERVAÇÃO: evite criar conjuntos de dados com mais de 2.500 colunas. O desempenho pode ser significativamente prejudicado em conjuntos de dados muito grandes.
  • TD-30857: a correspondência de padrões de caminho de arquivo em um diretório grande pode ser muito lenta, especialmente ao usar vários padrões em um único conjunto de dados com parâmetros.
    • OBSERVAÇÃO: para acelerar a correspondência, evite caracteres curingas em diretórios de nível superior e seja o mais específico possível com os curingas e os padrões.

21 de setembro de 2018

Anunciamos a versão de disponibilidade geral (GA, na sigla em inglês) do Cloud Dataprep. Veja uma lista dos recursos, alterações, suspensões de uso, problemas e correções mais recentes desta versão:

  • Compartilhar fluxos no mesmo projeto: colabore com outros usuários ao compartilhar fluxos em um mesmo projeto do GCP. Se preferir, envie a eles uma cópia para uso próprio. Para saber mais informações, consulte Visão geral do compartilhamento.
  • OBSERVAÇÃO: se você tentar compartilhar um fluxo com um usuário conhecido do Cloud Dataprep by TRIFACTA e receber um erro That is not a valid email, peça para esse usuário fazer login novamente no Cloud Dataprep no mesmo projeto do GCP.
  • TD-34574: não é possível importar tabelas e visualizações do BigQuery com o tipo de dados NUMERIC.
    • Solução alternativa: transmita o tipo NUMERIC para FLOAT e a importação será realizada.
    • OBSERVAÇÃO: o suporte ao tipo de dados NUMERIC no BigQuery começou em 20 de agosto de 2018. Para saber detalhes, consulte Notas da versão do BigQuery.
    • O suporte ao tipo de dados NUMERIC está planejado para uma versão futura.
  • TD-34061: a execução de jobs em conjuntos de dados provenientes de mais de 6.000 arquivos pode falhar.

    OBSERVAÇÃO: por causa de uma limitação no Cloud Dataflow, quando você executa um job em um conjunto de dados parametrizado que contém mais de 1.000 arquivos, os dados dos caminhos de entrada precisam ser compactados, o que resulta em valores de localização ilegíveis nos detalhes do job do Cloud Dataflow.

    Solução alternativa: por esse e outros motivos de desempenho, tente limitar os conjuntos de dados parametrizados a no máximo 5.000 arquivos de origem.

  • TD-33428: execução de job na receita com limite alto em transformação dividida devido ao erro "Java Null Pointer Error" durante a criação de perfil.

    OBSERVAÇÃO: evite criar conjuntos de dados com mais de 2.500 colunas. O desempenho pode ser significativamente prejudicado em conjuntos de dados muito grandes.

  • TD-33901: não é possível classificar os fluxos por nome na página "Fluxos".
  • TD-33900: quando os cabeçalhos usam nomes protegidos, as colunas podem ser renomeadas.
  • TD-33888: erro "Unable to load wrangled Dataset Script is malformed (Cannot read property 'push' of undefined)" ao abrir a receita com transformações de Caso.
  • TD-33798: erro "Could not create dataset" ao importar o conjunto de dados do Avro do Cloud Storage.
  • TD-33797: ícone de status do job ativo na página "Jobs" pisca conforme você movimenta o mouse.
  • TD-33108: a caixa de texto do nome do objeto de referência na Visualização de fluxo aparece esticada.
  • TD-32123: a transformação da janela não processa o parâmetro de pedido em ordem decrescente.

18 de julho de 2018

  • Nova página inicial e barra de navegação esquerda: a nova página inicial e a barra de navegação esquerda permitem um acesso mais simplificado a fluxos e jobs recentes, e também recursos de aprendizado. Consulte a Página inicial.
  • Tutorial de integração atualizado: tutorial de integração expandido, que amplia o fluxo de trabalho existente para incluir guias de importação e de resultado de jobs.
  • Nova página "Biblioteca": gerencie os conjuntos de dados e as referências na nova página "Biblioteca". Consulte a página "Biblioteca".
  • Página "Jobs" reformulada: na nova página "Jobs", é possível localizar e analisar com mais facilidade todos os jobs a que você tem acesso. Consulte a página "Jobs".
  • Introdução de transformações predefinidas para tarefas comuns: por meio do painel de contexto, é possível pesquisar dezenas de transformações predefinidas. Selecione uma delas e o Transform Builder será pré-preenchido com base no contexto atual na grade de dados ou no navegador de colunas.
  • Nova barra de ferramentas do Transformer: a nova barra de ferramentas oferece acesso mais rápido a transformações e operações comuns. Consulte Barra de ferramentas do Transformer.
  • Corresponder a receita ao destino: atribua um novo destino às receitas para fornecer orientação de correspondência durante a conversão. Consulte a Visão geral da correspondência de destino.
    • Os destinos atribuídos a uma receita aparecem em uma sobreposição de cabeçalho de coluna para ajudá-lo a alinhar o conjunto de dados para que o esquema do conjunto de dados corresponda ao esquema de destino. Consulte o painel "Grade de dados".
  • Cancelar jobs de amostragem: cancele jobs de amostragem em andamento. Consulte o painel "Amostras".
  • Correspondência de colunas aprimorada: mais inteligência para a correspondência de colunas durante operações de união. Consulte a página "União".
  • Página "Mesclagem" aprimorada: várias melhorias funcionais na página "Mesclagem". Consulte a página "Mesclagem".
  • Nomes de colunas mais flexíveis: suporte para um intervalo mais amplo de caracteres nos nomes das colunas. Consulte Renomear colunas.
  • Compartilhar fluxos: colabore com outros usuários ao compartilhar fluxos em um mesmo projeto do GCP. Se preferir, envie a eles uma cópia para uso próprio.
    OBSERVAÇÃO: esse recurso pode não estar imediatamente disponível na sua conta de usuário ou nas contas dos seus colaboradores. Verifique novamente em alguns dias. Para saber mais informações, consulte Visão geral do compartilhamento.
  • Importar/Exportar fluxos: exporte e importe para um projeto do GCP os fluxos criados no Cloud Dataprep by TRIFACTA®.
  • Introdução de conjuntos de dados dinâmicos com parâmetros: use regras parametrizadas em conjuntos de dados dinâmicos importados para permitir que jobs programados selecionem automaticamente os dados de entrada corretos. Consulte a Visão geral da parametrização.
  • Página "Conjuntos de dados": a página "Conjuntos de dados" foi substituída pela nova página "Biblioteca". Consulte a página "Biblioteca".
  • Transformação agregada: a transformação agregada foi removida da plataforma.
    • A funcionalidade agregada foi integrada à tabela dinâmica para realizar as mesmas tarefas.

      OBSERVAÇÃO: todas as funcionalidades anteriores da transformação agregada são compatíveis na nova versão usando a transformação Pivot.

    • No painel "Pesquisar", digite pivot. Consulte o painel "Pesquisar".
  • TD-31305: copiar um fluxo invalida as amostras na nova cópia. Copiar ou mover um nó dentro de um fluxo invalida as amostras do nó.
    • Esse problema também se aplica aos fluxos que foram atualizados em uma versão mais antiga.
    • Solução alternativa: recrie as amostras após movimentação ou cópia.
  • TD-31252: a atribuição de um esquema de destino por meio do Navegador de colunas não atualiza a página.
    • Solução alternativa: para atualizar a página, recarregue-a pelo navegador.
  • TD-31165: os resultados do job são incorretos quando uma amostra é coletada e a última etapa de transformação é, em seguida, desfeita.
    • Solução alternativa: colete uma amostra novamente depois de desfazer a etapa de transformação.
  • TD-30857: a correspondência de padrões de caminho de arquivo em um diretório grande pode ser muito lenta, especialmente ao usar vários padrões em um único conjunto de dados com parâmetros.
    • Solução alternativa: para acelerar a correspondência, evite caracteres curingas em diretórios de nível superior e seja o mais específico possível com os curingas e os padrões.
  • TD-28807: talvez você receba uma mensagem "Nada encontrado"' ao navegar para um projeto do BigQuery que contém dados. Com o administrador do BigQuery, verifique se a conta de serviço em uso foi configurada corretamente e se ela tem as permissões apropriadas para que você possa usar o projeto.
  • TD-31339: a gravação em um único arquivo no diretório de nível superior falhará se a saída temporária gerar mais de 32 arquivos.
  • TD-29149: colunas contendo valores de string com espaços à esquerda são convertidas incorretamente no tipo de dados de número inteiro.
  • TD-28930: excluir outras colunas faz com que a linhagem da coluna seja perdida e reordena as colunas.
  • TD-26069: o Photon avalia date(yr, month, 0) como a primeira data do mês anterior. Ele precisa retornar um valor nulo.

23 de maio de 2018

  • Alteração do nome do produto: a partir desta versão, o produto passa a ser conhecido como Cloud Dataprep by TRIFACTA®.
  • GDPR: o produto está agora em conformidade com os regulamentos da GDPR na União Europeia. Neste regulamento, os requisitos de privacidade de dados são aprimorados para os usuários. Para mais informações, consulte https://www.eugdpr.org/.

    Como parte dessa conformidade, os Termos de Serviço e a Política de Privacidade para todos os usuários do Cloud Dataprep by TRIFACTA foram atualizados, com efeito imediato:

TD-28807: você pode receber uma mensagem "Nada encontrado"' ao navegar para um projeto do BigQuery que contém dados. Com o administrador do BigQuery, verifique se a conta de serviço em uso foi configurada corretamente e se ela tem as permissões apropriadas para que você possa usar o projeto.

25 de abril de 2018

Quando um usuário desativa o Cloud Dataprep, todos os metadados associados ao Cloud Dataprep são excluídos. Essa operação não é reversível. Consulte Efeito da desativação do Cloud Dataprep.

23 de janeiro de 2018

Anúncio da nova versão do Cloud Dataprep Beta 5. Veja a seguir uma lista de recursos, alterações, suspensões, problemas e correções da versão:

  • Nova página "Visualização de fluxo": novos objetos e melhor organização na Visualização de Fluxo. Consulte a página "Visualização de fluxo".
  • Acesso de leitura/gravação do BigQuery em todos os projetos:
    • Leia as tabelas do BigQuery associadas a projetos do GCP que não sejam os atuais em que o Cloud Dataprep foi lançado.
    • Grave resultados nas tabelas do BigQuery associadas a outros projetos.
    • É necessário configurar as contas de serviço do Cloud Dataprep e do Cloud Dataflow para ter acesso de leitura ou gravação aos conjuntos de dados do BigQuery e tabelas fora do projeto atual do GCP.
  • Re-execução do job no Cloud Dataflow:
    • Depois de executar um job no Cloud Dataprep, você pode executá-lo de novo diretamente da interface do Cloud Dataflow.
    • Entradas e saídas são parâmetros que você pode modificar.
    • Operar o job com uma ferramenta de agendamento de terceiros.
    • Consulte Executar job no Dataflow.
  • Junção cruzada: execute junções cruzadas entre os conjuntos de dados. Consulte a página "Mesclagem".
  • Ativação ou desativação da inferência de tipos em arquivos e tabelas: ativar (padrão) ou desativar a inferência de tipo inicial para tabelas do BigQuery ou arquivos Avro usados como fontes para conjuntos de dados individuais. Consulte a Página "Importar dados".
  • Renomeação de colunas em lote: renomeie várias colunas em uma única etapa de transformação. Consulte Renomear colunas.
  • Reutilização de seus padrões comuns: procure e selecione padrões para reutilização de seu histórico recente. Consulte o Painel "Histórico de padrões".
  • Conversão de padrões de telefone e data:
    • Em "Detalhes da coluna", você pode selecionar um padrão de número de telefone ou de data para gerar sugestões para padronizar os valores na coluna em um único formato.
    • Consulte o Painel "Detalhes da coluna".
  • Novas funções de comparação de strings:
  • Nova função SUBSTITUTE: substitua literais ou padrões de string por um novo valor de literal ou coluna. Consulte a Função SUBSTITUTE.
  • Novos objetos de fluxo: os objetos no seu fluxo foram modificados e ampliados para oferecer maior flexibilidade na definição e reutilização do fluxo:
    • Referências: crie referências para as saídas de suas receitas e as use como entradas para outras receitas.
    • Objeto de saída: especifique saídas de publicação individuais em um objeto separado associado a uma receita. As opções de publicação incluem formato, localização e tipo de dados.
    • Para mais informações, consulte Visão geral do objeto.
  • Conjuntos de dados Wrangle: conjuntos de dados Wrangle não são mais objetos no Cloud Dataprep. A funcionalidade deles foi movida para outros e novos objetos. Para mais informações, consulte Visão geral do objeto.
  • TD-28155: a amostragem de um arquivo Avro no Cloud Dataflow sempre verifica todo o arquivo. Como resultado, pode haver custos de processamento adicionais.
  • TD-26069: Photon avalia date(yr, month, 0) como primeira data do mês anterior. Ele precisa retornar um valor nulo.
  • TD-27568: não é possível selecionar destinos de publicação do BigQuery que são bancos de dados vazios.
  • TD-25733: tentativa de união de 12 conjuntos de dados trava a IU.
  • TD-24793: exceção BigQueryNotFoundException foi incorretamente relatada para tabelas de saída que foram movidas ou excluídas pelo usuário.
  • TD-24130: não é possível ler estruturas de diretório recursivas com arquivos em diferentes níveis de profundidade de pasta no Cloud Dataflow.

2 de novembro de 2017

Nova versão do Cloud Dataprep, que destaca uma IU renovada, programação, amostragem melhorada e vários outros recursos menores. Veja a seguir uma lista de recursos, alterações, suspensões, problemas e correções da versão:

  • Tutorial interativo de iniciação para novos usuários: os novos usuários do Cloud Dataprep podem ver o tutorial "Primeiros passos 101", com dados pré-carregados no produto.
  • Programação: programe a execução de um ou mais conjuntos de dados escritos em Wrangle dentro de um fluxo. Os jobs programados precisam ser configurados a partir da Exibição de fluxo. Consulte a página "Exibição de fluxo".
  • Nova página "Transformer": a nova navegação e novo layout da página "Transformer" simplificam o trabalho com dados e aumentam a área da grade de dados. Consulte a página "Transformer".
  • As sugestões de transformação agora são exibidas em um painel do lado direito, em vez de na parte inferior da página. Uma visualização para uma sugestão de transformação é exibida somente quando você passa o mouse sobre a sugestão.
  • Amostragem melhorada: métodos de amostragem aprimorados fornecem acesso a subconjuntos de dados personalizáveis e orientados a tarefas. Consulte o "Painel de amostras".
  • Carregamento do Transformer melhorado devido à persistência da amostra inicial. Para mais informações sobre os novos métodos de amostragem, consulte "Visão geral da amostragem".
  • Exibição de fluxo aprimorada: experiência do usuário com fluxos aprimorada. Consulte a página "Exibição de fluxo".
  • Desativar etapas: desative etapas individuais em suas receitas. Consulte o "Painel de receita".
  • Definir configurações de codificação durante a importação: você pode definir as configurações de importação por arquivo, incluindo o tipo de codificação do arquivo e a detecção automatizada da estrutura. Consulte a página "Importar banco de dados".
  • Compressão Snappy: compatibilidade com a leitura/gravação para a compressão Snappy. Consulte "Formatos de arquivo aceitos".
  • Linhagem de coluna: realce as etapas da receita em que há referência a uma coluna específica. Consulte "Menus de colunas".
  • Pesquisar colunas: pesquise colunas pelo nome. Consulte o "Painel de grade de dados".
  • Função CASE: crie expressões multicondicionais com uma única instrução CASE. Consulte "Função CASE".
  • Compatibilidade com BigQuery Datetime: publique os valores de Datatime do Cloud Dataprep no BigQuery como valores de Datetime ou carimbo de data/hora, dependendo dos dados. Consulte "Conversões de tipos de dados do BigQuery".
  • Versão do navegador compatível obrigatória: não é possível fazer login no aplicativo usando uma versão não compatível do Google Chrome.
  • Tipos de codificação compatíveis: a lista de tipos de codificação compatíveis foi alterada.
  • Navegador de dependências: o Navegador de dependências foi substituído pelo Navegador de conjunto de dados.
  • Editor de transformação: o editor de transformação para inserção de texto bruto de etapas Wrangle foi removido. Use o Transform Builder para criar etapas de transformação.
  • TD-27568: não é possível selecionar destinos de publicação do BigQuery que são bancos de dados vazios.
  • TD-24312: mensagens de erro aprimoradas para usuários do Google para identificar falhas de execução pré-job. Agora, se um erro for encontrado durante o lançamento de um job (mas antes da execução dele), é possível ver uma mensagem de erro detalhada sobre a causa no cartão de job com falha. Veja alguns erros comuns que ocorrem durante o lançamento de um job:
    • O local de teste do Cloud Dataflow não é gravável.
    • Não é possível ler e gravar em diferentes regiões com o Cloud Dataflow.
    • Não há workers suficientes para o Cloud Dataflow. Verifique sua cota.
  • TD-24273: a referência circular no esquema do arquivo Avro causa uma falha no job do Cloud Dataflow.
  • TD-23635: bancos de dados BigQuery somente leitura são listados como destinos de publicação. A publicação falha.
  • TD-26177: o job de fluxo de dados falha para grandes arquivos Avro. Os conjuntos de dados Avro que foram importados antes desta versão ainda podem ter falhas durante a execução do job no Dataflow. Para corrigir essas falhas, é preciso importar o conjunto de dados novamente.
  • TD-25438: a exclusão de um nó de referência upstream faz com que os resultados não sejam propagados corretamente para a página Transformer.
  • TD-25419: quando uma transformação pivot é aplicada, alguns histogramas de colunas podem não ser atualizados.
  • TD-23787: quando a publicação da localização não está disponível, a roda giratória trava indefinidamente sem qualquer mensagem de erro.
  • TD-22467: a última amostra ativa não é exibida durante a visualização das operações de conjuntos de dados múltiplos.
  • TD-22128: não é possível ler o fluxo de vários arquivos Avro se os dados forem superiores a 500 KB.
  • TD-19865: não é possível configurar um local de publicação como um diretório que ainda não existe. Consulte a página "Executar job".
  • TD-17657: a transformação splitrows permite a divisão mesmo que um parâmetro obrigatório esteja definido com um valor vazio.
  • TD-24464: 'Erro de Python' ao abrir uma receita com grande número de colunas e um nest
  • TD-24322: a transformação nest cria um mapa com chaves de duplicação.
  • TD-23920: compatibilidade com sinal de igual (=) no caminho de saída.
  • TD-23646: adicionar um comentário específico parece invalidar a edição anterior.
  • TD-23111: latência longa ao carregar visualizações de fluxo complexas
  • TD-23099: o botão "Ver resultados" está ausente nos cartões de job, mesmo com a criação de perfis ativada
  • TD-22889: desempenho de IU extremamente lento para algumas ações

21 de setembro de 2017

Anúncio da versão beta pública do Cloud Dataprep. Consulte a Documentação do Cloud Dataprep.

17 de maio de 2017

  • O aplicativo do Cloud Dataprep atualmente só é compatível com navegadores Chrome. Mais especificamente, ele depende do plug-in PNaCl. Os usuários podem confirmar que o ambiente do Chrome é compatível com o PNaCl acessando demonstrações do PNaCl. Se as demonstrações não funcionam, os usuários talvez precisem ajustar o ambiente do Chrome.
  • Os jobs do Cloud Dataprep no Cloud Dataflow só podem ser iniciados a partir da IU do Cloud Dataprep. Espera-se que haja compatibilidade com execução programática em uma versão futura.
  • Os jobs do Cloud Dataprep no Cloud Dataflow só podem acessar dados dentro do projeto.
  • Um usuário pode ver origens a que ele tem acesso mas que não estão dentro do projeto selecionado. Os jobs do Cloud Dataflow abordados com essas origens podem falhar sem qualquer aviso.
  • Os fluxos/conjuntos de dados do Cloud Dataprep só são visíveis por usuário, por projeto. Espera-se que haja compartilhamento de fluxos/conjuntos de dados em uma versão futura.
  • Há um mapeamento limitado dos tipos de dados na publicação para o BigQuery. Por exemplo, os tipos data/hora e matriz são escritos como strings. Isso será corrigido em uma versão futura.
Esta página foi útil? Conte sua opinião sobre:

Enviar comentários sobre…

Documentação do Google Cloud Dataprep
Precisa de ajuda? Acesse nossa página de suporte.