-
conjunto de anotações
- Um conjunto de anotações contém os rótulos associados aos arquivos de origem enviados em um conjunto de dados. Um conjunto de anotações é associado a um tipo de dados e um objetivo (por exemplo, vídeo/classificação).
-
Endpoints de API
- Os endpoints de API são um aspecto da configuração do serviço que especifica os endereços de rede, também conhecidos como endpoints de serviço (por exemplo, aiplatform.googleapis.com).
-
Application Default Credentials (ADC)
- As credenciais padrão do aplicativo (ADC) oferecem uma maneira simples de receber credenciais de autorização para uso em chamadas de APIs do Google. Elas são mais adequadas para casos em que a chamada precisa ter o mesmo nível de identidade e autorização para o aplicativo, seja qual for o usuário. Essa é a abordagem recomendada para autorizar chamadas para as APIs do Google Cloud, principalmente quando você está criando um aplicativo implantado em máquinas virtuais do Google App Engine (GAE) ou do Compute Engine. Para mais informações, consulte Como o Application Default Credentials funciona.
-
Vizinho mais próximo aproximado (ANN, na sigla em inglês)
- O serviço do vizinho mais próximo aproximado (ANN, na sigla em inglês) é uma solução de alta escala e baixa latência para encontrar vetores semelhantes (ou, mais especificamente, "embeddings") para um corpus grande. Para mais informações, consulte Como usar a pesquisa de vetor para correspondência semântica.
-
artifact
- Um artefato é uma entidade distinta ou parte dos dados produzidos e consumidos por um fluxo de trabalho de machine learning. Exemplos de artefatos incluem conjuntos de dados, modelos, arquivos de entrada e registros de treinamento.
-
Artifact Registry
- O Artifact Registry é um serviço universal de gerenciamento de artefatos. É o serviço recomendado para gerenciar contêineres e outros artefatos no Google Cloud. Para saber mais, consulte Artifact Registry.
-
Inteligência artificial (IA)
- A inteligência artificial (IA) é o estudo e o design de máquinas que parecem inteligentes, ou seja, que imitam funções humanas ou intelectuais, como movimento mecânico, raciocínio ou solução de problemas. Um dos subcampos mais conhecidos da IA é o machine learning, que usa uma abordagem estatística e baseada em dados para criar IA. No entanto, algumas pessoas usam esses dois termos como sinônimos.
-
authentication
- O processo de verificação da identidade de um cliente (que pode ser um usuário ou outro processo) para ter acesso a um sistema protegido. Um cliente que provou sua identidade é considerado autenticado. Para mais informações, consulte Métodos de autenticação no Google.
-
AutoML
- Algoritmos de aprendizado de máquina que "aprendem a aprender" com a otimização de caixa preta. Para mais informações, consulte o glossário de ML.
-
valor de referência
- Um modelo usado como ponto de referência para comparar o desempenho de outro modelo (geralmente, um mais complexo). Por exemplo, um modelo de regressão logística pode servir como uma boa referência para um modelo profundo. Para um problema específico, a linha de base ajuda os desenvolvedores a quantificar a performance mínima esperada que um novo modelo precisa alcançar para ser útil. Para mais informações, consulte Conjuntos de dados de destino e de referência.
-
lote
- Conjunto de exemplos usados em uma iteração de treinamento. O tamanho do lote determina o número de exemplos em um lote.
-
tamanho do lote
- O número de exemplos em um lote. Por exemplo, o tamanho do lote de SGD é 1, enquanto o tamanho do lote de um minilote geralmente fica entre 10 e 1.000. O tamanho do lote geralmente é fixado durante o treinamento e a inferência. No entanto, o TensorFlow permite tamanhos de lote dinâmicos.
-
previsão em lote
- A previsão em lote usa um grupo de solicitações de previsão e gera os resultados em um arquivo. Para mais informações, consulte Como receber previsões em lote.
-
viés
- 1. Estereótipos, preconceito ou favoritismo em relação a algumas coisas, pessoas ou grupos. Esses vieses podem afetar a coleta e a interpretação de dados, o design de um sistema e a forma como os usuários interagem com ele. 2. Erro sistemático causado por um procedimento de amostragem ou relatório.
-
bidirecional
- Termo usado para descrever um sistema que avalia o texto que precede e segue uma seção de texto de destino. Em contraste, um sistema unidirecional só avalia o texto que precede uma seção de texto de destino.
-
Representações de codificador bidirecional de transformadores (BERT)
- O BERT é um método de representação de linguagem pré-treinada, ou seja, treinamos um modelo de compreensão de linguagem de uso geral em um grande corpus de texto (como a Wikipédia) e, em seguida, usamos esse modelo para tarefas de PLN posteriores que nos interessam (como responder a perguntas). O BERT supera os métodos anteriores porque é o primeiro sistema não supervisionado e profundamente bidirecional para pré-treinamento de PLN.
-
Assistente de avaliação bilíngue (BLEU)
- Uma medida comum para avaliar a qualidade de um algoritmo de tradução automática comparando a saída dele com a de uma ou mais traduções humanas.
-
caixa delimitadora
- Uma caixa delimitadora para um objeto no frame de vídeo pode ser especificada de duas maneiras: (i) usando dois vértices que consistem em um conjunto de coordenadas x,y se eles forem pontos diagonalmente opostos do retângulo. Por exemplo: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) usar todos os quatro vértices. Para mais informações, consulte Preparar dados do vídeo.
-
bucket
- Pasta de nível superior do Cloud Storage. Os nomes de bucket precisam ser exclusivos para todos os usuários do Cloud Storage. Os buckets contêm arquivos. Para mais informações, consulte Visão geral do produto Cloud Storage.
-
chat
- O conteúdo de uma conversa com um sistema de ML, geralmente um modelo de linguagem grande. A interação anterior em uma conversa (o que você digitou e como o modelo de linguagem grande respondeu) se torna o contexto para as partes subsequentes da conversa. Um chatbot é uma aplicação de um modelo de linguagem grande.
-
ponto de verificação
- Dados que capturam o estado dos parâmetros de um modelo durante o treinamento ou após a conclusão dele. Por exemplo, durante o treinamento, você pode: 1. Interromper o treinamento, talvez intencionalmente ou como resultado de determinados erros. 2. Capture o checkpoint. 3. Mais tarde, recarregue o ponto de verificação, possivelmente em outro hardware. 4. Reinicie o treinamento. No Gemini, um ponto de verificação se refere a uma versão específica de um modelo treinado em um conjunto de dados específico.
-
modelo de classificação
- Um modelo cuja previsão é uma classe. Por exemplo, os modelos de classificação a seguir: um modelo que prevê o idioma de uma frase de entrada (francês? Espanhol? Italiano?). Um modelo que prevê espécies de árvores (maple? Carvalho? Baobá?). Um modelo que prevê a classe positiva ou negativa de uma condição médica específica.
-
métricas de classificação
- As métricas de classificação suportadas no SDK da Vertex AI para Python são a matriz de confusão e a curva ROC.
-
Cloud TPU
- Um acelerador de hardware especializado projetado para acelerar cargas de trabalho de machine learning no Google Cloud.
-
imagem do contêiner
- Uma imagem de contêiner é um pacote que inclui o código executável do componente e uma definição do ambiente em que ele é executado. Para mais informações, consulte Visão geral do treinamento personalizado.
-
context
- Um contexto é usado para agrupar artefatos e execuções em uma única categoria, que pode ser consultada e digitada. Os contextos podem ser usados para representar conjuntos de metadados. Um exemplo de contexto seria uma execução de um pipeline de machine learning.
-
janela de contexto
- O número de tokens que um modelo pode processar em um determinado comando. Quanto maior a janela de contexto, mais informações o modelo pode usar para fornecer respostas coerentes e consistentes ao comando.
-
Chaves de criptografia gerenciadas pelo cliente (CMEK, na sigla em inglês)
- Chaves de criptografia gerenciadas pelo cliente (CMEK, na sigla em inglês) são integrações que permitem aos clientes criptografar dados em serviços atuais do Google usando uma chave que eles gerenciam no Cloud KMS (também conhecido como Storky). No Cloud KMS, a chave de criptografia de dados protege os dados. Para mais informações, consulte Chaves de criptografia gerenciadas pelo cliente (CMEK).
-
CustomJob
- Um CustomJob é um dos três recursos da Vertex AI que um usuário pode criar para treinar modelos personalizados. Os jobs de treinamento personalizados são a maneira básica de executar códigos de treinamento de machine learning (ML) personalizados na Vertex AI. Para mais informações, consulte Criar jobs de treinamento personalizados.
-
Dask
- O Dask é uma plataforma de computação distribuída que geralmente é usada com o TensorFlow, Pytorch e outros frameworks de ML para gerenciar jobs de treinamento distribuídos. Para mais informações, consulte a Wikipédia.
-
análise de dados
- Entender os dados considerando amostras, medições e visualização. A análise de dados pode ser particularmente útil quando um conjunto de dados é recebido pela primeira vez, antes de criar o primeiro modelo. Também é crucial para entender experimentos e depurar problemas com o sistema.
-
aumento de dados
- Aumentar artificialmente o intervalo e o número de exemplos de treinamento transformando exemplos atuais para criar outros. Por exemplo, suponha que as imagens sejam um dos seus atributos, mas o conjunto de dados não contém exemplos suficientes para o modelo aprender associações úteis. O ideal é adicionar imagens marcadas suficientes ao conjunto de dados para que o modelo seja treinado corretamente. Se isso não for possível, o aumento de dados poderá girar, esticar e refletir cada imagem para produzir muitas variantes da imagem original, possivelmente gerando dados rotulados suficientes para permitir um excelente treinamento.
-
DataFrame
- Um tipo de dados pandas conhecido para representar conjuntos de dados na memória. Um DataFrame é análogo a uma tabela ou planilha. Cada coluna de um DataFrame tem um nome (um cabeçalho) e cada linha é identificada por um número exclusivo.Cada coluna em um DataFrame é estruturada como uma matriz 2D, exceto que cada coluna pode receber o próprio tipo de dados.
-
conjunto de dados
- Um conjunto de dados é amplamente definido como uma coleção de registros de dados estruturados ou não estruturados. Uma coleção de dados brutos, geralmente (mas não exclusivamente) organizados em um dos seguintes formatos: uma planilha ou um arquivo no formato CSV (valores separados por vírgula). Para mais informações, consulte Criar um conjunto de dados
-
embedding
- Embedding é um tipo de vetor usado para representar dados de uma forma que captura o significado semântico deles. Geralmente, os embeddings são criados com técnicas de machine learning e costumam ser usados no processamento de linguagem natural (PLN) e em outros aplicativos de machine learning.
-
event
- Um evento descreve a relação entre artefatos e execuções. Cada artefato pode ser produzido por uma execução e consumido por outras execuções. Os eventos ajudam você a determinar a procedência dos artefatos nos fluxos de trabalho de ML encadeando artefatos e execuções.
-
execução
- Uma execução é um registro de uma etapa de fluxo de trabalho de machine learning individual, geralmente anotado com os parâmetros de ambiente de execução. Exemplos de execuções incluem ingestão, validação e treinamento de modelos, avaliação e implantação de modelos.
-
experimento
- Um experimento é um contexto que pode conter um conjunto de n execuções de experimentos e de pipelines onde um usuário pode investigar, em grupo, diferentes configurações, como artefatos de entrada ou hiperparâmetros.
-
Execução de experimento
- Um experimento pode conter métricas, parâmetros, execuções, artefatos e recursos Vertex definidos pelo usuário (por exemplo, PipelineJob).
-
Análise exploratória de dados
- Em estatística, a análise exploratória de dados (EDA, na sigla em inglês) é uma abordagem de análise de conjuntos de dados que resume as principais características, muitas vezes com métodos visuais. Um modelo estatístico pode ou não ser usado, mas a EDA serve principalmente para saber o que os dados podem informar além da modelagem formal ou da tarefa de teste de hipóteses.
-
recurso
- Em machine learning (ML), um atributo é uma característica ou atributo de uma instância ou entidade usada como entrada para treinar um modelo de ML ou fazer previsões.
-
Engenharia de atributos
- A engenharia de atributos é o processo de transformar dados brutos de machine learning (ML) em atributos que podem ser usados para treinar modelos de ML ou fazer previsões.
-
Valor do atributo
- Um valor de recurso corresponde ao valor real e mensurável de um recurso (atributo) de uma instância ou entidade. Uma coleção de valores de elementos da entidade única representa o registro do elemento correspondente à entidade.
-
disponibilização de recursos
- A exibição de atributos é o processo de exportação ou busca de valores de atributos para treinamento ou inferência. Na Vertex AI, há dois tipos de exibição de atributos: exibição on-line e exibição off-line. A disponibilização on-line recupera os valores de atributos mais recentes de um subconjunto da fonte de dados de atributos para previsões on-line. A disponibilização off-line ou em lote exporta grandes volumes de dados de atributos para processamento off-line, como treinamento de modelo de ML.
-
carimbo de data/hora do recurso
- Um carimbo de data/hora do recurso indica quando foi gerado o conjunto de valores de atributo em um registro específico de uma entidade.
-
registro de recursos
- Um registro de elemento é uma agregação de todos os valores de elementos que descrevem os atributos de uma entidade única em um momento específico.
-
Registro do atributo
- Um registro de atributos é uma interface central para gravar fontes de dados de atributos que você quer disponibilizar para previsões on-line. Para mais informações, consulte Configuração do Feature Registry.
-
grupo de recursos
- Um grupo de recursos é um recurso de registro de atributos que corresponde a uma tabela ou visualização de origem do BigQuery que contém dados de recursos. Ela pode conter elementos e ser considerada um agrupamento lógico de colunas de atributos na fonte de dados.
-
Visualização do recurso
- Uma visualização de recursos é uma coleção lógica de recursos materializados de uma fonte de dados do BigQuery para uma instância de loja on-line. Uma visualização de recurso armazena e atualiza periodicamente os dados de recursos do cliente, que são atualizados periodicamente na origem do BigQuery. Ela é associada diretamente ao armazenamento de dados ou por associações com os recursos de registro do recurso.
-
informações empíricas
- Termo que se refere à verificação da precisão do aprendizado de máquina em relação ao mundo real, como um conjunto de dados de informações empíricas.
-
loss (cost)
- Durante o treinamento de um modelo supervisionado, uma medida de quão distante a previsão de um modelo está do rótulo. Uma função de perda calcula a perda.
-
Pipelines de ML
- Os pipelines de ML são fluxos de trabalho de ML portáteis e escalonáveis baseados em contêineres.
-
model
- Qualquer modelo pré-treinado ou não. Em geral, qualquer construção matemática que processa dados de entrada e retorna a saída. Em outras palavras, um modelo é o conjunto de parâmetros e estrutura necessários para que um sistema faça previsões.
-
nome do recurso do modelo
- O nome do recurso para um
model
da seguinte forma: projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>. Encontre o ID do modelo no console do Cloud, na página "Registro do modelo".
- O nome do recurso para um
-
Sistema de arquivos de rede (NFS)
- Um sistema cliente/servidor que permite que os usuários acessem arquivos em uma rede e os tratem como se estivessem em um diretório de arquivos local.
-
Armazenamento off-line
- O armazenamento off-line é uma instalação de armazenamento que armazena dados de atributos recentes e históricos, o que normalmente é usado para treinar modelos de ML. Um armazenamento off-line também contém os valores de atributos mais recentes, que podem ser exibidos para previsões on-line.
-
Repositório on-line
- No gerenciamento de atributos, um armazenamento on-line é uma instalação de armazenamento dos valores de atributos mais recentes a serem exibidos para previsões on-line.
-
parâmetros
- Os parâmetros são valores de entrada com chave que configuram uma execução, regulam o comportamento dela e afetam os resultados. Exemplos incluem taxa de aprendizado, taxa de desistência e número de etapas de treinamento.
-
componente do pipeline
- Um conjunto de código completo que executa uma etapa no fluxo de trabalho de um pipeline, como pré-processamento e transformação de dados e treinamento de um modelo.
-
pipeline job
- Um job de pipeline ou uma execução de pipeline corresponde ao recurso PipelineJob na API Vertex AI. É uma instância de execução da definição do pipeline de ML, que é definida como um conjunto de tarefas de ML interconectadas por dependências de entrada/saída.
-
execução de pipeline
- Um ou mais PipelineJobs do Vertex podem ser associados a um experimento em que cada PipelineJob é representado como uma única execução. Nesse contexto, os parâmetros da execução são inferidos pelos parâmetros do PipelineJob. As métricas são inferidas dos artefatos do system.Metric produzidos por esse PipelineJob. Os artefatos da execução são inferidos dos artefatos produzidos pelo PipelineJob.
-
modelo de pipeline
- Uma definição de fluxo de trabalho de ML que um ou vários usuários podem reutilizar para criar várias execuções de pipeline.
-
Private Service Connect (PSC)
- O Private Service Connect é uma tecnologia que permite aos clientes do Compute Engine mapear IPs particulares na rede para outra rede VPC ou para APIs do Google.
-
Interface do Private Service Connect (PSC-I)
- A interface do Private Service Connect oferece uma maneira de os produtores iniciarem conexões com qualquer recurso de rede na VPC do consumidor de forma privada.
-
Cluster do Ray na Vertex AI
- Os clusters Ray na Vertex AI são integrados para garantir a disponibilidade de capacidade para cargas de trabalho de ML essenciais ou durante períodos de pico. Ao contrário dos jobs personalizados, em que o serviço de treinamento libera o recurso após a conclusão do job, os clusters Ray permanecem disponíveis até a exclusão. Para mais informações, consulte Visão geral do Ray na Vertex AI.
-
Ray na Vertex AI (RoV)
- O Ray na Vertex AI foi projetado para que você possa usar o mesmo código aberto Ray para escrever programas e desenvolver aplicativos na Vertex AI com alterações mínimas. Para mais informações, consulte Visão geral do Ray na Vertex AI.
-
SDK do Ray na Vertex AI para Python
- O SDK do Ray na Vertex AI para Python é uma versão do SDK da Vertex AI para Python que inclui a funcionalidade do Ray Client, conector do Ray para BigQuery, gerenciamento de clusters do Ray na Vertex AI e previsões na Vertex AI. Para mais informações, consulte Introdução ao SDK da Vertex AI para Python.
-
recall
- Recall: a porcentagem de verdadeiros vizinhos mais próximos retornados pelo índice. Por exemplo, se uma consulta de vizinho mais próxima de 20 vizinhos mais próximos retornou 19 dos vizinhos mais próximos, o recall será de 19/20x100 = 95%.
-
Restringe
- A funcionalidade para "restringir" pesquisas a um subconjunto do índice usando regras booleanas. A restrição também é chamada de "filtro". Com a Pesquisa de vetor, você pode usar a filtragem numérica e a filtragem de atributos de texto.
-
conta de serviço
- No Google Cloud, uma conta de serviço é um tipo especial de conta usada por um aplicativo ou uma instância de máquina virtual (VM), não uma pessoa. Os aplicativos usam contas de serviço para fazer chamadas de API autorizadas.
-
Métricas de resumo
- As métricas de resumo são um valor único para cada chave de métrica de uma execução de experimento. Por exemplo, a precisão de um experimento é a precisão calculada com base em um conjunto de dados de teste no final do treinamento, que pode ser capturado como uma única métrica de resumo de valor.
-
TensorBoard
- O TensorBoard é um pacote de aplicativos da Web para visualizar e entender modelos e execuções do TensorFlow. Para mais informações, consulte TensorBoard.
-
Nome do recurso do TensorBoard
- Um nome de recurso do TensorBoard é usado para identificar totalmente uma instância do TensorBoard da Vertex AI. O formato é o seguinte: projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
-
Instância do TensorBoard
- Uma instância do TensorBoard é um recurso regionalizado que armazena Experimentos do TensorBoard da Vertex AI associados a um projeto. É possível criar várias instâncias do TensorBoard em um projeto, por exemplo, quando você quer várias instâncias ativadas para CMEK. Esse recurso é igual ao recurso TensorBoard na API.
-
TensorFlow Extended (TFX)
- O TensorFlow Extended (TFX) é uma plataforma completa para a implantação de pipelines de produção de machine learning com base no TensorFlow.
-
ajuste de tempo
- O ajuste de horário é relativo ao início de um vídeo.
-
segmento de tempo
- Um segmento de tempo é identificado por ajustes de horário de início e término.
-
métricas de série temporal
- As métricas de série temporal são valores de métrica longitudinais em que cada valor representa uma etapa na parte da rotina de treinamento de uma execução. As métricas de séries temporais são armazenadas no TensorBoard da Vertex AI. O Vertex AI Experiments armazena uma referência ao recurso Vertex TensorBoard.
-
token
- Um token em um modelo de linguagem é a unidade atômica que o modelo usa para treinar e fazer previsões, ou seja, palavras, morfemas e caracteres. Em domínios fora dos modelos de linguagem, os tokens podem representar outros tipos de unidades atômicas. Por exemplo, em visão computacional, um token pode ser um subconjunto de uma imagem.
-
artefatos não gerenciados
- Um artefato que existe fora do contexto da Vertex AI.
-
vetor
- Um vetor é uma lista de valores flutuantes com magnitude e direção. Ele pode ser usado para representar qualquer tipo de dados, como números, pontos no espaço ou direções.
-
Experimentos da Vertex AI
- O Vertex AI Experiments permite que os usuários acompanhem: 1. Etapas de uma execução do experimento (por exemplo, pré-processamento e treinamento). 2. Entradas (por exemplo, algoritmo, parâmetros e conjuntos de dados). 3. Resultados dessas etapas (por exemplo, modelos, pontos de controle e métricas).
-
Experimento do TensorBoard da Vertex AI
- Os dados associados a um Experimento podem ser visualizados no aplicativo da Web TensorBoard (escalares, histogramas, distribuições etc.). Os escalares de séries temporais podem ser visualizados no console do Google Cloud. Para mais detalhes, consulte Comparar e analisar execuções.
-
SDK da Vertex AI para Python
- O SDK da Vertex AI para Python oferece uma funcionalidade semelhante à biblioteca de cliente da Vertex AI para Python, mas o SDK é de nível superior e menos granular.
-
Tipo de dados do vértice
- Os tipos de dados da Vertex AI são "imagem", "texto", "tabular" e "vídeo".
-
trecho de vídeo
- Um trecho de vídeo é identificado pelo deslocamento de início e término de um vídeo.
-
nuvem privada virtual (VPC)
- A nuvem privada virtual é um pool configurável de recursos de computação compartilhados sob demanda, alocado em um ambiente de nuvem pública e que oferece um nível de isolamento entre diferentes organizações que usam esses recursos.