Glossário da Vertex AI para IA preditiva

  • conjunto de anotações
    • Um conjunto de anotações contém as etiquetas associadas aos ficheiros de origem carregados num conjunto de dados. Um conjunto de anotações está associado a um tipo de dados e a um objetivo (por exemplo, vídeo/classificação).
  • Ponto final da API
    • Os pontos finais da API são um aspeto da configuração do serviço que especifica os endereços de rede, também conhecidos como pontos finais do serviço (por exemplo, aiplatform.googleapis.com).
  • Credenciais padrão da aplicação (ADC)
    • As Credenciais padrão da aplicação (ADC) oferecem uma forma simples de obter credenciais de autorização para utilização em chamadas para APIs Google. São mais adequadas para casos em que a chamada tem de ter o mesmo nível de identidade e autorização para a aplicação, independentemente do utilizador. Esta é a abordagem recomendada para autorizar chamadas para as Google Cloud APIs, particularmente quando está a criar uma aplicação implementada no Google App Engine (GAE) ou em máquinas virtuais do Compute Engine. Para mais informações, consulte o artigo Como funcionam as Credenciais padrão da aplicação.
  • Vizinho mais próximo aproximado (ANN)
    • O serviço de vizinho mais próximo aproximado (ANN) é uma solução de grande escala e baixa latência para encontrar vetores semelhantes (ou, mais especificamente, "incorporações") para um grande conjunto de dados. Para mais informações, consulte o artigo Como usar a pesquisa vetorial para correspondência semântica.
  • artefacto
    • Um artefacto é uma entidade discreta ou um fragmento de dados produzido e consumido por um fluxo de trabalho de aprendizagem automática. Alguns exemplos de artefactos incluem conjuntos de dados, modelos, ficheiros de entrada e registos de preparação.
  • Artifact Registry
    • O Artifact Registry é um serviço de gestão de artefactos universal. É o serviço recomendado para gerir contentores e outros artefactos no Google Cloud. Para mais informações, consulte o Artifact Registry.
  • Inteligência artificial (IA)
    • A inteligência artificial (ou IA) é o estudo e o design de máquinas que parecem ser "inteligentes", ou seja, que imitam funções humanas ou intelectuais, como o movimento mecânico, o raciocínio ou a resolução de problemas. Um dos subcampos mais populares da IA é a aprendizagem automática, que usa uma abordagem estatística e orientada por dados para criar IA. No entanto, algumas pessoas usam estes dois termos de forma intercambiável.
  • autenticação
    • O processo de validação da identidade de um cliente (que pode ser um utilizador ou outro processo) para fins de obtenção de acesso a um sistema seguro. Diz-se que um cliente que comprovou a sua identidade está autenticado. Para mais informações, consulte o artigo Métodos de autenticação na Google.
  • Lado a lado automático (AutoSxS)
    • A comparação lado a lado automática (AutoSxS) é uma ferramenta de avaliação assistida por modelos que compara dois modelos de linguagem (conteúdo extenso) (MDIs/CEs) lado a lado. Pode ser usado para avaliar o desempenho de modelos de IA generativa no Registo de modelos Vertex AI ou inferências pré-geradas. O AutoSxS usa um avaliador automático para decidir que modelo dá a melhor resposta a um comando. O AutoSxS está disponível a pedido e avalia modelos de linguagem com um desempenho comparável ao dos avaliadores humanos.
  • AutoML
    • Algoritmos de aprendizagem automática que "aprendem a aprender" através da otimização de caixa negra. Para mais informações, consulte o Glossário de ML.
  • registo automático
    • O registo automático é uma funcionalidade nas plataformas e bibliotecas de aprendizagem automática que regista automaticamente métricas, parâmetros e artefactos importantes durante o processo de preparação do modelo sem exigir uma instrumentação de código explícita. Simplifica o acompanhamento de experiências captando automaticamente informações como hiperparâmetros, métricas de avaliação (por exemplo, precisão, perda) e pontos de verificação de modelos, o que permite aos programadores comparar e reproduzir facilmente experiências.
  • autorater
    • Um avaliador automático é um modelo de linguagem que avalia a qualidade das respostas do modelo com base num comando de inferência original. É usado no pipeline AutoSxS para comparar as inferências de dois modelos e determinar qual teve o melhor desempenho. Para mais informações, consulte o artigo O autorater.
  • autoscaling
    • A escala automática é a capacidade de um recurso de computação, como o conjunto de trabalhadores de um cluster do Ray, ajustar automaticamente o número de nós para cima ou para baixo com base nas exigências da carga de trabalho, otimizando a utilização de recursos e o custo. Para mais informações, consulte o artigo Dimensione os clusters do Ray na Vertex AI: dimensionamento automático.
  • valor de referência
    • Um modelo usado como ponto de referência para comparar o desempenho de outro modelo (normalmente, um mais complexo). Por exemplo, um modelo de regressão logística pode servir como uma boa base para um modelo profundo. Para um problema específico, a linha de base ajuda os programadores de modelos a quantificar o desempenho mínimo esperado que um novo modelo tem de alcançar para ser útil. Para mais informações, consulte o artigo Conjuntos de dados de base e de destino.
  • lote
    • O conjunto de exemplos usados numa iteração de preparação. A dimensão do lote determina o número de exemplos num lote.
  • batch size
    • O número de exemplos num lote. Por exemplo, o tamanho do lote do SGD é 1, enquanto o tamanho do lote de um minilote está normalmente entre 10 e 1000. O tamanho do lote é normalmente fixo durante a preparação e a inferência. No entanto, o TensorFlow permite tamanhos de lotes dinâmicos.
  • inferência em lote
  • parcialidade
    • 1. Estereótipos, preconceitos ou favoritismo em relação a algumas coisas, pessoas ou grupos em detrimento de outros. Estes preconceitos podem afetar a recolha e a interpretação de dados, a conceção de um sistema e a forma como os utilizadores interagem com um sistema. 2. Erro sistemático introduzido por um procedimento de amostragem ou de relatórios.
  • bidirecional
    • Um termo usado para descrever um sistema que avalia o texto que precede e segue uma secção de texto de destino. Por outro lado, um sistema unidirecional avalia apenas o texto que precede uma secção de texto de destino.
  • Bidirectional Encoder Representations from Transformers (BERT)
    • O BERT é um método de pré-preparação de representações de linguagem, o que significa que preparamos um modelo de "compreensão de linguagem" de uso geral num grande corpus de texto (como a Wikipédia) e, em seguida, usamos esse modelo para tarefas de PNL posteriores que nos interessam (como responder a perguntas). O BERT supera os métodos anteriores porque é o primeiro sistema não supervisionado e profundamente bidirecional para pré-treino de PNL.
  • BigQuery
    • O BigQuery é um armazém de dados empresarial totalmente gerido, sem servidor e altamente escalável fornecido pelo Google Cloud, concebido para analisar conjuntos de dados massivos através de consultas SQL a velocidades incrivelmente elevadas. O BigQuery permite uma Business Intelligence e uma análise poderosas sem exigir que os utilizadores geram qualquer infraestrutura. Para mais informações, consulte o artigo Do armazém de dados à plataforma autónoma de dados e IA.
  • BigQuery ML
    • O BigQuery ML é uma funcionalidade do armazém de dados BigQuery do Google Cloud que permite aos analistas de dados e aos cientistas de dados criar, preparar e implementar modelos de aprendizagem automática diretamente no BigQuery através de consultas SQL padrão. Isto elimina a necessidade de mover dados para plataformas de AA separadas, simplificando o fluxo de trabalho de aprendizagem automática e tornando a AA mais acessível aos utilizadores de SQL. Para mais informações, consulte o artigo Crie modelos de aprendizagem automática no BigQuery ML.
  • Bigtable
    • Um serviço de base de dados NoSQL totalmente gerido, também recomendado como uma opção de armazenamento para dados de preparação quando usa o Vertex AI. Para mais informações, consulte o artigo Vista geral do Bigtable.
  • Bilingual Evaluation Understudy (BLEU)
    • Uma medida popular para avaliar a qualidade de um algoritmo de tradução automática comparando o respetivo resultado com o de uma ou mais traduções humanas.
  • caixa limitadora
    • Uma caixa delimitadora para um objeto no frame do vídeo pode ser especificada de duas formas: (i) usando 2 vértices que consistem num conjunto de coordenadas x,y se forem pontos diagonalmente opostos do retângulo. Por exemplo: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Use todos os 4 vértices. Para mais informações, consulte o artigo Prepare dados de vídeo.
  • segmento
    • Pasta de nível superior para o Cloud Storage. Os nomes dos contentores têm de ser exclusivos para todos os utilizadores do Cloud Storage. Os contentores contêm ficheiros. Para mais informações, consulte a vista geral do produto Cloud Storage.
  • chat
    • Os conteúdos de um diálogo de interação com um sistema de AA, normalmente um modelo de linguagem (conteúdo extenso). A interação anterior num chat (o que escreveu e como o modelo de linguagem [conteúdo extenso] respondeu) torna-se o contexto para as partes subsequentes do chat. Um chatbot é uma aplicação de um modelo de linguagem (conteúdo extenso).
  • checkpoint
    • Dados que captam o estado dos parâmetros de um modelo durante a preparação ou após a conclusão da preparação. Por exemplo, durante a preparação, pode: 1. Parar a preparação, talvez intencionalmente ou como resultado de determinados erros. 2. Capture o ponto de restauro. 3. Mais tarde, recarregue o ponto de verificação, possivelmente num hardware diferente. 4. Reinicie a formação. No Gemini, um ponto de verificação refere-se a uma versão específica de um modelo Gemini preparado num conjunto de dados específico.
  • modelo de classificação
    • Um modelo cuja inferência é uma classe. Por exemplo, os seguintes são todos modelos de classificação: Um modelo que prevê o idioma de uma frase de entrada (francês? Espanhol? italiano?). Um modelo que prevê espécies de árvores (Ácer? Carvalho? Baobab?). Um modelo que prevê a classe positiva ou negativa para uma determinada condição médica.
  • métricas de classificação
    • As métricas de classificação suportadas no SDK Vertex AI para Python são a matriz de confusão e a curva ROC.
  • Cloud Logging
    • O Cloud Logging é um serviço de registo em tempo real totalmente gerido fornecido pelo Google Cloud que lhe permite recolher, armazenar, analisar e monitorizar registos de todos os seus recursos do Google Cloud, aplicações no local e até origens personalizadas. O Cloud Logging centraliza a gestão de registos, o que facilita a resolução de problemas, a auditoria e a compreensão do comportamento e do estado de funcionamento das suas aplicações e infraestrutura. Para mais informações, consulte a vista geral do Cloud Logging.
  • Cloud Monitoring
    • O Cloud Monitoring é uma plataforma de observabilidade abrangente fornecida pelo Google Cloud que recolhe e visualiza métricas, registos e eventos dos serviços Google Cloud, da infraestrutura no local e dos componentes da aplicação. Permite que os utilizadores obtenham estatísticas sobre o desempenho, a disponibilidade e o estado geral dos respetivos sistemas, o que permite a deteção, a resolução de problemas e os alertas proativos. Para mais informações, consulte o artigo Métricas do Cloud Monitoring para a Vertex AI.
  • Cloud Profiler
    • O Cloud Profiler é um serviço de criação de perfis contínuo fornecido pelo Google Cloud que ajuda a identificar e analisar o consumo de CPU e memória, bem como outra utilização de recursos (como heap, tempo real, contenção) nas suas aplicações. Recolhe automaticamente dados de criação de perfis das suas aplicações de produção com uma sobrecarga mínima, o que lhe permite visualizar e compreender os gargalos de desempenho em vários serviços, bem como otimizar o seu código para uma maior eficiência e custos reduzidos. Para mais informações, consulte a vista geral do Cloud Profiler.
  • Cloud Storage
    • O serviço de armazenamento de objetos escalável e seguro da Google Cloud, recomendado para armazenar grandes conjuntos de dados usados na preparação e validação com o Vertex AI para um desempenho ideal. Para mais informações, consulte a documentação do Cloud Storage.
  • Cloud TPU
    • Um acelerador de hardware especializado concebido para acelerar as cargas de trabalho de aprendizagem automática no Google Cloud.
  • Colab Enterprise
    • O Colab Enterprise é um ambiente de blocos de notas do Jupyter colaborativo e gerido que oferece a popular experiência do utilizador do Google Colab no Google Cloud, com capacidades de segurança e conformidade de nível empresarial. O Colab Enterprise oferece uma experiência centrada em blocos de notas e sem configuração, com recursos de computação geridos pelo Vertex AI, e integra-se com outros serviços do Google Cloud, como o BigQuery. Para mais informações, consulte o artigo Introdução ao Colab Enterprise.
  • VPC do consumidor
    • Uma rede de nuvem virtual privada (VPC) do consumidor é usada para aceder de forma privada a serviços geridos a partir da respetiva rede de VPC. Para mais informações, consulte o Private Service Connect.
  • imagem do contentor
    • Uma imagem de contentor é um pacote que inclui o código executável do componente e uma definição do ambiente em que o código é executado. Para mais informações, consulte o artigo Vista geral da preparação personalizada.
  • contexto
    • Um contexto é usado para agrupar artefactos e execuções numa única categoria consultável e com tipo. Os contextos podem ser usados para representar conjuntos de metadados. Um exemplo de contexto seria a execução de um pipeline de aprendizagem automática.
  • cache de contexto
    • Uma cache de contexto no Vertex AI é uma grande quantidade de dados que pode ser usada em vários pedidos a um modelo Gemini. O conteúdo em cache é armazenado na região onde é feito o pedido de criação da cache. Pode ser qualquer tipo MIME suportado pelos modelos multimodais do Gemini, como texto, áudio ou vídeo. Para mais informações, consulte o artigo Vista geral do armazenamento em cache de contexto.
  • capacidade de resposta
    • O número de tokens que um modelo pode processar num determinado comando. Quanto maior for a capacidade de resposta, mais informações o modelo pode usar para fornecer respostas coerentes e consistentes ao comando.
  • Chaves de encriptação geridas pelo cliente (CMEK)
    • As chaves de encriptação geridas pelo cliente (CMEK) são integrações que permitem aos clientes encriptar dados nos serviços Google existentes através de uma chave que gerem no Cloud KMS (também conhecido como Storky). A chave no Cloud KMS é a chave de encriptação de chaves que protege os respetivos dados. Para mais informações, consulte o artigo Chaves de encriptação geridas pelo cliente (CMEK).
  • CustomJob
    • Um CustomJob é um de três recursos do Vertex AI que um utilizador pode criar para preparar modelos personalizados no Vertex AI. As tarefas de preparação personalizadas são a forma básica de executar código de preparação de aprendizagem automática (ML) personalizado no Vertex AI. Para mais informações, consulte o artigo Crie tarefas de preparação personalizadas.
  • imagem de contentor personalizada
    • Uma imagem de contentor personalizada é um pacote executável autónomo que inclui o código da aplicação do utilizador, o respetivo tempo de execução, bibliotecas, dependências e configuração do ambiente. No contexto do Google Cloud, particularmente do Vertex AI, permite ao utilizador agrupar o respetivo código de preparação de aprendizagem automática ou aplicação de publicação com as respetivas dependências exatas, garantindo a reprodutibilidade e permitindo ao utilizador executar uma carga de trabalho em serviços geridos com versões de software específicas ou configurações únicas não fornecidas por ambientes padrão. Para mais informações, consulte os requisitos do contentor personalizado para inferência.
  • formação personalizada
    • O preparação personalizada do Vertex AI é um serviço flexível que permite aos utilizadores executar as suas próprias aplicações de preparação personalizada (scripts ou contentores) na infraestrutura do Google Cloud, oferecendo controlo sobre os tipos de máquinas e o dimensionamento. Para mais informações, consulte o artigo Vista geral da preparação personalizada.
  • Dask
    • O Dask é uma plataforma de computação distribuída que é frequentemente usada com o TensorFlow, o Pytorch e outras frameworks de ML para gerir tarefas de preparação distribuídas. Para mais informações, consulte a Wikipedia.
  • análise de dados
    • Compreender os dados considerando amostras, medição e visualização. A análise de dados pode ser particularmente útil quando um conjunto de dados é recebido pela primeira vez, antes de se criar o primeiro modelo. Também é fundamental para compreender as experiências e resolver problemas com o sistema.
  • aumento de dados
    • Aumentar artificialmente o intervalo e o número de exemplos de preparação transformando exemplos existentes para criar exemplos adicionais. Por exemplo, suponhamos que as imagens são uma das suas funcionalidades, mas o seu conjunto de dados não contém exemplos de imagens suficientes para o modelo aprender associações úteis. Idealmente, deve adicionar imagens etiquetadas suficientes ao conjunto de dados para permitir que o modelo seja preparado corretamente. Se isso não for possível, o aumento de dados pode rodar, esticar e refletir cada imagem para produzir muitas variantes da imagem original, o que pode gerar dados etiquetados suficientes para permitir uma excelente preparação.
  • DataFrame
    • Um tipo de dados pandas popular para representar conjuntos de dados na memória. Um DataFrame é análogo a uma tabela ou a uma folha de cálculo. Cada coluna de um DataFrame tem um nome (um cabeçalho) e cada linha é identificada por um número único. Cada coluna num DataFrame está estruturada como uma matriz 2D, exceto que a cada coluna pode ser atribuído o seu próprio tipo de dados.
  • conjunto de dados
    • Um conjunto de dados é definido de forma geral como uma coleção de registos de dados estruturados ou não estruturados. Uma coleção de dados não processados, normalmente (mas não exclusivamente) organizada num dos seguintes formatos: uma folha de cálculo ou um ficheiro no formato CSV (valores separados por vírgulas). Para mais informações, consulte Crie um conjunto de dados.
  • decoder
    • Em geral, qualquer sistema de AA que converta de uma representação processada, densa ou interna para uma representação mais não processada, esparsa ou externa. Os descodificadores são frequentemente um componente de um modelo maior, onde são frequentemente sincronizados com um codificador. Em tarefas de sequência para sequência, um descodificador começa com o estado interno gerado pelo codificador para prever a sequência seguinte.
  • rede neural profunda (DNN)
    • Uma rede neural com várias camadas ocultas, normalmente programada através de técnicas de aprendizagem profunda.
  • profundidade
    • A soma do seguinte numa rede neural: 1. o número de camadas ocultas 2. o número de camadas de saída, que é normalmente um 3. o número de camadas de incorporação. Por exemplo, uma rede neural com cinco camadas ocultas e uma camada de saída tem uma profundidade de 6. Tenha em atenção que a camada de entrada não influencia a profundidade.
  • DevOps
    • O DevOps é um conjunto de produtos da Google Cloud Platform, por exemplo, o Artifact Registry e o Cloud Deploy.
  • paragem antecipada
    • Um método de regularização que envolve terminar a preparação antes de a perda de preparação deixar de diminuir. Na paragem antecipada, para intencionalmente a preparação do modelo quando a perda num conjunto de dados de validação começa a aumentar, ou seja, quando o desempenho da generalização piora.
  • incorporação
    • Representações numéricas de palavras ou fragmentos de texto. Estes números captam o significado semântico e o contexto do texto. As palavras ou o texto semelhantes ou relacionados tendem a ter incorporações semelhantes, o que significa que estão mais próximos no espaço vetorial de alta dimensão.
  • espaço de incorporação (espaço latente)
    • Na IA generativa, o espaço de incorporação refere-se a uma representação numérica de texto, imagens ou vídeos que capta as relações entre as entradas. Os modelos de aprendizagem automática, particularmente os modelos de IA generativa, são capazes de criar estas incorporações identificando padrões em grandes conjuntos de dados. As aplicações podem usar incorporações para processar e gerar linguagem, reconhecendo significados complexos e relações semânticas específicas do conteúdo.
  • vetor de incorporação
    • Uma representação vetorial densa, muitas vezes de baixa dimensão, de um item, de modo que, se dois itens forem semanticamente semelhantes, as respetivas incorporações estejam localizadas próximas umas das outras no espaço vetorial de incorporação.
  • encoder
    • Em geral, qualquer sistema de ML que converta de uma representação não processada, esparsa ou externa numa representação mais processada, densa ou interna. Os codificadores são frequentemente um componente de um modelo maior, onde são frequentemente sincronizados com um descodificador. Alguns transformadores combinam codificadores com descodificadores, embora outros transformadores usem apenas o codificador ou apenas o descodificador. Alguns sistemas usam a saída do codificador como entrada para uma rede de classificação ou regressão. Em tarefas de sequência para sequência, um codificador recebe uma sequência de entrada e devolve um estado interno (um vetor). Em seguida, o descodificador usa esse estado interno para prever a sequência seguinte.
  • endpoint
    • Recursos nos quais pode implementar modelos preparados para publicar inferências. Para mais informações, consulte o artigo Escolha um tipo de ponto final.
  • ensemble
    • Uma coleção de modelos preparados de forma independente cujas inferências são calculadas como média ou agregadas. Em muitos casos, um conjunto produz melhores inferências do que um único modelo. Por exemplo, uma floresta aleatória é um conjunto criado a partir de várias árvores de decisão. Tenha em atenção que nem todas as florestas de decisão são conjuntos.
  • ambiente
    • Na aprendizagem por reforço, o mundo que contém o agente e permite que o agente observe o estado desse mundo. Por exemplo, o mundo representado pode ser um jogo como o xadrez ou um mundo físico como um labirinto. Quando o agente aplica uma ação ao ambiente, o ambiente transita entre estados.
  • avaliação (eval)
    • Uma avaliação, abreviatura de "avaliação", é um tipo de experiência em que as consultas registadas ou sintéticas são enviadas através de duas pilhas de pesquisa: uma pilha experimental que inclui a sua alteração e uma pilha base sem a sua alteração. As avaliações produzem diferenças e métricas que lhe permitem avaliar o impacto, a qualidade e outros efeitos da sua alteração nos resultados da pesquisa e noutras partes da experiência do utilizador da Google. As avaliações são usadas durante o ajuste ou as iterações na sua alteração. Também são usados como parte do lançamento de uma alteração ao tráfego de utilizadores em direto.
  • evento
    • Um evento descreve a relação entre artefactos e execuções. Cada artefacto pode ser produzido por uma execução e consumido por outras execuções. Os eventos ajudam a determinar a proveniência dos artefactos nos respetivos fluxos de trabalho de ML encadeando artefactos e execuções.
  • execução
    • Uma execução é um registo de um passo individual do fluxo de trabalho de aprendizagem automática, normalmente anotado com os respetivos parâmetros de tempo de execução. Alguns exemplos de execuções incluem a ingestão de dados, a validação de dados, a preparação de modelos, a avaliação de modelos e a implementação de modelos.
  • experiência
    • Uma experiência é um contexto que pode conter um conjunto de n execuções de experiências, além de execuções de pipelines, onde um utilizador pode investigar, como um grupo, diferentes configurações, como artefactos de entrada ou hiperparâmetros.
  • execução da experiência
    • Uma execução específica e rastreável numa experiência do Vertex AI, que regista entradas (como o algoritmo, os parâmetros e os conjuntos de dados) e saídas (como modelos, pontos de verificação e métricas) para monitorizar e comparar iterações de desenvolvimento de ML. Para mais informações, consulte o artigo Crie e faça a gestão de execuções de experiências.
  • IA explicável
    • Uma funcionalidade do Vertex AI que fornece ferramentas e capacidades para compreender e interpretar inferências feitas por modelos de ML, oferecendo estatísticas sobre a importância das funcionalidades e o comportamento do modelo. Para mais informações, consulte o artigo Introdução à IA explicável do Vertex.
  • análise exploratória de dados
    • Em estatística, a análise exploratória de dados (EDA) é uma abordagem à análise de conjuntos de dados para resumir as respetivas características principais, muitas vezes com métodos visuais. Pode usar ou não um modelo estatístico, mas a EDA destina-se principalmente a ver o que os dados nos podem dizer além da modelagem formal ou da tarefa de teste de hipóteses.
  • Pontuação de F1
    • A pontuação F1 é uma métrica usada para avaliar a precisão do resultado de um modelo. É particularmente útil para avaliar o desempenho dos modelos em tarefas em que a precisão e a capacidade de resposta são importantes, como a extração de informações. Para modelos de IA generativa, a pontuação F1 pode ser usada para comparar as inferências do modelo com os dados de verdade absoluta para determinar a precisão do modelo. No entanto, para tarefas generativas, como o resumo e a geração de texto, outras métricas, como a pontuação Rough-L, podem ser mais adequadas.
  • funcionalidade
    • Na aprendizagem automática (AA), uma caraterística é uma característica ou um atributo de uma instância ou de uma entidade que é usado como entrada para preparar um modelo de AA ou para fazer inferências.
  • engenharia de funcionalidades
    • A engenharia de funcionalidades é o processo de transformação de dados não processados de aprendizagem automática em funcionalidades que podem ser usadas para preparar modelos de aprendizagem automática ou para fazer inferências.
  • grupo de funcionalidades
    • Um grupo de funcionalidades é um recurso de registo de funcionalidades que corresponde a uma tabela ou uma vista de propriedade de origem do BigQuery que contém dados de funcionalidades. Uma vista de funcionalidades pode conter funcionalidades e pode ser considerada um agrupamento lógico de colunas de funcionalidades na origem de dados.
  • registo de funcionalidade
    • Um registo de funcionalidade é uma agregação de todos os valores de funcionalidades que descrevem os atributos de uma entidade única num ponto específico no tempo.
  • feature registry
    • Um registo de funcionalidades é uma interface central para registar origens de dados de funcionalidades que quer publicar para inferências online. Para mais informações, consulte o artigo Configuração do registo de funcionalidades.
  • publicação de funcionalidades
    • A publicação de funcionalidades é o processo de exportação ou obtenção de valores de funcionalidades para preparação ou inferência. No Vertex AI, existem dois tipos de publicação de funcionalidades: publicação online e publicação offline. A publicação online obtém os valores das funcionalidades mais recentes de um subconjunto da origem de dados de funcionalidades para inferências online. A publicação offline ou em lote exporta grandes volumes de dados de caraterísticas, incluindo dados do histórico, para processamento offline, como a preparação de modelos de AA.
  • indicação de tempo da funcionalidade
    • Uma data/hora da caraterística indica quando o conjunto de valores de caraterísticas num registo de caraterísticas específico de uma entidade foi gerado.
  • valor da funcionalidade
    • Um valor de funcionalidade corresponde ao valor real e mensurável de uma funcionalidade (atributo) de uma instância ou entidade. Uma coleção de valores de elementos para a entidade única representa o registo de elementos correspondente à entidade.
  • vista de funcionalidades
    • Uma visualização de atributos é uma coleção lógica de atributos materializados a partir de uma origem de dados do BigQuery para uma instância da loja online. Uma visualização de funcionalidades armazena e atualiza periodicamente os dados de funcionalidades do cliente, que são atualizados periodicamente a partir da origem do BigQuery. Uma vista de funcionalidades está associada ao armazenamento de dados de funcionalidades diretamente ou através de associações a recursos do registo de funcionalidades.
  • modelo de base (FM)
    • Modelos preparados com base em dados amplos, de modo que possam ser adaptados (por exemplo, otimizados) a uma vasta gama de tarefas posteriores.
  • Operações de modelos de base (FMOPs)
    • As FMOps expandem as capacidades das MLOps e focam-se na produção eficiente de FMs pré-formados (formados de raiz) ou personalizados (ajustados).
  • SDK de componentes de pipelines do Google Cloud
    • O SDK de componentes de pipelines do Google Cloud (GCPC) fornece um conjunto de componentes de pipelines do Kubeflow pré-criados que são de qualidade de produção, têm um bom desempenho e são fáceis de usar. Pode usar os componentes de pipeline do Google Cloud para definir e executar pipelines de ML em pipelines do Vertex AI e outros back-ends de execução de pipelines de ML em conformidade com os pipelines do Kubeflow. Para mais informações, consulte o artigo Introdução aos componentes de pipeline do Google Cloud.
  • Google Embedded Modem System (GEMS)
    • O GEMS é uma estrutura de software incorporada destinada a modems e um conjunto de fluxos de trabalho e infraestrutura de desenvolvimento associados. A visão principal do GEMS é fornecer código do sistema de modem de alta qualidade com elevada reutilização em muitos dispositivos Google que contêm modems. Para alcançar esta visão abrangente, o GEMS oferece um ambiente abrangente para os programadores, composto pelos principais elementos básicos representados abaixo.
  • gradiente
    • O vetor de derivadas parciais relativamente a todas as variáveis independentes. Na aprendizagem automática, o gradiente é o vetor das derivadas parciais da função do modelo. O gradiente aponta na direção da subida mais íngreme.
  • gráfico
    • No contexto do Vertex AI, um gráfico refere-se a uma estrutura de dados que representa as relações entre entidades e os respetivos atributos. É usado para modelar e analisar dados complexos, como gráficos de conhecimento, redes sociais e processos empresariais. Para mais informações, consulte o artigo Introdução aos metadados do Vertex ML.
  • ground truth (GT)
    • A verdade fundamental é um termo usado em vários campos para se referir à verdade absoluta de algum problema de decisão ou medição, em oposição à estimativa de algum sistema. Na aprendizagem automática, o termo "ground truth" refere-se ao conjunto de treino para técnicas de aprendizagem supervisionada.
  • heurística
    • Uma solução simples e rapidamente implementada para um problema. Por exemplo, "Com uma heurística, alcançámos uma precisão de 86%. Quando mudámos para uma rede neural profunda, a precisão aumentou para 98%".
  • camada oculta
    • Uma camada numa rede neural entre a camada de entrada (as caraterísticas) e a camada de saída (a inferência). Cada camada oculta consiste num ou mais neurónios. Uma rede neural profunda contém mais do que uma camada oculta.
  • histograma
    • Uma apresentação gráfica da variação num conjunto de dados através de barras. Um histograma visualiza padrões difíceis de detetar numa tabela simples de números.
  • hiperparâmetro
    • Um hiperparâmetro refere-se a uma variável que rege o processo de preparação de um modelo de aprendizagem automática. Estas variáveis podem incluir taxas de aprendizagem, valores de momento no otimizador e o número de unidades na última camada oculta de um modelo. Para mais informações, consulte o artigo Vista geral do ajuste de hiperparâmetros.
  • aperfeiçoamento de hiperparâmetros
    • O aperfeiçoamento de hiperparâmetros no Vertex AI envolve a execução de várias experiências de uma aplicação de preparação com valores diferentes para os hiperparâmetros escolhidos, definidos dentro de limites especificados. O objetivo é otimizar as definições dos hiperparâmetros para maximizar a precisão das previsões do modelo. Para mais informações, consulte o artigo Vista geral do ajuste de hiperparâmetros.
  • Autorizações da gestão de identidade e de acesso (IAM)
    • As autorizações da gestão de identidade e de acesso (IAM) são capacidades detalhadas específicas que definem quem pode fazer o quê em que recursos do Google Cloud. São atribuídas a responsáveis (como utilizadores, grupos ou contas de serviço) através de funções, o que permite um controlo preciso sobre o acesso a serviços e dados num projeto ou numa organização do Google Cloud. Para mais informações, consulte o artigo Controlo de acesso com a IAM.
  • reconhecimento de imagens
    • O reconhecimento de imagens é o processo de classificação de objetos, padrões ou conceitos numa imagem. Também é conhecido como classificação de imagens. O reconhecimento de imagens é um subcampo da aprendizagem automática e da visão computacional.
  • index
    • Uma coleção de vetores implementados em conjunto para a pesquisa de semelhanças. Os vetores podem ser adicionados ou removidos de um índice. As consultas de pesquisa por semelhança são emitidas para um índice específico e pesquisam os vetores nesse índice.
  • inferência
    • No contexto da plataforma Vertex AI, a inferência refere-se ao processo de execução de pontos de dados através de um modelo de aprendizagem automática para calcular uma saída, como uma única pontuação numérica. Este processo também é conhecido como "operacionalizar um modelo de aprendizagem automática" ou "colocar um modelo de aprendizagem automática em produção". A inferência é um passo importante no fluxo de trabalho de aprendizagem automática, uma vez que permite que os modelos sejam usados para fazer inferências sobre novos dados. No Vertex AI, a inferência pode ser realizada de várias formas, incluindo inferência em lote e inferência online. A inferência em lote envolve a execução de um grupo de pedidos de inferência e a saída dos resultados num ficheiro, enquanto a inferência online permite inferências em tempo real em pontos de dados individuais.
  • obtenção de informações (OI)
    • A obtenção de informações (IR) é um componente fundamental da Vertex AI Search. É o processo de encontrar e obter informações relevantes a partir de uma grande coleção de dados. No contexto da Vertex AI, a IR é usada para obter documentos de um corpus com base na consulta de um utilizador. A Vertex AI oferece um conjunto de APIs para ajudar a criar as suas próprias aplicações de geração aumentada de obtenção (RAG) ou o seu próprio motor de pesquisa. Para mais informações, consulte o artigo Use a Vertex AI Search as a retrieval backend using RAG Engine.
  • Infraestrutura como código (IaC)
    • Infraestrutura como código. Uma abordagem para gerir a infraestrutura de TI em que as equipas podem gerir e aprovisionar serviços através de código. Com a IaC, são criados ficheiros de configuração que contêm as especificações da infraestrutura, o que facilita a criação e a edição da infraestrutura em grande escala.
  • Infraestrutura como código (IaC)
    • Infraestrutura como código. Uma abordagem para gerir a infraestrutura de TI em que as equipas podem gerir e aprovisionar serviços através de código. Com a IaC, são criados ficheiros de configuração que contêm as especificações da infraestrutura, o que facilita a criação e a edição da infraestrutura em grande escala.
  • Esgotamento de endereços IP
  • perda (custo)
    • Durante a preparação de um modelo supervisionado, uma medida da distância entre a inferência de um modelo e a respetiva etiqueta. Uma função de perda calcula a perda.
  • Metadados de aprendizagem automática
    • O ML Metadata (MLMD) é uma biblioteca para registar e obter metadados associados aos fluxos de trabalho de cientistas de dados e programadores de ML. O MLMD é uma parte integrante do TensorFlow Extended (TFX), mas foi concebido para poder ser usado de forma independente. Como parte da plataforma TFX mais abrangente, a maioria dos utilizadores só interage com o MLMD quando examina os resultados dos componentes do pipeline, por exemplo, em blocos de notas ou no TensorBoard.
  • conjunto de dados gerido
    • Um objeto de conjunto de dados criado e alojado no Vertex AI.
  • registo manual
    • O processo de adicionar explicitamente código (por exemplo, através do SDK Vertex AI para Python) a um script de preparação para acompanhar e registar parâmetros, métricas e artefactos personalizados numa execução do Vertex AI Experiments. Para mais informações, consulte o artigo Vista geral da monitorização e do registo.
  • dimensionamento manual
    • O escalamento manual refere-se ao processo de ajuste explícito e deliberado do número de recursos computacionais (como máquinas virtuais, contentores ou servidores) atribuídos a uma aplicação ou um serviço por um utilizador ou um administrador. Ao contrário da escala automática, que ajusta os recursos automaticamente com base na procura, a escala manual requer intervenção direta para aprovisionar ou desaprovisionar recursos, oferecendo um controlo preciso, mas sem a capacidade de resposta dinâmica das soluções automatizadas. Para mais informações, consulte o artigo Dimensione os clusters do Ray na Vertex AI: dimensionamento manual.
  • recursos de metadados
    • O Vertex ML Metadata expõe um modelo de dados semelhante a um gráfico para representar os metadados produzidos e consumidos a partir de fluxos de trabalho de ML. Os conceitos principais são artefactos, execuções, eventos e contextos.
  • MetadataSchema
    • Um MetadataSchema descreve o esquema de tipos específicos de artefactos, execuções ou contextos. Os MetadataSchemas são usados para validar os pares de chave-valor durante a criação dos recursos de metadados correspondentes. A validação do esquema só é realizada em campos correspondentes entre o recurso e o MetadataSchema. Os esquemas de tipos são representados através de objetos de esquema OpenAPI, que devem ser descritos através de YAML.
  • MetadataStore
    • Um MetadataStore é o contentor de nível superior para recursos de metadados. O MetadataStore é regionalizado e associado a um projeto específico do Google Cloud. Normalmente, uma organização usa um MetadataStore partilhado para recursos de metadados em cada projeto.
  • Pipelines de ML
    • Os pipelines de AA são fluxos de trabalho de AA portáteis e escaláveis baseados em contentores.
  • model
    • Qualquer modelo pré-preparado ou não. Em geral, qualquer construção matemática que processe dados de entrada e devolva resultados. Por outras palavras, um modelo é o conjunto de parâmetros e a estrutura necessários para que um sistema faça inferências.
  • destilação de modelos (destilação de conhecimentos, modelos professor-aluno)
    • A destilação de modelos é uma técnica que permite que um modelo de aluno mais pequeno aprenda com um modelo de professor maior. O modelo de aluno é preparado para imitar o resultado do modelo de professor e, em seguida, pode ser usado para gerar novos dados ou fazer inferências. A destilação de modelos é frequentemente usada para tornar os modelos grandes mais eficientes ou para os tornar mais acessíveis a dispositivos com recursos limitados. Também pode ser usado para melhorar a generalização dos modelos, reduzindo o sobreajuste.
  • Avaliação de modelos
    • A avaliação de modelos da Vertex AI é um serviço gerido na plataforma Vertex AI do Google Cloud que ajuda o utilizador a avaliar o desempenho e a qualidade dos respetivos modelos de aprendizagem automática. Fornece ferramentas para gerar várias métricas de avaliação e visualizações, o que permite ao utilizador compreender o desempenho dos respetivos modelos, identificar potenciais parcialidades e tomar decisões informadas sobre a implementação e a melhoria dos modelos. Para mais informações, consulte o artigo Avaliação de modelos no Vertex AI.
  • Monitorização de modelos
    • O Vertex AI Model Monitoring é um serviço que avalia continuamente o desempenho dos modelos implementados através da deteção de desvios de funcionalidades e deriva nos pedidos de previsão, o que ajuda a manter a qualidade dos modelos ao longo do tempo. Para mais informações, consulte o artigo Introdução ao Vertex AI Model Monitoring.
  • nome do recurso do modelo
    • O nome do recurso de um model é o seguinte: projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>. Pode encontrar o ID do modelo na Cloud Console, na página Model Registry.
  • Sistema de arquivos de rede (NFS)
  • loja física
    • A loja offline é uma instalação de armazenamento que armazena dados de funcionalidades recentes e do histórico, que são normalmente usados para preparar modelos de ML. Uma loja offline também contém os valores das funcionalidades mais recentes, que pode publicar para inferências online.
  • Inferência online
    • Obter inferências em instâncias individuais de forma síncrona. Para mais informações, consulte o artigo Inferência online.
  • Previsão online
    • Obter previsões sobre instâncias individuais de forma síncrona. Para mais informações, consulte o artigo Previsão online.
  • loja online
    • Na gestão de funcionalidades, uma loja online é uma instalação de armazenamento dos valores de funcionalidades mais recentes a serem publicados para inferências online.
  • parâmetro
    • Os parâmetros são valores de entrada com chave que configuram uma execução, regulam o comportamento da execução e afetam os resultados da execução. Os exemplos incluem a taxa de aprendizagem, a taxa de abandono e o número de passos de preparação.
  • recurso persistente
    • Um tipo de recurso de computação do Vertex AI, como um cluster do Ray, que permanece atribuído e disponível até ser explicitamente eliminado, o que é benéfico para o desenvolvimento iterativo e reduz a sobrecarga de arranque entre tarefas. Para mais informações, consulte o artigo Obtenha informações persistentes sobre recursos.
  • pipeline
  • componente do pipeline
    • Um conjunto autónomo de código que executa um passo no fluxo de trabalho de um pipeline, como o pré-processamento de dados, a transformação de dados e a preparação de um modelo.
  • pipeline job
    • Uma tarefa de pipeline ou uma execução de pipeline corresponde ao recurso PipelineJob na API Vertex AI. É uma instância de execução da definição do pipeline de ML, que é definida como um conjunto de tarefas de ML interligadas por dependências de entrada/saída.
  • execução do pipeline
    • Pode associar um ou mais Vertex PipelineJobs a uma experiência em que cada PipelineJob é representado como uma única execução. Neste contexto, os parâmetros da execução são inferidos pelos parâmetros do PipelineJob. As métricas são inferidas a partir dos artefactos system.Metric produzidos por esse PipelineJob. Os artefactos da execução são inferidos a partir dos artefactos produzidos por esse PipelineJob.
  • modelo de pipeline
    • Uma definição de fluxo de trabalho de ML que um único utilizador ou vários utilizadores podem reutilizar para criar várias execuções de pipelines.
  • classe positiva
    • "Classe positiva" refere-se ao resultado ou à categoria para a qual um modelo é treinado para prever. Por exemplo, se um modelo estiver a prever se um cliente vai comprar um casaco, a classe positiva seria "o cliente compra um casaco". Da mesma forma, num modelo que prevê a inscrição de clientes num depósito a prazo, a classe positiva seria "cliente inscrito". O oposto é a "classe negativa".
  • Contentor pré-criado
    • Imagens de contentores fornecidas pelo Vertex AI que vêm pré-instaladas com frameworks e dependências de ML comuns, o que simplifica a configuração para tarefas de preparação e inferência. Para mais informações, consulte o artigo Contentores pré-criados para a preparação personalizada .
  • Acesso privado à Google (PGA)
    • O acesso privado à Google permite que as instâncias de VM com apenas endereços IP internos (privados) (sem endereços IP externos) alcancem os endereços IP públicos das APIs e dos serviços Google. Para mais informações, consulte o artigo Configure o acesso privado à Google.
  • acesso a serviços privados
    • O acesso privado aos serviços é uma ligação privada entre a sua rede da nuvem virtual privada (VPC) e as redes pertencentes à Google ou a fornecedores de serviços de terceiros. Permite que as instâncias de máquinas virtuais (VMs) na sua rede VPC comuniquem com estes serviços através de endereços IP internos, evitando a exposição à Internet pública. Para mais informações, consulte o artigo Acesso a serviços privados.
  • Private Service Connect (PSC)
    • O Private Service Connect é uma tecnologia que permite aos clientes do Compute Engine mapear IPs privados na respetiva rede para outra rede da VPC ou para APIs Google. Para mais informações, consulte o Private Service Connect.
  • Interface do Private Service Connect (PSC-I)
    • A interface do Private Service Connect oferece aos produtores uma forma de iniciar ligações a quaisquer recursos de rede na VPC do consumidor de forma privada.
  • VPC do produtor
    • Uma VPC de produtor é uma rede de nuvem virtual privada (VPC) que aloja um serviço gerido e o disponibiliza a outras redes de VPC.
  • quantization
    • A quantização é uma técnica de otimização de modelos usada para reduzir a precisão dos números usados para representar os parâmetros de um modelo. Isto pode levar a modelos mais pequenos, menor consumo de energia e latência de inferência reduzida.
  • Floresta aleatória
    • O Random Forest é um algoritmo de aprendizagem automática usado para classificação e regressão. Não é diretamente um modelo de IA generativa, mas é um componente que pode ser usado num sistema de IA generativa maior. Uma floresta aleatória consiste em várias árvores de decisão e a respetiva inferência é uma agregação das inferências destas árvores individuais. Por exemplo, numa tarefa de classificação, cada árvore "vota" numa classe e a inferência final é a classe com mais votos. Para mais informações, consulte o artigo Floresta de decisão.
  • API Ray client (Ray Client)
    • O cliente Ray é uma API que permite que um script Python local ou uma shell interativa (como um bloco de notas do Jupyter) se ligue e interaja com um cluster Ray remoto. Essencialmente, o cliente Ray permite aos utilizadores desenvolver e executar código Ray como se o código estivesse a ser executado localmente, enquanto tira partido do poder de computação distribuído de um cluster remoto. Para mais informações, consulte o artigo Vista geral do Ray na Vertex AI.
  • Cluster do Ray no Vertex AI
    • Um cluster do Ray no Vertex AI é um cluster gerido de nós de computação que pode ser usado para executar aplicações de aprendizagem automática (ML) e Python distribuídas. Fornece a infraestrutura para realizar computação distribuída e processamento paralelo para o seu fluxo de trabalho de ML. Os clusters do Ray estão integrados no Vertex AI para garantir a disponibilidade de capacidade para cargas de trabalho de AA críticas ou durante épocas de pico. Ao contrário das tarefas personalizadas, em que o serviço de preparação liberta o recurso após a conclusão da tarefa, os clusters do Ray permanecem disponíveis até serem eliminados. Para mais informações, consulte o artigo Vista geral do Ray na Vertex AI.
  • Ray on Vertex AI (RoV)
    • O Ray no Vertex AI foi concebido para que possa usar o mesmo código Ray de código aberto para escrever programas e desenvolver aplicações no Vertex AI com alterações mínimas. Para mais informações, consulte o artigo Vista geral do Ray na Vertex AI.
  • Ray no SDK Vertex AI para Python
    • O Ray no SDK Vertex AI for Python é uma versão do SDK Vertex AI for Python que inclui a funcionalidade do cliente Ray, do conector Ray BigQuery, da gestão de clusters do Ray no Vertex AI e das inferências no Vertex AI. Para mais informações, consulte o artigo Introdução ao SDK Vertex AI para Python.
  • recall
    • A percentagem de verdadeiros vizinhos mais próximos devolvidos pelo índice. Por exemplo, se uma consulta de vizinhos mais próximos para 20 vizinhos mais próximos devolveu 19 dos vizinhos mais próximos da "verdade fundamental", a capacidade de memorização é de 19/20 x 100 = 95%.
  • Servidor de redução
    • O servidor de redução é uma funcionalidade ou um componente disponível no Vertex AI, especificamente concebido para otimizar a preparação de GPUs distribuídas. O servidor de redução funciona como um algoritmo de redução total que ajuda a aumentar o débito e a reduzir a latência para a preparação de modelos de aprendizagem automática em grande escala. Para mais informações, consulte o artigo Reduza o tempo de preparação com o servidor de redução.
  • regularization
    • A regularização é uma técnica usada para evitar o sobreajuste em modelos de aprendizagem automática. O sobreajuste ocorre quando um modelo aprende os dados de preparação demasiado bem, o que resulta num mau desempenho em dados não visualizados. Um tipo específico de regularização mencionado é a paragem antecipada, em que a preparação é interrompida antes de a perda num conjunto de dados de validação começar a aumentar, o que indica uma diminuição no desempenho de generalização. Para mais informações, consulte o artigo Sobreajuste: regularização L2.
  • restringe
    • Funcionalidade para "restringir" as pesquisas a um subconjunto do índice através de regras booleanas. A restrição também é denominada "filtragem". Com a pesquisa vetorial, pode usar a filtragem numérica e a filtragem de atributos de texto.
  • conta de serviço
    • As contas de serviço são contas especiais do Google Cloud usadas por aplicações ou máquinas virtuais para fazer chamadas de API autorizadas aos serviços Google Cloud. Ao contrário das contas de utilizador, não estão associadas a um indivíduo, mas atuam como uma identidade para o seu código, permitindo o acesso seguro e programático aos recursos sem necessitar de credenciais humanas. Para mais informações, consulte o artigo Vista geral das contas de serviço.
  • agente de serviços
    • Um agente de serviço refere-se a uma conta de serviço gerida pela Google. É usado quando um serviço requer acesso a recursos criados por um serviço diferente. Por exemplo, quando os serviços Dataflow ou Dataproc precisam de criar instâncias durante o tempo de execução ou quando uma Cloud Function quer usar o Key Management Service (KMS) para proteger a Cloud Function. Os agentes de serviço são criados automaticamente pelo Google Cloud quando um serviço os requer. São normalmente usadas para gerir o acesso a recursos e realizar várias tarefas em nome do serviço. Para mais informações, consulte o artigo Agentes de serviços.
  • métricas de resumo
    • As métricas de resumo são um único valor para cada chave de métrica numa execução de experiência. Por exemplo, a precisão do teste de uma experiência é a precisão calculada em relação a um conjunto de dados de teste no final da preparação que pode ser captada como uma métrica de resumo de valor único.
  • TensorBoard
    • O TensorBoard é um conjunto de aplicações Web para visualizar e compreender as execuções e os modelos do TensorFlow. Para mais informações, consulte o TensorBoard.
  • Instância do TensorBoard
    • Uma instância do TensorBoard é um recurso regionalizado que armazena experiências do TensorBoard do Vertex AI associadas a um projeto. Pode criar várias instâncias do TensorBoard num projeto se, por exemplo, quiser várias instâncias com a CMEK ativada. Isto é igual ao recurso do TensorBoard na API.
  • Nome do recurso do TensorBoard
    • Um nome de recurso do TensorBoard é usado para identificar totalmente uma instância do Vertex AI TensorBoard. O formato é o seguinte: projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
  • TensorFlow Extended (TFX)
    • O TensorFlow Extended (TFX) é uma plataforma completa para implementar pipelines de aprendizagem automática de produção com base na plataforma TensorFlow.
  • Contentor do TensorFlow Serving
    • Uma imagem de contentor especializada concebida para apresentar eficientemente modelos do TensorFlow para inferências, usada quando implementa modelos tabulares personalizados com o Vertex AI Model Monitoring.
  • compensação de tempo
    • O desvio de tempo é relativo ao início de um vídeo.
  • segmento de tempo
    • Um segmento de tempo é identificado por desvios de tempo de início e fim.
  • métricas de intervalos temporais
    • As métricas de séries cronológicas são valores de métricas longitudinais em que cada valor representa um passo na parte da rotina de preparação de uma execução. As métricas de séries cronológicas são armazenadas no Vertex AI TensorBoard. O Vertex AI Experiments armazena uma referência ao recurso Vertex TensorBoard.
  • token
    • Um token num modelo de linguagem é a unidade atómica na qual o modelo está a ser preparado e a fazer inferências, nomeadamente palavras, morfemas e carateres. Em domínios fora dos modelos de linguagem, os tokens podem representar outros tipos de unidades atómicas. Por exemplo, na visão computacional, um token pode ser um subconjunto de uma imagem. Para mais informações, consulte o artigo Liste e contabilize tokens.
  • cluster de preparação
    • Um cluster de preparação é um grupo de recursos de computação interligados (como máquinas virtuais, GPUs e armazenamento associado) especificamente configurado e dedicado à execução de cargas de trabalho de preparação de modelos de aprendizagem automática de forma distribuída. Estes clusters foram concebidos para fornecer a capacidade computacional e a escalabilidade necessárias para formar modelos complexos de forma eficiente, muitas vezes tirando partido do processamento paralelo em vários nós. Para mais informações, consulte o artigo Estrutura do cluster de preparação.
  • conjunto de treino
    • No Vertex AI, o conjunto de preparação é a maior parte dos seus dados (normalmente, 80%) usada para preparar um modelo de aprendizagem automática. O modelo aprende os padrões e as relações nestes dados para fazer inferências. O conjunto de preparação é distinto dos conjuntos de validação e de teste, que são usados para avaliar o desempenho do modelo durante e após a preparação.
  • trajetória
    • Uma "trajetória" refere-se a uma sequência de passos ou ações realizadas por um agente ou um modelo. É frequentemente usado na avaliação de modelos generativos, onde é avaliada a capacidade do modelo de gerar texto, código ou outro conteúdo. Existem vários tipos de métricas de trajetória que podem ser usadas para avaliar modelos generativos, incluindo a correspondência exata da trajetória, a correspondência da trajetória por ordem, a correspondência da trajetória em qualquer ordem e a precisão da trajetória. Estas métricas medem a semelhança entre o resultado do modelo e um conjunto de resultados de referência gerados por humanos.
  • Transformador
    • Um "transformador" é uma arquitetura de rede neural que está na base da maioria dos modelos generativos de vanguarda. É usado em várias aplicações de modelos de linguagem, incluindo a tradução. Os transformadores consistem num codificador e num descodificador; o codificador converte o texto de entrada numa representação intermédia e o descodificador converte-a numa saída útil. Utilizam um mecanismo de autoatenção para recolher contexto das palavras que rodeiam a palavra que está a ser processada. Embora o treino de um transformador exija recursos significativos, o ajuste fino de um transformador pré-treinado para aplicações específicas é mais eficiente.
  • verdadeiro positivo
    • Um "verdadeiro positivo" refere-se a uma inferência em que o modelo identifica corretamente uma classe positiva. Por exemplo, se um modelo for preparado para identificar clientes que vão comprar um casaco, uma previsão verdadeira positiva seria prever corretamente que um cliente vai fazer essa compra.
  • artefactos não geridos
    • Um artefacto que existe fora do contexto da Vertex AI.
  • vetor
    • Um vetor refere-se a uma representação numérica de texto, imagens ou vídeos que capta as relações entre as entradas. Os modelos de aprendizagem automática são adequados para criar incorporações através da identificação de padrões em grandes conjuntos de dados. As aplicações podem usar incorporações para processar e produzir linguagem, reconhecendo significados complexos e relações semânticas específicas do conteúdo. Para mais informações, consulte o artigo Vista geral das APIs Embeddings.
  • Tipo de dados do Vertex AI
    • Os tipos de dados da Vertex AI são "image", "text", "tabular" e "video".
  • Vertex AI Experiments
    • O Vertex AI Experiments permite que os utilizadores acompanhem o seguinte: 1. Passos de uma execução de experiência (por exemplo, pré-processamento e formação). 2. Entradas (por exemplo, algoritmo, parâmetros e conjuntos de dados). 3. Resultados desses passos (por exemplo, modelos, pontos de verificação e métricas).
  • Registo de modelos do Vertex AI
    • O Registo de modelos Vertex AI é um repositório central onde pode gerir o ciclo de vida dos seus modelos de ML. No Registo de modelos do Vertex AI, tem uma vista geral dos seus modelos para poder organizar, monitorizar e preparar melhor novas versões. Quando tem uma versão do modelo que quer implementar, pode atribuí-la a um ponto final diretamente a partir do registo ou, através de aliases, implementar modelos num ponto final. Para mais informações, consulte o artigo Introdução ao Registo de modelos da Vertex AI.
  • SDK Vertex AI para Python
    • O SDK Vertex AI para Python oferece uma funcionalidade semelhante à da biblioteca cliente Python do Vertex AI, exceto que o SDK é de nível superior e menos detalhado.
  • Vertex AI TensorBoard
    • O Vertex AI TensorBoard é um serviço gerido e escalável no Google Cloud que permite aos cientistas de dados e aos engenheiros de ML visualizar as respetivas experiências de aprendizagem automática, depurar a preparação de modelos e acompanhar as métricas de desempenho através da interface familiar de código aberto do TensorBoard. Integra-se perfeitamente com o Vertex AI Training e outros serviços, oferecendo armazenamento persistente para dados de experiências e permitindo a análise colaborativa do desenvolvimento de modelos. Para mais informações, consulte o artigo Introdução ao Vertex AI TensorBoard.
  • Vertex AI TensorBoard Experiment
    • Os dados associados a uma experiência podem ser vistos na aplicação Web TensorBoard (escalares, histogramas, distribuições, etc.). Os escalares de séries cronológicas podem ser vistos na Google Cloud Console. Para mais informações, consulte o artigo Compare e analise execuções.
  • Vertex AI Feature Store
    • Um serviço gerido para armazenar, publicar e gerir funcionalidades de aprendizagem automática. Para mais informações, consulte o artigo Acerca do Vertex AI Feature Store.
  • Vertex ML Metadata
  • Vertex AI Vizier
    • Um serviço de otimização de caixa negra para o ajuste de hiperparâmetros e outros parâmetros. Para mais informações, consulte o artigo Vista geral do Vertex AI Vizier.
  • Vertex AI Workbench
    • O Vertex AI Workbench é um ambiente de desenvolvimento unificado baseado no Jupyter Notebook que suporta todo o fluxo de trabalho de ciência de dados, desde a exploração e análise de dados ao desenvolvimento, preparação e implementação de modelos. O Vertex AI Workbench oferece uma infraestrutura gerida e escalável com integrações incorporadas a outros serviços do Google Cloud, como o BigQuery e o Cloud Storage, o que permite aos cientistas de dados realizar as respetivas tarefas de aprendizagem automática de forma eficiente sem gerir a infraestrutura subjacente. Para mais informações, consulte o artigo Introdução ao Vertex AI Workbench.
  • segmento de vídeo
    • Um segmento de vídeo é identificado pelo desvio de tempo de início e fim de um vídeo.
  • nuvem virtual privada (VPC)
    • A nuvem privada virtual é um conjunto configurável a pedido de recursos de computação partilhados que é atribuído num ambiente de nuvem pública e oferece um nível de isolamento entre diferentes organizações que usam esses recursos.
  • VPC Service Controls
    • O VPC Service Controls é uma funcionalidade de segurança no Google Cloud que permite às organizações criar perímetros seguros em torno dos respetivos dados e recursos confidenciais para mitigar o risco de exfiltração de dados. Os VPC Service Controls conseguem isto restringindo o acesso a serviços e dados especificados do Google Cloud a partir de redes não autorizadas e impedindo que os dados se movam para fora destes perímetros definidos, oferecendo assim uma forte defesa contra ameaças internas e fugas de dados acidentais. Para mais informações, consulte o artigo VPC Service Controls.
  • nó trabalhador
    • Um nó de trabalho refere-se a uma máquina individual ou a uma instância computacional num cluster responsável pela execução de tarefas ou pela realização de trabalho. Em sistemas como clusters do Kubernetes ou do Ray, os nós são as unidades fundamentais de computação.
  • conjunto de trabalhadores
    • Componentes de um cluster Ray que executam tarefas distribuídas. Os conjuntos de trabalhadores podem ser configurados com tipos de máquinas específicos e suportam o dimensionamento automático e o dimensionamento manual. Para mais informações, consulte o artigo Estrutura do cluster de preparação.