-
agente
- No contexto da IA generativa, um agente é um software que planeja e executa de forma autônoma uma série de ações em busca de um objetivo, possivelmente em situações novas. Os agentes podem ser usados em vários aplicativos, como processamento de linguagem natural, aprendizado de máquina e robótica. Por exemplo, um agente LLM usa um modelo de linguagem para avaliar o ambiente e escolher uma ação para ajudar a alcançar o objetivo. Os agentes de LLM podem ser usados para gerar texto, traduzir idiomas e responder a perguntas.
-
Endpoints de API
- Os endpoints de API são um aspecto da configuração do serviço que especifica os endereços de rede, também conhecidos como endpoints de serviço (por exemplo, aiplatform.googleapis.com).
-
Application Default Credentials (ADC)
- As credenciais padrão do aplicativo (ADC) oferecem uma maneira simples de receber credenciais de autorização para uso em chamadas de APIs do Google. Elas são mais adequadas para casos em que a chamada precisa ter o mesmo nível de identidade e autorização para o aplicativo, seja qual for o usuário. Essa é a abordagem recomendada para autorizar chamadas para as APIs do Google Cloud, principalmente quando você está criando um aplicativo implantado em máquinas virtuais do Google App Engine (GAE) ou do Compute Engine. Para mais informações, consulte Como o Application Default Credentials funciona.
-
Vizinho mais próximo aproximado (ANN, na sigla em inglês)
- O serviço do vizinho mais próximo aproximado (ANN, na sigla em inglês) é uma solução de alta escala e baixa latência para encontrar vetores semelhantes (ou, mais especificamente, "embeddings") para um corpus grande. Para mais informações, consulte Como usar a pesquisa de vetor para correspondência semântica.
-
artifact
- Um artefato é uma entidade distinta ou parte dos dados produzidos e consumidos por um fluxo de trabalho de machine learning. Exemplos de artefatos incluem conjuntos de dados, modelos, arquivos de entrada e registros de treinamento.
-
Artifact Registry
- O Artifact Registry é um serviço universal de gerenciamento de artefatos. É o serviço recomendado para gerenciar contêineres e outros artefatos no Google Cloud. Para saber mais, consulte Artifact Registry.
-
Inteligência artificial (IA)
- A inteligência artificial (IA) é o estudo e o design de máquinas que parecem ser "inteligentes", ou seja, que imitam funções humanas ou intelectuais, como movimento mecânico, raciocínio ou solução de problemas. Um dos subcampos mais conhecidos da IA é o machine learning, que usa uma abordagem estatística e baseada em dados para criar IA. No entanto, algumas pessoas usam esses dois termos de forma intercambiável.
-
Realidade aumentada (RA)
- Mesclar conteúdo digital renderizado com conteúdo do mundo real, seja por meio de uma tela, como em um smartphone, ou como uma sobreposição do mundo real visto por lentes, como óculos. O conteúdo digital precisa ser rastreado de acordo com o movimento da câmera ou dos óculos (dependendo de como a cena é renderizada) para parecer parte do mundo real.
-
authentication
- O processo de verificação da identidade de um cliente (que pode ser um usuário ou outro processo) para ter acesso a um sistema protegido. Um cliente que provou sua identidade é considerado autenticado. Para mais informações, consulte Métodos de autenticação no Google.
-
Automática lado a lado (AutoSxS)
- O recurso de avaliação lado a lado automática (AutoSxS) é uma ferramenta de avaliação assistida por modelo que compara dois modelos de linguagem grandes (LLMs) lado a lado. Ele pode ser usado para avaliar o desempenho de modelos de IA generativa no Vertex AI Model Registry ou de previsões pré-geradas. O AutoSxS usa um avaliador automático para decidir qual modelo dá a melhor resposta a um comando. A AutoSxS está disponível sob demanda e avalia modelos de linguagem com desempenho comparável ao de avaliadores humanos.
-
Reconhecimento automático de fala (ASR,na sigla em inglês)
- Transcrição automática de linguagem falada (voz) em texto.
-
AutoML
- Algoritmos de aprendizado de máquina que "aprendem a aprender" com a otimização de caixa preta. Para mais informações, consulte o glossário de ML.
-
autorater
- Um avaliador automático é um modelo de linguagem que avalia a qualidade das respostas do modelo com base em um comando de inferência original. Ele é usado no pipeline do AutoSxS para comparar as previsões de dois modelos e determinar qual deles teve o melhor desempenho. Para mais informações, consulte O autor automático.
-
valor de referência
- Um modelo usado como ponto de referência para comparar o desempenho de outro modelo (geralmente, um mais complexo). Por exemplo, um modelo de regressão logística pode servir como uma boa referência para um modelo profundo. Para um problema específico, a linha de base ajuda os desenvolvedores a quantificar a performance mínima esperada que um novo modelo precisa alcançar para ser útil. Para mais informações, consulte Conjuntos de dados de destino e de referência.
-
lote
- Conjunto de exemplos usados em uma iteração de treinamento. O tamanho do lote determina o número de exemplos em um lote.
-
tamanho do lote
- O número de exemplos em um lote. Por exemplo, o tamanho do lote de SGD é 1, enquanto o tamanho do lote de um minilote geralmente fica entre 10 e 1.000. O tamanho do lote geralmente é fixado durante o treinamento e a inferência. No entanto, o TensorFlow permite tamanhos de lote dinâmicos.
-
previsão em lote
- A previsão em lote usa um grupo de solicitações de previsão e gera os resultados em um arquivo. Para mais informações, consulte Como receber previsões em lote.
-
viés
- 1. Estereótipos, preconceito ou favoritismo em relação a algumas coisas, pessoas ou grupos. Esses vieses podem afetar a coleta e a interpretação de dados, o design de um sistema e a forma como os usuários interagem com ele. 2. Erro sistemático causado por um procedimento de amostragem ou relatório.
-
bidirecional
- Termo usado para descrever um sistema que avalia o texto que precede e segue uma seção de texto de destino. Em contraste, um sistema unidirecional avalia apenas o texto que precede uma seção de texto de destino.
-
Representações de codificador bidirecional de transformadores (BERT)
- O BERT é um método de pré-treinamento de representações de linguagem, ou seja, treinamos um modelo de "compreensão de linguagem" de uso geral em um grande corpus de texto (como a Wikipédia) e, em seguida, usamos esse modelo para tarefas de PLN posteriores que nos interessam (como responder a perguntas). O BERT supera os métodos anteriores porque é o primeiro sistema não supervisionado e profundamente bidirecional para pré-treinamento de PLN.
-
Assistente de avaliação bilíngue (BLEU)
- Uma medida comum para avaliar a qualidade de um algoritmo de tradução automática comparando a saída dele com a de uma ou mais traduções humanas.
-
aumento
- No treinamento de modelos: o aumento pode se referir a técnicas de aumento de dados usadas para aumentar o tamanho e a diversidade dos conjuntos de dados de treinamento. Isso é feito transformando exemplos atuais para criar outros exemplos variados, o que pode melhorar a performance do modelo, especialmente quando o conjunto de dados original é limitado.
-
caixa delimitadora
- Uma caixa delimitadora para um objeto no frame de vídeo pode ser especificada de duas maneiras: (i) usando dois vértices que consistem em um conjunto de coordenadas x,y se eles forem pontos diagonalmente opostos do retângulo. Por exemplo: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) usar todos os quatro vértices. Para mais informações, consulte Preparar dados do vídeo.
-
bucket
- Pasta de nível superior do Cloud Storage. Os nomes de bucket precisam ser exclusivos para todos os usuários do Cloud Storage. Os buckets contêm arquivos. Para mais informações, consulte Visão geral do produto Cloud Storage.
-
Cadeia de pensamento
- Na IA generativa, a cadeia de pensamentos (CoT) é uma técnica de comando que incentiva o modelo de linguagem grande (LLM) a detalhar explicitamente o processo de raciocínio antes de chegar a uma conclusão. Isso envolve pedir ao modelo para mostrar as etapas intermediárias necessárias para resolver um problema, em vez de apenas fornecer a resposta final. Esse método pode melhorar significativamente o desempenho do LLM em tarefas de raciocínio complexas.
-
chat
- O conteúdo de uma conversa com um sistema de ML, geralmente um modelo de linguagem grande. A interação anterior em uma conversa (o que você digitou e como o modelo de linguagem grande respondeu) se torna o contexto para as partes seguintes da conversa. Um chatbot é uma aplicação de um modelo de linguagem grande.
-
ponto de verificação
- Dados que capturam o estado dos parâmetros de um modelo durante o treinamento ou após a conclusão dele. Por exemplo, durante o treinamento, você pode: 1. Interromper o treinamento, talvez intencionalmente ou como resultado de determinados erros. 2. Capture o checkpoint. 3. Mais tarde, recarregue o ponto de verificação, possivelmente em hardware diferente. 4. Reinicie o treinamento. No Gemini, um ponto de verificação se refere a uma versão específica de um modelo treinado em um conjunto de dados específico.
-
modelo de classificação
- Um modelo cuja previsão é uma classe. Por exemplo, os modelos de classificação a seguir: um modelo que prevê o idioma de uma frase de entrada (francês? Espanhol? Italiano?). Um modelo que prevê espécies de árvores (maple? Carvalho? Baobá?). Um modelo que prevê a classe positiva ou negativa de uma condição médica específica.
-
métricas de classificação
- As métricas de classificação suportadas no SDK da Vertex AI para Python são a matriz de confusão e a curva ROC.
-
Cloud TPU
- Um acelerador de hardware especializado projetado para acelerar cargas de trabalho de machine learning no Google Cloud.
-
clustering
- No contexto da IA generativa, o agrupamento é uma técnica de machine learning não supervisionado usada para agrupar pontos de dados semelhantes com base nas características deles. Isso é feito definindo uma medida de similaridade (ou métrica) para comparar pontos de dados e agrupando aqueles com alta similaridade no mesmo cluster. Em aplicativos de IA generativa, isso pode envolver agrupar embeddings (representações numéricas de texto, imagens ou outros dados) para realizar tarefas como pesquisa, classificação ou detecção de outliers. Por exemplo, a segmentação de clientes pode ser feita agrupando dados de clientes para identificar grupos com comportamentos ou características semelhantes. Para mais informações, consulte O que é clustering?.
-
imagem do contêiner
- Uma imagem de contêiner é um pacote que inclui o código executável do componente e uma definição do ambiente em que ele é executado. Para mais informações, consulte Visão geral do treinamento personalizado.
-
context
- Um contexto é usado para agrupar artefatos e execuções em uma única categoria, que pode ser consultada e digitada. Os contextos podem ser usados para representar conjuntos de metadados. Um exemplo de contexto seria uma execução de um pipeline de machine learning.
-
cache de contexto
- Um cache de contexto na Vertex AI é uma grande quantidade de dados que podem ser usados em várias solicitações para um modelo do Gemini. O conteúdo em cache é armazenado na região em que a solicitação para criar o cache é feita. Ele pode ser qualquer tipo MIME compatível com os modelos multimodais do Gemini, como texto, áudio ou vídeo. Para mais informações, consulte Visão geral do armazenamento em cache de contexto.
-
janela de contexto
- O número de tokens que um modelo pode processar em um determinado comando. Quanto maior a janela de contexto, mais informações o modelo pode usar para fornecer respostas coerentes e consistentes ao comando.
-
Chaves de criptografia gerenciadas pelo cliente (CMEK, na sigla em inglês)
- Chaves de criptografia gerenciadas pelo cliente (CMEK, na sigla em inglês) são integrações que permitem aos clientes criptografar dados em serviços atuais do Google usando uma chave que eles gerenciam no Cloud KMS (também conhecido como Storky). No Cloud KMS, a chave de criptografia de dados protege os dados. Para mais informações, consulte Chaves de criptografia gerenciadas pelo cliente (CMEK).
-
análise de dados
- Entender os dados considerando amostras, medições e visualização. A análise de dados pode ser particularmente útil quando um conjunto de dados é recebido pela primeira vez, antes de criar o primeiro modelo. Também é crucial para entender experimentos e depurar problemas com o sistema.
-
aumento de dados
- Aumentar artificialmente o intervalo e o número de exemplos de treinamento transformando exemplos atuais para criar outros. Por exemplo, suponha que as imagens sejam um dos seus recursos, mas que o conjunto de dados não tenha exemplos suficientes para o modelo aprender associações úteis. O ideal é adicionar imagens marcadas suficientes ao conjunto de dados para que o modelo seja treinado corretamente. Se isso não for possível, o aumento de dados poderá girar, esticar e refletir cada imagem para produzir muitas variantes da imagem original, possivelmente gerando dados rotulados suficientes para permitir um excelente treinamento.
-
DataFrame
- Um tipo de dados pandas conhecido para representar conjuntos de dados na memória. Um DataFrame é análogo a uma tabela ou planilha. Cada coluna de um DataFrame tem um nome (um cabeçalho) e cada linha é identificada por um número exclusivo.Cada coluna em um DataFrame é estruturada como uma matriz 2D, exceto que cada coluna pode receber o próprio tipo de dados.
-
indexação de dados
- No contexto da IA generativa, a indexação de dados é o processo de estruturar e organizar uma base de conhecimento para otimizar a pesquisa e a recuperação. Isso envolve a criação de um índice, muitas vezes chamado de corpus, que permite uma pesquisa eficiente dos dados. O processo é separado da criação do corpus, e os dados indexados podem ser usados para enriquecer o contexto de modelos de linguagem grandes (LLMs), reduzindo as alucinações e melhorando a precisão das respostas. Por exemplo, no contexto de um site, a indexação de dados pode envolver a adição de metadados como datePublished e dateModified para melhorar a funcionalidade de pesquisa. Existem diferentes métodos para indexar dados, incluindo o uso da pesquisa de vetor para pesquisa de similaridade em aplicativos, como a recuperação de informações relevantes para LLMs no momento da consulta. Para mais informações, consulte Visão geral do RAG Engine .
-
ingestão de dados
- A ingestão de dados é o processo de extração de dados de várias fontes e integração deles em um local central para processamento e análise. No contexto da IA generativa, a ingestão de dados envolve a extração de informações de diferentes fontes de dados, como formulários clínicos, registros de pacientes ou texto não estruturado, para treinar e ajustar modelos de IA generativa. Os dados ingeridos geralmente são processados e transformados para garantir a qualidade e a consistência antes de serem usados para treinar os modelos de IA generativa. Esse processo pode envolver técnicas de limpeza, engenharia de atributos e aumento de dados para melhorar a performance e os recursos de generalização do modelo. Para mais informações, consulte Usar a IA generativa no gerenciamento de utilização.
-
paralelismo de dados
- Uma maneira de dimensionar o treinamento ou a inferência que replica um modelo inteiro em vários dispositivos e transmite um subconjunto dos dados de entrada para cada dispositivo. O paralelismo de dados pode permitir o treinamento e a inferência em tamanhos de lote muito grandes. No entanto, o modelo precisa ser pequeno o suficiente para caber em todos os dispositivos. O paralelismo de dados geralmente acelera o treinamento e a inferência.
-
conjunto de dados
- Um conjunto de dados é amplamente definido como uma coleção de registros de dados estruturados ou não estruturados. Uma coleção de dados brutos, geralmente (mas não exclusivamente) organizados em um dos seguintes formatos: uma planilha ou um arquivo no formato CSV (valores separados por vírgula). Para mais informações, consulte Criar um conjunto de dados
-
transformação de dados
- No contexto da geração aumentada de recuperação (RAG, na sigla em inglês), a transformação de dados se refere à conversão de dados em um formato adequado para indexação e processamento por um LLM. Isso geralmente envolve dividir os dados em partes menores para facilitar a incorporação e a indexação. Outras transformações podem incluir etapas de limpeza e validação para garantir a qualidade dos dados. Para mais informações, consulte Visão geral do RAG Engine.
-
decodificador
- Em geral, qualquer sistema de ML que converta de uma representação processada, densa ou interna para uma representação mais bruta, esparsa ou externa. Os decodificadores geralmente são um componente de um modelo maior, em que são frequentemente associados a um codificador. Em tarefas de sequência para sequência, um decodificador começa com o estado interno gerado pelo codificador para prever a próxima sequência.
-
rede neural profunda (DNN)
- Uma rede neural com várias camadas ocultas, geralmente programada com técnicas de aprendizado profundo.
-
depth
- A soma dos seguintes itens em uma rede neural: 1. o número de camadas ocultas 2. o número de camadas de saída, que normalmente é um 3. o número de camadas de incorporação. Por exemplo, uma rede neural com cinco camadas ocultas e uma camada de saída tem uma profundidade de 6. A camada de entrada não influencia a profundidade.
-
DevOps
- DevOps é um conjunto de produtos do Google Cloud Platform, por exemplo, Artifact Registry e Cloud Deploy.
-
Parada antecipada
- Um método de regularização que envolve encerrar o treinamento antes que a perda de treinamento termine de diminuir. Na parada antecipada, você interrompe intencionalmente o treinamento do modelo quando a perda em um conjunto de dados de validação começa a aumentar, ou seja, quando a performance de generalização piora.
-
embedding
- Representações numéricas de palavras ou partes de texto. Esses números captam o significado semântico e o contexto do texto. Palavras ou textos semelhantes ou relacionados tendem a ter embeddings semelhantes, o que significa que estão mais próximos no espaço vetorial de alta dimensão.
-
espaço de incorporação (espaço latente)
- Na IA generativa, o espaço de embedding se refere a uma representação numérica de textos, imagens ou vídeos que captura as relações entre as entradas. Os modelos de aprendizado de máquina, especialmente os de IA generativa, são capazes de criar esses embeddings identificando padrões em grandes conjuntos de dados. Os aplicativos podem usar embeddings para processar e gerar linguagem, reconhecendo significados complexos e relações semânticas específicas do conteúdo.
-
vetor de embedding
- Uma representação vetorial densa, geralmente de baixa dimensionalidade, de um item. Se dois itens forem semanticamente semelhantes, os respectivos embeddings vão estar localizados próximos um do outro no espaço vetorial de embedding.
-
codificador
- Em geral, qualquer sistema de ML que converta uma representação bruta, esparsa ou externa em uma representação mais processada, densa ou interna. Os codificadores geralmente são um componente de um modelo maior, em que são frequentemente associados a um decodificador. Alguns transformadores combinam codificadores com decodificadores, mas outros usam apenas o codificador ou apenas o decodificador. Alguns sistemas usam a saída do codificador como entrada para uma rede de classificação ou regressão. Em tarefas de sequência para sequência, um codificador recebe uma sequência de entrada e retorna um estado interno (um vetor). Em seguida, o decodificador usa esse estado interno para prever a próxima sequência.
-
ensemble
- Uma coleção de modelos treinados de forma independente, com previsões que são calculadas ou agregadas. Em muitos casos, um conjunto produz previsões melhores do que um único modelo. Por exemplo, uma floresta aleatória é um conjunto criado a partir de várias árvores de decisão. Nem todas as florestas de decisão são conjuntos.
-
ambiente
- No aprendizado por reforço, o mundo que contém o agente e permite que ele observe o estado desse mundo. Por exemplo, o mundo representado pode ser um jogo como o xadrez ou um mundo físico como um labirinto. Quando o agente aplica uma ação ao ambiente, ele faz a transição entre os estados.
-
avaliação (eval)
- Uma avaliação, abreviação de "avaliação", é um tipo de experimento em que as consultas registradas ou sintéticas são enviadas por duas pilhas de pesquisa: uma pilha experimental que inclui sua mudança e uma pilha de base sem a mudança. As avaliações produzem diferenças e métricas que permitem avaliar o impacto, a qualidade e outros efeitos da mudança nos resultados da pesquisa e em outras partes da experiência do usuário do Google. As avaliações são usadas durante o ajuste ou as iterações da mudança. Elas também são usadas como parte do lançamento de uma mudança no tráfego de usuários em tempo real.
-
execução
- Uma execução é um registro de uma etapa de fluxo de trabalho de machine learning individual, geralmente anotado com os parâmetros de ambiente de execução. Exemplos de execuções incluem ingestão, validação e treinamento de modelos, avaliação e implantação de modelos.
-
Pontuação F1
- O F1 score é uma métrica usada para avaliar a precisão da saída de um modelo. Ela é particularmente útil para avaliar o desempenho de modelos em tarefas em que a precisão e o recall são importantes, como a extração de informações. Para modelos de IA generativa, o F1 pode ser usado para comparar as previsões do modelo com dados de informações empíricas e determinar a precisão dele. No entanto, para tarefas generativas, como resumo e geração de texto, outras métricas, como a pontuação Rough-L, podem ser mais adequadas.
-
recurso
- Em machine learning (ML), um atributo é uma característica ou atributo de uma instância ou entidade usada como entrada para treinar um modelo de ML ou fazer previsões.
-
extração de recursos
- No contexto da IA generativa, a extração de atributos se refere ao processo de identificação e seleção de atributos relevantes dos dados de entrada para serem usados no treinamento do modelo. Esses recursos são usados para gerar novos dados que se assemelham à entrada original. Por exemplo, na geração de imagens, a extração de recursos pode envolver a identificação de bordas, texturas e cores. No processamento de linguagem natural, isso pode envolver a extração de palavras-chave, frases e estruturas gramaticais. Os recursos extraídos são usados pelo modelo generativo para criar novos conteúdos.
-
disponibilização de recursos
- A exibição de atributos é o processo de exportação ou busca de valores de atributos para treinamento ou inferência. Na Vertex AI, há dois tipos de exibição de atributos: exibição on-line e exibição off-line. A disponibilização on-line recupera os valores de atributos mais recentes de um subconjunto da fonte de dados de atributos para previsões on-line. A disponibilização off-line ou em lote exporta grandes volumes de dados de atributos, incluindo dados históricos, para processamento off-line, como treinamento de modelos de ML.
-
Visualização do recurso
- Uma visualização de recursos é uma coleção lógica de recursos materializados de uma fonte de dados do BigQuery para uma instância de loja on-line. Uma visualização de recurso armazena e atualiza periodicamente os dados de recursos do cliente, que são atualizados periodicamente na origem do BigQuery. Ela é associada diretamente ao armazenamento de dados ou por associações com os recursos de registro do recurso.
-
Comando de poucos disparos (few-shot)
- Na IA generativa, "few-shot" se refere a um tipo de comando que inclui um pequeno número de exemplos para orientar a resposta do modelo. Esses exemplos ajudam o modelo a entender o formato de saída, a frase, o escopo ou o padrão geral da resposta. Os comandos de poucos disparos são usados com frequência para regular a saída de modelos de linguagem, garantindo que eles gerem respostas precisas, de alta qualidade e consistentes com as expectativas do usuário. Ao fornecer alguns exemplos relevantes ao modelo, o usuário pode influenciar o comportamento dele e obter resultados mais satisfatórios. Para mais informações, consulte Incluir exemplos de few-shot.
-
modelo de base (FM)
- Modelos treinados com dados amplos para que possam ser adaptados (por exemplo, ajustados) a uma ampla gama de tarefas downstream.
-
Operações de modelo de base (FMOPs)
- As FMOps ampliam os recursos do MLOps e se concentram na produção eficiente de FMs pré-treinados (treinados do zero) ou personalizados (ajustados).
-
Gemini
- O Gemini é um conjunto de modelos multimodais grandes baseados em sequência do Google. Isso significa que eles podem aceitar entradas e produzir saídas em mais de um meio de comunicação por vez, incluindo texto, áudio e mídia visual. Eles são projetados para se integrar a agentes capazes de realizar várias tarefas. Para mais informações, consulte Modelos do Google.
-
generalização
- Capacidade de um modelo de fazer previsões corretas com dados novos e não vistos anteriormente. Um modelo que pode ser generalizado é o oposto de um modelo que está com overfitting.
-
geração
- No contexto da IA generativa, "geração" se refere ao processo de criação de novos dados ou conteúdo a partir de dados ou informações atuais. Os modelos de IA generativa são treinados com grandes conjuntos de dados e podem aprender padrões e relações dentro deles. Esse conhecimento pode ser usado para gerar conteúdo novo e exclusivo, semelhante aos dados de treinamento, mas não uma réplica exata. Para mais informações, consulte https://cloud.google.com/docs/ai-ml/generative-ai/generative-ai-or-traditional-ai.
-
modelo generativo
- Um tipo de modelo de aprendizado de máquina que pode criar novas saídas com base nos dados de treinamento. De forma simples, o modelo gera novos dados que se parecem com um determinado conjunto de categorias em que ele foi treinado. Geralmente, é associado a modelos de linguagem grandes, mas outros tipos de modelos também podem ser generativos.
-
Sistema de modem integrado do Google (GEMS)
- O GEMS é um framework de software incorporado voltado para modems e um conjunto de fluxos de trabalho e infraestrutura de desenvolvimento. O objetivo principal do GEMS é fornecer um código de sistema de modem de alta qualidade com alta reutilizabilidade em muitos dispositivos do Google que contêm modems. Para alcançar essa visão ampla, o GEMS oferece um ambiente abrangente para desenvolvedores, composto pelos principais blocos de construção mostrados abaixo.
-
gradiente
- O vetor de derivadas parciais em relação a todas as variáveis independentes. No aprendizado de máquina, o gradiente é o vetor de derivadas parciais da função do modelo. O gradiente aponta na direção da subida mais íngreme.
-
gráfico
- No contexto da IA generativa, um gráfico se refere a uma representação estruturada de informações que organiza e conecta dados como uma rede de nós e arestas. Esses gráficos são usados com frequência para representar o conhecimento e as relações entre entidades, o que os torna particularmente úteis para sistemas de IA generativa que exigem um entendimento profundo do contexto e das relações nos dados. Os sistemas de IA geral que usam gráficos de conhecimento podem usá-los para melhorar o desempenho dos modelos de recuperação. Ao incorporar gráficos de conhecimento ao sistema, a IA generativa pode acessar dados ricos em contexto e percorrer o gráfico para recuperar subgráficos relevantes com base nas consultas do usuário. Isso permite que o sistema forneça respostas mais precisas e informativas, gerando conteúdo relevante para o contexto.
-
informações empíricas (IE)
- A verdade absoluta é um termo usado em vários campos para se referir à verdade absoluta de algum problema de decisão ou medição, em vez da estimativa de algum sistema. No aprendizado de máquina, o termo "informações empíricas" se refere ao conjunto de treinamento para técnicas de aprendizado supervisionado.
-
alucinação
- Uma alucinação na IA generativa é uma resposta confiante de uma IA que não pode ser fundamentada pelos dados de treinamento. Pode ser factualmente incorreto. No contexto da geração de texto, são falsidades aleatórias que parecem plausíveis no conteúdo do texto gerado.
-
heurística
- Uma solução simples e rápida para um problema. Por exemplo, "Com uma heurística, alcançamos 86% de precisão. Quando mudamos para uma rede neural profunda, a precisão aumentou para 98%".
-
camada oculta
- Uma camada em uma rede neural entre a camada de entrada (os recursos) e a camada de saída (a previsão). Cada camada oculta consiste em um ou mais neurônios. Uma rede neural profunda contém mais de uma camada oculta.
-
histogram
- Uma exibição gráfica da variação em um conjunto de dados usando barras. Um histograma visualiza padrões que são difíceis de detectar em uma tabela simples de números.
-
hiperparâmetro
- Um hiperparâmetro se refere a uma variável que governa o processo de treinamento de um modelo de aprendizado de máquina. Essas variáveis podem incluir taxas de aprendizado, valores de momentum no otimizador e o número de unidades na última camada oculta de um modelo. O ajuste de hiperparâmetros na Vertex AI envolve a execução de vários testes de um aplicativo de treinamento com valores diferentes para os hiperparâmetros escolhidos, definidos dentro dos limites especificados. O objetivo é otimizar as configurações de hiperparâmetros para maximizar a precisão preditiva do modelo. Para mais informações, consulte a Visão geral do ajuste de hiperparâmetros.
-
Imagen
- O Imagen é um serviço de IA generativa de texto para imagem disponível na plataforma Vertex AI. Ele permite que os usuários gerem imagens novas, editem imagens, ajustem modelos de estilo ou de assunto, coloquem legendas em imagens ou recebam respostas a perguntas sobre o conteúdo da imagem. Para mais informações, consulte a Visão geral do Imagen na Vertex AI.
-
reconhecimento de imagem
- O reconhecimento de imagem é o processo de classificação de objetos, padrões ou conceitos em uma imagem. Também é conhecida como classificação de imagens. O reconhecimento de imagem é um subcampo do aprendizado de máquina e da visão computacional.
-
index
- Índice: um conjunto de vetores implantados juntos para a pesquisa por similaridade. Os vetores podem ser adicionados a um índice ou removidos dele. As consultas de pesquisa de similaridade são emitidas para um índice específico e pesquisam os vetores nesse índice.
-
inferência
- No contexto da plataforma Vertex AI, a inferência se refere ao processo de execução de pontos de dados em um modelo de machine learning para calcular uma saída, como uma única pontuação numérica. Esse processo também é conhecido como "operar um modelo de machine learning" ou "colocar um modelo de machine learning em produção". A inferência é uma etapa importante no fluxo de trabalho de machine learning, porque permite que os modelos sejam usados para fazer previsões sobre novos dados. Na Vertex AI, a inferência pode ser realizada de várias maneiras, incluindo a previsão em lote e a previsão on-line. A previsão em lote envolve a execução de um grupo de solicitações de previsão e a saída dos resultados em um arquivo. Já a previsão on-line permite previsões em tempo real em pontos de dados individuais.
-
recuperação de informações (IR)
- A recuperação de informações (IR) é um componente importante da Vertex AI para Pesquisa. É o processo de encontrar e extrair informações relevantes de uma grande coleção de dados. No contexto da Vertex AI, a IR é usada para recuperar documentos de um corpus com base na consulta de um usuário. A Vertex AI oferece um pacote de APIs para ajudar você a criar seus próprios aplicativos de geração aumentada de recuperação (RAG, na sigla em inglês) ou seu próprio mecanismo de pesquisa. Para mais informações, consulte Usar a Vertex AI Search como um back-end de recuperação usando o RAG Engine.
-
taxa de aprendizado (tamanho do passo)
- A taxa de aprendizado é um hiperparâmetro usado para ajustar o processo de otimização de um modelo de aprendizado de máquina. Ela determina o tamanho do passo em que o modelo atualiza os pesos durante o treinamento. Uma taxa de aprendizado mais alta pode levar a uma convergência mais rápida, mas pode resultar em instabilidade ou ajuste excessivo. Por outro lado, uma taxa de aprendizado mais baixa pode levar a uma convergência mais lenta, mas pode ajudar a evitar o ajuste excessivo, sem fontes. Para mais informações, consulte Visão geral do ajuste de hiperparâmetros.
-
loss (cost)
- Durante o treinamento de um modelo supervisionado, uma medida de quão distante a previsão de um modelo está do rótulo. Uma função de perda calcula a perda.
-
Conjunto de dados gerenciado
- Um objeto de conjunto de dados criado e hospedado pela Vertex AI.
-
model
- Qualquer modelo pré-treinado ou não. Em geral, qualquer construção matemática que processa dados de entrada e retorna a saída. Em outras palavras, um modelo é o conjunto de parâmetros e estrutura necessários para que um sistema faça previsões.
-
Destilação de modelo (destilação de conhecimento, modelos professor-aluno)
- A destilação de modelos é uma técnica que permite que um modelo estudante menor aprenda com um modelo professor maior. O modelo do estudante é treinado para imitar a saída do modelo do professor e pode ser usado para gerar novos dados ou fazer previsões. A destilação de modelos é usada com frequência para tornar modelos grandes mais eficientes ou mais acessíveis a dispositivos com recursos limitados. Ele também pode ser usado para melhorar a generalização dos modelos, reduzindo o ajuste excessivo.
-
nome do recurso do modelo
- O nome do recurso para um
model
da seguinte forma: projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>. Encontre o ID do modelo no console do Cloud, na página "Registro do modelo".
- O nome do recurso para um
-
Sistema de arquivos de rede (NFS)
- Um sistema cliente/servidor que permite que os usuários acessem arquivos em uma rede e os tratem como se estivessem em um diretório de arquivos local.
-
Codificação one-hot
- A codificação simples é comumente usada para representar strings ou identificadores que têm um conjunto finito de valores possíveis. Para mais informações, consulte Dados categóricos: vocabulário e codificação one-hot.
-
comando one-shot
- Um comando que contém um exemplo demonstrando como o modelo de linguagem grande deve responder. Para mais informações, consulte comando único.
-
parâmetro
- Os parâmetros são valores de entrada com chave que configuram uma execução, regulam o comportamento dela e afetam os resultados. Exemplos incluem taxa de aprendizado, taxa de desistência e número de etapas de treinamento.
-
perplexidade
- A perplexidade é uma métrica usada para avaliar o desempenho dos modelos de linguagem. Ele mede a probabilidade de o modelo gerar uma determinada sequência de texto com base na distribuição do texto em que foi treinado. A perplexidade é uma métrica usada com frequência para avaliar modelos de linguagem e é usada para comparar o desempenho de modelos diferentes ou acompanhar o progresso de um modelo durante o treinamento.
-
pipeline
- Os pipelines de ML são fluxos de trabalho de ML portáteis e escalonáveis baseados em contêineres. Para mais informações, consulte Introdução ao Vertex AI Pipelines.
-
pipeline job
- Um job de pipeline ou uma execução de pipeline corresponde ao recurso PipelineJob na API Vertex AI. É uma instância de execução da definição do pipeline de ML, que é definida como um conjunto de tarefas de ML interconectadas por dependências de entrada/saída.
-
execução de pipeline
- Um ou mais PipelineJobs do Vertex podem ser associados a um experimento em que cada PipelineJob é representado como uma única execução. Nesse contexto, os parâmetros da execução são inferidos pelos parâmetros do PipelineJob. As métricas são inferidas dos artefatos do system.Metric produzidos por esse PipelineJob. Os artefatos da execução são inferidos dos artefatos produzidos pelo PipelineJob.
-
Acesso a serviços particulares
- O acesso a serviços particulares é uma conexão privada entre sua rede de nuvem privada virtual (VPC) e as redes de propriedade do Google ou de provedores de serviços de terceiros. Ele permite que as instâncias de máquina virtual (VM) na sua rede VPC se comuniquem com esses serviços usando endereços IP internos, evitando a exposição à Internet pública. Para mais informações, consulte Acesso a serviços privados.
-
prompt
- Um comando é um pedido em linguagem natural enviado a um modelo de linguagem para receber uma resposta. Os comandos podem conter perguntas, instruções, informações contextuais, exemplos few-shot e entrada parcial para que o modelo conclua ou continue. Depois que o modelo recebe um comando, dependendo do tipo de modelo usado, ele pode gerar texto, embeddings, código, imagens, vídeos, músicas e mais. Para mais informações, consulte Visão geral das estratégias de solicitação.
-
Engenharia de comando (design de comando)
- A engenharia de comandos na IA generativa é o processo de criar comandos eficazes para extrair as saídas desejadas de modelos de linguagem grandes (LLMs). É um processo iterativo e orientado a testes focado em refinar entradas para alcançar resultados específicos. Isso envolve considerar o conteúdo e a estrutura do comando para garantir respostas precisas e de alta qualidade. Uma engenharia de comando eficaz é crucial para tarefas complexas, mesmo que tarefas mais simples não precisem dela. O objetivo é criar protótipos de aplicativos baseados em LLM rapidamente. Para mais informações, consulte Introdução à engenharia de comandos.
-
ajuste de comando
- O ajuste de comando é um método de ajuste fino com eficiência de parâmetros usado para melhorar o desempenho de um modelo de IA generativa em uma tarefa específica. Ele envolve aprender um "prefixo" que é adicionado à instrução real, às vezes em todas as camadas. Essa abordagem é considerada mais barata e rápida do que outros métodos de ajuste, geralmente gerando bons resultados. O ajuste de comando é particularmente eficaz quando você tem uma tarefa específica e quer que o modelo a execute de uma determinada maneira. Às vezes, também é chamada de aprendizado rápido ou ajuste fino com eficiência de parâmetros. Para mais informações, consulte Introdução à engenharia de comandos.
-
Capacidade de processamento provisionada (CP)
- A capacidade de processamento provisionada (PT, na sigla em inglês) é um serviço premium para modelos de IA generativa da Vertex AI que oferece uma experiência garantida com garantia de capacidade e preços previsíveis. Ao contrário da opção de pagamento conforme o uso (sob demanda), o PT permite que os clientes comprem uma cota dedicada, garantindo que as solicitações não concorram com outras pela capacidade do modelo. A capacidade de processamento provisionada é uma assinatura mensal ou semanal de custo fixo que reserva a capacidade de processamento para modelos e locais especificados. Para mais informações, consulte Visão geral da capacidade de processamento provisionada.
-
quantização
- A quantização é uma técnica de otimização de modelos usada para reduzir a precisão dos números usados para representar os parâmetros de um modelo. Isso pode levar a modelos menores, consumo de energia mais baixo e latência de inferência reduzida.
-
Floresta aleatória
- A floresta aleatória é um algoritmo de aprendizado de máquina usado para classificação e regressão. Ele não é um modelo de IA generativa, mas um componente que pode ser usado em um sistema de IA generativa maior. Um random forest consiste em várias árvores de decisão, e a previsão dele é uma agregação das previsões dessas árvores individuais. Por exemplo, em uma tarefa de classificação, cada árvore "vota" em uma classe, e a previsão final é a classe com mais votos. Para mais informações, consulte Floresta de decisões.
-
Cluster do Ray na Vertex AI
- Um cluster do Ray na Vertex AI é um cluster gerenciado de nós de computação que pode ser usado para executar aplicativos de machine learning (ML) e Python distribuídos. Ele fornece a infraestrutura para realizar computação distribuída e processamento paralelo para seu fluxo de trabalho de ML. Os clusters Ray são integrados à Vertex AI para garantir a disponibilidade de capacidade para cargas de trabalho de ML essenciais ou durante períodos de pico. Ao contrário dos jobs personalizados, em que o serviço de treinamento libera o recurso após a conclusão do job, os clusters Ray permanecem disponíveis até a exclusão. Para mais informações, consulte Visão geral do Ray na Vertex AI.
-
Ray na Vertex AI (RoV)
- O Ray na Vertex AI foi projetado para que você possa usar o mesmo código aberto Ray para escrever programas e desenvolver aplicativos na Vertex AI com alterações mínimas. Para mais informações, consulte Visão geral do Ray na Vertex AI.
-
SDK do Ray na Vertex AI para Python
- O SDK do Ray na Vertex AI para Python é uma versão do SDK da Vertex AI para Python que inclui a funcionalidade do Ray Client, conector do Ray para BigQuery, gerenciamento de clusters do Ray na Vertex AI e previsões na Vertex AI. Para mais informações, consulte Introdução ao SDK da Vertex AI para Python.
-
recall
- Recall: a porcentagem de verdadeiros vizinhos mais próximos retornados pelo índice. Por exemplo, se uma consulta de vizinho mais próxima de 20 vizinhos mais próximos retornou 19 dos vizinhos mais próximos, o recall será de 19/20x100 = 95%.
-
sistema de recomendação
- Um sistema de recomendação é um sistema baseado em aprendizado de máquina que ajuda os usuários a encontrar conteúdo interessante em um grande corpus. Ele gera um subconjunto menor de candidatos de um corpus potencialmente grande, pontua e classifica os candidatos e classifica novamente a classificação final para levar em conta outras restrições. Para mais informações, consulte Visão geral dos sistemas de recomendação.
-
regularização
- A regularização é uma técnica usada para evitar o overfitting em modelos de aprendizado de máquina. O overfitting ocorre quando um modelo aprende muito bem os dados de treinamento, resultando em um desempenho ruim em dados não vistos. Um tipo específico de regularização mencionado é a parada antecipada, em que o treinamento é interrompido antes que a perda em um conjunto de dados de validação comece a aumentar, indicando uma redução no desempenho de generalização. Para mais informações, consulte Overfitting: regularização L2.
-
conta de serviço
- No Google Cloud, uma conta de serviço é um tipo especial de conta usada por um aplicativo ou uma instância de máquina virtual (VM), não uma pessoa. Os aplicativos usam contas de serviço para fazer chamadas de API autorizadas.
-
agente de serviço
- Um agente de serviço se refere a uma conta de serviço gerenciada pelo Google. Ele é usado quando um serviço precisa de acesso a recursos criados por outro serviço. Por exemplo, quando os serviços do Dataflow ou do Dataproc precisam criar instâncias durante a execução ou quando uma função do Cloud quer usar o serviço de gerenciamento de chaves (KMS) para protegê-la. Os agentes de serviço são criados automaticamente pelo Google Cloud quando um serviço os exige. Eles geralmente são usados para gerenciar o acesso a recursos e realizar várias tarefas em nome do serviço. Para mais informações, consulte Agentes de serviço.
-
Métricas de resumo
- As métricas de resumo são um valor único para cada chave de métrica de uma execução de experimento. Por exemplo, a precisão de um experimento é a precisão calculada com base em um conjunto de dados de teste no final do treinamento, que pode ser capturado como uma única métrica de resumo de valor.
-
TensorBoard
- O TensorBoard é um pacote de aplicativos da Web para visualizar e entender modelos e execuções do TensorFlow. Para mais informações, consulte TensorBoard.
-
Instância do TensorBoard
- Uma instância do TensorBoard é um recurso regionalizado que armazena Experimentos do TensorBoard da Vertex AI associados a um projeto. É possível criar várias instâncias do TensorBoard em um projeto, por exemplo, quando você quer várias instâncias ativadas para CMEK. Esse recurso é igual ao recurso TensorBoard na API.
-
Nome do recurso do TensorBoard
- Um nome de recurso do TensorBoard é usado para identificar totalmente uma instância do TensorBoard da Vertex AI. O formato é o seguinte: projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
-
ajuste de tempo
- O ajuste de horário é relativo ao início de um vídeo.
-
métricas de série temporal
- As métricas de série temporal são valores de métrica longitudinais em que cada valor representa uma etapa na parte da rotina de treinamento de uma execução. As métricas de séries temporais são armazenadas no TensorBoard da Vertex AI. O Vertex AI Experiments armazena uma referência ao recurso Vertex TensorBoard.
-
token
- Um token em um modelo de linguagem é a unidade atômica que o modelo usa para treinar e fazer previsões, ou seja, palavras, morfemas e caracteres. Em domínios fora dos modelos de linguagem, os tokens podem representar outros tipos de unidades atômicas. Por exemplo, em visão computacional, um token pode ser um subconjunto de uma imagem. Para mais informações, consulte Listar e contar tokens.
-
trajetória
- Uma "trajetória" se refere a uma sequência de etapas ou ações realizadas por um agente ou modelo. Ele é usado com frequência na avaliação de modelos generativos, em que a capacidade do modelo de gerar texto, código ou outro conteúdo é avaliada. Há vários tipos de métricas de trajetória que podem ser usados para avaliar modelos generativos, incluindo correspondência exata, correspondência na ordem, correspondência em qualquer ordem e precisão da trajetória. Essas métricas medem a similaridade entre a saída do modelo e um conjunto de saídas de referência geradas por humanos.
-
Transformer
- Um "Transformer" é uma arquitetura de rede neural que é a base da maioria dos modelos generativos mais avançados. Ele é usado em vários aplicativos de modelo de linguagem, incluindo tradução. Os transformadores consistem em um codificador e um decodificador. O codificador converte o texto de entrada em uma representação intermediária, e o decodificador converte isso em uma saída útil. Eles usam um mecanismo de autoatenção para reunir o contexto das palavras ao redor da palavra que está sendo processada. Embora o treinamento de um Transformer exija recursos significativos, o ajuste fino de um Transformer pré-treinado para aplicativos específicos é mais eficiente.
-
Aprendizado por reforço de transformador
- O aprendizado por reforço de transformador (TRL, na sigla em inglês) se refere à aplicação de técnicas de aprendizado por reforço (RL) para treinar modelos baseados em transformadores para tarefas generativas. Essa abordagem aborda as limitações dos modelos generativos tradicionais, que geralmente são treinados na previsão do próximo token sem otimização explícita para qualidades desejáveis, como coerência, segurança e sensibilidade. O TRL otimiza diretamente o modelo de linguagem em objetivos complexos usando o RL, muitas vezes incorporando feedback humano (RLHF) para orientar o processo de aprendizado. Por exemplo, ajustar modelos para gerar conteúdo menos tóxico usando modelos de recompensa e usar o TRL para ajustar o Gemma, um modelo generativo. Para mais informações, consulte DLCs de rostos sorridentes: como ajustar o Gemma com o aprendizado por reforço de transformador (TRL, na sigla em inglês) na Vertex AI.
-
verdadeiro positivo
- Um "verdadeiro positivo" se refere a uma previsão em que o modelo identifica corretamente uma classe positiva. Por exemplo, se um modelo for treinado para identificar clientes que vão comprar uma jaqueta, um verdadeiro positivo vai prever corretamente que um cliente vai fazer essa compra.
-
validação
- A validação verifica a qualidade das previsões de um modelo em relação ao conjunto de validação. Isso envolve definir métricas para medir a qualidade, a velocidade, a aderência às instruções e a segurança do conteúdo gerado. A validação geralmente usa dados rotulados (comandos de entrada e saídas esperadas) para comparar as previsões do modelo com as informações empíricas. Métricas como pontuação F1 (para classificação) e pontuação ROUGE-L (para resumo) podem ser usadas. O processo também inclui testes de casos extremos e cenários incomuns para garantir a robustez. Para modelos implantados, o monitoramento e a captura contínuos de pontos de dados comuns e casos extremos ajudam a melhorar as próximas validações.
-
vetor
- Um vetor se refere a uma representação numérica de texto, imagens ou vídeos que captura as relações entre as entradas. Os modelos de aprendizado de máquina são adequados para criar embeddings identificando padrões em grandes conjuntos de dados. Os aplicativos podem usar embeddings para processar e produzir linguagem, reconhecendo significados complexos e relações semânticas específicas do conteúdo. Para mais informações, consulte Visão geral das APIs de embeddings.
-
Experimentos da Vertex AI
- O Vertex AI Experiments permite que os usuários acompanhem: 1. Etapas de uma execução do experimento (por exemplo, pré-processamento e treinamento). 2. Entradas (por exemplo, algoritmo, parâmetros e conjuntos de dados). 3. Resultados dessas etapas (por exemplo, modelos, pontos de controle e métricas).
-
Vertex AI Model Registry
- O Vertex AI Model Registry é um repositório central em que é possível gerenciar o ciclo de vida dos seus modelos de ML. No Vertex AI Model Registry, você tem uma visão geral dos seus modelos para organizar, rastrear e treinar melhor as novas versões. Quando você tem uma versão de modelo que quer implantar, é possível atribuí-la a um endpoint diretamente do registro ou, usando aliases, implantar modelos em um endpoint. Para mais informações, consulte Introdução ao Vertex AI Model Registry.
-
trecho de vídeo
- Um trecho de vídeo é identificado pelo deslocamento de início e término de um vídeo.
-
nuvem privada virtual (VPC)
- A nuvem privada virtual é um pool configurável de recursos de computação compartilhados sob demanda, alocado em um ambiente de nuvem pública e que oferece um nível de isolamento entre diferentes organizações que usam esses recursos.
-
incorporação de palavras
- Os embeddings de palavras são uma maneira de representar palavras como vetores densos de valores de ponto flutuante. Isso permite que palavras semelhantes tenham codificações semelhantes. Os embeddings de palavras são usados com frequência na IA generativa para capturar as relações entre palavras e gerar novos textos ou códigos, sem fontes. Na IA generativa, os embeddings de palavras podem ser usados para treinar modelos que geram novos textos ou códigos. Ao entender as relações entre as palavras, os modelos de IA generativa podem criar conteúdo novo, coerente e relevante.
-
comando zero-shot (comando direto)
- Na IA generativa, um comando zero-shot permite que um modelo de linguagem grande (LLM) execute uma tarefa sem nenhum treinamento ou exemplo adicional. Isso contrasta com métodos como o comando de poucas fotos, que fornece ao modelo exemplos de entradas e saídas. Um comando sem contexto depende apenas do conhecimento prévio do modelo para gerar uma resposta. Para mais informações, consulte Comando "zero-shot".