-
agente
- No contexto da IA generativa, um agente é um software que planeia e executa autonomamente uma série de ações na prossecução de um objetivo, potencialmente em situações novas. Os agentes podem ser usados em várias aplicações, como o processamento de linguagem natural, a aprendizagem automática e a robótica. Por exemplo, um agente de MDIs usa um modelo de linguagem para avaliar o ambiente e escolher uma ação que o ajude a atingir o seu objetivo. Os agentes de MDIs podem ser usados para gerar texto, traduzir idiomas e responder a perguntas.
-
Ponto final da API
- Os pontos finais da API são um aspeto da configuração do serviço que especifica os endereços de rede, também conhecidos como pontos finais do serviço (por exemplo, aiplatform.googleapis.com).
-
Credenciais padrão da aplicação (ADC)
- As Credenciais padrão da aplicação (ADC) oferecem uma forma simples de obter credenciais de autorização para utilização em chamadas para APIs Google. São mais adequadas para casos em que a chamada tem de ter o mesmo nível de identidade e autorização para a aplicação, independentemente do utilizador. Esta é a abordagem recomendada para autorizar chamadas para as Google Cloud APIs, particularmente quando está a criar uma aplicação implementada no Google App Engine (GAE) ou em máquinas virtuais do Compute Engine. Para mais informações, consulte o artigo Como funcionam as Credenciais padrão da aplicação.
-
Vizinho mais próximo aproximado (ANN)
- O serviço de vizinho mais próximo aproximado (ANN) é uma solução de grande escala e baixa latência para encontrar vetores semelhantes (ou, mais especificamente, "incorporações") para um grande conjunto de dados. Para mais informações, consulte o artigo Como usar a pesquisa vetorial para correspondência semântica.
-
artefacto
- Um artefacto é uma entidade discreta ou um fragmento de dados produzido e consumido por um fluxo de trabalho de aprendizagem automática. Alguns exemplos de artefactos incluem conjuntos de dados, modelos, ficheiros de entrada e registos de preparação.
-
Artifact Registry
- O Artifact Registry é um serviço de gestão de artefactos universal. É o serviço recomendado para gerir contentores e outros artefactos no Google Cloud. Para mais informações, consulte o Artifact Registry.
-
Inteligência artificial (IA)
- A inteligência artificial (ou IA) é o estudo e o design de máquinas que parecem ser "inteligentes", ou seja, que imitam funções humanas ou intelectuais, como o movimento mecânico, o raciocínio ou a resolução de problemas. Um dos subcampos mais populares da IA é a aprendizagem automática, que usa uma abordagem estatística e orientada por dados para criar IA. No entanto, algumas pessoas usam estes dois termos de forma intercambiável.
-
Realidade aumentada (RA)
- Misturar conteúdo digital renderizado com conteúdo do mundo real, através de um ecrã, como num telemóvel, ou como uma sobreposição ao mundo visto através de óticas, como óculos. O conteúdo digital deve ser acompanhado pelo movimento da câmara ou dos óculos (consoante a forma como a cena é renderizada) para que pareça fazer parte do mundo real.
-
autenticação
- O processo de validação da identidade de um cliente (que pode ser um utilizador ou outro processo) para fins de obtenção de acesso a um sistema seguro. Diz-se que um cliente que comprovou a sua identidade está autenticado. Para mais informações, consulte o artigo Métodos de autenticação na Google.
-
Lado a lado automático (AutoSxS)
- A comparação lado a lado automática (AutoSxS) é uma ferramenta de avaliação assistida por modelos que compara dois modelos de linguagem (conteúdo extenso) (MDIs/CEs) lado a lado. Pode ser usado para avaliar o desempenho de modelos de IA generativa no Registo de modelos Vertex AI ou inferências pré-geradas. O AutoSxS usa um avaliador automático para decidir que modelo dá a melhor resposta a um comando. O AutoSxS está disponível a pedido e avalia modelos de linguagem com um desempenho comparável ao dos avaliadores humanos.
-
Reconhecimento de voz automático (ASR,voz para texto)
- Transcrição automática de linguagem falada (voz) em texto.
-
AutoML
- Algoritmos de aprendizagem automática que "aprendem a aprender" através da otimização de caixa negra. Para mais informações, consulte o Glossário de ML.
-
autorater
- Um avaliador automático é um modelo de linguagem que avalia a qualidade das respostas do modelo com base num comando de inferência original. É usado no pipeline AutoSxS para comparar as inferências de dois modelos e determinar qual teve o melhor desempenho. Para mais informações, consulte o artigo O autorater.
-
valor de referência
- Um modelo usado como ponto de referência para comparar o desempenho de outro modelo (normalmente, um mais complexo). Por exemplo, um modelo de regressão logística pode servir como uma boa base para um modelo profundo. Para um problema específico, a linha de base ajuda os programadores de modelos a quantificar o desempenho mínimo esperado que um novo modelo tem de alcançar para ser útil. Para mais informações, consulte o artigo Conjuntos de dados de base e de destino.
-
lote
- O conjunto de exemplos usados numa iteração de preparação. A dimensão do lote determina o número de exemplos num lote.
-
batch size
- O número de exemplos num lote. Por exemplo, o tamanho do lote do SGD é 1, enquanto o tamanho do lote de um minilote está normalmente entre 10 e 1000. O tamanho do lote é normalmente fixo durante a preparação e a inferência. No entanto, o TensorFlow permite tamanhos de lotes dinâmicos.
-
inferência em lote
- A inferência em lote recebe um grupo de pedidos de inferência e produz os resultados num ficheiro. Para mais informações, consulte o artigo Vista geral da obtenção de inferências na Vertex AI.
-
parcialidade
- 1. Estereótipos, preconceitos ou favoritismo em relação a algumas coisas, pessoas ou grupos em detrimento de outros. Estes preconceitos podem afetar a recolha e a interpretação de dados, a conceção de um sistema e a forma como os utilizadores interagem com um sistema. 2. Erro sistemático introduzido por um procedimento de amostragem ou de relatórios.
-
bidirecional
- Um termo usado para descrever um sistema que avalia o texto que precede e segue uma secção de texto de destino. Por outro lado, um sistema unidirecional avalia apenas o texto que precede uma secção de texto de destino.
-
Bidirectional Encoder Representations from Transformers (BERT)
- O BERT é um método de pré-preparação de representações de linguagem, o que significa que preparamos um modelo de "compreensão de linguagem" de uso geral num grande corpus de texto (como a Wikipédia) e, em seguida, usamos esse modelo para tarefas de PNL posteriores que nos interessam (como responder a perguntas). O BERT supera os métodos anteriores porque é o primeiro sistema não supervisionado e profundamente bidirecional para pré-treino de PNL.
-
Bilingual Evaluation Understudy (BLEU)
- Uma medida popular para avaliar a qualidade de um algoritmo de tradução automática comparando o respetivo resultado com o de uma ou mais traduções humanas.
-
aumentar
- Na preparação de modelos: o aumento pode referir-se a técnicas de aumento de dados usadas para aumentar a dimensão e a diversidade dos conjuntos de dados de preparação. Isto é feito transformando exemplos existentes para criar exemplos adicionais e variados, o que pode melhorar o desempenho do modelo, especialmente quando o conjunto de dados original é limitado.
-
caixa limitadora
- Uma caixa delimitadora para um objeto no frame do vídeo pode ser especificada de duas formas: (i) usando 2 vértices que consistem num conjunto de coordenadas x,y se forem pontos diagonalmente opostos do retângulo. Por exemplo: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Use todos os 4 vértices. Para mais informações, consulte o artigo Prepare dados de vídeo.
-
segmento
- Pasta de nível superior para o Cloud Storage. Os nomes dos contentores têm de ser exclusivos para todos os utilizadores do Cloud Storage. Os contentores contêm ficheiros. Para mais informações, consulte a vista geral do produto Cloud Storage.
-
Cadeia de pensamento
- Na IA generativa, a cadeia de pensamento (CoT) é uma técnica de comando que incentiva o modelo de linguagem (conteúdo extenso) (MDI/CE) a detalhar explicitamente o seu processo de raciocínio antes de chegar a uma conclusão. Isto envolve pedir ao modelo para mostrar os passos intermédios que dá para resolver um problema, em vez de apenas fornecer a resposta final. Este método pode melhorar significativamente o desempenho do MDG em tarefas de raciocínio complexas.
-
chat
- Os conteúdos de um diálogo de interação com um sistema de AA, normalmente um modelo de linguagem (conteúdo extenso). A interação anterior num chat (o que escreveu e como o modelo de linguagem [conteúdo extenso] respondeu) torna-se o contexto para as partes subsequentes do chat. Um chatbot é uma aplicação de um modelo de linguagem (conteúdo extenso).
-
checkpoint
- Dados que captam o estado dos parâmetros de um modelo durante a preparação ou após a conclusão da preparação. Por exemplo, durante a preparação, pode: 1. Parar a preparação, talvez intencionalmente ou como resultado de determinados erros. 2. Capture o ponto de restauro. 3. Mais tarde, recarregue o ponto de verificação, possivelmente num hardware diferente. 4. Reinicie a formação. No Gemini, um ponto de verificação refere-se a uma versão específica de um modelo Gemini preparado num conjunto de dados específico.
-
modelo de classificação
- Um modelo cuja inferência é uma classe. Por exemplo, os seguintes são todos modelos de classificação: Um modelo que prevê o idioma de uma frase de entrada (francês? Espanhol? italiano?). Um modelo que prevê espécies de árvores (Ácer? Carvalho? Baobab?). Um modelo que prevê a classe positiva ou negativa para uma determinada condição médica.
-
métricas de classificação
- As métricas de classificação suportadas no SDK Vertex AI para Python são a matriz de confusão e a curva ROC.
-
Cloud TPU
- Um acelerador de hardware especializado concebido para acelerar as cargas de trabalho de aprendizagem automática no Google Cloud.
-
clustering
- No contexto da IA generativa, o agrupamento é uma técnica de aprendizagem automática não supervisionada usada para agrupar pontos de dados semelhantes com base nas respetivas caraterísticas. Isto é conseguido através da definição de uma medida (ou métrica) de semelhança para comparar pontos de dados e agrupar os que têm uma elevada semelhança no mesmo cluster. Nas aplicações de IA generativa, isto pode envolver o agrupamento de incorporações (representações numéricas de texto, imagens ou outros dados) para realizar tarefas como pesquisa, classificação ou deteção de valores atípicos. Por exemplo, a segmentação de clientes pode ser alcançada através da agrupamento de dados de clientes para identificar grupos com comportamentos ou características semelhantes. Para mais informações, consulte o artigo O que é o agrupamento?.
-
imagem do contentor
- Uma imagem de contentor é um pacote que inclui o código executável do componente e uma definição do ambiente em que o código é executado. Para mais informações, consulte o artigo Vista geral da preparação personalizada.
-
contexto
- Um contexto é usado para agrupar artefactos e execuções numa única categoria consultável e com tipo. Os contextos podem ser usados para representar conjuntos de metadados. Um exemplo de contexto seria a execução de um pipeline de aprendizagem automática.
-
cache de contexto
- Uma cache de contexto no Vertex AI é uma grande quantidade de dados que pode ser usada em vários pedidos a um modelo Gemini. O conteúdo em cache é armazenado na região onde é feito o pedido de criação da cache. Pode ser qualquer tipo MIME suportado pelos modelos multimodais do Gemini, como texto, áudio ou vídeo. Para mais informações, consulte o artigo Vista geral do armazenamento em cache de contexto.
-
capacidade de resposta
- O número de tokens que um modelo pode processar num determinado comando. Quanto maior for a capacidade de resposta, mais informações o modelo pode usar para fornecer respostas coerentes e consistentes ao comando.
-
Chaves de encriptação geridas pelo cliente (CMEK)
- As chaves de encriptação geridas pelo cliente (CMEK) são integrações que permitem aos clientes encriptar dados nos serviços Google existentes através de uma chave que gerem no Cloud KMS (também conhecido como Storky). A chave no Cloud KMS é a chave de encriptação de chaves que protege os respetivos dados. Para mais informações, consulte o artigo Chaves de encriptação geridas pelo cliente (CMEK).
-
análise de dados
- Compreender os dados considerando amostras, medição e visualização. A análise de dados pode ser particularmente útil quando um conjunto de dados é recebido pela primeira vez, antes de se criar o primeiro modelo. Também é fundamental para compreender as experiências e resolver problemas com o sistema.
-
aumento de dados
- Aumentar artificialmente o intervalo e o número de exemplos de preparação transformando exemplos existentes para criar exemplos adicionais. Por exemplo, suponhamos que as imagens são uma das suas funcionalidades, mas o seu conjunto de dados não contém exemplos de imagens suficientes para o modelo aprender associações úteis. Idealmente, deve adicionar imagens etiquetadas suficientes ao conjunto de dados para permitir que o modelo seja preparado corretamente. Se isso não for possível, o aumento de dados pode rodar, esticar e refletir cada imagem para produzir muitas variantes da imagem original, o que pode gerar dados etiquetados suficientes para permitir uma excelente preparação.
-
DataFrame
- Um tipo de dados pandas popular para representar conjuntos de dados na memória. Um DataFrame é análogo a uma tabela ou a uma folha de cálculo. Cada coluna de um DataFrame tem um nome (um cabeçalho) e cada linha é identificada por um número único. Cada coluna num DataFrame está estruturada como uma matriz 2D, exceto que a cada coluna pode ser atribuído o seu próprio tipo de dados.
-
indexação de dados
- No contexto da IA generativa, a indexação de dados é o processo de estruturar e organizar uma base de conhecimentos para otimizar a pesquisa e a obtenção. Isto envolve a criação de um índice, muitas vezes denominado corpus, que permite uma pesquisa eficiente dos dados. O processo é separado da criação de conjuntos de dados e os dados indexados podem ser usados para enriquecer o contexto dos modelos de linguagem (conteúdo extenso) (MDIs/CEs), reduzindo as alucinações e melhorando a precisão das respostas. Por exemplo, num contexto de Website, a indexação de dados pode envolver a adição de metadados, como datePublished e dateModified, para melhorar a funcionalidade de pesquisa. Existem diferentes métodos para indexar dados, incluindo a utilização da pesquisa vetorial para a pesquisa de semelhanças em aplicações como a obtenção de informações relevantes para MDIs/CEs no momento da consulta. Para mais informações, consulte o artigo Vista geral do motor RAG .
-
carregamento de dados
- A ingestão de dados é o processo de extração de dados de várias origens e a sua integração numa localização central para processamento e análise adicionais. No contexto da IA generativa, a ingestão de dados envolve a extração de informações de diferentes origens de dados, como formulários clínicos, registos de pacientes ou texto não estruturado, para preparar e otimizar modelos de IA generativa. Os dados carregados são normalmente processados e transformados para garantir a respetiva qualidade e consistência antes de serem usados para preparar os modelos de IA generativa. Este processo pode envolver a limpeza de dados, a engenharia de funcionalidades e as técnicas de aumento de dados para melhorar o desempenho e as capacidades de generalização do modelo. Para mais informações, consulte o artigo Use a IA generativa para a gestão da utilização.
-
paralelismo de dados
- Uma forma de dimensionar a preparação ou a inferência que replica um modelo completo em vários dispositivos e, em seguida, transmite um subconjunto dos dados de entrada a cada dispositivo. O paralelismo de dados pode permitir a preparação e a inferência em tamanhos de lotes muito grandes. No entanto, o paralelismo de dados requer que o modelo seja suficientemente pequeno para caber em todos os dispositivos. Normalmente, o paralelismo de dados acelera a preparação e a inferência.
-
conjunto de dados
- Um conjunto de dados é definido de forma geral como uma coleção de registos de dados estruturados ou não estruturados. Uma coleção de dados não processados, normalmente (mas não exclusivamente) organizada num dos seguintes formatos: uma folha de cálculo ou um ficheiro no formato CSV (valores separados por vírgulas). Para mais informações, consulte Crie um conjunto de dados.
-
transformação de dados
- No contexto da geração aumentada de obtenção (RAG), a transformação de dados refere-se à conversão de dados num formato adequado para indexação e processamento por um GML. Isto envolve, muitas vezes, dividir os dados em partes mais pequenas para facilitar a incorporação e a indexação. Outras transformações podem incluir passos de limpeza e validação para garantir a qualidade dos dados. Para mais informações, consulte o artigo Vista geral do motor RAG.
-
decoder
- Em geral, qualquer sistema de AA que converta de uma representação processada, densa ou interna para uma representação mais não processada, esparsa ou externa. Os descodificadores são frequentemente um componente de um modelo maior, onde são frequentemente sincronizados com um codificador. Em tarefas de sequência para sequência, um descodificador começa com o estado interno gerado pelo codificador para prever a sequência seguinte.
-
rede neural profunda (DNN)
- Uma rede neural com várias camadas ocultas, normalmente programada através de técnicas de aprendizagem profunda.
-
profundidade
- A soma do seguinte numa rede neural: 1. o número de camadas ocultas 2. o número de camadas de saída, que é normalmente um 3. o número de camadas de incorporação. Por exemplo, uma rede neural com cinco camadas ocultas e uma camada de saída tem uma profundidade de 6. Tenha em atenção que a camada de entrada não influencia a profundidade.
-
DevOps
- O DevOps é um conjunto de produtos da Google Cloud Platform, por exemplo, o Artifact Registry e o Cloud Deploy.
-
paragem antecipada
- Um método de regularização que envolve terminar a preparação antes de a perda de preparação deixar de diminuir. Na paragem antecipada, para intencionalmente a preparação do modelo quando a perda num conjunto de dados de validação começa a aumentar, ou seja, quando o desempenho da generalização piora.
-
incorporação
- Representações numéricas de palavras ou fragmentos de texto. Estes números captam o significado semântico e o contexto do texto. As palavras ou o texto semelhantes ou relacionados tendem a ter incorporações semelhantes, o que significa que estão mais próximos no espaço vetorial de alta dimensão.
-
espaço de incorporação (espaço latente)
- Na IA generativa, o espaço de incorporação refere-se a uma representação numérica de texto, imagens ou vídeos que capta as relações entre as entradas. Os modelos de aprendizagem automática, particularmente os modelos de IA generativa, são capazes de criar estas incorporações identificando padrões em grandes conjuntos de dados. As aplicações podem usar incorporações para processar e gerar linguagem, reconhecendo significados complexos e relações semânticas específicas do conteúdo.
-
vetor de incorporação
- Uma representação vetorial densa, muitas vezes de baixa dimensão, de um item, de modo que, se dois itens forem semanticamente semelhantes, as respetivas incorporações estejam localizadas próximas umas das outras no espaço vetorial de incorporação.
-
encoder
- Em geral, qualquer sistema de ML que converta de uma representação não processada, esparsa ou externa numa representação mais processada, densa ou interna. Os codificadores são frequentemente um componente de um modelo maior, onde são frequentemente sincronizados com um descodificador. Alguns transformadores combinam codificadores com descodificadores, embora outros transformadores usem apenas o codificador ou apenas o descodificador. Alguns sistemas usam a saída do codificador como entrada para uma rede de classificação ou regressão. Em tarefas de sequência para sequência, um codificador recebe uma sequência de entrada e devolve um estado interno (um vetor). Em seguida, o descodificador usa esse estado interno para prever a sequência seguinte.
-
ensemble
- Uma coleção de modelos preparados de forma independente cujas inferências são calculadas como média ou agregadas. Em muitos casos, um conjunto produz melhores inferências do que um único modelo. Por exemplo, uma floresta aleatória é um conjunto criado a partir de várias árvores de decisão. Tenha em atenção que nem todas as florestas de decisão são conjuntos.
-
ambiente
- Na aprendizagem por reforço, o mundo que contém o agente e permite que o agente observe o estado desse mundo. Por exemplo, o mundo representado pode ser um jogo como o xadrez ou um mundo físico como um labirinto. Quando o agente aplica uma ação ao ambiente, o ambiente transita entre estados.
-
avaliação (eval)
- Uma avaliação, abreviatura de "avaliação", é um tipo de experiência em que as consultas registadas ou sintéticas são enviadas através de duas pilhas de pesquisa: uma pilha experimental que inclui a sua alteração e uma pilha base sem a sua alteração. As avaliações produzem diferenças e métricas que lhe permitem avaliar o impacto, a qualidade e outros efeitos da sua alteração nos resultados da pesquisa e noutras partes da experiência do utilizador da Google. As avaliações são usadas durante o ajuste ou as iterações na sua alteração. Também são usados como parte do lançamento de uma alteração ao tráfego de utilizadores em direto.
-
execução
- Uma execução é um registo de um passo individual do fluxo de trabalho de aprendizagem automática, normalmente anotado com os respetivos parâmetros de tempo de execução. Alguns exemplos de execuções incluem a ingestão de dados, a validação de dados, a preparação de modelos, a avaliação de modelos e a implementação de modelos.
-
Pontuação de F1
- A pontuação F1 é uma métrica usada para avaliar a precisão do resultado de um modelo. É particularmente útil para avaliar o desempenho dos modelos em tarefas em que a precisão e a capacidade de resposta são importantes, como a extração de informações. Para modelos de IA generativa, a pontuação F1 pode ser usada para comparar as inferências do modelo com os dados de verdade absoluta para determinar a precisão do modelo. No entanto, para tarefas generativas, como o resumo e a geração de texto, outras métricas, como a pontuação Rough-L, podem ser mais adequadas.
-
funcionalidade
- Na aprendizagem automática (AA), uma caraterística é uma característica ou um atributo de uma instância ou de uma entidade que é usado como entrada para preparar um modelo de AA ou para fazer inferências.
-
extração de caraterísticas
- No contexto da IA generativa, a extração de funcionalidades refere-se ao processo de identificação e seleção de funcionalidades relevantes dos dados de entrada para utilização na preparação de modelos. Em seguida, estas funcionalidades são usadas para gerar novos dados semelhantes à entrada original. Por exemplo, na geração de imagens, a extração de caraterísticas pode envolver a identificação de limites, texturas e cores. No processamento de linguagem natural, pode envolver a extração de palavras-chave, expressões e estruturas gramaticais. As funcionalidades extraídas são, em seguida, usadas pelo modelo generativo para criar novo conteúdo.
-
publicação de funcionalidades
- A publicação de funcionalidades é o processo de exportação ou obtenção de valores de funcionalidades para preparação ou inferência. No Vertex AI, existem dois tipos de publicação de funcionalidades: publicação online e publicação offline. A publicação online obtém os valores das funcionalidades mais recentes de um subconjunto da origem de dados de funcionalidades para inferências online. A publicação offline ou em lote exporta grandes volumes de dados de caraterísticas, incluindo dados do histórico, para processamento offline, como a preparação de modelos de AA.
-
vista de funcionalidades
- Uma visualização de atributos é uma coleção lógica de atributos materializados a partir de uma origem de dados do BigQuery para uma instância da loja online. Uma visualização de funcionalidades armazena e atualiza periodicamente os dados de funcionalidades do cliente, que são atualizados periodicamente a partir da origem do BigQuery. Uma vista de funcionalidades está associada ao armazenamento de dados de funcionalidades diretamente ou através de associações a recursos do registo de funcionalidades.
-
comando few-shot (few-shot)
- Na IA generativa, "few-shot" refere-se a um tipo de comando que inclui um pequeno número de exemplos para orientar a resposta do modelo. Estes exemplos ajudam o modelo a compreender o formato de saída, a formulação, o âmbito ou o padrão geral da resposta pretendidos. Os comandos de poucos exemplos são frequentemente usados para regular o resultado dos modelos de linguagem, garantindo que geram respostas precisas, de alta qualidade e consistentes com as expetativas do utilizador. Ao fornecer ao modelo alguns exemplos relevantes, o utilizador pode influenciar o comportamento do modelo e obter resultados mais satisfatórios. Para mais informações, consulte o artigo Inclua exemplos de poucos disparos.
-
modelo de base (FM)
- Modelos preparados com base em dados amplos, de modo que possam ser adaptados (por exemplo, otimizados) a uma vasta gama de tarefas posteriores.
-
Operações de modelos de base (FMOPs)
- As FMOps expandem as capacidades das MLOps e focam-se na produção eficiente de FMs pré-formados (formados de raiz) ou personalizados (ajustados).
-
Gemini
- O Gemini é um conjunto de modelos multimodais baseados em sequências da Google. Isto significa que podem aceitar entradas e produzir saídas em mais do que um meio em simultâneo, incluindo texto, áudio e meios visuais. Estes são concebidos para se integrarem com agentes capazes de realizar várias tarefas. Para mais informações, consulte os modelos da Google.
-
generalização
- A capacidade de um modelo fazer inferências corretas sobre dados novos e nunca antes vistos. Um modelo que pode generalizar é o oposto de um modelo que está a fazer sobreajuste.
-
geração
- No contexto da IA generativa, a "geração" refere-se ao processo de criação de novos dados ou conteúdo a partir de dados ou informações existentes. Os modelos de IA generativa são preparados em grandes conjuntos de dados e podem aprender padrões e relações nos dados. Em seguida, podem usar este conhecimento para gerar conteúdo novo e único semelhante aos dados de preparação, mas não uma réplica exata. Para mais informações, consulte o artigo Quando usar IA generativa ou tradicional.
-
modelo generativo
- Um tipo de modelo de aprendizagem automática que pode criar resultados inovadores com base nos respetivos dados de preparação. Na sua forma mais simples, o modelo gera novos dados semelhantes a um determinado conjunto de categorias com as quais foi preparado. Normalmente, associados a grandes modelos de linguagem, mas outros tipos de modelos também podem ser generativos.
-
Google Embedded Modem System (GEMS)
- O GEMS é uma estrutura de software incorporada destinada a modems e um conjunto de fluxos de trabalho e infraestrutura de desenvolvimento associados. A visão principal do GEMS é fornecer código do sistema de modem de alta qualidade com elevada reutilização em muitos dispositivos Google que contêm modems. Para alcançar esta visão abrangente, o GEMS oferece um ambiente abrangente para os programadores, composto pelos principais elementos básicos representados abaixo.
-
gradiente
- O vetor de derivadas parciais relativamente a todas as variáveis independentes. Na aprendizagem automática, o gradiente é o vetor das derivadas parciais da função do modelo. O gradiente aponta na direção da subida mais íngreme.
-
gráfico
- No contexto da IA generativa, um gráfico refere-se a uma representação estruturada de informações que organiza e associa dados como uma rede de nós e arestas. Estes gráficos são frequentemente usados para representar conhecimentos e relações entre entidades, o que os torna particularmente úteis para sistemas de IA generativa que requerem uma compreensão profunda do contexto e das relações nos dados. Os sistemas de IA gen que tiram partido dos grafos de conhecimento podem usá-los para melhorar o desempenho dos modelos de obtenção. Ao incorporar grafos de conhecimentos no sistema, a IA generativa pode aceder a dados ricos em contexto e percorrer o grafo para obter subgrafos relevantes com base nas consultas dos utilizadores. Isto permite que o sistema forneça respostas mais precisas e informativas, gerando conteúdo contextualmente relevante.
-
ground truth (GT)
- A verdade fundamental é um termo usado em vários campos para se referir à verdade absoluta de algum problema de decisão ou medição, em oposição à estimativa de algum sistema. Na aprendizagem automática, o termo "ground truth" refere-se ao conjunto de treino para técnicas de aprendizagem supervisionada.
-
alucinação
- Uma alucinação na IA generativa é uma resposta confiante de uma IA que não pode ser fundamentada pelos respetivos dados de preparação. Pode estar factualmente incorreto. No contexto da geração de texto, são falsidades aleatórias plausíveis no conteúdo de texto gerado.
-
heurística
- Uma solução simples e rapidamente implementada para um problema. Por exemplo, "Com uma heurística, alcançámos uma precisão de 86%. Quando mudámos para uma rede neural profunda, a precisão aumentou para 98%".
-
camada oculta
- Uma camada numa rede neural entre a camada de entrada (as caraterísticas) e a camada de saída (a inferência). Cada camada oculta consiste num ou mais neurónios. Uma rede neural profunda contém mais do que uma camada oculta.
-
histograma
- Uma apresentação gráfica da variação num conjunto de dados através de barras. Um histograma visualiza padrões difíceis de detetar numa tabela simples de números.
-
hiperparâmetro
- Um hiperparâmetro refere-se a uma variável que rege o processo de preparação de um modelo de aprendizagem automática. Estas variáveis podem incluir taxas de aprendizagem, valores de momento no otimizador e o número de unidades na última camada oculta de um modelo. Para mais informações, consulte o artigo Vista geral do ajuste de hiperparâmetros.
-
aperfeiçoamento de hiperparâmetros
- O aperfeiçoamento de hiperparâmetros no Vertex AI envolve a execução de várias experiências de uma aplicação de preparação com valores diferentes para os hiperparâmetros escolhidos, definidos dentro de limites especificados. O objetivo é otimizar as definições dos hiperparâmetros para maximizar a precisão das previsões do modelo. Para mais informações, consulte o artigo Vista geral do ajuste de hiperparâmetros.
-
Autorizações da gestão de identidade e de acesso (IAM)
- As autorizações da gestão de identidade e de acesso (IAM) são capacidades detalhadas específicas que definem quem pode fazer o quê em que recursos do Google Cloud. São atribuídas a responsáveis (como utilizadores, grupos ou contas de serviço) através de funções, o que permite um controlo preciso sobre o acesso a serviços e dados num projeto ou numa organização do Google Cloud. Para mais informações, consulte o artigo Controlo de acesso com a IAM.
-
Imagen
- O Imagen é um serviço de IA generativa de conversão de texto em imagem disponível através da plataforma Vertex AI. Permite aos utilizadores gerar novas imagens, editar imagens, otimizar modelos de estilo ou de objetos, adicionar legendas a imagens ou obter respostas a perguntas sobre o conteúdo de imagens. Para mais informações, consulte o artigo Vista geral do Imagen no Vertex AI.
-
reconhecimento de imagens
- O reconhecimento de imagens é o processo de classificação de objetos, padrões ou conceitos numa imagem. Também é conhecido como classificação de imagens. O reconhecimento de imagens é um subcampo da aprendizagem automática e da visão computacional.
-
index
- Uma coleção de vetores implementados em conjunto para a pesquisa de semelhanças. Os vetores podem ser adicionados ou removidos de um índice. As consultas de pesquisa por semelhança são emitidas para um índice específico e pesquisam os vetores nesse índice.
-
inferência
- No contexto da plataforma Vertex AI, a inferência refere-se ao processo de execução de pontos de dados através de um modelo de aprendizagem automática para calcular uma saída, como uma única pontuação numérica. Este processo também é conhecido como "operacionalizar um modelo de aprendizagem automática" ou "colocar um modelo de aprendizagem automática em produção". A inferência é um passo importante no fluxo de trabalho de aprendizagem automática, uma vez que permite que os modelos sejam usados para fazer inferências sobre novos dados. No Vertex AI, a inferência pode ser realizada de várias formas, incluindo inferência em lote e inferência online. A inferência em lote envolve a execução de um grupo de pedidos de inferência e a saída dos resultados num ficheiro, enquanto a inferência online permite inferências em tempo real em pontos de dados individuais.
-
obtenção de informações (OI)
- A obtenção de informações (IR) é um componente fundamental da Vertex AI Search. É o processo de encontrar e obter informações relevantes a partir de uma grande coleção de dados. No contexto da Vertex AI, a IR é usada para obter documentos de um corpus com base na consulta de um utilizador. A Vertex AI oferece um conjunto de APIs para ajudar a criar as suas próprias aplicações de geração aumentada de obtenção (RAG) ou o seu próprio motor de pesquisa. Para mais informações, consulte o artigo Use a Vertex AI Search as a retrieval backend using RAG Engine.
-
Infraestrutura como código (IaC)
- Infraestrutura como código. Uma abordagem para gerir a infraestrutura de TI em que as equipas podem gerir e aprovisionar serviços através de código. Com a IaC, são criados ficheiros de configuração que contêm as especificações da infraestrutura, o que facilita a criação e a edição da infraestrutura em grande escala.
-
Infraestrutura como código (IaC)
- Infraestrutura como código. Uma abordagem para gerir a infraestrutura de TI em que as equipas podem gerir e aprovisionar serviços através de código. Com a IaC, são criados ficheiros de configuração que contêm as especificações da infraestrutura, o que facilita a criação e a edição da infraestrutura em grande escala.
-
perda (custo)
- Durante a preparação de um modelo supervisionado, uma medida da distância entre a inferência de um modelo e a respetiva etiqueta. Uma função de perda calcula a perda.
-
conjunto de dados gerido
- Um objeto de conjunto de dados criado e alojado no Vertex AI.
-
model
- Qualquer modelo pré-preparado ou não. Em geral, qualquer construção matemática que processe dados de entrada e devolva resultados. Por outras palavras, um modelo é o conjunto de parâmetros e a estrutura necessários para que um sistema faça inferências.
-
destilação de modelos (destilação de conhecimentos, modelos professor-aluno)
- A destilação de modelos é uma técnica que permite que um modelo de aluno mais pequeno aprenda com um modelo de professor maior. O modelo de aluno é preparado para imitar o resultado do modelo de professor e, em seguida, pode ser usado para gerar novos dados ou fazer inferências. A destilação de modelos é frequentemente usada para tornar os modelos grandes mais eficientes ou para os tornar mais acessíveis a dispositivos com recursos limitados. Também pode ser usado para melhorar a generalização dos modelos, reduzindo o sobreajuste.
-
Monitorização de modelos
- O Vertex AI Model Monitoring é um serviço que avalia continuamente o desempenho dos modelos implementados através da deteção de desvios de funcionalidades e deriva nos pedidos de previsão, o que ajuda a manter a qualidade dos modelos ao longo do tempo. Para mais informações, consulte o artigo Introdução ao Vertex AI Model Monitoring.
-
nome do recurso do modelo
- O nome do recurso de um
model
é o seguinte:projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>
. Pode encontrar o ID do modelo na Cloud Console, na página Model Registry.
- O nome do recurso de um
-
Sistema de arquivos de rede (NFS)
- Um sistema cliente/servidor que permite aos utilizadores aceder a ficheiros numa rede e tratá-los como se estivessem num diretório de ficheiros local. Para mais informações, consulte o artigo Monte uma partilha NFS para preparação personalizada.
-
codificação de disparo único
- A codificação one-hot representa cada categoria como um vetor de N elementos (em que N é o número de categorias) com exatamente um elemento com um valor de 1,0 e todos os elementos restantes com um valor de 0,0. Para mais informações, consulte o artigo Codificação one-hot.
-
comando único
- Um comando que contém um exemplo que demonstra como o grande modelo de linguagem deve responder. Para mais informações, consulte o artigo comando único.
-
parâmetro
- Os parâmetros são valores de entrada com chave que configuram uma execução, regulam o comportamento da execução e afetam os resultados da execução. Os exemplos incluem a taxa de aprendizagem, a taxa de abandono e o número de passos de preparação.
-
perplexidade
- A perplexidade é uma métrica usada para avaliar o desempenho dos modelos de linguagem. Mede a probabilidade de o modelo gerar uma determinada sequência de texto com base na distribuição do texto com o qual foi preparado. A perplexidade é uma métrica usada frequentemente para avaliar modelos de linguagem e é usada muitas vezes para comparar o desempenho de diferentes modelos ou para acompanhar o progresso de um modelo durante a preparação.
-
pipeline
- Os pipelines de AA são fluxos de trabalho de AA portáteis e escaláveis baseados em contentores. Para mais informações, consulte o artigo Introdução aos pipelines da Vertex AI.
-
pipeline job
- Uma tarefa de pipeline ou uma execução de pipeline corresponde ao recurso PipelineJob na API Vertex AI. É uma instância de execução da definição do pipeline de ML, que é definida como um conjunto de tarefas de ML interligadas por dependências de entrada/saída.
-
execução do pipeline
- Pode associar um ou mais Vertex PipelineJobs a uma experiência em que cada PipelineJob é representado como uma única execução. Neste contexto, os parâmetros da execução são inferidos pelos parâmetros do PipelineJob. As métricas são inferidas a partir dos artefactos system.Metric produzidos por esse PipelineJob. Os artefactos da execução são inferidos a partir dos artefactos produzidos por esse PipelineJob.
-
acesso a serviços privados
- O acesso privado aos serviços é uma ligação privada entre a sua rede da nuvem virtual privada (VPC) e as redes pertencentes à Google ou a fornecedores de serviços de terceiros. Permite que as instâncias de máquinas virtuais (VMs) na sua rede VPC comuniquem com estes serviços através de endereços IP internos, evitando a exposição à Internet pública. Para mais informações, consulte o artigo Acesso a serviços privados.
-
comando
- Um comando é um pedido de linguagem natural enviado a um modelo de linguagem para receber uma resposta. Os comandos podem conter perguntas, instruções, informações contextuais, exemplos de poucos disparos e entrada parcial para o modelo concluir ou continuar. Depois de o modelo receber um comando, consoante o tipo de modelo usado, pode gerar texto, incorporações, código, imagens, vídeos, música e muito mais. Para mais informações, consulte o artigo Vista geral das estratégias de comandos.
-
engenharia de comandos (design de comandos)
- A engenharia de comandos na IA generativa é o processo de criação de comandos eficazes para obter resultados desejados de grandes modelos de linguagem (GMLs). É um processo iterativo orientado por testes focado no refinamento das entradas para alcançar resultados específicos. Isto envolve considerar o conteúdo e a estrutura do comando para garantir respostas precisas e de alta qualidade. A engenharia de comandos eficaz é fundamental para tarefas complexas, embora as tarefas mais simples possam não a exigir. O objetivo é criar rapidamente protótipos de aplicações baseadas em MDIs. Para mais informações, consulte o artigo Introdução à engenharia de comandos.
-
ajuste de comandos
- O ajuste de comandos é um método de ajuste fino eficiente em termos de parâmetros usado para melhorar o desempenho de um modelo de IA generativa numa tarefa específica. Envolve a aprendizagem de um "prefixo" que é adicionado ao comando real, por vezes, em todas as camadas. Esta abordagem é considerada mais barata e mais rápida do que outros métodos de otimização, produzindo frequentemente bons resultados. O ajuste de comandos é particularmente eficaz quando tem uma tarefa específica e quer que o modelo a execute de uma determinada forma. Por vezes, também é denominado aprendizagem de comandos ou ajuste fino eficiente em termos de parâmetros. Para mais informações, consulte o artigo Introdução à engenharia de comandos.
-
Débito aprovisionado (PT)
- A capacidade de processamento provisionada (PT) é um serviço premium para os modelos de IA generativa do Vertex AI que oferece uma experiência garantida através da garantia de capacidade e preços previsíveis. Ao contrário da opção de pagamento conforme o uso (a pedido), o PT permite que os clientes comprem uma quota dedicada, garantindo que os respetivos pedidos não competem com outros pela capacidade do modelo. O PT é uma subscrição mensal ou semanal de custo fixo que reserva o débito para modelos e localizações especificados. Para mais informações, consulte a vista geral do débito aprovisionado.
-
quantization
- A quantização é uma técnica de otimização de modelos usada para reduzir a precisão dos números usados para representar os parâmetros de um modelo. Isto pode levar a modelos mais pequenos, menor consumo de energia e latência de inferência reduzida.
-
Floresta aleatória
- O Random Forest é um algoritmo de aprendizagem automática usado para classificação e regressão. Não é diretamente um modelo de IA generativa, mas é um componente que pode ser usado num sistema de IA generativa maior. Uma floresta aleatória consiste em várias árvores de decisão e a respetiva inferência é uma agregação das inferências destas árvores individuais. Por exemplo, numa tarefa de classificação, cada árvore "vota" numa classe e a inferência final é a classe com mais votos. Para mais informações, consulte o artigo Floresta de decisão.
-
Cluster do Ray no Vertex AI
- Um cluster do Ray no Vertex AI é um cluster gerido de nós de computação que pode ser usado para executar aplicações de aprendizagem automática (ML) e Python distribuídas. Fornece a infraestrutura para realizar computação distribuída e processamento paralelo para o seu fluxo de trabalho de ML. Os clusters do Ray estão integrados no Vertex AI para garantir a disponibilidade de capacidade para cargas de trabalho de AA críticas ou durante épocas de pico. Ao contrário das tarefas personalizadas, em que o serviço de preparação liberta o recurso após a conclusão da tarefa, os clusters do Ray permanecem disponíveis até serem eliminados. Para mais informações, consulte o artigo Vista geral do Ray na Vertex AI.
-
Ray on Vertex AI (RoV)
- O Ray no Vertex AI foi concebido para que possa usar o mesmo código Ray de código aberto para escrever programas e desenvolver aplicações no Vertex AI com alterações mínimas. Para mais informações, consulte o artigo Vista geral do Ray na Vertex AI.
-
Ray no SDK Vertex AI para Python
- O Ray no SDK Vertex AI for Python é uma versão do SDK Vertex AI for Python que inclui a funcionalidade do cliente Ray, do conector Ray BigQuery, da gestão de clusters do Ray no Vertex AI e das inferências no Vertex AI. Para mais informações, consulte o artigo Introdução ao SDK Vertex AI para Python.
-
recall
- A percentagem de verdadeiros vizinhos mais próximos devolvidos pelo índice. Por exemplo, se uma consulta de vizinhos mais próximos para 20 vizinhos mais próximos devolveu 19 dos vizinhos mais próximos da "verdade fundamental", a capacidade de memorização é de 19/20 x 100 = 95%.
-
sistema de recomendações
- Um sistema de recomendações é um sistema baseado na aprendizagem automática que ajuda os utilizadores a encontrarem conteúdo apelativo num grande conjunto de dados. Gera um subconjunto mais pequeno de candidatos a partir de um corpus potencialmente enorme, atribui pontuações e classifica os candidatos, e reclassifica a classificação final para ter em conta restrições adicionais. Para mais informações, consulte o artigo Vista geral dos sistemas de recomendações.
-
regularization
- A regularização é uma técnica usada para evitar o sobreajuste em modelos de aprendizagem automática. O sobreajuste ocorre quando um modelo aprende os dados de preparação demasiado bem, o que resulta num mau desempenho em dados não visualizados. Um tipo específico de regularização mencionado é a paragem antecipada, em que a preparação é interrompida antes de a perda num conjunto de dados de validação começar a aumentar, o que indica uma diminuição no desempenho de generalização. Para mais informações, consulte o artigo Sobreajuste: regularização L2.
-
conta de serviço
- As contas de serviço são contas especiais do Google Cloud usadas por aplicações ou máquinas virtuais para fazer chamadas de API autorizadas aos serviços Google Cloud. Ao contrário das contas de utilizador, não estão associadas a um indivíduo, mas atuam como uma identidade para o seu código, permitindo o acesso seguro e programático aos recursos sem necessitar de credenciais humanas. Para mais informações, consulte o artigo Vista geral das contas de serviço.
-
agente de serviços
- Um agente de serviço refere-se a uma conta de serviço gerida pela Google. É usado quando um serviço requer acesso a recursos criados por um serviço diferente. Por exemplo, quando os serviços Dataflow ou Dataproc precisam de criar instâncias durante o tempo de execução ou quando uma Cloud Function quer usar o Key Management Service (KMS) para proteger a Cloud Function. Os agentes de serviço são criados automaticamente pelo Google Cloud quando um serviço os requer. São normalmente usadas para gerir o acesso a recursos e realizar várias tarefas em nome do serviço. Para mais informações, consulte o artigo Agentes de serviços.
-
métricas de resumo
- As métricas de resumo são um único valor para cada chave de métrica numa execução de experiência. Por exemplo, a precisão do teste de uma experiência é a precisão calculada em relação a um conjunto de dados de teste no final da preparação que pode ser captada como uma métrica de resumo de valor único.
-
TensorBoard
- O TensorBoard é um conjunto de aplicações Web para visualizar e compreender as execuções e os modelos do TensorFlow. Para mais informações, consulte o TensorBoard.
-
Instância do TensorBoard
- Uma instância do TensorBoard é um recurso regionalizado que armazena experiências do TensorBoard do Vertex AI associadas a um projeto. Pode criar várias instâncias do TensorBoard num projeto se, por exemplo, quiser várias instâncias com a CMEK ativada. Isto é igual ao recurso do TensorBoard na API.
-
Nome do recurso do TensorBoard
- Um nome de recurso do TensorBoard é usado para identificar totalmente uma instância do Vertex AI TensorBoard. O formato é o seguinte: projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
-
compensação de tempo
- O desvio de tempo é relativo ao início de um vídeo.
-
métricas de intervalos temporais
- As métricas de séries cronológicas são valores de métricas longitudinais em que cada valor representa um passo na parte da rotina de preparação de uma execução. As métricas de séries cronológicas são armazenadas no Vertex AI TensorBoard. O Vertex AI Experiments armazena uma referência ao recurso Vertex TensorBoard.
-
token
- Um token num modelo de linguagem é a unidade atómica na qual o modelo está a ser preparado e a fazer inferências, nomeadamente palavras, morfemas e carateres. Em domínios fora dos modelos de linguagem, os tokens podem representar outros tipos de unidades atómicas. Por exemplo, na visão computacional, um token pode ser um subconjunto de uma imagem. Para mais informações, consulte o artigo Liste e contabilize tokens.
-
trajetória
- Uma "trajetória" refere-se a uma sequência de passos ou ações realizadas por um agente ou um modelo. É frequentemente usado na avaliação de modelos generativos, onde é avaliada a capacidade do modelo de gerar texto, código ou outro conteúdo. Existem vários tipos de métricas de trajetória que podem ser usadas para avaliar modelos generativos, incluindo a correspondência exata da trajetória, a correspondência da trajetória por ordem, a correspondência da trajetória em qualquer ordem e a precisão da trajetória. Estas métricas medem a semelhança entre o resultado do modelo e um conjunto de resultados de referência gerados por humanos.
-
Transformador
- Um "transformador" é uma arquitetura de rede neural que está na base da maioria dos modelos generativos de vanguarda. É usado em várias aplicações de modelos de linguagem, incluindo a tradução. Os transformadores consistem num codificador e num descodificador; o codificador converte o texto de entrada numa representação intermédia e o descodificador converte-a numa saída útil. Utilizam um mecanismo de autoatenção para recolher contexto das palavras que rodeiam a palavra que está a ser processada. Embora o treino de um transformador exija recursos significativos, o ajuste fino de um transformador pré-treinado para aplicações específicas é mais eficiente.
-
Aprendizagem por reforço do transformador
- A aprendizagem reforçada com transformadores (TRL) refere-se à aplicação de técnicas de aprendizagem reforçada (AR) para preparar modelos baseados em transformadores para tarefas generativas. Esta abordagem resolve as limitações dos modelos generativos tradicionais, que são frequentemente preparados na inferência do token seguinte sem otimização explícita para qualidades desejáveis, como coerência, segurança e sensibilidade. A TRL otimiza diretamente o modelo de linguagem em objetivos complexos através da AR, incorporando frequentemente feedback humano (ARFH) para orientar o processo de aprendizagem. Os exemplos incluem a otimização de modelos para gerar conteúdo menos tóxico através de modelos de recompensa e a utilização da TRL para otimizar o Gemma, um modelo generativo. Para mais informações, consulte o artigo DLCs da Hugging Face: ajuste preciso do Gemma com aprendizagem por reforço de transformadores (TRL) na Vertex AI.
-
verdadeiro positivo
- Um "verdadeiro positivo" refere-se a uma inferência em que o modelo identifica corretamente uma classe positiva. Por exemplo, se um modelo for preparado para identificar clientes que vão comprar um casaco, uma previsão verdadeira positiva seria prever corretamente que um cliente vai fazer essa compra.
-
validação
- A validação verifica a qualidade das inferências de um modelo em relação ao conjunto de validação. Isto envolve a definição de métricas para medir a qualidade, a velocidade, a conformidade com as instruções e a segurança do conteúdo gerado. A validação usa frequentemente dados etiquetados (comandos de entrada e resultados esperados) para comparar as inferências do modelo com a verdade fundamental. Podem ser usadas métricas como a pontuação F1 (para classificação) e a pontuação ROUGE-L (para resumo). O processo também inclui testes de casos extremos e cenários invulgares para garantir a robustez. Para os modelos implementados, a monitorização contínua e a captura de pontos de dados comuns e casos extremos ajudam a melhorar os esforços de validação futuros.
-
vetor
- Um vetor refere-se a uma representação numérica de texto, imagens ou vídeos que capta as relações entre as entradas. Os modelos de aprendizagem automática são adequados para criar incorporações através da identificação de padrões em grandes conjuntos de dados. As aplicações podem usar incorporações para processar e produzir linguagem, reconhecendo significados complexos e relações semânticas específicas do conteúdo. Para mais informações, consulte o artigo Vista geral das APIs Embeddings.
-
Vertex AI Experiments
- O Vertex AI Experiments permite que os utilizadores acompanhem o seguinte: 1. Passos de uma execução de experiência (por exemplo, pré-processamento e formação). 2. Entradas (por exemplo, algoritmo, parâmetros e conjuntos de dados). 3. Resultados desses passos (por exemplo, modelos, pontos de verificação e métricas).
-
Registo de modelos do Vertex AI
- O Registo de modelos Vertex AI é um repositório central onde pode gerir o ciclo de vida dos seus modelos de ML. No Registo de modelos do Vertex AI, tem uma vista geral dos seus modelos para poder organizar, monitorizar e preparar melhor novas versões. Quando tem uma versão do modelo que quer implementar, pode atribuí-la a um ponto final diretamente a partir do registo ou, através de aliases, implementar modelos num ponto final. Para mais informações, consulte o artigo Introdução ao Registo de modelos da Vertex AI.
-
segmento de vídeo
- Um segmento de vídeo é identificado pelo desvio de tempo de início e fim de um vídeo.
-
nuvem virtual privada (VPC)
- A nuvem privada virtual é um conjunto configurável a pedido de recursos de computação partilhados que é atribuído num ambiente de nuvem pública e oferece um nível de isolamento entre diferentes organizações que usam esses recursos.
-
incorporação de palavras
- As incorporações de palavras são uma forma de representar palavras como vetores densos de valores de vírgula flutuante. Isto permite que palavras semelhantes tenham codificações semelhantes. As incorporações de palavras são frequentemente usadas na IA generativa para captar as relações entre palavras e gerar novo texto ou código, sem fontes. Na IA generativa, as incorporações de palavras podem ser usadas para preparar modelos que podem gerar novo texto ou código. Ao compreender as relações entre as palavras, os modelos de IA generativa podem criar novo conteúdo coerente e relevante.
-
comando zero-shot (comando direto)
- Na IA generativa, um comando de zero exemplos é um comando que permite a um modelo de linguagem (conteúdo extenso) (MDI/CE) realizar uma tarefa sem preparação nem exemplos adicionais. Isto contrasta com métodos como a geração de comandos com poucos exemplos, que fornece ao modelo exemplos de entradas e saídas. Um comando de zero exemplos baseia-se exclusivamente nos conhecimentos pré-existentes do modelo para gerar uma resposta. Para mais informações, consulte o artigo comando de exemplo único.