A partir de 29 de abril de 2025, os modelos Gemini 1.5 Pro e Gemini 1.5 Flash não estarão disponíveis em projetos que não os usaram antes, incluindo novos projetos. Para mais detalhes, consulte Versões e ciclo de vida do modelo.
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Depois que um documento é ingerido, o mecanismo de RAG da Vertex AI executa um conjunto de transformações para
preparar os dados para indexação. É possível controlar seus casos de uso com os seguintes parâmetros:
Parâmetro
Descrição
chunk_size
Quando os documentos são ingeridos em um índice, eles são divididos em partes. O parâmetro chunk_size (em tokens) especifica o tamanho do bloco. O tamanho do bloco padrão é de 1.024 tokens.
chunk_overlap
Por padrão, os documentos são divididos em blocos com uma certa quantidade de sobreposição para melhorar a relevância e a qualidade de recuperação. A sobreposição de blocos padrão é de 256 tokens.
Um tamanho de bloco menor significa que os embeddings são mais precisos. Um tamanho de bloco maior
significa que os embeddings podem ser mais gerais, mas podem perder detalhes específicos.
Por exemplo, se você converter 1.000 palavras em uma matriz de incorporação destinada a 200 palavras, poderá perder detalhes. A capacidade de embedding é fixa para cada
bloco. Um grande bloco de texto pode não caber em um modelo de janela pequena.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-09-04 UTC."],[],[],null,["# Fine-tune RAG transformations\n\n| The [VPC-SC security controls](/vertex-ai/generative-ai/docs/security-controls) and\n| CMEK are supported by Vertex AI RAG Engine. Data residency and AXT security controls aren't\n| supported.\n\nAfter a document is ingested, Vertex AI RAG Engine runs a set of transformations to\nprepare the data for indexing. You can control your use cases using the\nfollowing parameters:\n\nA smaller chunk size means the embeddings are more precise. A larger chunk size\nmeans that the embeddings might be more general but might miss specific details.\n\nFor example, if you convert 1,000 words into an embedding array that was meant\nfor 200 words, you might lose details. The embedding capacity is fixed for each\nchunk. A large chunk of text may not fit into a small-window model.\n\nWhat's next\n-----------\n\n- Use [Document AI layout parser with Vertex AI RAG Engine](/vertex-ai/generative-ai/docs/layout-parser-integration)."]]