Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Después de que se transfiere un documento, Vertex AI RAG Engine ejecuta un conjunto de transformaciones para preparar los datos para la indexación. Puedes controlar tus casos de uso con los siguientes parámetros:
Parámetro
Descripción
chunk_size
Cuando se transfieren documentos a un índice, se dividen en fragmentos. El parámetro chunk_size (en tokens) especifica el tamaño del fragmento. El tamaño de fragmento predeterminado es de 1,024 tokens.
chunk_overlap
De forma predeterminada, los documentos se dividen en fragmentos con una cierta superposición para mejorar la relevancia y la calidad de la recuperación. La superposición de fragmentos predeterminada es de 256 tokens.
Un tamaño de fragmento más pequeño significa que los embeddings son más precisos. Un tamaño de fragmento más grande significa que los embeddings pueden ser más generales, pero pueden omitir detalles específicos.
Por ejemplo, si conviertes 1,000 palabras en un array de incorporación que estaba destinado a 200 palabras, es posible que pierdas detalles. La capacidad de incorporación es fija para cada fragmento. Es posible que un fragmento de texto grande no quepa en un modelo de ventana pequeña.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[],[],null,["# Fine-tune RAG transformations\n\n| The [VPC-SC security controls](/vertex-ai/generative-ai/docs/security-controls) and\n| CMEK are supported by Vertex AI RAG Engine. Data residency and AXT security controls aren't\n| supported.\n\nAfter a document is ingested, Vertex AI RAG Engine runs a set of transformations to\nprepare the data for indexing. You can control your use cases using the\nfollowing parameters:\n\nA smaller chunk size means the embeddings are more precise. A larger chunk size\nmeans that the embeddings might be more general but might miss specific details.\n\nFor example, if you convert 1,000 words into an embedding array that was meant\nfor 200 words, you might lose details. The embedding capacity is fixed for each\nchunk. A large chunk of text may not fit into a small-window model.\n\nWhat's next\n-----------\n\n- Use [Document AI layout parser with Vertex AI RAG Engine](/vertex-ai/generative-ai/docs/layout-parser-integration)."]]