Glosario de IA generativa

  • agente
    • En el contexto de la IA generativa, un agente es un software que planifica y ejecuta de forma autónoma una serie de acciones para lograr un objetivo, posiblemente en situaciones novedosas. Los agentes se pueden usar en varias aplicaciones, como el procesamiento de lenguaje natural, el aprendizaje automático y la robótica. Por ejemplo, un agente de LLM usa un modelo de lenguaje para evaluar el entorno y elegir una acción que lo ayude a lograr su objetivo. Los agentes de LLM se pueden usar para generar texto, traducir idiomas y responder preguntas.
  • extremos de API
    • Los extremos de API son un aspecto de la configuración del servicio que especifica las direcciones de la red, también conocidas como extremos de servicio (por ejemplo, aiplatform.googleapis.com).
  • Credenciales predeterminadas de la aplicación (ADC)
    • Las credenciales predeterminadas de la aplicación (ADC) proporcionan una forma sencilla de obtener credenciales de autorización para usarlas en llamadas a las APIs de Google. Son más adecuadas para los casos en los que la llamada debe tener la misma identidad y nivel de autorización para la aplicación, independientemente del usuario. Este es el enfoque recomendado para autorizar llamadas a las APIs de Google Cloud, en especial cuando compilas una aplicación que se implementará en las máquinas virtuales de Google App Engine (GAE) o Compute Engine. Para obtener más información, consulta Cómo funcionan las credenciales predeterminadas de la aplicación.
  • Vecino más cercano aproximado (ANN)
  • artefacto
    • Un artefacto es una entidad discreta o un dato producido y consumido por un flujo de trabajo del aprendizaje automático. Algunos ejemplos de artefactos son los conjuntos de datos, modelos, archivos de entrada y registros de entrenamiento.
  • Artifact Registry
    • Artifact Registry es un servicio universal de administración de artefactos. Es el servicio recomendado para administrar contenedores y otros artefactos en Google Cloud. Para obtener más información, consulta Artifact Registry.
  • Inteligencia artificial (IA)
    • La inteligencia artificial (IA) es el estudio y el diseño de máquinas que parecen ser “inteligentes”, es decir, que imitan funciones humanas o intelectuales, como el movimiento mecánico, el razonamiento o la resolución de problemas. Uno de los subcampos más populares de la IA es el aprendizaje automático, que utiliza un enfoque estadístico y basado en datos para crear IA. Sin embargo, algunas personas usan estos dos términos de forma indistinta.
  • Realidad aumentada (RA)
    • Combina contenido digital renderizado con contenido del mundo real, ya sea a través de una pantalla, como en un teléfono, o como una superposición del mundo que se ve a través de ópticas, como anteojos. Se debe hacer un seguimiento del contenido digital en función del movimiento de la cámara o los lentes (según cómo se renderice la escena) para que parezca parte del mundo real.
  • autenticación
    • El proceso de verificar la identidad de un cliente (que puede ser un usuario o algún otro proceso) con el fin de obtener acceso a un sistema seguro. Se dice que un cliente que ha probado su identidad está autenticado. Para obtener más información, consulta Métodos de autenticación en Google.
  • Evaluación automática en paralelo (AutoSxS)
    • La Evaluación automática en paralelo (AutoSxS) es una herramienta de evaluación asistida por modelo que compara dos modelos de lenguaje grandes (LLM) en paralelo. Se puede usar para evaluar el rendimiento de los modelos de IA generativa en Vertex AI Model Registry o las predicciones generadas con anterioridad. AutoSxS usa un evaluador automático para decidir qué modelo brinda una mejor respuesta a un mensaje. AutoSxS está disponible a pedido y evalúa los modelos de lenguaje con un rendimiento comparable al de los evaluadores humanos.
  • Reconocimiento de voz automático (ASR,voz a texto)
    • Es la transcripción automática de lenguaje hablado (voz) a texto.
  • AutoML
    • Algoritmos de aprendizaje automático que "aprenden a aprender" mediante la optimización de caja negra. Para obtener más información, consulta el Glosario de AA.
  • autorater
    • Un evaluador automático es un modelo de lenguaje que evalúa la calidad de las respuestas del modelo según un mensaje de inferencia original. Se usa en la canalización de AutoSxS para comparar las predicciones de dos modelos y determinar cuál tuvo el mejor rendimiento. Para obtener más información, consulta El autorrotador.
  • grupo de referencia
    • Es un modelo que se usa como punto de referencia para comparar el rendimiento de otro modelo (por lo general, uno más complejo). Por ejemplo, un modelo de regresión logística podría servir como un buen modelo de referencia para un modelo profundo. En el caso de un problema en particular, el modelo de referencia ayuda a los desarrolladores de modelos a cuantificar el rendimiento mínimo esperado que debe alcanzar un modelo nuevo para que sea útil. Para obtener más información, consulta Conjuntos de datos de referencia y de destino.
  • batch
    • Es el conjunto de ejemplos que se usan en una iteración de entrenamiento. El tamaño del lote determina la cantidad de ejemplos que hay en un lote.
  • tamaño del lote
    • Es la cantidad de ejemplos que hay en un lote. Por ejemplo, el tamaño del lote de SGD es 1, mientras que el tamaño del lote de un minilote suele estar entre 10 y 1,000. Por lo general, se fija el tamaño del lote durante el entrenamiento y la inferencia; sin embargo, TensorFlow permite tamaños de lotes dinámicos.
  • predicción por lotes
    • La predicción por lotes toma un grupo de solicitudes de predicción y genera resultados en un solo archivo. Para obtener más información, consulta Obtén predicciones por lotes.
  • sesgo
    • 1. Estereotipo, prejuicio o preferencia de objetos, personas o grupos por sobre otros. Estos sesgos pueden afectar la recolección y la interpretación de datos, el diseño de un sistema y cómo los usuarios interactúan con él. 2. Error sistemático debido a un procedimiento de muestreo o de elaboración de informes.
  • bidireccional
    • Es un término que se usa para describir un sistema que evalúa el texto que precede y sigue a una sección de texto objetivo. Por el contrario, un sistema unidireccional solo evalúa el texto que precede a una sección de texto objetivo.
  • Representaciones de codificador bidireccional de transformadores (BERT)
    • BERT es un método para realizar un entrenamiento previo de representaciones lingüísticas, lo que significa que entrenamos un modelo de "comprensión del lenguaje" de uso general en un gran corpus de texto (como Wikipedia) y, luego, usamos ese modelo para las tareas de PLN descendentes que nos interesan (como responder preguntas). BERT supera a los métodos anteriores porque es el primer sistema no supervisado y profundamente bidireccional para el entrenamiento previo del PLN.
  • Bilingual Evaluation Understudy (BLEU)
    • Es una medida popular para evaluar la calidad de un algoritmo de traducción automática comparando su resultado con el de una o más traducciones humanas.
  • aumento
    • En el entrenamiento de modelos, el aumento puede referirse a técnicas de aumento de datos que se usan para aumentar el tamaño y la diversidad de los conjuntos de datos de entrenamiento. Para ello, se transforman los ejemplos existentes para crear ejemplos adicionales y variados, lo que puede mejorar el rendimiento del modelo, especialmente cuando el conjunto de datos original es limitado.
  • cuadro de límite
    • Un cuadro de límite para un objeto en el marco de video se puede especificar de una de dos maneras (i) Mediante 2 vértices que consisten en un conjunto de coordenadas x,y si son puntos diagonalmente opuestos del rectángulo. Por ejemplo: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Usar los 4 vértices. Para obtener más información, consulta Prepara datos de video.
  • bucket
    • Es la carpeta de nivel superior de Cloud Storage. Los nombres de los buckets deben ser únicos para todos los usuarios de Cloud Storage. Los buckets contienen archivos. Para obtener más información, consulta la descripción general del producto Cloud Storage.
  • Cadena de pensamientos
    • En la IA generativa, la cadena de pensamientos (CoT) es una técnica de instrucción que anima al modelo de lenguaje grande (LLM) a detallar explícitamente su proceso de razonamiento antes de llegar a una conclusión. Esto implica pedirle al modelo que muestre los pasos intermedios que se deben seguir para resolver un problema, en lugar de solo proporcionar la respuesta final. Este método puede mejorar significativamente el rendimiento del LLM en tareas de razonamiento complejas.
  • chat
    • El contenido de un diálogo de ida y vuelta con un sistema de AA, por lo general, un modelo de lenguaje grande. La interacción anterior en un chat (lo que escribiste y cómo respondió el modelo de lenguaje extenso) se convierte en el contexto para las partes posteriores del chat. Un chatbot es una aplicación de un modelo de lenguaje extenso.
  • Punto de control
    • Son datos que capturan el estado de los parámetros de un modelo durante el entrenamiento o después de que este se completa. Por ejemplo, durante el entrenamiento, puedes hacer lo siguiente: 1. Detener el entrenamiento, ya sea de forma intencional o como resultado de ciertos errores 2. Captura el punto de control. 3. Más tarde, vuelve a cargar el punto de control, posiblemente en hardware diferente. 4. Reinicia el entrenamiento. En Gemini, un punto de control hace referencia a una versión específica de un modelo de Gemini entrenado en un conjunto de datos específico.
  • modelo de clasificación
    • Un modelo cuya predicción es una clase. Por ejemplo, los siguientes son todos modelos de clasificación: Un modelo que predice el idioma de una oración de entrada (¿francés? ¿Español? ¿Italiano?). Un modelo que predice especies de árboles (¿arce? ¿Roble? Baobab?). Un modelo que predice la clase positiva o negativa para una afección médica en particular.
  • métricas de clasificación
    • Las métricas de clasificación admitidas en el SDK de Vertex AI para Python son la matriz de confusión y la curva ROC.
  • Cloud TPU
    • Un acelerador de hardware especializado diseñado para acelerar las cargas de trabajo de aprendizaje automático en Google Cloud.
  • agrupamiento
    • En el contexto de la IA generativa, el agrupamiento en clústeres es una técnica de aprendizaje automático no supervisado que se usa para agrupar datos similares en función de sus características. Para ello, se define una medida de similitud (o métrica) para comparar los datos y agrupar aquellos con alta similitud en el mismo clúster. En las aplicaciones de IA generativa, esto puede implicar agrupar incorporaciones (representaciones numéricas de texto, imágenes y otros datos) para realizar tareas como la búsqueda, la clasificación o la detección de valores atípicos. Por ejemplo, se puede lograr la segmentación de clientes agrupando los datos de los clientes para identificar grupos con comportamientos o características similares. Para obtener más información, consulta ¿Qué es el agrupamiento en clústeres?.
  • imagen de contenedor
  • context
    • Un contexto se usa para agrupar artefactos y ejecuciones en una sola categoría consultable y escrita. Los contextos se pueden usar para representar conjuntos de metadatos. Un ejemplo de un contexto sería una ejecución de una canalización de aprendizaje automático.
  • caché de contexto
    • Una caché de contexto en Vertex AI es una gran cantidad de datos que se pueden usar en varias solicitudes a un modelo de Gemini. El contenido almacenado en caché se almacena en la región en la que se realiza la solicitud para crear la caché. Puede ser cualquier tipo de MIME compatible con los modelos multimodales de Gemini, como texto, audio o video. Para obtener más información, consulta la descripción general del almacenamiento en caché de contexto.
  • ventana de contexto
    • Es la cantidad de tokens que un modelo puede procesar en una instrucción determinada. Cuanto más grande sea la ventana de contexto, más información podrá usar el modelo para proporcionar respuestas coherentes y consistentes a la instrucción.
  • claves de encriptación administradas por el cliente (CMEK)
    • Las claves de encriptación administradas por el cliente (CMEK) son integraciones que permiten a los clientes encriptar datos en servicios de Google existentes mediante una clave que administran en Cloud KMS (también conocido como Storky). La clave de Cloud KMS es la clave de encriptación de claves que protege sus datos. Para obtener más información, consulta Claves de encriptación administradas por el cliente (CMEK).
  • análisis de datos
    • El proceso de obtener una comprensión de los datos mediante la consideración de muestras, mediciones y visualizaciones. El análisis de datos puede ser particularmente útil cuando se recibe por primera vez un conjunto de datos, antes de crear el primer modelo. También es crucial para comprender los experimentos y problemas de depuración del sistema.
  • magnificación de datos
    • Se incrementa de forma artificial el rango y cantidad de ejemplos de entrenamiento a través de transformaciones sobre los ejemplos existentes para crear ejemplos nuevos. Por ejemplo, supongamos que uno de los atributos es "imágenes", pero el conjunto de datos no tiene suficientes ejemplos de imágenes para que el modelo aprenda asociaciones útiles. Lo ideal sería agregar suficientes imágenes etiquetadas al conjunto de datos para permitir que el modelo se entrene adecuadamente. Si eso no es posible, la magnificación de datos puede rotar, estirar y reflejar cada imagen para producir variantes de la imagen original, lo que producirá, posiblemente, suficientes datos etiquetados para permitir un excelente entrenamiento.
  • DataFrame
    • Es un tipo de datos de pandas popular para representar conjuntos de datos en la memoria. Un DataFrame es similar a una tabla o una hoja de cálculo. Cada columna de un DataFrame tiene un nombre (un encabezado) y cada fila se identifica con un número único.Cada columna de un DataFrame está estructurada como un array 2D, excepto que a cada columna se le puede asignar su propio tipo de datos.
  • indexación de datos
    • En el contexto de la IA generativa, el indexado de datos es el proceso de estructurar y organizar una base de conocimiento para optimizar la búsqueda y la recuperación. Esto implica crear un índice, a menudo llamado corpus, que permite buscar los datos de manera eficiente. El proceso es independiente de la creación del corpus, y los datos indexados se pueden usar para enriquecer el contexto de los modelos de lenguaje grandes (LLM), lo que reduce las alucinaciones y mejora la precisión de las respuestas. Por ejemplo, en el contexto de un sitio web, la indexación de datos puede implicar agregar metadatos como fecha de publicación y fecha de modificación para mejorar la funcionalidad de búsqueda. Existen diferentes métodos para indexar datos, incluido el uso de la búsqueda vectorial para la búsqueda de similitud en aplicaciones como la recuperación de información relevante para los LLM en el momento de la consulta. Para obtener más información, consulta la descripción general de RAG Engine .
  • Transferencia de datos
    • La transferencia de datos es el proceso de extraer datos de varias fuentes y, luego, integrarlos en una ubicación central para su procesamiento y análisis posteriores. En el contexto de la IA generativa, la transferencia de datos implica extraer información de diferentes fuentes de datos, como formularios clínicos, registros de pacientes o texto no estructurado, para entrenar y ajustar modelos de IA generativa. Por lo general, los datos transferidos se procesan y transforman para garantizar su calidad y coherencia antes de que se usen para entrenar los modelos de IA generativa. Este proceso puede implicar técnicas de limpieza de datos, ingeniería de atributos y aumento de datos para mejorar el rendimiento y las capacidades de generalización del modelo. Para obtener más información, consulta Cómo usar la IA generativa para la administración de la utilización.
  • paralelismo de datos
    • Es una forma de escalar el entrenamiento o la inferencia que replica un modelo completo en varios dispositivos y, luego, pasa un subconjunto de los datos de entrada a cada dispositivo. El paralelismo de datos puede permitir el entrenamiento y la inferencia en tamaños de lotes muy grandes. Sin embargo, el paralelismo de datos requiere que el modelo sea lo suficientemente pequeño para caber en todos los dispositivos. Por lo general, el paralelismo de datos acelera el entrenamiento y la inferencia.
  • conjunto de datos
    • En términos generales, un conjunto de datos se define como una colección de registros de datos estructurados o no estructurados. Es una colección de datos sin procesar, que suelen (pero no exclusivamente) organizarse en uno de los siguientes formatos: una hoja de cálculo o un archivo en formato CSV (valores separados por comas). Para obtener más información, consulta Crea un conjunto de datos.
  • transformación de datos
    • En el contexto de la generación mejorada por recuperación (RAG), la transformación de datos se refiere a la conversión de datos en un formato adecuado para que un LLM los indexe y procese. Esto suele implicar dividir los datos en fragmentos más pequeños para que sean fáciles de incorporar y indexar. Otras transformaciones pueden incluir pasos de limpieza y validación para garantizar la calidad de los datos. Para obtener más información, consulta la descripción general de RAG Engine.
  • decodificador
    • En general, cualquier sistema de AA que convierte una representación procesada, densa o interna en una representación más sin procesar, dispersa o externa. Los decodificadores suelen ser un componente de un modelo más grande, en el que se suelen vincular con un codificador. En las tareas de secuencia a secuencia, un decodificador comienza con el estado interno que genera el codificador para predecir la siguiente secuencia.
  • red neuronal profunda (DNN)
    • Una red neuronal con varias capas ocultas, que suele programarse con técnicas de aprendizaje profundo.
  • profundidad
    • La suma de lo siguiente en una red neuronal: 1. la cantidad de capas ocultas 2. la cantidad de capas de salida, que suele ser una 3. la cantidad de capas de incorporación. Por ejemplo, una red neuronal con cinco capas ocultas y una capa de salida tiene una profundidad de 6. Ten en cuenta que la capa de entrada no influye en la profundidad.
  • DevOps
    • DevOps es un paquete de productos de Google Cloud Platform, por ejemplo, Artifact Registry y Cloud Deploy.
  • interrupción anticipada
    • Un método de regularización que implica finalizar el entrenamiento antes de que la pérdida de entrenamiento deje de disminuir. En la interrupción anticipada, detienes intencionalmente el entrenamiento del modelo cuando la pérdida en un conjunto de datos de validación comienza a aumentar, es decir, cuando el rendimiento de la generalización empeora.
  • Incorporación
    • Representaciones numéricas de palabras o fragmentos de texto. Estos números capturan el significado semántico y el contexto del texto. Las palabras o textos similares o relacionados tienden a tener incorporaciones similares, lo que significa que están más cerca unas de otras en el espacio vectorial de alta dimensión.
  • Espacio de incorporación (espacio latente)
    • En la IA generativa, el espacio de incorporación hace referencia a una representación numérica de texto, imágenes o videos que captura las relaciones entre las entradas. Los modelos de aprendizaje automático, en particular los modelos de IA generativa, son expertos en crear estas incorporaciones mediante la identificación de patrones en grandes conjuntos de datos. Las aplicaciones pueden usar incorporaciones para procesar y generar lenguaje, y reconocer significados complejos y relaciones semánticas específicas en el contenido.
  • vector de incorporación
    • Es una representación vectorial densa, a menudo de baja dimensión, de un elemento, de modo que, si dos elementos son semánticamente similares, sus incorporaciones respectivas se ubican cerca entre sí en el espacio vectorial de incorporación.
  • codificador
    • En general, cualquier sistema de AA que convierte una representación sin procesar, dispersa o externa en una representación más procesada, más densa o más interna. Los codificadores suelen ser un componente de un modelo más grande, en el que se suelen vincular con un decodificador. Algunos transformadores vinculan codificadores con decodificadores, aunque otros solo usan el codificador o solo el decodificador. Algunos sistemas usan la salida del codificador como entrada de una red de clasificación o regresión. En las tareas de secuencia a secuencia, un codificador toma una secuencia de entrada y muestra un estado interno (un vector). Luego, el decodificador usa ese estado interno para predecir la siguiente secuencia.
  • conjunto
    • Es una colección de modelos entrenados de forma independiente cuyas predicciones se promedian o se agregan. En muchos casos, un conjunto produce mejores predicciones que un solo modelo. Por ejemplo, un bosque aleatorio es un conjunto creado a partir de varios árboles de decisión. Ten en cuenta que no todos los bosques de decisión son conjuntos.
  • entorno
    • En el aprendizaje por refuerzo, el mundo que contiene al agente y le permite observar el estado de ese mundo. Por ejemplo, el mundo representado puede ser un juego como el ajedrez o un mundo físico como un laberinto. Cuando el agente aplica una acción al entorno, este realiza transiciones entre estados.
  • evaluation (eval)
    • Una eval, abreviatura de "evaluación", es un tipo de experimento en el que las consultas registradas o sintéticas se envían a través de dos pilas de búsqueda: una pila experimental que incluye tu cambio y una pila base sin él. Las evaluaciones producen diferencias y métricas que te permiten evaluar el impacto, la calidad y otros efectos de tu cambio en los resultados de la búsqueda y otras partes de la experiencia del usuario de Google. Las evaluaciones se usan durante el ajuste o las iteraciones de tu cambio. También se usan como parte del lanzamiento de un cambio en el tráfico de usuarios en vivo.
  • ejecución
    • Una ejecución es un registro de un paso de flujo de trabajo de aprendizaje automático individual, que, por lo general, se anota con sus parámetros de entorno de ejecución. Algunos ejemplos de las ejecuciones son la transferencia de datos, la validación de datos, el entrenamiento de modelos, la evaluación de modelos y la implementación de modelos.
  • Puntuación F1
    • La puntuación F1 es una métrica que se usa para evaluar la precisión del resultado de un modelo. Es particularmente útil para evaluar el rendimiento de los modelos en tareas en las que la precisión y la recuperación son importantes, como la extracción de información. En el caso de los modelos de IA generativa, el valor de F1 se puede usar para comparar las predicciones del modelo con los datos de verdad fundamental y determinar su precisión. Sin embargo, para las tareas generativas, como el resumen y la generación de texto, otras métricas, como la puntuación Rough-L, podrían ser más apropiadas.
  • feature
    • En el aprendizaje automático (AA), un atributo es una característica o un atributo de una instancia o entidad que se usa como entrada para entrenar un modelo de AA o hacer predicciones.
  • extracción de atributos
    • En el contexto de la IA generativa, la extracción de atributos hace referencia al proceso de identificar y seleccionar atributos relevantes de los datos de entrada que se usarán en el entrenamiento del modelo. Luego, estas características se usan para generar datos nuevos que se parecen a la entrada original. Por ejemplo, en la generación de imágenes, la extracción de características puede implicar la identificación de bordes, texturas y colores. En el procesamiento de lenguaje natural, podría implicar extraer palabras clave, frases y estructuras gramaticales. Luego, el modelo generativo usa las características extraídas para crear contenido nuevo.
  • entrega de atributos
    • La entrega de atributos es el proceso de exportar o recuperar valores de atributos para el entrenamiento o la inferencia. En Vertex AI hay dos tipos de entrega de atributos: entrega en línea y entrega sin conexión. La entrega en línea recupera los valores de atributos más recientes de un subconjunto de la fuente de datos de atributos para realizar predicciones en línea. La entrega sin conexión o por lotes exporta grandes volúmenes de datos de atributos, incluidos los datos históricos, para el procesamiento sin conexión, como el entrenamiento de modelos de AA.
  • vista de funciones
    • Una vista de atributos es una colección lógica de atributos materializados de una fuente de datos de BigQuery en una instancia de tienda en línea. Una vista de atributos almacena y actualiza de forma periódica los datos de los atributos del cliente, que se actualizan de manera periódica desde la fuente de BigQuery. Una vista de atributos se asocia con el almacenamiento de datos de atributos, ya sea directamente o a través de asociaciones a recursos de registro de atributos.
  • instrucción con ejemplos limitados (few-shot)
    • En la IA generativa, "pocos ejemplos" se refiere a un tipo de instrucción que incluye una pequeña cantidad de ejemplos para guiar la respuesta del modelo. Estos ejemplos ayudan al modelo a comprender el formato de salida, la frase, el alcance o el patrón general deseados de la respuesta. Por lo general, las instrucciones con varios ejemplos se usan para regular el resultado de los modelos de lenguaje, lo que garantiza que generen respuestas precisas, de alta calidad y coherentes con las expectativas del usuario. Si proporcionas al modelo algunos ejemplos relevantes, el usuario puede influir en su comportamiento y obtener resultados más satisfactorios. Para obtener más información, consulta Incluye ejemplos con pocos intentos.
  • modelo de base (FM)
    • Son modelos entrenados con datos amplios para que se puedan adaptar (por ejemplo, ajustar) a un amplio rango de tareas downstream.
  • Operaciones de modelos de base (FMOP)
    • Las FMOps amplían las capacidades de las operaciones de AA y se enfocan en la producción eficiente de FMs previamente entrenados (entrenados desde cero) o personalizados (ajustados).
  • Gemini
    • Gemini es un conjunto de grandes modelos multimodales basados en secuencias de Google. Esto significa que pueden aceptar entradas y producir salidas en más de un medio a la vez, incluidos texto, audio y medios visuales. Están diseñados para integrarse con agentes capaces de realizar varias tareas. Para obtener más información, consulta Modelos de Google.
  • generalización
    • Es la capacidad de un modelo para realizar predicciones correctas sobre datos nuevos nunca antes vistos. Un modelo que puede generalizar es lo opuesto a un modelo que tiene un sobreajuste.
  • generación
    • En el contexto de la IA generativa, "generación" hace referencia al proceso de crear datos o contenido nuevos a partir de datos o información existentes. Los modelos de IA generativa se entrenan con grandes conjuntos de datos y pueden aprender patrones y relaciones dentro de los datos. Luego, pueden usar este conocimiento para generar contenido nuevo y único que sea similar a los datos de entrenamiento, pero no una réplica exacta. Para obtener más información, consulta https://cloud.google.com/docs/ai-ml/generative-ai/generative-ai-or-traditional-ai.
  • modelo generativo
    • Un tipo de modelo de aprendizaje automático que puede crear resultados novedosos en función de sus datos de entrenamiento. En su forma más simple, el modelo genera datos nuevos que se parecen a un conjunto determinado de categorías con las que se entrenó. Por lo general, se asocian con modelos de lenguaje grandes, pero otros tipos de modelos también pueden ser generativos.
  • Sistema de módem incorporado de Google (GEMS)
    • GEMS es un framework de software incorporado para módems y un conjunto complementario de flujos de trabajo y de infraestructura de desarrollo. La visión principal de GEMS es proporcionar un código de sistema de módem de alta calidad con alta reusabilidad en muchos dispositivos de Google que contienen módems. Para lograr esta visión amplia, GEMS proporciona un entorno integral para los desarrolladores, que consta de los principales componentes básicos que se describen a continuación.
  • gradiente
    • Es el vector de las derivadas parciales con respecto a todas las variables independientes. En el aprendizaje automático, el gradiente es el vector de las derivadas parciales de la función del modelo. El gradiente apunta en la dirección del aumento más empinado.
  • gráfico
    • En el contexto de la IA generativa, un grafo hace referencia a una representación estructurada de la información que organiza y conecta los datos como una red de nodos y aristas. Estos gráficos suelen usarse para representar el conocimiento y las relaciones entre entidades, lo que los hace particularmente útiles para los sistemas de IA generativa que requieren una comprensión profunda del contexto y las relaciones dentro de los datos. Los sistemas de IA generativa que aprovechan los gráficos de conocimiento pueden usarlos para mejorar el rendimiento de los modelos de recuperación. Cuando se incorporan gráficos de conocimiento al sistema, la IA generativa puede acceder a datos ricos en contexto y recorrer el gráfico para recuperar subgrafos relevantes en función de las consultas de los usuarios. Esto permite que el sistema proporcione respuestas más precisas e informativas mediante la generación de contenido contextualmente relevante.
  • verdad fundamental (GT)
    • La verdad fundamental es un término que se usa en varios campos para referirse a la verdad absoluta de algún problema de decisión o medición, en contraposición a la estimación de algún sistema. En el aprendizaje automático, el término “verdad fundamental” se refiere al conjunto de entrenamiento para las técnicas de aprendizaje supervisado.
  • alucinación
    • Una alucinación en la IA generativa es una respuesta segura de una IA que no se puede fundamentar en sus datos de entrenamiento. Es posible que sea imprecisa. En el contexto de la generación de texto, son falsedades aleatorias que suenan creíbles dentro del contenido de texto generado.
  • heurística
    • Una solución simple y de rápida implementación para un problema. Por ejemplo, "Con una heurística, conseguimos un 86% de exactitud. Cuando cambiamos a una red neuronal profunda, la exactitud llego al 98%".
  • capa oculta
    • Es una capa en una red neuronal entre la capa de entrada (los atributos) y la capa de salida (la predicción). Cada capa oculta consta de una o más neuronas. Una red neuronal profunda contiene más de una capa oculta.
  • histogram
    • Una presentación gráfica de la variación en un conjunto de datos mediante barras. En un histograma, se visualizan los patrones que son difíciles de detectar en una tabla simple de números.
  • hiperparámetro
    • Un hiperparámetro hace referencia a una variable que rige el proceso de entrenamiento de un modelo de aprendizaje automático. Estas variables pueden incluir tasas de aprendizaje, valores de momento en el optimizador y la cantidad de unidades en la última capa oculta de un modelo. El ajuste de hiperparámetros en Vertex AI implica ejecutar varias pruebas de una aplicación de entrenamiento con diferentes valores para los hiperparámetros elegidos, establecidos dentro de límites especificados. El objetivo es optimizar la configuración de los hiperparámetros para maximizar la exactitud predictiva del modelo. Para obtener más información, consulta la descripción general del ajuste de hiperparámetros.
  • Imagen
    • Imagen es un servicio de IA generativa de texto a imagen disponible a través de la plataforma de Vertex AI. Permite a los usuarios generar imágenes nuevas, editar imágenes, definir mejor el estilo o los modelos de temas, subtitular imágenes o obtener respuestas a preguntas sobre el contenido de las imágenes. Para obtener más información, consulta la descripción general de Imagen en Vertex AI.
  • reconocimiento de imágenes
    • El reconocimiento de imágenes es el proceso de clasificar objetos, patrones o conceptos en una imagen. También se conoce como clasificación de imágenes. El reconocimiento de imágenes es un subcampo del aprendizaje automático y la visión por computadora.
  • index
    • Es una colección de vectores implementados juntos para la búsqueda de similitud. Los vectores pueden agregarse a un índice o quitarse de este. Las consultas de búsqueda de similitud se emiten a un índice específico y buscarán en los vectores de ese índice.
  • inferencia
    • En el contexto de la plataforma de Vertex AI, la inferencia se refiere al proceso de ejecutar datos a través de un modelo de aprendizaje automático para calcular un resultado, como una sola puntuación numérica. Este proceso también se conoce como “poner en funcionamiento un modelo de aprendizaje automático” o “poner en producción un modelo de aprendizaje automático”. La inferencia es un paso importante en el flujo de trabajo de aprendizaje automático, ya que permite usar los modelos para hacer predicciones sobre datos nuevos. En Vertex AI, la inferencia se puede realizar de varias maneras, incluidas la predicción por lotes y la en línea. La predicción por lotes implica ejecutar un grupo de solicitudes de predicción y generar los resultados en un solo archivo, mientras que la predicción en línea permite realizar predicciones en tiempo real en datos individuales.
  • recuperación de información (IR)
    • La recuperación de información (IR) es un componente clave de Vertex AI Search. Es el proceso de encontrar y recuperar información relevante de una gran colección de datos. En el contexto de Vertex AI, la IR se usa para recuperar documentos de un corpus en función de la consulta de un usuario. Vertex AI ofrece un paquete de APIs para ayudarte a compilar tus propias aplicaciones de generación aumentada de recuperación (RAG) o a crear tu propio motor de búsqueda. Para obtener más información, consulta Cómo usar Vertex AI Search como backend de recuperación con el motor de RAG.
  • tasa de aprendizaje (tamaño del paso)
    • La tasa de aprendizaje es un hiperparámetro que se usa para ajustar el proceso de optimización de un modelo de aprendizaje automático. Determina el tamaño del paso en el que el modelo actualiza sus pesos durante el entrenamiento. Una tasa de aprendizaje más alta puede generar una convergencia más rápida, pero puede provocar inestabilidad o sobreajuste. Por el contrario, una tasa de aprendizaje más baja puede generar una convergencia más lenta, pero puede ayudar a evitar el sobreajuste. Para obtener más información, consulta Descripción general del ajuste de hiperparámetros.
  • pérdida (costo)
    • Durante el entrenamiento de un modelo supervisado, es una medida de qué tan lejos está la predicción de un modelo de su etiqueta. Una función de pérdida calcula la pérdida.
  • conjunto de datos administrado
    • Un objeto de conjunto de datos creado y alojado por Vertex AI.
  • model
    • Cualquier modelo previamente entrenado o no. En general, cualquier construcción matemática que procese datos de entrada y muestre resultados. Dicho de otra manera, un modelo es el conjunto de parámetros y estructura necesarios para que un sistema realice predicciones.
  • síntesis de modelos (síntesis del conocimiento, modelos de profesor-estudiante)
    • La destilación de modelos es una técnica que permite que un modelo de estudiante más pequeño aprenda de un modelo de profesor más grande. El modelo del estudiante se entrena para imitar el resultado del modelo del profesor y, luego, se puede usar para generar datos nuevos o hacer predicciones. La destilación de modelos suele usarse para que los modelos grandes sean más eficientes o más accesibles para dispositivos con recursos limitados. También se puede usar para mejorar la generalización de los modelos, ya que reduce el sobreajuste.
  • nombre del recurso de modelo
    • El nombre de recurso de un model de la siguiente manera: projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>. Puedes encontrar el ID del modelo en la consola de Cloud, en la página “Registro de modelos”.
  • Sistema de archivos de red (NFS)
    • Un sistema cliente-servidor que permite a los usuarios acceder a archivos a través de una red y tratarlos como si residieran en un directorio de archivos local.
  • codificación one-hot
  • instrucción con un solo ejemplo
    • Una instrucción que contiene un ejemplo que demuestra cómo debería responder el modelo de lenguaje extenso. Para obtener más información, consulta Consigna única.
  • parámetro
    • Los parámetros son valores de entrada con clave que configuran una ejecución, regulan su comportamiento y afectan sus resultados. Algunos ejemplos son la tasa de aprendizaje, la tasa de abandono y la cantidad de pasos de entrenamiento.
  • perplejidad
    • La perplejidad es una métrica que se usa para evaluar el rendimiento de los modelos de lenguaje. Mide la probabilidad de que el modelo genere una secuencia de texto determinada en función de la distribución del texto en el que se entrenó. La perplejidad es una métrica que se usa comúnmente para evaluar modelos de lenguaje y, a menudo, se usa para comparar el rendimiento de diferentes modelos o hacer un seguimiento del progreso de un modelo durante el entrenamiento.
  • pipeline
    • Las canalizaciones del AA son flujos de trabajo del AA portátiles y escalables que se basan en contenedores. Para obtener más información, consulta Introducción a Vertex AI Pipelines.
  • trabajo de canalización
    • Un trabajo o una ejecución de canalización corresponden al recurso PipelineJob en la API de Vertex AI. Es una instancia de ejecución de la definición de tu canalización de AA, que se define como un conjunto de tareas de AA interconectadas por dependencias de entrada y salida.
  • ejecución de canalización
    • Uno o más PipelineJobs de Vertex se pueden asociar con un experimento en el que cada PipelineJob se represente como una sola ejecución. En este contexto, los parámetros de la ejecución se infieren mediante los parámetros del PipelineJob. Las métricas se infieren a partir de los artefactos system.Metric que produce ese PipelineJob. Los artefactos de la ejecución se infieren de los artefactos que produce ese PipelineJob.
  • Private Service Connect (PSC)
    • Private Service Connect es una tecnología que permite a los clientes de Compute Engine asignar IPs privadas en su red a otra red de VPC o a las APIs de Google.
  • sugesta
    • Las instrucciones son solicitudes en lenguaje natural que se envían a los modelos de lenguaje para obtener una respuesta. Pueden contener preguntas, información contextual, varios ejemplos y entradas parciales para que el modelo las complete o desarrolle. Según el tipo de modelo que se use, cuando el modelo reciba una instrucción, podrá generar texto, embeddings, código, imágenes, videos, música y mucho más. Para obtener más información, consulta Descripción general de las estrategias de instrucciones.
  • ingeniería de instrucciones (diseño de instrucciones)
    • La ingeniería de instrucciones en la IA generativa es el proceso de crear instrucciones eficaces para obtener los resultados deseados de los modelos de lenguaje grandes (LLM). Es un proceso iterativo basado en pruebas que se enfoca en definir mejor las entradas para lograr resultados específicos. Esto implica tener en cuenta el contenido y la estructura de la instrucción para garantizar respuestas precisas y de alta calidad. La ingeniería de instrucciones eficaz es fundamental para las tareas complejas, aunque las tareas más simples no la requieran. El objetivo es crear prototipos rápidamente de aplicaciones basadas en LLM. Para obtener más información, consulta Introducción a la ingeniería de instrucciones.
  • ajuste inmediato
    • El ajuste de instrucciones es un método de ajuste fino eficiente en parámetros que se usa para mejorar el rendimiento de un modelo de IA generativa en una tarea específica. Implica aprender un “prefijo” que se agrega al mensaje real, a veces en cada capa. Este enfoque se considera más económico y rápido que otros métodos de ajuste, y suele generar buenos resultados. El ajuste de instrucciones es particularmente eficaz cuando tienes una tarea específica y deseas que el modelo la realice de una manera determinada. A veces, también se lo conoce como aprendizaje inmediato o ajuste eficiente de parámetros (fino). Para obtener más información, consulta Introducción a la ingeniería de instrucciones.
  • Capacidad de procesamiento aprovisionada (PT)
    • La capacidad de procesamiento aprovisionada (PT) es un servicio premium para los modelos de IA generativa de Vertex AI que ofrece una experiencia garantizada a través de la garantía de capacidad y precios predecibles. A diferencia de la opción de pago por uso (según demanda), el PT permite que los clientes compren una cuota dedicada, lo que garantiza que sus solicitudes no compitan con otras por la capacidad del modelo. La CP es una suscripción mensual o semanal con costo fijo que reserva capacidad de procesamiento para modelos y ubicaciones específicos. Para obtener más información, consulta Descripción general de la capacidad de procesamiento aprovisionada.
  • cuantización
    • La cuantización es una técnica de optimización de modelos que se usa para reducir la precisión de los números que se usan para representar los parámetros de un modelo. Esto puede generar modelos más pequeños, un menor consumo de energía y una latencia de inferencia reducida.
  • Bosque aleatorio
    • El bosque aleatorio es un algoritmo de aprendizaje automático que se usa para la clasificación y la regresión. No es un modelo de IA generativa en sí, pero es un componente que se puede usar en un sistema de IA generativa más grande. Un bosque aleatorio consta de varios árboles de decisión, y su predicción es una agregación de las predicciones de estos árboles individuales. Por ejemplo, en una tarea de clasificación, cada árbol “vota” por una clase y la predicción final es la clase con más votos. Para obtener más información, consulta Bosque de decisión.
  • Clúster de Ray en Vertex AI
    • Un clúster de Ray en Vertex AI es un clúster administrado de nodos de procesamiento que se puede usar para ejecutar aplicaciones de aprendizaje automático (AA) y Python distribuidas. Proporciona la infraestructura para realizar procesamiento distribuido y procesamiento paralelo en tu flujo de trabajo de AA. Los clústeres de Ray están integrados en Vertex AI para garantizar la disponibilidad de capacidad para las cargas de trabajo de AA críticas o durante las temporadas de mayor demanda. A diferencia de los trabajos personalizados, en los que el servicio de entrenamiento libera el recurso después de que se completa el trabajo, los clústeres de Ray permanecen disponibles hasta que se borran. Para obtener más información, consulta la descripción general de Ray en Vertex AI.
  • Ray on Vertex AI (RoV)
    • Ray en Vertex AI está diseñado para que puedas usar el mismo código de Ray de código abierto para escribir programas y desarrollar aplicaciones en Vertex AI con cambios mínimos. Para obtener más información, consulta la descripción general de Ray en Vertex AI.
  • SDK de Ray en Vertex AI para Python
    • El SDK de Ray en Vertex AI para Python es una versión del SDK de Vertex AI para Python que incluye la funcionalidad del cliente de Ray, el conector Ray BigQuery, la administración de clústeres de Ray en Vertex AI y las predicciones en Vertex AI. Para obtener más información, consulta Introducción al SDK de Vertex AI para Python.
  • recall
    • Es el porcentaje de vecinos más cercanos que muestra el índice. Por ejemplo, si una consulta de vecino más cercano para 20 vecinos más cercanos mostró 19 de los vecinos más cercanos de “verdad fundamental”, la recuperación será 19/20*100 = 95%.
  • sistema de recomendación
    • Un sistema de recomendación es un sistema basado en el aprendizaje automático que ayuda a los usuarios a encontrar contenido atractivo en un gran corpus. Genera un subconjunto más pequeño de candidatos a partir de un corpus potencialmente enorme, califica y clasifica a los candidatos, y vuelve a clasificar la clasificación final para tener en cuenta restricciones adicionales. Para obtener más información, consulta la Descripción general de los sistemas de recomendación.
  • regularización
    • La regularización es una técnica que se usa para evitar el sobreajuste en los modelos de aprendizaje automático. El sobreajuste ocurre cuando un modelo aprende demasiado bien los datos de entrenamiento, lo que genera un rendimiento deficiente en los datos no vistos. Un tipo específico de regularización que se menciona es la detención anticipada, en la que se detiene el entrenamiento antes de que la pérdida en un conjunto de datos de validación comience a aumentar, lo que indica una disminución en el rendimiento de la generalización. Para obtener más información, consulta Sobreajuste: regularización L2.
  • cuenta de servicio
    • En Google Cloud, una cuenta de servicio es un tipo especial de cuenta que usa una aplicación o una instancia de máquina virtual (VM), no una persona. Las aplicaciones usan cuentas de servicio para realizar llamadas autorizadas a la API.
  • service agemt
    • Un agente de servicio hace referencia a una cuenta de servicio administrada por Google. Se usa cuando un servicio requiere acceso a recursos creados por otro servicio. Por ejemplo, cuando los servicios de Dataflow o Dataproc necesitan crear instancias durante el tiempo de ejecución o cuando una Cloud Function quiere usar el servicio de administración de claves (KMS) para protegerla. Google Cloud crea agentes de servicio automáticamente cuando un servicio los requiere. Por lo general, se usan para administrar el acceso a los recursos y realizar varias tareas en nombre del servicio. Para obtener más información, consulta Agentes de servicio.
  • métricas resumidas
    • Las métricas resumidas son un solo valor para cada clave de métrica en una ejecución de experimento. Por ejemplo, la precisión de la prueba de un experimento es la exactitud calculada en un conjunto de datos de prueba al final del entrenamiento, que puede capturarse como una métrica resumida de valor único.
  • TensorBoard
    • TensorBoard es un conjunto de aplicaciones web para visualizar y comprender las ejecuciones y modelos de TensorFlow. Para obtener más información, consulta TensorBoard.
  • Instancia de TensorBoard
    • Una instancia de TensorBoard es un recurso regionalizado que almacena los experimentos de Vertex AI TensorBoard asociados a un proyecto. Puedes crear varias instancias de Vertex TensorBoard en un proyecto si, por ejemplo, deseas usar varias instancias habilitadas con CMEK. Esto es lo mismo que el recurso TensorBoard en la API.
  • Nombre del recurso de TensorBoard
    • Un nombre de recurso de TensorBoard se usa para identificar por completo una instancia de Vertex AI TensorBoard. El formato es el siguiente: projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
  • compensación de tiempo
    • La compensación horaria está relacionada con el comienzo de un video.
  • métricas de series temporales
    • Las métricas de series temporales son valores de métricas longitudinales, en los que cada valor representa un paso en la parte de la rutina de entrenamiento de una ejecución. Las métricas de series temporales se almacenan en Vertex AI TensorBoard. Vertex AI Experiments almacena una referencia al recurso de Vertex TensorBoard.
  • token
    • Un token en un modelo de lenguaje es la unidad atómica con la que el modelo entrena para realizar predicciones, es decir, palabras, morfemas y caracteres. En dominios fuera de los modelos de lenguaje, los tokens pueden representar otros tipos de unidades atómicas. Por ejemplo, en la visión artificial, un token puede ser un subconjunto de una imagen. Para obtener más información, consulta Cómo enumerar y contar tokens.
  • trayectoria
    • Una "trayectoria" se refiere a una secuencia de pasos o acciones que realiza un agente o modelo. A menudo, se usa en la evaluación de modelos generativos, en la que se evalúa la capacidad del modelo para generar texto, código y otro contenido. Existen varios tipos de métricas de trayectoria que se pueden usar para evaluar modelos generativos, como la concordancia exacta de la trayectoria, la concordancia en orden de la trayectoria, la concordancia de cualquier orden de la trayectoria y la precisión de la trayectoria. Estas métricas miden la similitud entre el resultado del modelo y un conjunto de resultados de referencia generados por humanos.
  • Transformador
    • Un "transformador" es una arquitectura de red neuronal que subyace a la mayoría de los modelos generativos de vanguardia. Se usa en varias aplicaciones de modelos de lenguaje, incluida la traducción. Los transformadores consisten en un codificador y un decodificador. El codificador convierte el texto de entrada en una representación intermedia, y el decodificador lo convierte en un resultado útil. Utilizan un mecanismo de autoatención para recopilar contexto de las palabras que rodean la palabra que se está procesando. Si bien el entrenamiento de un transformador requiere recursos significativos, es más eficiente ajustar un transformador previamente entrenado para aplicaciones específicas.
  • Aprendizaje por refuerzo de transformadores
    • El aprendizaje por refuerzo de transformadores (TRL) hace referencia a la aplicación de técnicas de aprendizaje por refuerzo (RL) para entrenar modelos basados en transformadores para tareas generativas. Este enfoque aborda las limitaciones de los modelos generativos tradicionales, que a menudo se entrenan en la predicción del siguiente token sin una optimización explícita para cualidades deseables, como la coherencia, la seguridad y la sensibilidad. La TRL optimiza directamente el modelo de lenguaje en objetivos complejos mediante el uso de RL, a menudo incorporando comentarios humanos (RLHF) para guiar el proceso de aprendizaje. Entre los ejemplos, se incluyen la optimización de modelos para generar contenido menos tóxico con modelos de recompensa y el uso de la TRL para ajustar Gemma, un modelo generativo. Para obtener más información, consulta DLC de Hugging Face: Ajusta Gemma con el aprendizaje reforzado de transformadores (TRL) en Vertex AI.
  • verdadero positivo
    • Un "verdadero positivo" se refiere a una predicción en la que el modelo identifica correctamente una clase positiva. Por ejemplo, si un modelo se entrena para identificar a los clientes que comprarán una chaqueta, un verdadero positivo sería predecir correctamente que un cliente hará esa compra.
  • validación
    • La validación verifica la calidad de las predicciones de un modelo en función del conjunto de validación. Esto implica definir métricas para medir la calidad, la velocidad, el cumplimiento de las instrucciones y la seguridad del contenido generado. A menudo, la validación usa datos etiquetados (instrucciones de entrada y resultados esperados) para comparar las predicciones del modelo con la verdad fundamental. Se pueden usar métricas como la puntuación F1 (para la clasificación) y la puntuación ROUGE-L (para el resumen). El proceso también incluye pruebas de casos extremos y situaciones inusuales para garantizar la solidez. En el caso de los modelos implementados, la supervisión y captura continuas de datos comunes y casos extremos ayudan a mejorar los esfuerzos de validación futuros.
  • vector
    • Un vector hace referencia a una representación numérica de texto, imágenes o videos que captura las relaciones entre las entradas. Los modelos de aprendizaje automático son adecuados para crear incorporaciones mediante la identificación de patrones en grandes conjuntos de datos. Las aplicaciones pueden usar incorporaciones para procesar y producir lenguaje, y reconocer significados complejos y relaciones semánticas específicas en el contenido. Para obtener más información, consulta la descripción general de las APIs de incorporaciones.
  • Vertex AI Experiments
    • Vertex AI Experiments permite a los usuarios hacer un seguimiento de lo siguiente: 1. Pasos de una ejecución de experimento (por ejemplo, procesamiento previo y entrenamiento). 2. Entradas (por ejemplo, algoritmo, parámetros y conjuntos de datos) 3. Los resultados de esos pasos (por ejemplo, modelos, puntos de control y métricas)
  • Registro de modelos de Vertex AI
    • Vertex AI Model Registry es un repositorio central en el que puedes administrar el ciclo de vida de tus modelos de AA. En Vertex AI Model Registry, tienes una descripción general de tus modelos para que puedas organizar mejor, hacer un seguimiento y entrenar versiones nuevas. Cuando tengas una versión del modelo que desees implementar, puedes asignarla a un extremo directamente desde el registro o, si usas alias, implementar modelos en un extremo. Para obtener más información, consulta Introducción a Vertex AI Model Registry.
  • segmento de video
    • Un segmento de video se identifica mediante la compensación de tiempo inicial y final de un video.
  • Nube privada virtual (VPC)
    • La nube privada virtual es un grupo configurable de recursos de procesamiento compartidos según demanda que se asigna en un entorno de nube pública y proporciona un nivel de aislamiento entre las diferentes organizaciones que usan esos recursos.
  • Incorporación de palabras
    • Las incorporaciones de palabras son una forma de representar palabras como vectores densos de valores de punto flotante. Esto permite que palabras similares tengan codificaciones similares. Los embeddings de palabras suelen usarse en la IA generativa para capturar las relaciones entre las palabras y generar texto o código nuevos, sin fuentes. En la IA generativa, las incorporaciones de palabras se pueden usar para entrenar modelos que pueden generar texto o código nuevos. Cuando comprenden las relaciones entre las palabras, los modelos de IA generativa pueden crear contenido nuevo que sea coherente y relevante.
  • Instrucción sin ejemplos (instrucción directa)
    • En la IA generativa, una instrucción sin ejemplos es una instrucción que permite que un modelo de lenguaje grande (LLM) realice una tarea sin ningún entrenamiento o ejemplo adicional. Esto contrasta con métodos como las instrucciones con ejemplos limitados, que proporcionan al modelo entradas y salidas de ejemplo. Una instrucción sin ejemplos se basa únicamente en el conocimiento preexistente del modelo para generar una respuesta. Para obtener más información, consulta Instrucciones de una sola vez.