-
conjunto de anotaciones
- Un conjunto de anotaciones contiene las etiquetas asociadas a los archivos de origen subidos en un conjunto de datos. Un conjunto de anotaciones se asocia tanto a un tipo de datos como a un objetivo (por ejemplo, vídeo/clasificación).
-
Endpoint de la API
- Endpoints de API es un aspecto de configuración de servicio que especifica las direcciones de red, también conocidas como endpoints de servicio (por ejemplo, aiplatform.googleapis.com).
-
Credenciales predeterminadas de la aplicación (ADC)
- Las credenciales de aplicación predeterminadas (ADC) proporcionan una forma sencilla de obtener credenciales de autorización para usarlas en llamadas a las APIs de Google. Son más adecuadas para los casos en los que la llamada debe tener la misma identidad y nivel de autorización para la aplicación, independientemente del usuario. Este es el método recomendado para autorizar llamadas a las APIs de Google Cloud, sobre todo cuando creas una aplicación que se implementa en Google App Engine (GAE) o en máquinas virtuales de Compute Engine. Para obtener más información, consulta Cómo funcionan las credenciales predeterminadas de la aplicación.
-
Approximate Nearest Neighbor (ANN)
- El servicio de búsqueda del vecino más cercano aproximado (ANN) es una solución de alta escala y baja latencia para encontrar vectores similares (o, más concretamente, "inserciones") en un corpus grande. Para obtener más información, consulta Cómo usar la búsqueda vectorial para la coincidencia semántica.
-
artefacto
- Un artefacto es una entidad o un fragmento de datos discretos que produce y consume un flujo de trabajo de aprendizaje automático. Entre los artefactos se incluyen conjuntos de datos, modelos, archivos de entrada y registros de entrenamiento.
-
Artifact Registry
- Artifact Registry es un servicio de gestión de artefactos universal. Es el servicio recomendado para gestionar contenedores y otros artefactos en Google Cloud. Para obtener más información, consulta Artifact Registry.
-
Inteligencia artificial (IA)
- La inteligencia artificial (IA) es el estudio y el diseño de máquinas que parecen "inteligentes", es decir, que imitan funciones humanas o intelectuales, como el movimiento mecánico, el razonamiento o la resolución de problemas. Uno de los subcampos más populares de la IA es el aprendizaje automático, que utiliza un enfoque estadístico y basado en datos para crear IA. Sin embargo, algunas personas utilizan estos dos términos indistintamente.
-
autenticación
- Proceso de verificación de la identidad de un cliente (que puede ser un usuario u otro proceso) para obtener acceso a un sistema seguro. Se dice que un cliente que ha demostrado su identidad está autenticado. Para obtener más información, consulta el artículo Métodos de autenticación de Google.
-
Comparación automática
- La comparación automática en paralelo (AutoSxS) es una herramienta de evaluación asistida por modelos que compara dos modelos de lenguaje extensos (LLMs) en paralelo. Se puede usar para evaluar el rendimiento de los modelos de IA generativa del registro de modelos de Vertex AI o de las inferencias pregeneradas. AutoSxS usa un evaluador automático para decidir qué modelo ofrece la mejor respuesta a una petición. AutoSxS está disponible bajo demanda y evalúa modelos de lenguaje con un rendimiento comparable al de los evaluadores humanos.
-
AutoML
- Algoritmos de aprendizaje automático que "aprenden a aprender" mediante la optimización de caja negra. Para obtener más información, consulta el glosario de aprendizaje automático.
-
registro automático
- El registro automático es una función de las plataformas y bibliotecas de aprendizaje automático que registra automáticamente métricas, parámetros y artefactos clave durante el proceso de entrenamiento del modelo sin necesidad de instrumentación de código explícita. Simplifica el seguimiento de los experimentos, ya que registra automáticamente información como los hiperparámetros, las métricas de evaluación (por ejemplo, la precisión y la pérdida) y los puntos de control de los modelos, lo que permite a los desarrolladores comparar y reproducir experimentos fácilmente.
-
autorater
- Un evaluador automático es un modelo de lenguaje que evalúa la calidad de las respuestas del modelo a partir de una petición de inferencia original. Se usa en la canalización AutoSxS para comparar las inferencias de dos modelos y determinar cuál ha dado mejores resultados. Para obtener más información, consulta El calificador automático.
-
escalado automático
- El autoescalado es la capacidad de un recurso de computación, como el grupo de trabajadores de un clúster de Ray, para ajustar automáticamente el número de nodos en función de las demandas de la carga de trabajo, lo que optimiza el uso de los recursos y los costes. Para obtener más información, consulta Escalar clústeres de Ray en Vertex AI: autoescalado.
-
valor de referencia
- Modelo que se usa como punto de referencia para comparar el rendimiento de otro modelo (normalmente, uno más complejo). Por ejemplo, un modelo de regresión logística puede servir como una buena base para un modelo profundo. En el caso de un problema concreto, la base de referencia ayuda a los desarrolladores de modelos a cuantificar el rendimiento mínimo esperado que debe alcanzar un nuevo modelo para que sea útil. Para obtener más información, consulta Conjuntos de datos de referencia y de destino.
-
batch
- El conjunto de ejemplos que se usa en una iteración de entrenamiento. El tamaño del lote determina el número de ejemplos que contiene.
-
tamaño del lote
- Número de ejemplos de un lote. Por ejemplo, el tamaño del lote de SGD es 1, mientras que el tamaño del lote de un minilote suele estar entre 10 y 1000. El tamaño del lote suele ser fijo durante el entrenamiento y la inferencia. Sin embargo, TensorFlow permite tamaños de lote dinámicos.
-
inferencia por lotes
- La inferencia por lotes toma un grupo de solicitudes de inferencia y genera los resultados en un archivo. Para obtener más información, consulta el resumen de cómo obtener inferencias en Vertex AI.
-
sesgo
- 1. Estereotipos, prejuicios o favoritismos hacia determinadas cosas, personas o grupos. Estos sesgos pueden afectar a la recogida e interpretación de datos, al diseño de un sistema y a la forma en que los usuarios interactúan con él. 2. Error sistemático introducido por un procedimiento de muestreo o de generación de informes.
-
bidireccional
- Término que se usa para describir un sistema que evalúa el texto que precede y sigue a una sección de texto de destino. Por el contrario, un sistema unidireccional solo evalúa el texto que precede a una sección de texto de destino.
-
Representaciones de codificador bidireccional de transformadores (BERT)
- BERT es un método de preentrenamiento de representaciones de lenguaje, lo que significa que entrenamos un modelo de "comprensión del lenguaje" de uso general en un gran corpus de texto (como Wikipedia) y, a continuación, usamos ese modelo para tareas de PLN posteriores que nos interesan (como responder preguntas). BERT supera a los métodos anteriores porque es el primer sistema no supervisado y profundamente bidireccional para preentrenar el procesamiento del lenguaje natural.
-
BigQuery
- BigQuery es un almacén de datos empresarial totalmente gestionado, sin servidor y de gran escalabilidad que ofrece Google Cloud. Se ha diseñado para analizar conjuntos de datos masivos mediante consultas SQL a velocidades increíblemente altas. BigQuery ofrece potentes funciones de analíticas e inteligencia empresarial sin que los usuarios tengan que gestionar ninguna infraestructura. Para obtener más información, consulta De un almacén de datos a una plataforma autónoma de datos e IA.
-
BigQuery ML
- BigQuery ML es una función del almacén de datos BigQuery de Google Cloud que permite a los analistas y científicos de datos crear, entrenar y desplegar modelos de aprendizaje automático directamente en BigQuery mediante consultas de SQL estándar. De esta forma, no es necesario mover los datos a plataformas de aprendizaje automático independientes, lo que simplifica el flujo de trabajo de aprendizaje automático y hace que esta tecnología sea más accesible para los usuarios de SQL. Para obtener más información, consulta Crear modelos de aprendizaje automático en BigQuery ML.
-
Bigtable
- Un servicio de base de datos NoSQL totalmente gestionado que también se recomienda como opción de almacenamiento de datos de entrenamiento al usar Vertex AI. Para obtener más información, consulta la descripción general de Bigtable.
-
Suplente de evaluación bilingüe (Bilingual Evaluation Understudy, BLEU)
- Una medida habitual para evaluar la calidad de un algoritmo de traducción automática comparando su resultado con el de una o varias traducciones humanas.
-
cuadro delimitador
- Un cuadro delimitador de un objeto en el fotograma de un vídeo se puede especificar de dos formas: i) usando dos vértices que consten de un conjunto de coordenadas x e y si son puntos opuestos en diagonal del rectángulo. Por ejemplo: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Usa los cuatro vértices. Para obtener más información, consulta Preparar datos de vídeo.
-
categoría
- Carpeta de nivel superior de Cloud Storage. Los nombres de los segmentos deben ser únicos para todos los usuarios de Cloud Storage. Los segmentos contienen archivos. Para obtener más información, consulta la descripción general del producto Cloud Storage.
-
chat
- El contenido de una conversación con un sistema de aprendizaje automático, normalmente un modelo de lenguaje extenso. La interacción anterior en una conversación (lo que has escrito y cómo ha respondido el modelo de lenguaje extenso) se convierte en el contexto de las partes posteriores de la conversación. Un chatbot es una aplicación de un modelo de lenguaje extenso.
-
checkpoint
- Datos que registran el estado de los parámetros de un modelo durante el entrenamiento o una vez que este ha finalizado. Por ejemplo, durante el entrenamiento, puedes hacer lo siguiente: 1. Detener el entrenamiento, ya sea de forma intencionada o como resultado de determinados errores. 2. Captura el punto de control. 3. Más adelante, vuelve a cargar el punto de control, posiblemente en otro hardware. 4. Reiniciar el entrenamiento. En Gemini, un punto de control es una versión específica de un modelo de Gemini entrenado con un conjunto de datos concreto.
-
modelo de clasificación
- Modelo cuya inferencia es una clase. Por ejemplo, los siguientes son modelos de clasificación: un modelo que predice el idioma de una frase de entrada (¿francés? ¿Español? italiano?). Un modelo que predice especies de árboles (¿arce? ¿Roble? Baobab?). Modelo que predice la clase positiva o negativa de una afección médica concreta.
-
métricas de clasificación
- Las métricas de clasificación admitidas en el SDK de Vertex AI para Python son la matriz de confusión y la curva ROC.
-
Cloud Logging
- Cloud Logging es un servicio de registro en tiempo real totalmente gestionado que ofrece Google Cloud y que te permite recoger, almacenar, analizar y monitorizar registros de todos tus recursos de Google Cloud, aplicaciones locales e incluso fuentes personalizadas. Cloud Logging centraliza la gestión de registros, lo que facilita la resolución de problemas, la auditoría y la comprensión del comportamiento y el estado de tus aplicaciones e infraestructura. Para obtener más información, consulta la descripción general de Cloud Logging.
-
Cloud Monitoring
- Cloud Monitoring es una plataforma de observabilidad completa que ofrece Google Cloud y que recoge y visualiza métricas, registros y eventos de los servicios de Google Cloud, la infraestructura local y los componentes de las aplicaciones. Permite a los usuarios obtener información valiosa sobre el rendimiento, la disponibilidad y el estado general de sus sistemas, lo que les permite detectar problemas de forma proactiva, solucionarlos y configurar alertas. Para obtener más información, consulta Métricas de Cloud Monitoring para Vertex AI.
-
Cloud Profiler
- Cloud Profiler es un servicio de creación de perfiles continuo proporcionado por Google Cloud que te ayuda a identificar y analizar el consumo de CPU y memoria, así como el uso de otros recursos (como la pila, el tiempo real y la contención) en tus aplicaciones. Recoge automáticamente datos de creación de perfiles de tus aplicaciones de producción con una sobrecarga mínima, lo que te permite visualizar y comprender los cuellos de botella del rendimiento en varios servicios, así como optimizar tu código para mejorar la eficiencia y reducir los costes. Para obtener más información, consulta la descripción general de Cloud Profiler.
-
Cloud Storage
- Servicio de almacenamiento de objetos escalable y seguro de Google Cloud, recomendado para almacenar grandes conjuntos de datos que se usan en el entrenamiento y la verificación con Vertex AI para obtener un rendimiento óptimo. Para obtener más información, consulta la documentación de Cloud Storage.
-
TPU de Cloud
- Un acelerador por hardware especializado diseñado para agilizar las cargas de trabajo de aprendizaje automático en Google Cloud.
-
Colab Enterprise
- Colab Enterprise es un entorno de cuaderno de Jupyter gestionado y colaborativo que lleva la popular experiencia de usuario de Google Colab a Google Cloud, ofreciendo funciones de seguridad y cumplimiento de nivel empresarial. Colab Enterprise ofrece una experiencia centrada en los cuadernos y sin necesidad de configuración, con recursos de computación gestionados por Vertex AI, y se integra con otros servicios de Google Cloud, como BigQuery. Para obtener más información, consulta el artículo Introducción a Colab Enterprise.
-
VPC del consumidor
- Una red de nube privada virtual (VPC) de consumidor se usa para acceder de forma privada a servicios gestionados desde su red de VPC. Para obtener más información, consulta Private Service Connect.
-
imagen del contenedor
- Una imagen de contenedor es un paquete que incluye el código ejecutable del componente y una definición del entorno en el que se ejecuta el código. Para obtener más información, consulta el resumen del entrenamiento personalizado.
-
context
- Un contexto se usa para agrupar artefactos y ejecuciones en una sola categoría con tipo y que se puede consultar. Los contextos se pueden usar para representar conjuntos de metadatos. Un ejemplo de contexto sería la ejecución de una canalización de aprendizaje automático.
-
caché de contexto
- Una caché de contexto en Vertex AI es una gran cantidad de datos que se pueden usar en varias solicitudes a un modelo de Gemini. El contenido almacenado en caché se guarda en la región en la que se realiza la solicitud para crear la caché. Puede ser cualquier tipo MIME admitido por los modelos multimodales de Gemini, como texto, audio o vídeo. Para obtener más información, consulta el artículo Introducción al almacenamiento en caché de contexto.
-
ventana de contexto
- Número de tokens que puede procesar un modelo en una petición determinada. Cuanto más grande sea la ventana de contexto, más información podrá usar el modelo para proporcionar respuestas coherentes y consistentes a la petición.
-
Claves de cifrado gestionadas por el cliente (CMEK)
- Las claves de cifrado gestionadas por el cliente (CMEK) son integraciones que permiten a los clientes cifrar datos en servicios de Google con una clave que gestionan en Cloud KMS (también conocido como Storky). La clave de Cloud KMS es la clave de cifrado de claves que protege sus datos. Para obtener más información, consulta Claves de cifrado gestionadas por el cliente (CMEK).
-
CustomJob
- Un CustomJob es uno de los tres recursos de Vertex AI que puede crear un usuario para entrenar modelos personalizados en Vertex AI. Las tareas de entrenamiento personalizadas son la forma básica de ejecutar código de entrenamiento de aprendizaje automático (ML) personalizado en Vertex AI. Para obtener más información, consulta Crear trabajos de entrenamiento personalizados.
-
imagen de contenedor personalizado
- Una imagen de contenedor personalizada es un paquete ejecutable independiente que incluye el código de la aplicación del usuario, su tiempo de ejecución, bibliotecas, dependencias y configuración del entorno. En el contexto de Google Cloud, especialmente en Vertex AI, permite al usuario empaquetar su código de entrenamiento de aprendizaje automático o su aplicación de servicio con sus dependencias exactas, lo que garantiza la reproducibilidad y le permite ejecutar una carga de trabajo en servicios gestionados con versiones de software específicas o configuraciones únicas que no proporcionan los entornos estándar. Para obtener más información, consulta los requisitos de los contenedores personalizados para la inferencia.
-
formación personalizada
- El entrenamiento personalizado de Vertex AI es un servicio flexible que permite a los usuarios ejecutar sus propias aplicaciones de entrenamiento personalizado (scripts o contenedores) en la infraestructura de Google Cloud, lo que les da control sobre los tipos de máquinas y el escalado. Para obtener más información, consulta el resumen del entrenamiento personalizado.
-
Dask
- Dask es una plataforma de computación distribuida que se suele usar con TensorFlow, PyTorch y otros frameworks de aprendizaje automático para gestionar tareas de entrenamiento distribuidas. Para obtener más información, consulta Wikipedia.
-
análisis de datos
- Obtener información sobre los datos teniendo en cuenta las muestras, las mediciones y la visualización. El análisis de datos puede ser especialmente útil cuando se recibe un conjunto de datos por primera vez, antes de crear el primer modelo. También es fundamental para entender los experimentos y depurar los problemas del sistema.
-
aumento de datos
- Aumentar artificialmente el intervalo y el número de ejemplos de entrenamiento transformando los ejemplos actuales para crear más. Por ejemplo, supongamos que las imágenes son una de tus funciones, pero tu conjunto de datos no contiene suficientes ejemplos de imágenes para que el modelo aprenda asociaciones útiles. Lo ideal es que añadas suficientes imágenes etiquetadas a tu conjunto de datos para que el modelo se pueda entrenar correctamente. Si no es posible, el aumento de datos puede rotar, estirar y reflejar cada imagen para producir muchas variantes de la imagen original, lo que puede generar suficientes datos etiquetados para permitir un entrenamiento excelente.
-
DataFrame
- Un tipo de datos de pandas popular para representar conjuntos de datos en la memoria. Un DataFrame es análogo a una tabla o a una hoja de cálculo. Cada columna de un DataFrame tiene un nombre (un encabezado) y cada fila se identifica con un número único. Cada columna de un DataFrame se estructura como una matriz bidimensional, pero a cada columna se le puede asignar su propio tipo de datos.
-
conjunto de datos
- Un conjunto de datos se define de forma general como una colección de registros de datos estructurados o sin estructurar. Conjunto de datos sin procesar, normalmente (aunque no exclusivamente) organizados en uno de los siguientes formatos: una hoja de cálculo o un archivo en formato CSV (valores separados por comas). Para obtener más información, consulta Crear un conjunto de datos.
-
decodificador
- En general, cualquier sistema de aprendizaje automático que convierta una representación procesada, densa o interna en una representación más sin procesar, dispersa o externa. Los decodificadores suelen ser un componente de un modelo más grande, donde se emparejan con frecuencia con un codificador. En las tareas de secuencia a secuencia, un decodificador empieza con el estado interno generado por el codificador para predecir la siguiente secuencia.
-
red neuronal profunda (DNN)
- Una red neuronal con varias capas ocultas, normalmente programada mediante técnicas de aprendizaje profundo.
-
profundidad
- La suma de los siguientes elementos en una red neuronal: 1. el número de capas ocultas 2. el número de capas de salida, que suele ser uno 3. el número de capas de inserción. Por ejemplo, una red neuronal con cinco capas ocultas y una capa de salida tiene una profundidad de 6. Ten en cuenta que la capa de entrada no influye en la profundidad.
-
DevOps
- DevOps es un paquete de productos de Google Cloud Platform, como Artifact Registry y Cloud Deploy.
-
detención temprana
- Método de regularización que consiste en finalizar el entrenamiento antes de que la pérdida de entrenamiento deje de disminuir. En la detención anticipada, detienes intencionadamente el entrenamiento del modelo cuando la pérdida en un conjunto de datos de validación empieza a aumentar, es decir, cuando el rendimiento de generalización empeora.
-
inserción
- Representaciones numéricas de palabras o fragmentos de texto. Estos números captan el significado semántico y el contexto del texto. Las palabras o el texto similares o relacionados tienden a tener elementos insertados similares, lo que significa que están más cerca en el espacio vectorial de alta dimensión.
-
espacio de inserción (espacio latente)
- En la IA generativa, el espacio de inserción hace referencia a una representación numérica de texto, imágenes o vídeos que captura las relaciones entre las entradas. Los modelos de aprendizaje automático, especialmente los modelos de IA generativa, son expertos en crear estas inserciones identificando patrones en grandes conjuntos de datos. Las aplicaciones pueden utilizar los embeddings para procesar y generar lenguaje, así como para reconocer significados complejos y relaciones semánticas específicos del contenido.
-
vector de inserción
- Representación vectorial densa, a menudo de baja dimensión, de un elemento de forma que, si dos elementos son semánticamente similares, sus respectivas incrustaciones se encuentran cerca una de la otra en el espacio vectorial de incrustación.
-
encoder
- En general, cualquier sistema de aprendizaje automático que convierta una representación sin procesar, dispersa o externa en una representación más procesada, densa o interna. Los codificadores suelen ser un componente de un modelo más grande, donde se emparejan con un decodificador. Algunos transformadores emparejan codificadores con decodificadores, aunque otros transformadores solo usan el codificador o solo el decodificador. Algunos sistemas usan la salida del codificador como entrada para una red de clasificación o regresión. En las tareas de secuencia a secuencia, un codificador toma una secuencia de entrada y devuelve un estado interno (un vector). Después, el decodificador usa ese estado interno para predecir la siguiente secuencia.
-
endpoint
- Recursos en los que puedes desplegar modelos entrenados para ofrecer inferencias. Para obtener más información, consulta Elegir un tipo de endpoint.
-
conjunto
- Conjunto de modelos entrenados de forma independiente cuyas inferencias se promedian o agregan. En muchos casos, un conjunto produce mejores inferencias que un solo modelo. Por ejemplo, un bosque aleatorio es un conjunto creado a partir de varios árboles de decisión. Ten en cuenta que no todos los bosques de decisión son conjuntos.
-
entorno
- En el aprendizaje por refuerzo, el mundo que contiene al agente y le permite observar el estado de ese mundo. Por ejemplo, el mundo representado puede ser un juego como el ajedrez o un mundo físico como un laberinto. Cuando el agente aplica una acción al entorno, este pasa de un estado a otro.
-
evaluación (eval)
- Una evaluación es un tipo de experimento en el que se envían consultas registradas o sintéticas a través de dos pilas de búsqueda: una pila experimental que incluye tu cambio y una pila base que no lo incluye. Las evaluaciones generan diferencias y métricas que te permiten evaluar el impacto, la calidad y otros efectos de los cambios en los resultados de búsqueda y en otras partes de la experiencia de usuario de Google. Las evaluaciones se usan durante la optimización o las iteraciones de tu cambio. También se usan como parte del lanzamiento de un cambio en el tráfico de usuarios activos.
-
event
- Un evento describe la relación entre artefactos y ejecuciones. Cada artefacto puede producirse mediante una ejecución y consumirse en otras ejecuciones. Los eventos te ayudan a determinar la procedencia de los artefactos en sus flujos de trabajo de aprendizaje automático encadenando artefactos y ejecuciones.
-
ejecución
- Una ejecución es un registro de un paso de un flujo de trabajo de aprendizaje automático, normalmente anotado con sus parámetros de tiempo de ejecución. Entre los ejemplos de ejecuciones se incluyen la ingestión de datos, la validación de datos, el entrenamiento de modelos, la evaluación de modelos y el despliegue de modelos.
-
experimento
- Un experimento es un contexto que puede contener un conjunto de n ejecuciones de experimentos, además de ejecuciones de la canalización, en el que un usuario puede investigar, como grupo, diferentes configuraciones, como artefactos de entrada o hiperparámetros.
-
ejecución del experimento
- Una ejecución específica y monitorizable dentro de un experimento de Vertex AI que registra entradas (como algoritmos, parámetros y conjuntos de datos) y salidas (como modelos, puntos de control y métricas) para monitorizar y comparar las iteraciones de desarrollo de aprendizaje automático. Para obtener más información, consulta el artículo Crear y gestionar ejecuciones de experimentos.
-
Explainable AI
- Una función de Vertex AI que proporciona herramientas y funciones para comprender e interpretar las inferencias realizadas por los modelos de aprendizaje automático, así como información valiosa sobre la importancia de las funciones y el comportamiento de los modelos. Para obtener más información, consulta la introducción a Vertex Explainable AI.
-
análisis exploratorio de datos
- En estadística, el análisis exploratorio de datos (EDA) es un método para analizar conjuntos de datos y resumir sus principales características, a menudo con métodos visuales. Se puede usar un modelo estadístico o no, pero el análisis de datos de exploración sirve principalmente para ver qué nos pueden decir los datos más allá de la tarea formal de modelización o prueba de hipótesis.
-
Puntuación F1
- La puntuación F1 es una métrica que se usa para evaluar la precisión de los resultados de un modelo. Es especialmente útil para evaluar el rendimiento de los modelos en tareas en las que tanto la precisión como la recuperación son importantes, como la extracción de información. En el caso de los modelos de IA generativa, la puntuación F1 se puede usar para comparar las inferencias del modelo con los datos validados en el terreno y determinar la precisión del modelo. Sin embargo, en las tareas generativas, como la creación de resúmenes y la generación de texto, pueden ser más adecuadas otras métricas, como la puntuación Rough-L.
-
función
- En el aprendizaje automático, una característica es una propiedad o un atributo de una instancia o una entidad que se usa como entrada para entrenar un modelo de aprendizaje automático o para hacer inferencias.
-
ingeniería de funciones
- La ingeniería de funciones es el proceso de transformar datos de aprendizaje automático (ML) sin procesar en funciones que se pueden usar para entrenar modelos de ML o para hacer inferencias.
-
grupo de funciones
- Un grupo de características es un recurso de registro de características que corresponde a una tabla o vista de origen de BigQuery que contiene datos de características. Una vista de características puede contener características y se puede considerar como una agrupación lógica de columnas de características en la fuente de datos.
-
grabar la función
- Un registro de características es una agregación de todos los valores de las características que describen los atributos de una entidad única en un momento concreto.
-
registro de funciones
- Un registro de funciones es una interfaz central para registrar las fuentes de datos de funciones que quieras usar para las inferencias online. Para obtener más información, consulta Configuración de Feature Registry.
-
servicio de funciones
- El servicio de funciones es el proceso de exportar u obtener valores de funciones para el entrenamiento o la inferencia. En Vertex AI, hay dos tipos de servicios de funciones: online y offline. El servicio online obtiene los valores de las funciones más recientes de un subconjunto de la fuente de datos de funciones para las inferencias online. El servicio offline o por lotes exporta grandes volúmenes de datos de características, incluidos datos históricos, para el procesamiento offline, como el entrenamiento de modelos de aprendizaje automático.
-
marca de tiempo de la función
- Una marca de tiempo de una función indica cuándo se generó el conjunto de valores de la función en un registro de función específico de una entidad.
-
valor de la característica
- El valor de una característica corresponde al valor real y medible de una característica (atributo) de una instancia o entidad. Un conjunto de valores de características de la entidad única representa el registro de características correspondiente a la entidad.
-
vista de funciones
- Una vista de características es una colección lógica de características materializadas de una fuente de datos de BigQuery en una instancia de tienda online. Una vista de características almacena y actualiza periódicamente los datos de características del cliente, que se actualizan periódicamente desde la fuente de BigQuery. Una vista de características se asocia al almacenamiento de datos de características directamente o mediante asociaciones a recursos del registro de características.
-
modelo fundacional (FM)
- Modelos entrenados con datos generales para que se puedan adaptar (por ejemplo, ajustar) a una amplia gama de tareas posteriores.
-
Operaciones de modelos fundacionales (FMOPs)
- FMOps amplía las funciones de MLOps y se centra en la producción eficiente de modelos fundamentales preentrenados (entrenados desde cero) o personalizados (ajustados).
-
SDK de componentes de canalización de Google Cloud
- El SDK de componentes de flujos de procesamiento de Google Cloud (GCPC) proporciona un conjunto de componentes de Kubeflow Pipelines prediseñados que son de calidad de producción, eficientes y fáciles de usar. Puedes usar componentes de flujos de procesamiento de Google Cloud para definir y ejecutar flujos de procesamiento de aprendizaje automático en Vertex AI Pipelines y otros back-ends de ejecución de flujos de procesamiento de aprendizaje automático que cumplan los requisitos de Kubeflow Pipelines. Para obtener más información, consulta la introducción a los componentes de flujos de procesamiento de Google Cloud.
-
Sistema de módem insertado de Google (GEMS)
- GEMS es un framework de software insertado dirigido a módems, así como un conjunto de flujos de trabajo de desarrollo e infraestructura. El objetivo principal de GEMS es proporcionar código de sistema de módem de alta calidad con una gran capacidad de reutilización en muchos dispositivos de Google que contengan módems. Para lograr esta visión general, GEMS proporciona un entorno completo para los desarrolladores, compuesto por los principales componentes que se muestran a continuación.
-
gradiente
- Vector de derivadas parciales con respecto a todas las variables independientes. En el aprendizaje automático, el gradiente es el vector de derivadas parciales de la función del modelo. El gradiente apunta en la dirección de la pendiente más pronunciada.
-
gráfico
- En el contexto de Vertex AI, un grafo es una estructura de datos que representa las relaciones entre entidades y sus atributos. Se usa para modelar y analizar datos complejos, como gráficos de conocimiento, redes sociales y procesos empresariales. Para obtener más información, consulta la introducción a los metadatos de Vertex ML.
-
verdad fundamental (GT)
- La verdad fundamental es un término que se usa en varios campos para referirse a la verdad absoluta de un problema de decisión o medición, en contraposición a la estimación de un sistema. En el aprendizaje automático, el término "datos verificados" hace referencia al conjunto de entrenamiento de las técnicas de aprendizaje supervisado.
-
heurística
- Una solución sencilla y rápida para un problema. Por ejemplo, "Con una heurística, hemos conseguido una precisión del 86 %. Cuando cambiamos a una red neuronal profunda, la precisión aumentó hasta el 98%".
-
capa oculta
- Una capa de una red neuronal entre la capa de entrada (las características) y la capa de salida (la inferencia). Cada capa oculta consta de una o varias neuronas. Una red neuronal profunda contiene más de una capa oculta.
-
histograma
- Representación gráfica de la variación de un conjunto de datos mediante barras. Un histograma visualiza patrones que son difíciles de detectar en una tabla de números sencilla.
-
hiperparámetro
- Un hiperparámetro es una variable que rige el proceso de entrenamiento de un modelo de aprendizaje automático. Estas variables pueden incluir tasas de aprendizaje, valores de impulso en el optimizador y el número de unidades de la última capa oculta de un modelo. Para obtener más información, consulta el artículo Información general sobre el ajuste de hiperparámetros.
-
ajuste de hiperparámetros
- El ajuste de hiperparámetros en Vertex AI consiste en ejecutar varias pruebas de una aplicación de entrenamiento con diferentes valores para los hiperparámetros elegidos, definidos dentro de unos límites especificados. El objetivo es optimizar los ajustes de los hiperparámetros para maximizar la precisión predictiva del modelo. Para obtener más información, consulta el artículo Información general sobre el ajuste de hiperparámetros.
-
Permisos de gestión de identidades y accesos (IAM)
- Los permisos de Gestión de Identidades y Accesos (IAM) son funciones granulares específicas que definen quién puede hacer qué en los recursos de Google Cloud. Se asignan a entidades principales (como usuarios, grupos o cuentas de servicio) a través de roles, lo que permite controlar con precisión el acceso a los servicios y los datos de un proyecto u organización de Google Cloud. Para obtener más información, consulta Control de acceso con IAM.
-
reconocimiento de imágenes
- El reconocimiento de imágenes es el proceso de clasificar objetos, patrones o conceptos en una imagen. También se conoce como clasificación de imágenes. El reconocimiento de imágenes es un subcampo del aprendizaje automático y la visión artificial.
-
índice
- Conjunto de vectores que se implementan juntos para realizar búsquedas por similitud. Los vectores se pueden añadir o quitar de un índice. Las consultas de búsqueda por similitud se envían a un índice específico y buscan entre los vectores de ese índice.
-
inferencia
- En el contexto de la plataforma Vertex AI, la inferencia se refiere al proceso de ejecutar puntos de datos a través de un modelo de aprendizaje automático para calcular un resultado, como una única puntuación numérica. Este proceso también se conoce como "operacionalización de un modelo de aprendizaje automático" o "puesta en producción de un modelo de aprendizaje automático". La inferencia es un paso importante en el flujo de trabajo del aprendizaje automático, ya que permite que los modelos se usen para hacer inferencias sobre datos nuevos. En Vertex AI, la inferencia se puede realizar de varias formas, como la inferencia por lotes y la inferencia online. La inferencia por lotes consiste en ejecutar un grupo de solicitudes de inferencia y generar los resultados en un archivo, mientras que la inferencia online permite realizar inferencias en tiempo real sobre puntos de datos individuales.
-
Recuperación de información (RI)
- La extracción de información es un componente clave de Vertex AI Search. Es el proceso de buscar y recuperar información relevante de una gran colección de datos. En el contexto de Vertex AI, la recuperación de información se usa para obtener documentos de un corpus en función de la consulta de un usuario. Vertex AI ofrece un conjunto de APIs que te ayudan a crear tus propias aplicaciones de generación aumentada por recuperación (RAG) o tu propio motor de búsqueda. Para obtener más información, consulta Usar Vertex AI Search como backend de extracción con RAG Engine.
-
Infraestructura como código (IaC)
- Infraestructura como código. Un enfoque para gestionar la infraestructura de TI en el que los equipos pueden gestionar y aprovisionar servicios mediante código. Con IaC, se crean archivos de configuración que contienen las especificaciones de la infraestructura, lo que facilita la creación y edición de la infraestructura a gran escala.
-
Infraestructura como código (IaC)
- Infraestructura como código. Un enfoque para gestionar la infraestructura de TI en el que los equipos pueden gestionar y aprovisionar servicios mediante código. Con IaC, se crean archivos de configuración que contienen las especificaciones de la infraestructura, lo que facilita la creación y edición de la infraestructura a gran escala.
-
Agotamiento de direcciones IP
- El agotamiento de direcciones IP se produce cuando se agotan las direcciones IP disponibles en un intervalo designado. Para obtener más información, consulta Prácticas recomendadas para las redes de Cloud Run.
-
pérdida (coste)
- Durante el entrenamiento de un modelo supervisado, es una medida de la distancia entre la inferencia de un modelo y su etiqueta. Una función de pérdida calcula la pérdida.
-
Metadatos de aprendizaje automático
- ML Metadata (MLMD) es una biblioteca para registrar y recuperar metadatos asociados a los flujos de trabajo de desarrolladores de aprendizaje automático y científicos de datos. MLMD es una parte integral de TensorFlow Extended (TFX), pero se ha diseñado para que se pueda usar de forma independiente. Como parte de la plataforma TFX, la mayoría de los usuarios solo interactúan con MLMD cuando examinan los resultados de los componentes de la canalización, por ejemplo, en cuadernos o en TensorBoard.
-
conjunto de datos gestionado
- Un objeto de conjunto de datos creado y alojado en Vertex AI.
-
registro manual
- Proceso de añadir código explícitamente (por ejemplo, con el SDK de Vertex AI para Python) a una secuencia de comandos de entrenamiento para monitorizar y registrar parámetros, métricas y artefactos personalizados en una ejecución de Vertex AI Experiments. Para obtener más información, consulta el artículo Información general sobre la monitorización y el registro.
-
escalado manual
- El escalado manual es el proceso por el que un usuario o administrador ajusta de forma explícita y deliberada el número de recursos computacionales (como máquinas virtuales, contenedores o servidores) asignados a una aplicación o un servicio. A diferencia del autoescalado, que ajusta los recursos automáticamente en función de la demanda, el escalado manual requiere una intervención directa para aprovisionar o desaprovisionar recursos, lo que proporciona un control preciso, pero carece de la capacidad de respuesta dinámica de las soluciones automatizadas. Para obtener más información, consulta Escalar clústeres de Ray en Vertex AI: escalado manual.
-
recursos de metadatos
- Vertex ML Metadata expone un modelo de datos similar a un gráfico para representar los metadatos producidos y consumidos en los flujos de trabajo de aprendizaje automático. Los conceptos principales son los artefactos, las ejecuciones, los eventos y los contextos.
-
MetadataSchema
- Un MetadataSchema describe el esquema de determinados tipos de artefactos, ejecuciones o contextos. Los MetadataSchemas se usan para validar los pares clave-valor durante la creación de los recursos de metadatos correspondientes. La validación de esquemas solo se realiza en los campos coincidentes entre el recurso y el MetadataSchema. Los esquemas de tipos se representan mediante objetos de esquema de OpenAPI, que deben describirse con YAML.
-
MetadataStore
- MetadataStore es el contenedor de nivel superior de los recursos de metadatos. MetadataStore está regionalizado y asociado a un proyecto de Google Cloud específico. Normalmente, una organización usa un MetadataStore compartido para los recursos de metadatos de cada proyecto.
-
Pipelines de aprendizaje automático
- Los flujos de procesamiento de aprendizaje automático son flujos de trabajo de aprendizaje automático portátiles y escalables basados en contenedores.
-
modelo
- Cualquier modelo, preentrenado o no. En general, cualquier estructura matemática que procese datos de entrada y devuelva datos de salida. Dicho de otro modo, un modelo es el conjunto de parámetros y la estructura que necesita un sistema para hacer inferencias.
-
destilación de modelos (destilación de conocimientos, modelos profesor-alumno)
- La destilación de modelos es una técnica que permite que un modelo de alumno más pequeño aprenda de un modelo de profesor más grande. El modelo alumno se entrena para imitar la salida del modelo profesor y, a continuación, se puede usar para generar datos nuevos o hacer inferencias. La destilación de modelos se suele usar para que los modelos grandes sean más eficientes o para que los dispositivos con recursos limitados puedan acceder a ellos. También se puede usar para mejorar la generalización de los modelos reduciendo el sobreajuste.
-
Evaluación del modelo
- Vertex AI Model Evaluation es un servicio gestionado de la plataforma Vertex AI de Google Cloud que ayuda a los usuarios a evaluar el rendimiento y la calidad de sus modelos de aprendizaje automático. Proporciona herramientas para generar varias métricas de evaluación y visualizaciones, lo que permite al usuario entender el rendimiento de sus modelos, identificar posibles sesgos y tomar decisiones fundamentadas sobre la implementación y la mejora de los modelos. Para obtener más información, consulta Evaluación de modelos en Vertex AI.
-
Monitorización de modelos
- Vertex AI Model Monitoring es un servicio que evalúa continuamente el rendimiento de los modelos desplegados detectando la desviación y el desfase de las características en las solicitudes de predicción, lo que ayuda a mantener la calidad de los modelos a lo largo del tiempo. Para obtener más información, consulta la introducción a Vertex AI Model Monitoring.
-
Nombre del recurso del modelo
- El nombre de recurso de un
model
es el siguiente:projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>
. Puedes encontrar el ID del modelo en la consola de Cloud, en la página Registro de modelos.
- El nombre de recurso de un
-
Sistema de archivos de red (NFS)
- Sistema cliente/servidor que permite a los usuarios acceder a archivos a través de una red y tratarlos como si estuvieran en un directorio de archivos local. Para obtener más información, consulta Montar un recurso compartido NFS para el entrenamiento personalizado.
-
tienda física
- El almacén sin conexión es un centro de almacenamiento que contiene datos de funciones recientes e históricos, que se suelen usar para entrenar modelos de aprendizaje automático. Un almacén offline también contiene los valores de las funciones más recientes, que puedes usar para las inferencias online.
-
Inferencia online
- Obtener inferencias de instancias concretas de forma síncrona. Para obtener más información, consulta Inferencia online.
-
Predicción online
- Obtener predicciones de instancias específicas de forma síncrona. Para obtener más información, consulta Predicción online.
-
tienda online
- En la gestión de funciones, una tienda online es un centro de almacenamiento de los valores de funciones más recientes que se van a usar en las inferencias online.
-
parámetro
- Los parámetros son valores de entrada con clave que configuran una ejecución, regulan su comportamiento y afectan a sus resultados. Por ejemplo, la tasa de aprendizaje, la tasa de abandono y el número de pasos de entrenamiento.
-
recurso persistente
- Un tipo de recurso de computación de Vertex AI, como un clúster de Ray, que permanece asignado y disponible hasta que se elimina explícitamente. Esto es útil para el desarrollo iterativo y reduce la sobrecarga de inicio entre trabajos. Para obtener más información, consulta Obtener información de recursos persistentes.
-
pipeline
- Los flujos de procesamiento de aprendizaje automático son flujos de trabajo de aprendizaje automático portátiles y escalables basados en contenedores. Para obtener más información, consulta la introducción a Vertex AI Pipelines.
-
componente de flujo de procesamiento
- Un conjunto de código independiente que realiza un paso en el flujo de trabajo de una canalización, como el preprocesamiento de datos, la transformación de datos y el entrenamiento de un modelo.
-
trabajo de flujo de procesamiento
- Una tarea o una ejecución de un flujo de procesamiento corresponde al recurso PipelineJob de la API Vertex AI. Es una instancia de ejecución de la definición de tu canalización de AA, que se define como un conjunto de tareas de AA interconectadas por dependencias de entrada y salida.
-
ejecución de flujo de procesamiento
- Se pueden asociar uno o varios Vertex PipelineJobs a un experimento, donde cada PipelineJob se representa como una sola ejecución. En este contexto, los parámetros de la ejecución se infieren a partir de los parámetros de PipelineJob. Las métricas se infieren del sistema.Artefactos de métricas producidos por ese PipelineJob. Los artefactos de la ejecución se infieren a partir de los artefactos producidos por ese PipelineJob.
-
plantilla de flujo de trabajo
- Una definición de flujo de trabajo de aprendizaje automático que un solo usuario o varios usuarios pueden reutilizar para crear varias ejecuciones de la canalización.
-
clase positiva
- "Clase positiva" hace referencia al resultado o a la categoría que se entrena a un modelo para predecir. Por ejemplo, si un modelo predice si un cliente comprará una chaqueta, la clase positiva sería "el cliente compra una chaqueta". Del mismo modo, en un modelo que predice si un cliente se registrará para un depósito a plazo, la clase positiva sería "cliente registrado". Lo contrario es la "clase negativa".
-
Contenedor precompilado
- Imágenes de contenedor proporcionadas por Vertex AI que vienen preinstaladas con los frameworks y las dependencias de aprendizaje automático más habituales, lo que simplifica la configuración de las tareas de entrenamiento e inferencia. Para obtener más información, consulta Contenedores prediseñados para el entrenamiento personalizado .
-
Acceso privado a Google (APG)
- Con Acceso privado de Google, las instancias de VM que solo tienen direcciones IP internas (privadas) pueden llegar a las direcciones IP públicas de las APIs y los servicios de Google. Para obtener más información, consulta el artículo Configurar Acceso privado de Google.
-
acceso privado a servicios
- El acceso a servicios privados es una conexión privada entre tu red de nube privada virtual (VPC) y las redes propiedad de Google o de proveedores de servicios externos. Permite que las instancias de máquina virtual (VM) de tu red VPC se comuniquen con estos servicios mediante direcciones IP internas, lo que evita la exposición a Internet público. Para obtener más información, consulta Acceso a servicios privados.
-
Private Service Connect (PSC)
- Private Service Connect es una tecnología que permite a los clientes de Compute Engine asignar IPs privadas de su red a otra red de VPC o a APIs de Google. Para obtener más información, consulta Private Service Connect.
-
Interfaz de Private Service Connect (PSC-I)
- La interfaz de Private Service Connect permite a los productores iniciar conexiones privadas con cualquier recurso de red de la VPC del consumidor.
-
VPC de productor
- Una VPC de productor es una red de nube privada virtual (VPC) que aloja un servicio gestionado y lo pone a disposición de otras redes de VPC.
-
cuantización
- La cuantización es una técnica de optimización de modelos que se usa para reducir la precisión de los números que se utilizan para representar los parámetros de un modelo. Esto puede dar lugar a modelos más pequeños, un menor consumo de energía y una latencia de inferencia reducida.
-
Bosque aleatorio
- Bosque aleatorio es un algoritmo de aprendizaje automático que se usa tanto para la clasificación como para la regresión. No es un modelo de IA generativa en sí, sino un componente que se puede usar en un sistema de IA generativa más grande. Un bosque aleatorio consta de varios árboles de decisión y su inferencia es una agregación de las inferencias de estos árboles individuales. Por ejemplo, en una tarea de clasificación, cada árbol "vota" por una clase y la inferencia final es la clase con más votos. Para obtener más información, consulta Bosque de decisión.
-
API de cliente de Ray (cliente de Ray)
- El cliente de Ray es una API que permite que una secuencia de comandos de Python local o un shell interactivo (como un cuaderno de Jupyter) se conecte a un clúster de Ray remoto e interactúe con él. Básicamente, el cliente de Ray permite a los usuarios desarrollar y ejecutar código de Ray como si se estuviera ejecutando de forma local, pero aprovechando la potencia de computación distribuida de un clúster remoto. Para obtener más información, consulta la descripción general de Ray en Vertex AI.
-
Clúster de Ray en Vertex AI
- Un clúster de Ray en Vertex AI es un clúster gestionado de nodos de computación que se puede usar para ejecutar aplicaciones de aprendizaje automático (ML) y Python distribuidas. Proporciona la infraestructura para realizar computación distribuida y procesamiento paralelo en tu flujo de trabajo de aprendizaje automático. Los clústeres de Ray están integrados en Vertex AI para asegurar la disponibilidad de capacidad en cargas de trabajo de aprendizaje automático críticas o durante las temporadas altas. A diferencia de las tareas personalizadas, en las que el servicio de entrenamiento libera el recurso una vez que se completa la tarea, los clústeres de Ray permanecen disponibles hasta que se eliminan. Para obtener más información, consulta la descripción general de Ray en Vertex AI.
-
Ray en Vertex AI (RoV)
- Ray en Vertex AI se ha diseñado para que puedas usar el mismo código de Ray de código abierto para escribir programas y desarrollar aplicaciones en Vertex AI con cambios mínimos. Para obtener más información, consulta la descripción general de Ray en Vertex AI.
-
SDK de Ray en Vertex AI para Python
- El SDK de Ray en Vertex AI para Python es una versión del SDK de Vertex AI para Python que incluye la funcionalidad de Ray Client, el conector Ray BigQuery, la gestión de clústeres de Ray en Vertex AI y las inferencias en Vertex AI. Para obtener más información, consulta la introducción al SDK de Vertex AI para Python.
-
retirar
- Porcentaje de vecinos más cercanos reales devueltos por el índice. Por ejemplo, si una consulta de los vecinos más cercanos para los 20 vecinos más cercanos devolvió 19 de los vecinos más cercanos "reales", el recall es 19/20 × 100 = 95%.
-
Servidor de reducción
- Reduction Server es una función o un componente disponible en Vertex AI, diseñado específicamente para optimizar el entrenamiento de GPUs distribuidas. El servidor de reducción funciona como un algoritmo de reducción total que ayuda a aumentar el rendimiento y reducir la latencia en el entrenamiento de modelos de aprendizaje automático a gran escala. Para obtener más información, consulta Reduce el tiempo de entrenamiento con Reduction Server.
-
regularización
- La regularización es una técnica que se usa para evitar el sobreajuste en los modelos de aprendizaje automático. El sobreajuste se produce cuando un modelo aprende demasiado bien los datos de entrenamiento, lo que da como resultado un rendimiento deficiente en los datos no vistos. Un tipo específico de regularización que se menciona es la detención anticipada, en la que el entrenamiento se detiene antes de que la pérdida en un conjunto de datos de validación empiece a aumentar, lo que indica una disminución del rendimiento de generalización. Para obtener más información, consulta Sobreajuste: regularización L2.
-
restringe
- Función para "restringir" las búsquedas a un subconjunto del índice mediante reglas booleanas. Restringir también se denomina "filtrar". Con la búsqueda vectorial, puede usar el filtrado numérico y el filtrado por atributos de texto.
-
cuenta de servicio
- Las cuentas de servicio son cuentas especiales de Google Cloud que usan las aplicaciones o las máquinas virtuales para hacer llamadas a las APIs autorizadas de los servicios de Google Cloud. A diferencia de las cuentas de usuario, no están vinculadas a una persona, sino que actúan como una identidad para tu código, lo que permite acceder a los recursos de forma segura y programática sin necesidad de credenciales de usuario. Para obtener más información, consulta el artículo Resumen de las cuentas de servicio.
-
agente de servicio
- Un agente de servicio es una cuenta de servicio gestionada por Google. Se utiliza cuando un servicio requiere acceso a recursos creados por otro servicio. Por ejemplo, cuando los servicios de Dataflow o Dataproc necesitan crear instancias durante el tiempo de ejecución o cuando una función de Cloud quiere usar Key Management Service (KMS) para proteger la función de Cloud. Google Cloud crea automáticamente los agentes de servicio cuando un servicio los necesita. Normalmente, se usan para gestionar el acceso a los recursos y realizar varias tareas en nombre del servicio. Para obtener más información, consulta Agentes de servicio.
-
Métricas de resumen
- Las métricas de resumen son un valor único para cada clave de métrica de una prueba. Por ejemplo, la exactitud de prueba de un experimento es la exactitud calculada con respecto a un conjunto de datos de prueba al final del entrenamiento, que se puede registrar como una métrica de resumen de un solo valor.
-
TensorBoard
- TensorBoard es un conjunto de aplicaciones web para visualizar y comprender las ejecuciones y los modelos de TensorFlow. Para obtener más información, consulta TensorBoard.
-
Instancia de TensorBoard
- Una instancia de TensorBoard es un recurso regionalizado que almacena experimentos de Vertex AI TensorBoard asociados a un proyecto. Puedes crear varias instancias de TensorBoard en un proyecto si, por ejemplo, quieres que varias instancias tengan habilitada la CMEK. Es lo mismo que el recurso TensorBoard en la API.
-
Nombre del recurso TensorBoard
- Un nombre de recurso de TensorBoard se usa para identificar completamente una instancia de Vertex AI TensorBoard. El formato es el siguiente: projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
-
TensorFlow Extended (TFX)
- TensorFlow Extended (TFX) es una plataforma integral para desplegar pipelines de aprendizaje automático de producción basados en la plataforma TensorFlow.
-
Contenedor de TensorFlow Serving
- Una imagen de contenedor especializada diseñada para servir de forma eficiente modelos de TensorFlow para inferencias, que se usa al desplegar modelos tabulares personalizados con Vertex AI Model Monitoring.
-
Diferencia horaria
- El desfase de tiempo es relativo al inicio de un vídeo.
-
segmento de tiempo
- Un segmento de tiempo se identifica por los desplazamientos de tiempo de inicio y finalización.
-
Métricas de series temporales
- Las métricas de series temporales son valores de métricas longitudinales en los que cada valor representa un paso de la parte de entrenamiento de una carrera. Las métricas de series temporales se almacenan en Vertex AI TensorBoard. Vertex AI Experiments almacena una referencia al recurso Vertex TensorBoard.
-
token
- Un token en un modelo de lenguaje es la unidad atómica con la que se entrena el modelo y sobre la que hace inferencias, es decir, palabras, morfemas y caracteres. En dominios ajenos a los modelos de lenguaje, los tokens pueden representar otros tipos de unidades atómicas. Por ejemplo, en la visión artificial, un token puede ser un subconjunto de una imagen. Para obtener más información, consulta List and count tokens (Listar y contar tokens).
-
clúster de entrenamiento
- Un clúster de entrenamiento es un grupo de recursos informáticos interconectados (como máquinas virtuales, GPUs y almacenamiento asociado) configurados específicamente y dedicados a ejecutar cargas de trabajo de entrenamiento de modelos de aprendizaje automático de forma distribuida. Estos clústeres se han diseñado para proporcionar la potencia de computación y la escalabilidad necesarias para entrenar modelos complejos de forma eficiente, a menudo aprovechando el procesamiento paralelo en varios nodos. Para obtener más información, consulta Estructura del clúster de entrenamiento.
-
conjunto de entrenamiento
- En Vertex AI, el conjunto de entrenamiento es la parte más grande de tus datos (normalmente, el 80%) que se usa para entrenar un modelo de aprendizaje automático. El modelo aprende los patrones y las relaciones de estos datos para hacer inferencias. El conjunto de entrenamiento es distinto de los conjuntos de validación y de prueba, que se usan para evaluar el rendimiento del modelo durante y después del entrenamiento.
-
trayectoria
- Una "trayectoria" es una secuencia de pasos o acciones que lleva a cabo un agente o un modelo. Se suele usar en la evaluación de modelos generativos, donde se valora la capacidad del modelo para generar texto, código u otro contenido. Hay varios tipos de métricas de trayectoria que se pueden usar para evaluar modelos generativos, como la concordancia exacta de la trayectoria, la concordancia de la trayectoria en orden, la concordancia de la trayectoria en cualquier orden y la precisión de la trayectoria. Estas métricas miden la similitud entre el resultado del modelo y un conjunto de resultados de referencia generados por personas.
-
Transformador
- Un "transformador" es una arquitectura de red neuronal en la que se basan la mayoría de los modelos generativos más avanzados. Se usa en varias aplicaciones de modelos de lenguaje, incluida la traducción. Los transformadores constan de un codificador y un decodificador. El codificador convierte el texto de entrada en una representación intermedia y el decodificador lo convierte en una salida útil. Utilizan un mecanismo de autoatención para obtener contexto de las palabras que rodean a la palabra que se está procesando. Aunque entrenar un Transformer requiere muchos recursos, afinar un Transformer preentrenado para aplicaciones específicas es más eficiente.
-
verdadero positivo
- Un "verdadero positivo" es una inferencia en la que el modelo identifica correctamente una clase positiva. Por ejemplo, si un modelo se entrena para identificar a los clientes que comprarán una chaqueta, un verdadero positivo sería predecir correctamente que un cliente hará esa compra.
-
artefactos no gestionados
- Un artefacto que existe fuera del contexto de Vertex AI.
-
vector
- Un vector es una representación numérica de texto, imágenes o vídeos que captura las relaciones entre las entradas. Los modelos de aprendizaje automático son adecuados para crear representaciones identificando patrones en conjuntos de datos de gran tamaño. Las aplicaciones pueden usar embeddings para procesar y generar lenguaje, así como para reconocer significados complejos y relaciones semánticas específicas del contenido. Para obtener más información, consulta la descripción general de las APIs Embeddings.
-
Tipo de datos de Vertex AI
- Los tipos de datos de Vertex AI son "image", "text", "tabular" y "video".
-
Vertex AI Experiments
- Vertex AI Experiments permite a los usuarios hacer un seguimiento de lo siguiente: 1. Pasos de una ejecución de un experimento (por ejemplo, preprocesamiento y entrenamiento). 2. Entradas (por ejemplo, algoritmos, parámetros y conjuntos de datos). 3. Resultados de esos pasos (por ejemplo, modelos, puntos de control y métricas).
-
Registro de modelos de Vertex AI
- El registro de modelos de Vertex AI es un repositorio central en el que puedes gestionar el ciclo de vida de tus modelos de aprendizaje automático. En el registro de modelos de Vertex AI, puedes ver un resumen de tus modelos para organizarlos, monitorizarlos y entrenar nuevas versiones de forma más eficaz. Cuando tengas una versión de un modelo que quieras desplegar, puedes asignarla a un endpoint directamente desde el registro o desplegar modelos en un endpoint mediante alias. Para obtener más información, consulta la introducción al registro de modelos de Vertex AI.
-
SDK de Vertex AI para Python
- El SDK de Vertex AI para Python ofrece una funcionalidad similar a la de la biblioteca de cliente de Python de Vertex AI, pero el SDK es de nivel superior y menos granular.
-
Vertex AI TensorBoard
- Vertex AI TensorBoard es un servicio gestionado y escalable de Google Cloud que permite a los científicos de datos y a los ingenieros de aprendizaje automático visualizar sus experimentos de aprendizaje automático, depurar el entrenamiento de modelos y monitorizar las métricas de rendimiento mediante la interfaz de código abierto de TensorBoard. Se integra a la perfección con Vertex AI Training y otros servicios, lo que proporciona almacenamiento persistente para los datos de los experimentos y permite analizar de forma colaborativa el desarrollo de modelos. Para obtener más información, consulta la introducción a Vertex AI TensorBoard.
-
Vertex AI TensorBoard Experiment
- Los datos asociados a un experimento se pueden ver en la aplicación web TensorBoard (escalares, histogramas, distribuciones, etc.). Los escalares de serie temporal se pueden ver en la consola de Google Cloud. Para obtener más información, consulta Comparar y analizar ejecuciones.
-
Vertex AI Feature Store
- Servicio gestionado para almacenar, servir y gestionar funciones de aprendizaje automático. Para obtener más información, consulta Acerca de Vertex AI Feature Store.
-
Vertex ML Metadata
- Sistema para monitorizar y analizar metadatos de flujos de trabajo de aprendizaje automático. Para obtener más información, consulta la introducción a los metadatos de Vertex ML.
-
Vertex AI Vizier
- Un servicio de optimización de caja negra para ajustar hiperparámetros y otros parámetros. Para obtener más información, consulta la información general sobre Vertex AI Vizier.
-
Vertex AI Workbench
- Vertex AI Workbench es un entorno de desarrollo unificado basado en cuadernos de Jupyter que admite todo el flujo de trabajo de la ciencia de datos, desde la exploración y el análisis de datos hasta el desarrollo, el entrenamiento y el despliegue de modelos. Vertex AI Workbench proporciona una infraestructura gestionada y escalable con integraciones integradas a otros servicios de Google Cloud, como BigQuery y Cloud Storage, lo que permite a los científicos de datos llevar a cabo sus tareas de aprendizaje automático de forma eficiente sin tener que gestionar la infraestructura subyacente. Para obtener más información, consulta la introducción a Vertex AI Workbench.
-
segmento de vídeo
- Un segmento de vídeo se identifica por el desfase de tiempo de inicio y finalización de un vídeo.
-
nube privada virtual (VPC)
- Una nube privada virtual es un conjunto de recursos de computación compartidos, configurables y bajo demanda que se asigna en un entorno de nube pública y proporciona un nivel de aislamiento entre las diferentes organizaciones que usan esos recursos.
-
Controles de Servicio de VPC
- Controles de Servicio de VPC es una función de seguridad de Google Cloud que permite a las organizaciones crear perímetros seguros alrededor de sus datos y recursos sensibles para mitigar el riesgo de filtración externa de datos. Controles de Servicio de VPC consigue esto restringiendo el acceso a servicios y datos de Google Cloud específicos desde redes no autorizadas e impidiendo que los datos salgan de estos perímetros definidos. De esta forma, se proporciona una defensa sólida contra las amenazas internas y las fugas de datos accidentales. Para obtener más información, consulta Controles de Servicio de VPC.
-
nodo de trabajador
- Un nodo de trabajo es una máquina o una instancia computacional individual de un clúster que se encarga de ejecutar tareas o de realizar trabajo. En sistemas como los clústeres de Kubernetes o Ray, los nodos son las unidades fundamentales de computación.
-
grupo de trabajadores
- Componentes de un clúster de Ray que ejecutan tareas distribuidas. Los grupos de trabajadores se pueden configurar con tipos de máquinas específicos y admiten tanto el autoescalado como el escalado manual. Para obtener más información, consulta Estructura del clúster de entrenamiento.