Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Los modelos de OpenAI en Vertex AI ofrecen modelos completamente administrados y sin servidores como APIs. Para usar un modelo de OpenAI en Vertex AI, envía una solicitud directamente al extremo de API de Vertex AI. Debido a que los modelos de OpenAI usan una API administrada, no es necesario aprovisionar ni administrar la infraestructura.
Puedes transmitir tus respuestas para reducir la percepción de latencia del usuario final. Una respuesta transmitida usa eventos enviados por el servidor (SSE) para transmitir la respuesta de forma incremental.
Modelos de OpenAI disponibles
Los siguientes modelos están disponibles en OpenAI para usarlos en Vertex AI. Para acceder a un modelo de OpenAI, ve a su tarjeta de modelo de Model Garden.
gpt-oss 120B
OpenAI gpt-oss 120B es un modelo de lenguaje de 120 mil millones de parámetros con pesos abiertos que se lanzó bajo la licencia de Apache 2.0. Es adecuado para casos de uso de razonamiento y llamadas a función. El modelo está optimizado para la implementación en hardware de consumo.
El modelo de 120 mil millones de parámetros logra una paridad casi perfecta con o4-mini de OpenAI en las comparativas de razonamiento principales, mientras se ejecuta en una sola GPU de 80 GB.
OpenAI gpt-oss 20B es un modelo de lenguaje de 20B de código abierto y sin pesos que se lanzó bajo la licencia Apache 2.0. Es adecuado para casos de uso de razonamiento y llamadas a función. El modelo está optimizado para la implementación en hardware de consumo.
El modelo 20B ofrece resultados similares a los de o3-mini de OpenAI en comparativas comunes y se puede ejecutar en dispositivos perimetrales con 16 GB de memoria, lo que lo hace ideal para casos de uso en el dispositivo, inferencia local o iteración rápida sin infraestructura costosa.
Para usar los modelos de OpenAI con Vertex AI, debes realizar los siguientes pasos. La API de Vertex AI (aiplatform.googleapis.com) debe estar habilitada para usar Vertex AI. Si ya tienes un proyecto existente con la API de Vertex AI habilitada, puedes usar ese proyecto en lugar de crear uno nuevo.
Sign in to your Google Cloud account. If you're new to
Google Cloud,
create an account to evaluate how our products perform in
real-world scenarios. New customers also get $300 in free credits to
run, test, and deploy workloads.
In the Google Cloud console, on the project selector page,
select or create a Google Cloud project.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[],[],null,["# OpenAI models\n\n| **Note:** OpenAI models are not a Google product, and its availability in Vertex AI is subject to the terms for \"Separate Offerings\" in the AI/ML Services section of the [Service Specific\n| Terms](/terms/service-terms), and separate terms found in the relevant model card.\n\nOpenAI models on Vertex AI offer fully managed and serverless\nmodels as APIs. To use an OpenAI model on Vertex AI, send\na request directly to the Vertex AI API endpoint. Because\nOpenAI models use a managed API, there's no need to provision or\nmanage infrastructure.\n\nYou can stream your responses to reduce the end-user latency perception. A\nstreamed response uses *server-sent events* (SSE) to incrementally stream the\nresponse.\n\nAvailable OpenAI models\n-----------------------\n\nThe following models are available from OpenAI to use in\nVertex AI. To access an OpenAI model, go to its\nModel Garden model card.\n\n### gpt-oss 120B\n\nOpenAI gpt-oss 120B is a 120B open-weight language model\nreleased under the Apache\n2.0 license. It is well-suited for reasoning and function calling use cases. The\nmodel is optimized for deployment on consumer hardware.\n\nThe 120B model achieves near-parity with OpenAI o4-mini on core reasoning\nbenchmarks, while running on a single 80GB GPU.\n\n[Go to the gpt-oss 120B model card](https://console.cloud.google.com/vertex-ai/publishers/openai/model-garden/gpt-oss-120b-maas)\n\n### gpt-oss 20B\n\nOpenAI gpt-oss 20B is a 20B open-weight language model\nreleased under the Apache\n2.0 license. It is well-suited for reasoning and function calling use cases. The\nmodel is optimized for deployment on consumer hardware.\n\nThe 20B model delivers similar results to OpenAI o3-mini on common benchmarks\nand can run on edge devices with 16GB of memory, making it ideal for on-device\nuse cases, local inference, or rapid iteration without costly infrastructure.\n\n[Go to the gpt-oss 20B model card](https://console.cloud.google.com/vertex-ai/publishers/openai/model-garden/gpt-oss-120b-maas)\n\n### Before you begin\n\nTo use OpenAI models with Vertex AI, you must perform the\nfollowing steps. The Vertex AI API\n(`aiplatform.googleapis.com`) must be enabled to use\nVertex AI. If you already have an existing project with the\nVertex AI API enabled, you can use that project instead of creating a\nnew project.\n\n- Sign in to your Google Cloud account. If you're new to Google Cloud, [create an account](https://console.cloud.google.com/freetrial) to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.\n- In the Google Cloud console, on the project selector page,\n select or create a Google Cloud project.\n\n [Go to project selector](https://console.cloud.google.com/projectselector2/home/dashboard)\n-\n [Verify that billing is enabled for your Google Cloud project](/billing/docs/how-to/verify-billing-enabled#confirm_billing_is_enabled_on_a_project).\n\n-\n\n\n Enable the Vertex AI API.\n\n\n [Enable the API](https://console.cloud.google.com/flows/enableapi?apiid=aiplatform.googleapis.com)\n\n- In the Google Cloud console, on the project selector page,\n select or create a Google Cloud project.\n\n [Go to project selector](https://console.cloud.google.com/projectselector2/home/dashboard)\n-\n [Verify that billing is enabled for your Google Cloud project](/billing/docs/how-to/verify-billing-enabled#confirm_billing_is_enabled_on_a_project).\n\n-\n\n\n Enable the Vertex AI API.\n\n\n [Enable the API](https://console.cloud.google.com/flows/enableapi?apiid=aiplatform.googleapis.com)\n\n1. Go to one of the following Model Garden model cards, then click **Enable**."]]