A partire dal 29 aprile 2025, i modelli Gemini 1.5 Pro e Gemini 1.5 Flash non sono disponibili nei progetti che non li hanno mai utilizzati, inclusi i nuovi progetti. Per maggiori dettagli, vedi Versioni e ciclo di vita dei modelli.
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
I modelli OpenAI su Vertex AI offrono modelli completamente gestiti e serverless come API. Per utilizzare un modello OpenAI su Vertex AI, invia
una richiesta direttamente all'endpoint API Vertex AI. Poiché
i modelli OpenAI utilizzano un'API gestita, non è necessario eseguire il provisioning o
gestire l'infrastruttura.
Puoi trasmettere in streaming le risposte per ridurre la percezione della latenza da parte dell'utente finale. Una risposta in streaming utilizza gli eventi inviati dal server (SSE) per trasmettere in streaming in modo incrementale la risposta.
Modelli OpenAI disponibili
I seguenti modelli sono disponibili da OpenAI per l'utilizzo in
Vertex AI. Per accedere a un modello OpenAI, vai alla relativa
scheda del modello Model Garden.
gpt-oss 120B
OpenAI gpt-oss 120B è un modello linguistico open-weight da 120 miliardi di parametri
rilasciato con licenza Apache
2.0. È ideale per i casi d'uso di ragionamento e chiamata di funzioni. Il modello è ottimizzato per il deployment su hardware di consumo.
Il modello da 120 miliardi di parametri raggiunge una parità quasi perfetta con o4-mini di OpenAI nei benchmark di ragionamento di base, il tutto su una singola GPU da 80 GB.
OpenAI gpt-oss 20B è un modello linguistico open-weight da 20 miliardi di parametri
rilasciato con licenza Apache
2.0. È ideale per i casi d'uso di ragionamento e chiamata di funzioni. Il modello è ottimizzato per il deployment su hardware di consumo.
Il modello 20B offre risultati simili a OpenAI o3-mini nei benchmark comuni
e può essere eseguito su dispositivi edge con 16 GB di memoria, il che lo rende ideale per casi d'uso
on-device, inferenza locale o iterazione rapida senza infrastrutture costose.
Per utilizzare i modelli OpenAI con Vertex AI, devi eseguire i
seguenti passaggi. L'API Vertex AI
(aiplatform.googleapis.com) deve essere abilitata per utilizzare
Vertex AI. Se hai già un progetto esistente con l'API Vertex AI abilitata, puoi utilizzare questo progetto anziché crearne uno nuovo.
Sign in to your Google Cloud account. If you're new to
Google Cloud,
create an account to evaluate how our products perform in
real-world scenarios. New customers also get $300 in free credits to
run, test, and deploy workloads.
In the Google Cloud console, on the project selector page,
select or create a Google Cloud project.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-04 UTC."],[],[],null,["# OpenAI models\n\n| **Note:** OpenAI models are not a Google product, and its availability in Vertex AI is subject to the terms for \"Separate Offerings\" in the AI/ML Services section of the [Service Specific\n| Terms](/terms/service-terms), and separate terms found in the relevant model card.\n\nOpenAI models on Vertex AI offer fully managed and serverless\nmodels as APIs. To use an OpenAI model on Vertex AI, send\na request directly to the Vertex AI API endpoint. Because\nOpenAI models use a managed API, there's no need to provision or\nmanage infrastructure.\n\nYou can stream your responses to reduce the end-user latency perception. A\nstreamed response uses *server-sent events* (SSE) to incrementally stream the\nresponse.\n\nAvailable OpenAI models\n-----------------------\n\nThe following models are available from OpenAI to use in\nVertex AI. To access an OpenAI model, go to its\nModel Garden model card.\n\n### gpt-oss 120B\n\nOpenAI gpt-oss 120B is a 120B open-weight language model\nreleased under the Apache\n2.0 license. It is well-suited for reasoning and function calling use cases. The\nmodel is optimized for deployment on consumer hardware.\n\nThe 120B model achieves near-parity with OpenAI o4-mini on core reasoning\nbenchmarks, while running on a single 80GB GPU.\n\n[Go to the gpt-oss 120B model card](https://console.cloud.google.com/vertex-ai/publishers/openai/model-garden/gpt-oss-120b-maas)\n\n### gpt-oss 20B\n\nOpenAI gpt-oss 20B is a 20B open-weight language model\nreleased under the Apache\n2.0 license. It is well-suited for reasoning and function calling use cases. The\nmodel is optimized for deployment on consumer hardware.\n\nThe 20B model delivers similar results to OpenAI o3-mini on common benchmarks\nand can run on edge devices with 16GB of memory, making it ideal for on-device\nuse cases, local inference, or rapid iteration without costly infrastructure.\n\n[Go to the gpt-oss 20B model card](https://console.cloud.google.com/vertex-ai/publishers/openai/model-garden/gpt-oss-120b-maas)\n\n### Before you begin\n\nTo use OpenAI models with Vertex AI, you must perform the\nfollowing steps. The Vertex AI API\n(`aiplatform.googleapis.com`) must be enabled to use\nVertex AI. If you already have an existing project with the\nVertex AI API enabled, you can use that project instead of creating a\nnew project.\n\n- Sign in to your Google Cloud account. If you're new to Google Cloud, [create an account](https://console.cloud.google.com/freetrial) to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.\n- In the Google Cloud console, on the project selector page,\n select or create a Google Cloud project.\n\n [Go to project selector](https://console.cloud.google.com/projectselector2/home/dashboard)\n-\n [Verify that billing is enabled for your Google Cloud project](/billing/docs/how-to/verify-billing-enabled#confirm_billing_is_enabled_on_a_project).\n\n-\n\n\n Enable the Vertex AI API.\n\n\n [Enable the API](https://console.cloud.google.com/flows/enableapi?apiid=aiplatform.googleapis.com)\n\n- In the Google Cloud console, on the project selector page,\n select or create a Google Cloud project.\n\n [Go to project selector](https://console.cloud.google.com/projectselector2/home/dashboard)\n-\n [Verify that billing is enabled for your Google Cloud project](/billing/docs/how-to/verify-billing-enabled#confirm_billing_is_enabled_on_a_project).\n\n-\n\n\n Enable the Vertex AI API.\n\n\n [Enable the API](https://console.cloud.google.com/flows/enableapi?apiid=aiplatform.googleapis.com)\n\n1. Go to one of the following Model Garden model cards, then click **Enable**."]]