Usa bibliotecas de OpenAI con Vertex AI

La API de Chat Completions funciona como un extremo compatible con OpenAI, diseñado para facilitar la conexión con Gemini en Vertex AI a través de las bibliotecas de OpenAI para Python y REST. Si ya usas las bibliotecas de OpenAI, puedes usar esta API como una forma económica de cambiar entre los modelos de OpenAI y los modelos alojados en Vertex AI para comparar el resultado, el costo y la escalabilidad, sin cambiar tu código existente. Si todavía no usas las bibliotecas de OpenAI, te recomendamos que uses el SDK de IA generativa de Google.

Modelos compatibles

La API de Chat Completions admite los modelos de Gemini y algunos modelos autodeployados de Model Garden.

Modelos de Gemini

Los siguientes modelos proporcionan compatibilidad con la API de Chat Completions:

Modelos implementados por el usuario desde Model Garden

Los contenedores Hugging Face Text Generation Interface (HF TGI) y vLLM precompilado de Model Garden de Vertex AI admiten la API de Chat Completions. Sin embargo, no todos los modelos implementados en estos contenedores admiten la API de Chat Completions. En la siguiente tabla, se incluyen los modelos compatibles más populares por contenedor:

HF TGI

vLLM

Parámetros admitidos

En el caso de los modelos de Google, la API de Chat Completions admite los siguientes parámetros de OpenAI. Para obtener una descripción de cada parámetro, consulta la documentación de OpenAI sobre cómo crear finalizaciones de chat. La compatibilidad con parámetros para modelos de terceros varía según el modelo. Para ver qué parámetros son compatibles, consulta la documentación del modelo.

messages
  • System message
  • User message: Se admiten los tipos text y image_url. El tipo image_url admite imágenes almacenadas en un URI de Cloud Storage o una codificación en base64 con el formato "data:<MIME-TYPE>;base64,<BASE64-ENCODED-BYTES>". Para obtener información sobre cómo crear un bucket de Cloud Storage y subir un archivo a él, consulta Descubre el almacenamiento de objetos. No se admite la opción detail.
  • Assistant message
  • Tool message
  • Function message: Este campo es obsoleto, pero se admite para versiones anteriores.
model
max_completion_tokens Alias de max_tokens.
max_tokens
n
frequency_penalty
presence_penalty
reasoning_effort Configura cuánto tiempo y cuántos tokens se usan en una respuesta.
  • low: 1024
  • medium: 8192
  • high: 24576
Como no se incluyen pensamientos en la respuesta, solo se puede especificar uno de los campos reasoning_effort o extra_body.google.thinking_config.
response_format
  • json_object: Se interpreta como pasar “application/json” a la API de Gemini.
  • json_schema. No se admiten esquemas completamente recursivos. additional_properties es compatible.
  • text: Se interpreta como pasar “text/plain” a la API de Gemini.
  • Cualquier otro tipo de MIME se pasa tal como está al modelo, por ejemplo, pasar “application/json” directamente.
seed Corresponde a GenerationConfig.seed.
stop
stream
temperature
top_p
tools
  • type
  • function
    • name
    • description
    • parameters: Especifica los parámetros a usando la especificación de OpenAPI. Esto difiere del campo de parámetros de OpenAI, que se describe como un objeto de esquema JSON. Para obtener información sobre las diferencias de palabras clave entre el esquema de OpenAPI y JSON, consulta la guía de OpenAPI.
tool_choice
  • none
  • auto
  • required: Corresponde al modo ANY en FunctionCallingConfig.
  • validated: Corresponde al modo VALIDATED en FunctionCallingConfig. Esto es específico de Google.
web_search_options Corresponde a la herramienta GoogleSearch. No se admiten subopciones.
function_call Este campo es obsoleto, pero se admite para versiones anteriores.
functions Este campo es obsoleto, pero se admite para versiones anteriores.

Si pasas algún parámetro no admitido, se ignorará.

Parámetros de entrada multimodales

La API de Chat Completions admite entradas multimodales seleccionadas.

input_audio
  • data: Cualquier URI o formato de BLOB válido. Admitimos todos los tipos de BLOB, incluidos los de imagen, audio y video. Se admite todo lo que admite GenerateContent (HTTP, Cloud Storage, etcétera).
  • format: OpenAI admite wav (audio/wav) y mp3 (audio/mp3). Con Gemini, se admiten todos los tipos de MIME válidos.
image_url
  • data: Al igual que input_audio, se admite cualquier URI o formato de BLOB válido.
    Ten en cuenta que image_url como URL tendrá el tipo de MIME image/* de forma predeterminada y image_url como datos de BLOB se puede usar como cualquier entrada multimodal.
  • detail: Similar a la resolución de medios, este parámetro determina la cantidad máxima de tokens por imagen para la solicitud. Ten en cuenta que, si bien el campo de OpenAI es por imagen, Gemini aplica el mismo nivel de detalle en toda la solicitud, y si se pasan varios tipos de detalle en una solicitud, se generará un error.

En general, el parámetro data puede ser un URI o una combinación de tipo de MIME y bytes codificados en base64 con el formato "data:<MIME-TYPE>;base64,<BASE64-ENCODED-BYTES>". Para obtener una lista completa de los tipos de MIME, consulta GenerateContent. Para obtener más información sobre la codificación en Base64 de OpenAI, consulta su documentación.

Para obtener información sobre el uso, consulta nuestros ejemplos de entrada multimodal.

Parámetros específicos de Gemini

Gemini admite varias funciones que no están disponibles en los modelos de OpenAI. Estas funciones aún se pueden pasar como parámetros, pero deben estar dentro de un extra_content o extra_body, o se ignorarán.

extra_body funciones

Incluye un campo google para contener cualquier función específica de extra_body Gemini.

{
  ...,
  "extra_body": {
     "google": {
       ...,
       // Add extra_body features here.
     }
   }
}
safety_settings Esto corresponde al SafetySetting de Gemini.
cached_content Esto corresponde al GenerateContentRequest.cached_content de Gemini.
thinking_config Esto corresponde al GenerationConfig.ThinkingConfig de Gemini.
thought_tag_marker Se usa para separar las ideas de un modelo de sus respuestas en los modelos con la función Thinking disponible.
Si no se especifica, no se devolverán etiquetas sobre los pensamientos del modelo. Si están presentes, las consultas posteriores quitarán las etiquetas de pensamiento y marcarán los pensamientos de forma adecuada para el contexto. Esto ayuda a conservar el contexto adecuado para las consultas posteriores.

extra_part funciones

extra_part te permite especificar parámetros de configuración adicionales a nivel de cada Part.

Incluye un campo google para contener cualquier función específica de extra_part Gemini.

{
  ...,
  "extra_part": {
     "google": {
       ...,
       // Add extra_part features here.
     }
   }
}
extra_content Es un campo para agregar contenido específico de Gemini que no se debe ignorar.
thought Esto marcará explícitamente si un campo es un pensamiento (y tendrá prioridad sobre thought_tag_marker). Se debe usar para especificar si una llamada a la herramienta es parte de un pensamiento o no.

¿Qué sigue?