En esta página se explica cómo enviar peticiones de chat a un modelo de Gemini mediante la Google Cloud consola, la API REST y los SDKs compatibles.
Para saber cómo añadir imágenes y otros archivos multimedia a tu solicitud, consulta Comprensión de imágenes.
Para ver una lista de los idiomas disponibles en Gemini, consulta Idiomas disponibles.
Para descubrir los modelos de IA generativa y las APIs disponibles en Vertex AI, ve a Model Garden en la Google Cloud consola.
Si quieres usar Gemini directamente desde tus aplicaciones móviles y web, consulta los SDKs de cliente de lógica de IA de Firebase para aplicaciones Swift, Android, web, Flutter y Unity.
Generar texto
Para probar y mejorar las peticiones de chat, te recomendamos que uses laGoogle Cloud consola. Para enviar peticiones al modelo de forma programática, puedes usar la API REST, el SDK de IA generativa de Google, el SDK de Vertex AI para Python o una de las otras bibliotecas y SDKs compatibles.
Puedes usar instrucciones del sistema para dirigir el comportamiento del modelo en función de una necesidad o un caso práctico específicos. Por ejemplo, puedes definir un perfil o un rol para un chatbot que responda a las solicitudes de atención al cliente. Para obtener más información, consulta los ejemplos de código de instrucciones del sistema.
Puedes usar el SDK de IA generativa de Google para enviar solicitudes si usas Gemini 2.0 Flash.
Aquí tienes un ejemplo sencillo de generación de texto.
Python
Instalar
pip install --upgrade google-genai
Para obtener más información, consulta la documentación de referencia del SDK.
Define variables de entorno para usar el SDK de IA generativa con Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Go
Consulta cómo instalar o actualizar Go.
Para obtener más información, consulta la documentación de referencia del SDK.
Define variables de entorno para usar el SDK de IA generativa con Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Node.js
Instalar
npm install @google/genai
Para obtener más información, consulta la documentación de referencia del SDK.
Define variables de entorno para usar el SDK de IA generativa con Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Java
Consulta cómo instalar o actualizar Java.
Para obtener más información, consulta la documentación de referencia del SDK.
Define variables de entorno para usar el SDK de IA generativa con Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Respuestas de streaming y no de streaming
Puedes elegir si el modelo genera respuestas en streaming o sin streaming. En el caso de las respuestas graduales, recibirás cada respuesta en cuanto se genere su token de salida. En el caso de las respuestas no graduales, recibes todas las respuestas después de que se hayan generado todos los tokens de salida.
Aquí tienes un ejemplo de generación de texto en streaming.
Python
Antes de probar este ejemplo, sigue las Python instrucciones de configuración de la guía de inicio rápido de Vertex AI con bibliotecas de cliente. Para obtener más información, consulta la documentación de referencia de la API Python de Vertex AI.
Para autenticarte en Vertex AI, configura las credenciales predeterminadas de la aplicación. Para obtener más información, consulta el artículo Configurar la autenticación en un entorno de desarrollo local.
Siguientes pasos
Consulta cómo enviar solicitudes de peticiones multimodales:
Consulta las prácticas recomendadas de IA responsable y los filtros de seguridad de Vertex AI.