Cómo funciona Gemini para Google Cloud

Los modelos grandes de lenguaje (LLM) de Gemini se entrenan en una gran base de código disponible públicamente, material específico de Google Cloud y publicaciones de Stack Overflow.

Además, Gemini en la consola de Google Cloud incluye información contextual básica del usuario (ID del proyecto, área de producto, ID de la organización y título de la página) cuando se proporcionan respuestas. Los comandos de Google Cloud CLI (gcloud) y otros códigos pueden incorporar el contexto del usuario directamente en el fragmento de código generado. Gemini no conserva información contextual.

Gemini funciona como un servicio sin estado para mitigar los riesgos de robo de IP. Gemini no almacena tus instrucciones ni respuestas generadas a nuestros modelos, ni usa estos datos para entrenar o ajustar los modelos subyacentes. Todos los datos enviados a los modelos de Gemini se usan de forma estricta para entregar una respuesta a la solicitud y no se almacenan con el fin de mitigar los riesgos de robo de IP. No hay controles disponibles para filtrar o bloquear cierta información y evitar que se envíe a Gemini.

Gemini entrega las solicitudes lo más cerca posible del usuario cuando hay capacidad disponible. Para obtener más información sobre dónde entrega Gemini, consulta Ubicaciones de Gemini.

Cómo y cuándo Gemini cita fuentes

Los LLM de Gemini, al igual que algunas otras experiencias de LLM independientes, se diseñaron para generar contenido original y no replicar en detalle contenido existente. Diseñamos nuestros sistemas para limitar las posibilidades de que esto ocurra y seguimos mejorando el funcionamiento de estos sistemas.

Si Gemini cita de forma directa y en detalle una página web, cita a esa página. En el caso de las respuestas con URLs, Gemini permite a los usuarios ver y, en algunos casos, hacer clic para navegar directamente a la página de origen.

Cuando se genera código o se ofrece la función para completar código, Gemini proporciona información de citas cuando citas directamente en gran medida desde otra fuente, como el código abierto existente. En el caso de citas a repositorios de código, la cita también puede hacer referencia a una licencia de código abierto aplicable.

Asistente de programación de Gemini

Para permitir una mejor generación de código en IDE, Gemini Code Assist recopila información contextual del archivo que usas de forma activa en el IDE, así como de otros archivos abiertos del proyecto.

Cuando trabajas con Gemini Code Assist en tu IDE, muestra una lista de los archivos de tu proyecto (las fuentes de contexto) que se usaron como referencia para generar respuestas a tus instrucciones. Las fuentes de contexto se muestran cada vez que usas el chat de Gemini.

Para evitar que Gemini Code Assist sugiera código que coincida con las fuentes citadas, ajusta la configuración en Cloud Code (VS Code, Editor de Cloud Shell y Cloud Workstations).

Cómo Gemini te ayuda a protegerte con la indemnización de la IA generativa

Gemini está cubierto como un Servicio Indemnizado de IA generativa.

Si recibes una impugnación por motivos de derechos de autor después de usar contenido generado por Gemini, asumimos la responsabilidad de los posibles riesgos legales relacionados.

Para obtener detalles completos sobre la indemnización, consulta nuestras Condiciones Específicas del Servicio o lee nuestra entrada de blog sobre este problema.