Los modelos de lenguaje grandes (LLM) de Gemini se entrenan con una gran base de código de código disponible públicamente, material específico de Google Cloud y publicaciones de Stack Overflow.
Además, Gemini en la consola de Google Cloud incluye información contextual básica del usuario (ID del proyecto, área del producto, título de la página y ID de la organización) cuando brinda respuestas. Los comandos de Google Cloud CLI (gcloud) y otro código pueden incorporar el contexto del usuario directamente en el fragmento de código generado. Gemini no conserva la información contextual.
Gemini funciona como un servicio sin estado para mitigar los riesgos de robo de IP. Gemini no almacena tus instrucciones ni que generó las respuestas generadas a los modelos, y tampoco se usarán estos datos para entrenar o ajustar nuestros modelos subyacentes. Los datos que se envían a los modelos de Gemini se usan estrictamente para entregar una respuesta a la solicitud y no se almacenan para mitigar los riesgos de robo de IP. No hay controles disponibles para filtrar o bloquear la información que se envía a Gemini.
Gemini entrega solicitudes lo más cerca posible del usuario, siempre que haya capacidad disponible. Para obtener más información sobre dónde se encuentra se publican, consulta las ubicaciones de Gemini.
Cómo y cuándo Gemini cita fuentes
Los LLM de Gemini, al igual que algunas otras experiencias de LLM independientes, se diseñaron para generar contenido original y no replicar en detalle contenido existente. Diseñamos nuestros sistemas para limitar el posibilidades de que esto ocurra y seguimos mejorando la forma en que estos sistemas .
Si Gemini cita de forma directa y en detalle una página web, incluirá una cita a esa página. Para respuestas con URLs, Gemini permite que los usuarios ver y, en algunos casos, hacer clic para navegar directamente a la página de origen.
Cuando genera código o ofrece la finalización de código, Gemini proporciona información de cita cuando cita de forma directa y extensa de otra fuente, como el código de código abierto existente. En el caso de las citas al código en los repositorios, la cita también podría hacer referencia a un modelo de forma correcta y que el chofer tiene una licencia válida.
Cómo Gemini te ayuda a protegerte con la indemnización de la IA generativa
Gemini está cubierto como un Servicio de Indemnización de IA Generativa.
Si se te pone en riesgo por motivos relacionados con los derechos de autor después de usar contenido generado por Gemini, asumimos la responsabilidad de los posibles riesgos legales involucrados.
Para obtener todos los detalles sobre la indemnización, consulta nuestras Condiciones específicas del servicio o lee nuestra entrada de blog sobre este tema.
Gemini para productos de Google Cloud
En las siguientes secciones, se proporcionan detalles adicionales para productos específicos de Gemini para Google Cloud.
Gemini Code Assist
Para permitir una mejor generación de código en los IDE, Gemini Code Assist recopila información contextual del archivo que usas de forma activa en tu IDE, así como de otros archivos abiertos en tu proyecto.
Cuando trabajas con Gemini Code Assist en tu IDE, Gemini enumera los archivos de tu proyecto (las fuentes de contexto) que se usaron como referencia para generar respuestas a tus instrucciones. Las fuentes de contexto se muestran cada vez que usas Gemini Chat.
Para evitar que Gemini Code Assist sugiera código que coincida con las fuentes citadas, ajusta la configuración en Cloud Code (VS Code, editor de Cloud Shell y Cloud Workstations).
La personalización del código permite Obtendrás sugerencias de código basadas directamente en la base de código privada de tu organización de Gemini Code Assist. Para obtener más información sobre la personalización del código, y cómo brindamos seguridad para acceder a tu código privado y almacenarlo, consulta la descripción general de Gemini Code Assist. Para configurar y usar la personalización de código, consulta Configura y usa la personalización del código de Gemini Code Assist.