En esta página, se detalla cómo implementar el GenAI Router y el servidor de modelos en la organización de Gemini que creaste. Para obtener más información sobre estos componentes, consulta Componentes clave.
Antes de comenzar
Para implementar componentes clave en la organización de Gemini, debes tener lo siguiente:
- Anula los parámetros de configuración de las funciones de los componentes operables
GEMINIyGPUen la organización de Gemini. - Verifica que la organización de Gemini esté en funcionamiento.
- Carga los pesos del modelo de Gemini en la organización de Gemini.
Implementa el GenAI Router y el servidor de modelos
Para implementar el enrutador de IA generativa y el servidor del modelo en la organización de Gemini, sigue estos pasos:
Aplica el recurso personalizado
GeminiPackageal servidor de la API de administración de la organización de Gemini:KUBECONFIG=GEM_ORG_MGMT_KUBECONFIG_PATH kubectl apply --kubeconfig ${KUBECONFIG:?} -f << EOF apiVersion: gemini.gdc.goog/v1 kind: GeminiPackage metadata: name: gemini-l1opr-cr namespace: gemini-system spec: applications: - name: l2crd path: gemini-l2crd - name: l2opr path: gemini-l2operator - name: genai-router path: gemini-genai-router EOFReemplaza
GEM_ORG_MGMT_KUBECONFIG_PATHpor la ruta de acceso al archivo kubeconfig del servidor de la API de administración de la organización de Gemini.Implementa el recurso personalizado
ServoConfigsiguiendo los pasos del manual de ejecución GEMINI-R0008. Como alternativa, aplica el siguiente recurso personalizado:kubectl apply --kubeconfig ${KUBECONFIG:?} -f - << EOF apiVersion: aiplatform.gdc.goog/v1 kind: ServoConfig metadata: name: gemini-models namespace: gemini-system spec: modelCombos: - name: gemini-1.5-flash-002 replicas: 2 - name: gemini-1.5-pro-002 replicas: 1 EOF