Esta página explica como configurar o Gemini num ambiente isolado do Google Distributed Cloud (GDC). Este guia destina-se aos operadores de infraestruturas (IOs) que gerem implementações de sistemas e abrange detalhes sobre a infraestrutura necessária, a configuração de hardware para pods de GPU e as configurações de rede necessárias para implementar o Gemini.
Antes de começar
Para configurar a configuração de rede do Gemini, tem de ter o cluster de administrador raiz instalado com êxito nos racks base. Para mais informações, consulte o artigo Inicialização do cluster de administrador principal.
Configure o hardware da GPU para o Gemini
Para executar o Gemini no GDC, tem de implementar o hardware necessário sob a forma de um pod de GPU. Um pod de GPU consiste em um a oito servidores de GPU com consumo de energia e é a unidade implementável mínima de racks compatíveis com GPU. Cada servidor de GPU está alojado no seu próprio rack e liga-se a um comutador de gestão dedicado e a dois comutadores Top of Rack (TOR) partilhados. O número de servidores por rack depende do orçamento de energia e dos seus requisitos.
O diagrama seguinte mostra duas configurações de pods de GPU diferentes:

Figura 1. São apresentados dois agrupamentos de GPUs. O primeiro pod de GPUs consiste em oito servidores de GPUs. O segundo pod de GPUs consiste em cinco servidores de GPU.
Na figura 1, o primeiro pod de GPU é composto pelo seguinte:
- Um par de nuvens virtuais privadas (VPC) dedicado, que pode suportar até oito servidores de GPU. As ligações adicionais ao servidor requerem a criação de novos pods de GPU.
- Cada GPU XE9680 no agrupamento de GPUs tem uma utilização exclusiva de um comutador TOR. Os TORs no pod de GPU não são partilhados com outros recursos de computação ou armazenamento.
- Dois comutadores TOR estão ligados para fornecer conectividade de largura de banda elevada para os servidores de GPU.
- Este pod de GPUs consiste em, no máximo, oito servidores de GPU. Cada servidor está alojado no seu próprio rack.
- Cada servidor de GPU liga-se a um comutador de gestão dedicado e aos comutadores TOR de GPU partilhados que formam um par de VPCs.
Na figura 1, o segundo pod de GPU apresentado partilha a mesma arquitetura, mas o pod de GPU é composto por cinco servidores de GPU em vez de oito.
Configure a rede para o Gemini
Para configurar a sua rede para o Gemini na GDC, siga estes passos:
Realizar uma expansão dinâmica no pod da GPU. Siga os passos indicados em Faça uma expansão dinâmica. Se tiver um problema em que não é possível aplicar recursos
SubcomponentOverridedurante a expansão zonal, siga o runbook OLT-R0003.Valide se a ligação foi bem-sucedida. Defina a variável de ambiente
KUBECONFIGpara estabelecer ligação ao cluster de administrador raiz:KUBECONFIG=KUBECONFIG_PATHSubstitua
KUBECONFIG_PATHpelo caminho para o ficheiro kubeconfig do cluster de administrador raiz.Obtenha o estado dos comutadores TOR e de gestão:
kubectl --kubeconfig=$KUBECONFIG get torswitch -n gpc-system kubectl --kubeconfig=$KUBECONFIG get managementswitch -n gpc-systemVerifique o resultado e confirme se a coluna
READYmostra um valor deTruepara ambos os comutadores:NAME AGE VENDOR SERIAL-NUMBER MANAGEMENT-IP READY OSVERSION CREDENTIAL-NAME LICENSE-NAME aa-aa-torsw01 10h Cisco 005056B4FC41 172.100.1.130 True 10.3(3) aa-aa-torsw01-admin aa-aa-torsw02 10h Cisco 005056B4966C 172.100.1.131 True 10.3(3) aa-aa-torsw02-adminSe tiver problemas de hardware que estejam a afetar a configuração da sua rede, consulte o artigo Resolva falhas de hardware.
Resolva falhas de hardware
Se tiver falhas de hardware nos comutadores dos racks expandidos, execute o processo de devoluções e substituições de produtos de comutadores (RMA) para os comutadores TOR e de gestão. Siga as instruções em PNET-R2001.