Tempo estimado até à conclusão: 7 horas
Proprietário do componente acionável: KUB/SERV/OBJ/FILE/PNETPerfil de competências: engenheiro de implementação
Este guia cria um cluster de administrador raiz que serve como plano de controlo para o cluster interno e os clusters de infraestrutura da organização.
19.1. Configure a configuração de encaminhamento
Confirme se a rota estática foi adicionada durante a instalação do servidor Bootstrapper. Se a rota estática estiver em falta, adicione uma rota estática ao programa de arranque:
DATA_CIDR=$(kubectl get cidrclaim -n gpc-system instance-external-cidr -o jsonpath={.spec.ipv4Spec.staticCidrBlocks[0]})
DATA_GATEWAY=$(kubectl get subnetclaims -n root control-plane-subnet -o jsonpath={.status.ipv4SubnetStatus.gateway})
ip route replace ${DATA_CIDR} via ${DATA_GATEWAY}
Esta rota fornece acesso ao servidor da API do cluster de administrador raiz a partir da interface do plano de dados no programa de arranque. Para mais informações sobre os servidores da API no GDC, consulte o artigo Servidores da API globais e zonais.
19.2. Crie um cluster de administrador raiz
O comando seguinte cria um cluster de administrador raiz com três nós do plano de controlo. O modo de inquilino predefinido é o modo multi-inquilino.
gdcloud system admin-cluster install -v=3 \
--tenant-mode=multi \
--root-admin-node-count=3 \
--generate-admin-yaml \
--addon-manager-manifests-set harbor.postgresqlHA.enabled=true \
--addon-manager-manifests-set harbor.productionEnvironment.enabled=true \
--addon-manager-manifests-set storage.mode=ontap \
--addon-manager-manifests-set gpuFeature.enabled=true \
--addon-manager-manifests-set rootAdmin.controller.adminLBPoolSize=23 \
--addon-manager-manifests-set rootAdmin.controller.systemLBPoolSize=60 \
--addon-manager-manifests-set network.noInternalSubnet=false \
--addon-manager-manifests-set minStage=FEATURE_THRESHOLD
A criação do cluster de administrador raiz requer um ficheiro de configuração para o CR do cluster. Por predefinição, a configuração é gerada automaticamente. A configuração de clusters personalizada também é permitida definindo a flag --generate-admin-yaml como false e especificando --admin-yaml-path para apontar para o caminho de configuração de destino.
Após a conclusão da instalação do cluster de administrador raiz, o kubeconfig do cluster de administrador raiz é armazenado em /root/release/root-admin/root-admin-kubeconfig.
O URL da interface do utilizador (IU) do administrador do utilizador é impresso após a instalação do cluster. Lembre-se de o usar em operações posteriores. Também pode obtê-lo através do seguinte comando:
gdcloud system admin-cluster describe
19.3. Implemente componentes no cluster de administrador raiz
O comando seguinte implementa modelos de ciclo de vida de componentes operáveis no cluster de administrador raiz.
gdcloud system component deploy --kubeconfig KUBECONFIG --names=* --pivot-from=/root/.kube/config
19.4. Configure gates de funcionalidades para o administrador principal
Se tiver um limite de fase de funcionalidade diferente de production, tem de atualizar os seus Feature Gates em conformidade para corresponder ao limite, seguindo OOPS-P0072.
19.5. Configure o resolvedor de stub no bootstrapper
Use o seguinte comando para configurar o resolvedor stub de DNS no bootstrapper. Este resolvedor de stub é necessário para aceder à consola.
gdcloud system dns install
Esta configuração garante que os nomes de domínio de todas as organizações são resolvidos a partir do bootstrapper, conforme mostrado no diagrama seguinte:

19.6. Defina endereços IP iLo
Os passos seguintes definem os endereços IP da ILO para static para nós de administração.
ADMIN_NODE=NODE NAME
RACK=$(kubectl --kubeconfig KUBECONFIG get servers -n gpc-system $ADMIN_NODE -o jsonpath='{.metadata.labels.system\.private\.gdc\.goog/rack-name}')
ILO_IP=$(kubectl --kubeconfig KUBECONFIG get servers -n gpc-system $ADMIN_NODE -o jsonpath='{.spec.bmc.ip}')
ILO_GATEWAY=$(kubectl --kubeconfig KUBECONFIG get subnetclaims -n root $RACK-mgmtsw01-server-bmc-subnet -o jsonpath='{.status.ipv4SubnetStatus.gateway}')
BMC_CREDS=$(kubectl --kubeconfig KUBECONFIG get servers -n gpc-system $ADMIN_NODE -o jsonpath='{.spec.bmc.credentialsRef.name}')
ILO_USER=$(kubectl --kubeconfig KUBECONFIG get secrets -n gpc-system $BMC_CREDS -o jsonpath='{.data.username}' | base64 --decode)
ILO_PASS=$(kubectl --kubeconfig KUBECONFIG get secrets -n gpc-system $BMC_CREDS -o jsonpath='{.data.password}' | base64 --decode)
echo Target Server: $ADMIN_NODE
echo ILO IP: $ILO_IP
echo ILO Gateway: $ILO_GATEWAY
echo ILO Username: $ILO_USER
echo ILO Password: $ILO_PASS
Verifique se as informações anteriores estão corretas com base nas informações no cluster. Execute o comando seguinte se as informações anteriores estiverem corretas.
Desative o DHCP.
curl -k -u ${ILO_USER}:${ILO_PASS} -H "Content-Type: application/json" -H "OData-Version: 4.0" -X PATCH https://${ILO_IP}/redfish/v1/Managers/1/EthernetInterfaces/1 --data '{"DHCPv4": {"DHCPEnabled": false}}' | jq '.'Resultado esperado:
MessageId: iLO.2.15.ResetRequiredConfigure o endereço IP e o gateway.
curl -k -u ${ILO_USER}:${ILO_PASS} -H "Content-Type: application/json" -H "OData-Version: 4.0" -X PATCH https://${ILO_IP}/redfish/v1/Managers/1/EthernetInterfaces/1 --data '{"IPv4Addresses":[{"Address":"'${ILO_IP}'","Gateway":"'${ILO_GATEWAY}'","SubnetMask":"255.255.255.0"}],"IPv4StaticAddresses": [{"Address": "'${ILO_IP}'", "Gateway": "'${ILO_GATEWAY}'", "SubnetMask": "255.255.255.0"}]}' | jq .Resultado esperado:
MessageId: Base.1.4.SuccessReponha o gestor iLO.
curl -k -u ${ILO_USER}:${ILO_PASS} -H "Content-Type: application/json" -H "OData-Version: 4.0" https://${ILO_IP}/redfish/v1/Managers/1/Actions/Manager.Reset --data '{"ResetType":"ForceRestart"}' -X POST | jq .Resultado esperado:
MessageId: iLO.2.15.ResetInProgressConfirme se as definições de Ethernet foram aplicadas. Se a resposta estiver pendente, significa que a reposição não foi concluída. Cancele o comando curl atual, aguarde 20 segundos e tente novamente.
curl --insecure -u ${ILO_USER}:${ILO_PASS} https://${ILO_IP}/redfish/v1/Managers/1/EthernetInterfaces/1 -X GET | jq .
Confirme o êxito verificando se o retorno HTTP de cada passo corresponde ao resultado esperado.
Repita os passos anteriores para todos os nós de administrador raiz presentes no cluster.
19.7. Estabeleça a rede OI e a conetividade isolada do Google Distributed Cloud (GDC)
Esta secção descreve como aprovisionar ficheiros de configuração que as redes de infraestrutura (OI) e nuvem distribuída do Operations Suite para estabelecerem a conetividade.
Estes passos requerem acesso a alguns ficheiros do Distributed Cloud, bem como conectividade ao cluster de administrador principal da instância do Distributed Cloud para que as informações de rede de tempo de execução sejam obtidas.
19.7.1. Antes de começar
Nesta fase do processo de implementação, têm de se observar as seguintes condições:
Ambos os comutadores OIR estão ligados por cabo, ligados, atualizados para a versão adequada e têm as configurações de base e ACL aplicadas.
Ambas as firewalls OIF estão ligadas por cabo, ligadas à fonte de alimentação, atualizadas para a versão adequada, ativadas para o modo FIPS-CC e têm a configuração base aplicada.
Para concluir o aprovisionamento da conetividade da nuvem distribuída, a instância da nuvem distribuída tem de ter concluído o arranque da rede e ter sido movida do cluster do tipo para o cluster de administrador raiz.
19.7.2. Prepare o ambiente
Prepare o ambiente para os passos seguintes reunindo as seguintes informações e definindo as variáveis de ambiente.
A OI pode ser ligada de duas formas: localmente ou remotamente.
Uma ligação local liga o OI à Distributed Cloud diretamente através de ligações de fibra entre racks no mesmo centro de dados.
Uma ligação remota liga-se a uma localização diferente através de transporte de longa distância.
Esta especificação pode ser fornecida no ficheiro interconnect.yaml, que é necessário para aprovisionar configurações de interligação do Distributed Cloud.
Este ficheiro contém todas as informações necessárias para configurar as interconexões do GDC.
19.7.2.1. Especificação YAML da interligação
| Atributo |
Descrição |
Exemplo |
|---|---|---|
zones[ ] mapa |
Informações sobre a célula da nuvem distribuída à qual a implementação do OI tem de se ligar. Para estabelecer ligação a uma lista de células da nuvem distribuída, especifique uma lista de zones com informações de cada célula da nuvem distribuída em cada zona.
Opções de zona |
Exemplo:zones: |
19.7.2.2. Opções de zona
Contém informações sobre uma célula do Distributed Cloud no ficheiro interconnect.yaml:
| Atributo |
Descrição |
Utilização |
|---|---|---|
zoneNamestring |
Abreviatura da célula da nuvem distribuída à qual a implementação da OI tem de se ligar. | zones: |
uplinkSpeeduint32 |
(Opcional) Indica a velocidade de carregamento da ligação: (10 ou 100).
|
Valores:10, 100Predefinição: 10uplinkSpeed: 100 |
localInstanceint |
O InstanceID do site de implementação da OI a partir do ficheiro ocit.yaml.Uma ligação local associa o site do rack principal da infraestrutura do Operations Suite (OIR) ao Distributed Cloud diretamente através de ligações de fibra entre racks no mesmo centro de dados. |
zones: |
remoteInstance[ ] int |
InstanceID(s) do site de implementação da OI a partir do ficheiro ocit.yamlUma ligação remota liga-se a uma ou mais localizações diferentes através de transporte de longa distância. Pode ser fornecida uma lista de valores remoteInstance, de modo que as configurações de todos os sites de OIR sejam geradas para estabelecer ligação às células do Distributed Cloud fornecidas.
|
zones: zones: |
Se for uma ligação local, configure o ficheiro interconnect.yaml da seguinte forma:
zones:
- zoneName: ah
uplinkSpeed: 100
localInstanceID: 1
cellCfg: /path/to/cellcfg
Se for uma ligação remota, configure o ficheiro interconnect.yaml da seguinte forma:
zones:
- zoneName: ah
uplinkSpeed: 100
remoteInstanceIDs:
- 2
cellCfg: /path/to/cellcfg
Para implementações de OI em vários sites, especifique o ficheiro interconnect.yaml da seguinte forma:
zones:
- zoneName: ah
uplinkSpeed: 100
localInstanceID: 1
remoteInstanceIDs:
- 2
cellCfg: /path/to/cellcfg
19.7.3. Gere configurações de comutador
Estes passos geram configurações de patch a aplicar aos dispositivos de rede para aprovisionar a conetividade ao Distributed Cloud.
occonfigtool generate cell config -c /path/to/interconnect.yaml -o path/to/ocit.yaml
Isto gera os seguintes ficheiros de configuração para cada site:
| Ficheiros de configuração | Dispositivo | Função |
|---|---|---|
| occoresw101.incremental | occoresw101 | Configuração para aplicar patches ao dispositivo para a conetividade à instância do Distributed Cloud |
| occoresw101.acl | occoresw101 | Configuração para aplicar patches às ACLs para a aplicação do tráfego com as redes da nuvem distribuída. |
| occoresw102.incremental | occoresw102 | Configuração para aplicar patches ao dispositivo para a conetividade à instância do Distributed Cloud |
| occoresw102.acl | occoresw102 | Configuração para aplicar patches às ACLs para a aplicação do tráfego com as redes da nuvem distribuída. |
| ocsw101.incremental | ocs1w01 | Configuração para aplicar patches ao dispositivo para a conetividade à instância do Distributed Cloud |
| ocsw101.acl | ocsw101 | Configuração para aplicar patches às ACLs para a aplicação do tráfego com as redes da nuvem distribuída. |
| ocsw102.incremental | ocsw102 | Configuração para aplicar patches ao dispositivo para a conetividade à instância do Distributed Cloud |
| ocsw102.acl | ocsw102 | Configuração para aplicar patches às ACLs para a aplicação do tráfego com as redes da nuvem distribuída. |
19.7.4. Gere políticas de firewall
Para gerar as regras da firewall, o occonfigtool tem de aceder à API Kubernetes para o cluster de administrador principal. Certifique-se de que a variável de ambiente KUBECONFIG está definida como root-admin-kubeconfig:
export KUBECONFIG=/root/release/root-admin/root-admin-kubeconfig
export OCIT_CONFIG_FILE=/path/to/ocit.yaml
Gere as regras de firewall executando o seguinte:
occonfigtool generate fwrules -o ${OCIT_CONFIG_FILE:?}
| Ficheiros de configuração | Dispositivo | Função |
|---|---|---|
| firewall-rules.base | occorefw01 | Configuração para aplicar patches ao dispositivo para a conetividade à instância do Distributed Cloud |
19.7.5. Aplique configurações
Usando os ficheiros de saída, aplique a configuração aos dispositivos de rede respetivos através do mesmo procedimento que no passo anterior para comutadores e firewalls.
19.8. Atualize os recursos do Distributed Cloud RoutePolicy
A nuvem distribuída usa a política de rotas para aplicar as redes que podem ser anunciadas na tabela de encaminhamento.
Quando adicionamos a OI como uma rede externa, temos de atualizar os RoutePolicyCRs
para que esperem as novas redes.
Isto requer o acesso ao root-admin-cluster através do kubectl. Certifique-se de que a variável KUBECONFIGadequada está definida:
export KUBECONFIG=/root/deploy/root-admin/root-admin-kubeconfig
Para confirmar, faça o seguinte:
kubectl get routepolicy -n gpc-system
Deve ver o seguinte resultado ou semelhante:
NAME AGE
customerpeering-routepolicy 19d
datacenter-routepolicy 19d
mgmtnetworkoperationcenter-routepolicy 19d
networkoperationcenter-routepolicy 19d
Para estes passos, vamos concentrar-nos no networkoperationcenter-routepolicy
e no mgmtnetworkoperationcenter-routepolicy.
19.8.1.1. Aplique patches às políticas de encaminhamento da rede de dados
A partir de ocinfo.opscenter.local.txt, obtenha as seguintes sub-redes (incluindo o prefixo de rede e o comprimento).
- OCCORE-SERVERS, usado no exemplo seguinte como
$OCCORE_SERVERS_NET - OC-WORKSTATIONS, usado no exemplo seguinte como
$OC_WORKSTATIONS_NET
Use estes valores para ajustar as políticas de rotas preenchendo as seguintes variáveis:
export OCCORE_SERVERS_NET=$OCCORE_SERVERS_NET
export OC_WORKSTATIONS_NET=$OC_WORKSTATIONS_NET
Por exemplo:
export OCCORE_SERVERS_NET=172.21.0.0/24
export OC_WORKSTATIONS_NET=172.21.32.0/24
Depois de definir as variáveis de ambiente, execute os seguintes comandos kubectl:
kubectl patch routepolicy/networkoperationcenter-routepolicy -n gpc-system \
--type=json -p="[
{
'op': 'add',
'path': '/spec/in/ipPrefixList/0',
'value': {
'action': 'Permit',
'ipPrefix': '${OCCORE_SERVERS_NET:?}',
'prefixLengthMatchers': [
{
'operator': 'LE',
'prefixLength': 32
}
]
}
}
]"
kubectl patch routepolicy/networkoperationcenter-routepolicy -n gpc-system \
--type=json -p="[
{
'op': 'add',
'path': '/spec/in/ipPrefixList/0',
'value': {
'action': 'Permit',
'ipPrefix': '${OC_WORKSTATIONS_NET:?}',
'prefixLengthMatchers': [
{
'operator': 'LE',
'prefixLength': 32
}
]
}
}
]"
Exemplo de saída:
routepolicy.system.private.gdc.goog/networkoperationcenter-routepolicy patched
19.8.1.2. Políticas de encaminhamento de rede de gestão de patches
A partir de ocinfo.opscenter.local.txt, obtenha as seguintes sub-redes (incluindo o prefixo de rede e o comprimento).
- OCCORE-JUMPHOSTS, usado no exemplo seguinte como
$OCCORE_JUMPHOSTS_NET - OCCORE-ILOS, usado no exemplo seguinte como
$OCCORE_ILOS_NET
Use estes valores para ajustar as políticas de rotas preenchendo as seguintes variáveis:
export OCCORE_JUMPHOSTS_NET=$OCCORE_JUMPHOSTS_NET
export OCCORE_ILOS_NET=$OCCORE_ILOS_NET
Por exemplo:
export OCCORE_JUMPHOSTS_NET=172.21.2.0/27
export OCCORE_ILOS_NET=172.21.2.32/27
Depois de definir as variáveis de ambiente, execute os seguintes comandos kubectl:
kubectl patch routepolicy/mgmtnetworkoperationcenter-routepolicy -n gpc-system \
--type=json -p="[
{
'op': 'add',
'path': '/spec/in/ipPrefixList/0',
'value': {
'action': 'Permit',
'ipPrefix': '${OCCORE_JUMPHOSTS_NET:?}',
'prefixLengthMatchers': [
{
'operator': 'LE',
'prefixLength': 32
}
]
}
}
]"
kubectl patch routepolicy/mgmtnetworkoperationcenter-routepolicy -n gpc-system \
--type=json -p="[
{
'op': 'add',
'path': '/spec/in/ipPrefixList/0',
'value': {
'action': 'Permit',
'ipPrefix': '${OCCORE_ILOS_NET:?}',
'prefixLengthMatchers': [
{
'operator': 'LE',
'prefixLength': 32
}
]
}
}
]"
Exemplo de saída:
routepolicy.system.private.gdc.goog/mgmtnetworkoperationcenter-routepolicy patched
19.9. Valide a conetividade de rede do OI Distributed Cloud
Neste ponto da implementação, o seguinte tem de ser verdadeiro:
- Ambos os dispositivos
occoresw101eoccoresw102são reconfigurados com os ficheiros de configuraçãobase,acl,incrementaleincremental-acl. - O
ocsw101e oocsw102estão configurados com ficheiros de configuraçãobase,acl,incrementaleincremental-acl. - Ambos os dispositivos
occorefw101eoccoref102estão configurados com ficheiros de configuraçãobaseefirewall-rules.base. - As ligações de carregamento entre o centro de dados e o centro de operações estão ligadas e operacionais.
- As ligações físicas entre a nuvem distribuída são validadas.
Se alguma das condições anteriores não se observar, a saída seguinte pode diferir substancialmente consoante o estado atual e é provável que não produza o comportamento esperado na produção.
19.9.1. Resultado esperado
Os seguintes fragmentos mostram o resultado de um ambiente conhecido como bom dos seguintes comandos:
show ip bgp summary vrf allshow ip bgp vrf allshow ip route vrf allshow lldp neighbors
Estes fragmentos podem funcionar como uma comparação com um ambiente de produção através dos mesmos comandos.
19.9.2. Validações de chaves
Seguem-se os principais aspetos a procurar nas seguintes saídas:
- Nenhuma sessão de BGP está no estado
Idle,ActiveouClosing. - Todas as sessões BGP mostram um valor
State/PrxRcdsuperior a0. - Todas as sessões de BGP mostram um temporizador
Up/Downque aumenta continuamente. - O prefixo
externalCIDRda nuvem distribuída (encontrado no CIQ) está presente nas tabelas de encaminhamento e nas tabelas BGP das VRFsGDCH-DATA,GDCH-DATA-TRANSIT,OC-WORKSTATIONSeOCCORE-SERVERS. - A nuvem distribuída
oobManagementCIDRs(encontrada no CIQ) está presente nas tabelas de encaminhamento e nas tabelas BGP das VRFsGDCH-MGMT,GDCH-MGMT-TRANSITeHW-INFRA.
19.9.3. OCCORESW
A tabela seguinte mostra o resultado esperado em cada occore switch para as interligações da nuvem distribuída.
Tem de concluir todas as validações de rede antes deste passo.
Os pares e os trajetos BGP abordados aqui devem estar presentes juntamente com os pares e os trajetos BGP mencionados anteriormente.
Valide a saída em todos os comutadores.
| VRF |
BGP Neighbor |
Rotas esperadas recebidas do vizinho BGP |
Rotas esperadas anunciadas ao vizinho BGP |
|---|---|---|---|
| GDCH-DATA-TRANSIT | AGGSW01 |
|
|
| GDCH-DATA-TRANSIT | AGGSW02 |
|
|
| GDCH-DATA-TRANSIT | Sessão de BGP com hairpinning a usar OCCOREFW para OC-DATA VRF |
|
|
| OC-DATA | Sessão de BGP OCSW01 |
|
|
| OC-DATA | Sessão de BGP OCSW02 |
|
|
| OC-DATA | Sessão de BGP OCCORESW |
|
|
| GDCH-MGMT-TRANSIT | MGMTAGGSW01 |
|
|
| GDCH-MGMT-TRANSIT | MGMTAGGSW02 |
|
|
| GDCH-MGMT-TRANSIT | Sessão de BGP com hairpinning a usar OCCOREFW para HW-INFRA VRF |
|
19.9.4. OCSW
A tabela seguinte mostra o resultado esperado em cada oc switch após a execução do procedimento de interconexão da nuvem distribuída.
Tem de concluir todas as validações de rede antes deste passo.
Os pares e os trajetos BGP abordados aqui devem estar presentes juntamente com os pares e os trajetos BGP mencionados anteriormente.
Valide a saída em todos os comutadores.
| VRF |
BGP Neighbor |
Rotas esperadas recebidas do vizinho BGP |
|---|---|---|
| OC-DATA | Sessão de BGP OCCORESW01 |
|
| OC-DATA | Sessão de BGP OCCORESW02 |
|
Pode encontrar o fragmento do comando de saída em Distributed Cloud validations show command.
19.9.5. Validações de implementação de OI em vários sites
A secção seguinte detalha como validar implementações em vários sites com várias células da Distributed Cloud interligadas. Nesta fase, a topologia com dois sites tem o seguinte aspeto:

- As ligações azuis mostram o site 1 ligado à célula 01 e à célula 02 da nuvem distribuída.
- As ligações vermelhas mostram o site 2 ligado à célula 01 e à célula 02 da nuvem distribuída.
- As ligações verdes mostram a interligação entre o site 1 e o site 2.
Para todos os sites em todos os comutadores, tem de concluir os passos indicados nestas secções
19.10. Execute os passos finais da rede OI
Nesta fase, todas as configurações têm de ter sido geradas e aplicadas a todos os dispositivos.
As listas de acesso à rede encontram-se agora num estado que permite fluxos específicos esperados, mas também têm uma regra predefinida que permite todo o tráfego.
Agora, tem de transferir a implementação para as operações. A Operational Suite varia em função, implementação e serviços fornecidos entre os clientes. Como resultado, tem requisitos de tráfego variáveis.
Depois de as operações aceitarem a implementação, é da sua responsabilidade trabalhar com as ACLs e proteger totalmente os fluxos de tráfego de rede.
São fornecidos manuais de procedimentos operacionais para realizar estas tarefas.
19.11. Atualize o armazenamento de objetos
Durante o arranque do armazenamento de objetos, os nós foram instalados com a versão secundária suportada mais recente do StorageGRID. No entanto, a versão de destino pode ter de ser atualizada para a versão mais recente da correção rápida.
Determine a versão de destino do StorageGRID a partir dos metadados de lançamento com o seguinte comando:
kubectl get releasemetadata -o jsonpath='{.items[0].spec.infraComponents.objectStorage.storageGridOSImageVersion}'
Se a versão atual do StorageGRID não for a versão de destino, faça uma atualização do armazenamento de objetos com a versão de destino.
19.12. Potenciais problemas
19.12.1. A máquina virtual de armazenamento não está a ser reconciliada
TLDR: a máquina virtual de armazenamento não fica pronta durante a criação do cluster de administrador principal.
Problema: após criar o cluster de administrador raiz, o recurso da máquina virtual de armazenamento não é reconciliado e apresenta um evento de aviso, como:
StorageVirtualMachine Reconcile error, retrying: SVM status update failed,
error: failed to get network interface info: Get
"https://172.22.147.128/api/network/ip/interfaces?fields=%2A%2A&max_records=4096&svm.name=root-admin":
EOF
Uma configuração incorreta no cluster de armazenamento que impede o SSL por motivos de segurança pode causar este problema.
Solução alternativa:
Ligue-se à série ou ligue-se ao cluster de armazenamento através de SSH e execute:
security ssl modify -server-enabled true -client-enabled true -vserver
CELL_ID-stge-clus-01
Após a associação, o recurso da máquina virtual de armazenamento consegue fazer a conciliação.
19.12.2. O arranque falhou na instalação do certificado do servidor TLS da firewall
Pode ocorrer uma falha TLSServerCertification ao executar a tarefa de arranque do plano de controlo do administrador principal descrita no passo 20.
Solução alternativa:
Para tentar novamente a instalação do certificado do servidor da firewall, consulte as instruções
indicadas no manual de serviço de E/S FW-R1008. Depois de concluir uma instalação com êxito, use o comando gdcloud com o comando --start-phase para continuar o arranque do administrador principal.