En esta página, se explica cómo crear un clúster privado de Google Kubernetes Engine (GKE), que es un tipo de clúster nativo de la VPC. En un clúster privado, los nodos solo tienen direcciones IP internas, lo que significa que los nodos y los Pods están aislados de la Internet de forma predeterminada. Puedes optar por no tener acceso de cliente, tener acceso limitado o tener acceso ilimitado al plano de control.
No puedes convertir un clúster público existente en un clúster privado. Para obtener más información acerca de cómo funcionan los clústeres privados, consulta Descripción general de los clústeres privados.
Esta página está dirigida a especialistas en redes que planifican e implementan la seguridad de la red. Para obtener más información sobre los roles comunes y las tareas de ejemplo a las que hacemos referencia en el contenido de Google Cloud, consulta Tareas y roles comunes de los usuarios de GKE Enterprise.
Restricciones y limitaciones
Los clústeres privados deben ser clústeres nativos de la VPC. Los clústeres nativos de la VPC no son compatibles con las redes heredadas.
Expande las siguientes secciones para ver las reglas sobre los rangos de direcciones IP y el tráfico cuando crees un clúster privado.
Antes de comenzar
Antes de comenzar, asegúrate de haber realizado las siguientes tareas:
- Habilita la API de Google Kubernetes Engine. Habilitar la API de Google Kubernetes Engine
- Si deseas usar Google Cloud CLI para esta tarea, instala y, luego, inicializa gcloud CLI. Si ya instalaste gcloud CLI, ejecuta
gcloud components update
para obtener la versión más reciente.
Asegúrate de tener el permiso correcto para crear clústeres. Como mínimo, debes ser un administrador de clústeres de Kubernetes Engine.
Asegúrate de tener una ruta a la puerta de enlace predeterminada de Internet.
Crea un clúster privado sin acceso de clientes al extremo público
En esta sección, crearás los siguientes recursos:
- Un clúster privado llamado
private-cluster-0
que tiene nodos privados y que no tiene acceso de clientes al extremo público. - Una red llamada
my-net-0
. - Una subred llamada
my-subnet-0
.
Console
Crea una red y una subred
Ve a la página Redes de VPC en la consola de Google Cloud.
Haga clic en add_box Crear red de VPC.
En Nombre, ingresa
my-net-0
.En Modo de creación de subred, selecciona Personalizado.
Dentro de la sección Subred nueva, en Nombre, ingresa
my-subnet-0
.En la lista Región, selecciona la región que deseas.
En Rango de direcciones IP, ingresa
10.2.204.0/22
.Configura el Acceso privado a Google como Activado.
Haz clic en Listo.
Haz clic en Crear.
Cree un clúster privado
Ve a la página de Google Kubernetes Engine en la consola de Google Cloud.
Haz clic en
Crear y, luego, en la sección Standard o Autopilot, haz clic en Configurar.En Nombre, especifica
private-cluster-0
.En el panel de navegación, haga clic en Herramientas de redes.
En la lista Red, selecciona my-net-0.
En la lista Subred del nodo, selecciona my-subnet-0.
Selecciona el botón de selección Clúster privado.
Desmarca la casilla de verificación Permitir el acceso al plano de control mediante su dirección IP externa.
(Opcional para Autopilot): Configura el Rango de IP del plano de control como
172.16.0.32/28
.Haz clic en Crear.
gcloud
Para los clústeres Autopilot, ejecuta el siguiente comando:
gcloud container clusters create-auto private-cluster-0 \ --create-subnetwork name=my-subnet-0 \ --enable-master-authorized-networks \ --enable-private-nodes \ --enable-private-endpoint
Para los clústeres estándar, ejecuta el siguiente comando:
gcloud container clusters create private-cluster-0 \ --create-subnetwork name=my-subnet-0 \ --enable-master-authorized-networks \ --enable-ip-alias \ --enable-private-nodes \ --enable-private-endpoint \ --master-ipv4-cidr 172.16.0.32/28
Donde:
--create-subnetwork name=my-subnet-0
hace que GKE cree de forma automática una subred llamadamy-subnet-0
.--enable-master-authorized-networks
especifica que el acceso al extremo público está restringido a los rangos de direcciones IP que autorices.
--enable-ip-alias
hace que el clúster sea nativo de VPC (no es necesario para Autopilot).
--enable-private-nodes
indica que los nodos del clúster no tienen direcciones IP externas.--enable-private-endpoint
indica que el clúster se administra mediante la dirección IP interna del extremo de la API del plano de control.
--master-ipv4-cidr 172.16.0.32/28
especifica un rango de direcciones IP internas para el plano de control (opcional para Autopilot). Esta configuración es permanente para este clúster y debe ser única dentro de la VPC. Se admite el uso de direcciones IP internas que no sean RFC 1918.
API
Para crear un clúster con un plano de control accesible de forma pública, especifica el campo enablePrivateEndpoint: true
en el recurso privateClusterConfig
.
En este punto, estas son las únicas direcciones IP que tienen acceso al plano de control:
- El rango principal de
my-subnet-0
- El rango secundario que se usa para los pods
Por ejemplo, supongamos que creaste una VM en el rango primario de my-subnet-0
.
Luego, en esa VM, puedes configurar kubectl
para usar la dirección IP interna del plano de control.
Si deseas acceder al plano de control desde fuera de my-subnet-0
, debes autorizar al menos un rango de direcciones para que tenga acceso al extremo privado.
Supongamos que tienes una VM que está en la red predeterminada, en la misma región que tu clúster, pero no en my-subnet-0
.
Por ejemplo:
my-subnet-0
:10.0.0.0/22
- Rango secundario del pod:
10.52.0.0/14
- Dirección de la VM:
10.128.0.3
Si deseas autorizar a la VM para que acceda al plano de control, ejecuta el siguiente comando:
gcloud container clusters update private-cluster-0 \
--enable-master-authorized-networks \
--master-authorized-networks 10.128.0.3/32
Crea un clúster privado con acceso limitado al extremo público
Cuando creas un clúster privado con esta configuración, puedes optar por usar una subred generada automáticamente o una subred personalizada.
Usa una subred generada automáticamente
En esta sección, crearás un clúster privado llamado private-cluster-1
en el que GKE generará de forma automática una subred para los nodos de clúster.
La subred tiene habilitado el acceso privado a Google. GKE crea automáticamente dos rangos secundarios en la subred: Uno para los pods y otro para los servicios.
Puedes usar Google Cloud CLI o la API de GKE.
gcloud
Para los clústeres Autopilot, ejecuta el siguiente comando:
gcloud container clusters create-auto private-cluster-1 \ --create-subnetwork name=my-subnet-1 \ --enable-master-authorized-networks \ --enable-private-nodes
Para los clústeres estándar, ejecuta el siguiente comando:
gcloud container clusters create private-cluster-1 \ --create-subnetwork name=my-subnet-1 \ --enable-master-authorized-networks \ --enable-ip-alias \ --enable-private-nodes \ --master-ipv4-cidr 172.16.0.0/28
Donde:
--create-subnetwork name=my-subnet-1
hace que GKE cree de forma automática una subred llamadamy-subnet-1
.--enable-master-authorized-networks
especifica que el acceso al extremo público está restringido a los rangos de direcciones IP que autorices.
--enable-ip-alias
hace que el clúster sea nativo de VPC (no es necesario para Autopilot).
--enable-private-nodes
indica que los nodos del clúster no tienen direcciones IP externas.
--master-ipv4-cidr 172.16.0.0/28
especifica un rango de direcciones IP internas para el plano de control (opcional para Autopilot). Esta configuración es permanente para este clúster y debe ser única dentro de la VPC. Se admite el uso de direcciones IP internas que no sean RFC 1918.
API
Especifica el campo privateClusterConfig
en el recurso de la API de Cluster
:
{
"name": "private-cluster-1",
...
"ipAllocationPolicy": {
"createSubnetwork": true,
},
...
"privateClusterConfig" {
"enablePrivateNodes": boolean # Creates nodes with internal IP addresses only
"enablePrivateEndpoint": boolean # false creates a cluster control plane with a publicly-reachable endpoint
"masterIpv4CidrBlock": string # CIDR block for the cluster control plane
"privateEndpoint": string # Output only
"publicEndpoint": string # Output only
}
}
En este punto, estas son las únicas direcciones IP que tienen acceso al plano de control del clúster:
- El rango principal de
my-subnet-1
- El rango secundario que se usa para los pods
Supongamos que tienes un grupo de máquinas fuera de tu red de VPC que tienen direcciones en el rango 203.0.113.0/29
. Si deseas autorizar a esas máquinas a que accedan al extremo público, ejecuta este comando:
gcloud container clusters update private-cluster-1 \
--enable-master-authorized-networks \
--master-authorized-networks 203.0.113.0/29
Ahora estas son las únicas direcciones IP que tienen acceso al plano de control:
- El rango principal de
my-subnet-1
- El rango secundario que se usa para los pods
- Los rangos de direcciones autorizados, por ejemplo,
203.0.113.0/29
.
Usa una subred personalizada
En esta sección, crearás los siguientes recursos:
- Un clúster privado llamado
private-cluster-2
. - Una red llamada
my-net-2
. - Una subred llamada
my-subnet-2
, con rango primario192.168.0.0/20
, para tus nodos de clúster. Tu subred tiene los siguientes rangos de direcciones secundarios:my-pods
para las direcciones IP del pod.my-services
para las direcciones IP de servicio.
Console
Crea una red, una subred y rangos secundarios
Ve a la página Redes de VPC en la consola de Google Cloud.
Haga clic en add_box Crear red de VPC.
En Nombre, ingresa
my-net-2
.En Modo de creación de subred, selecciona Personalizado.
Dentro de la sección Subred nueva, en Nombre, ingresa
my-subnet-2
.En la lista Región, selecciona la región que deseas.
En Rango de direcciones IP, ingresa
192.168.0.0/20
.Haz clic en Crear rango de IP secundario. En Nombre de rango de subred, ingresa
my-services
y, en Rango de IP secundario , ingresa10.0.32.0/20
.Haz clic en Agregar rango de IP. En Nombre de rango de subred, ingresa
my-pods
y, en Rango de IP secundario, ingresa10.4.0.0/14
.Configura el Acceso privado a Google como Activado.
Haz clic en Listo.
Haz clic en Crear.
Cree un clúster privado
Crea un clúster privado que use tu subred:
Ve a la página de Google Kubernetes Engine en la consola de Google Cloud.
Haz clic en
Crear y, luego, en la sección Standard o Autopilot, haz clic en Configurar.En Nombre, ingresa
private-cluster-2
.En el panel de navegación, haz clic en Herramientas de redes.
Selecciona el botón de selección Clúster privado.
Para crear un plano de control accesible desde los rangos de IP externos autorizados, mantén seleccionada la casilla de verificación Permitir el acceso al plano con su dirección IP externa.
(Opcional para Autopilot): Configura el Rango de IP del plano de control como
172.16.0.16/28
.En la lista Red, selecciona my-net-2.
En la lista Subred del nodo, selecciona my-subnet-2.
Desmarca la casilla de verificación Crear rangos secundarios automáticamente.
En la lista Rango de CIDR secundario del pod, selecciona my-pods.
En la lista Rango de CIDR secundario de Services, selecciona my-services.
Selecciona la casilla de verificación Habilitar redes autorizadas del plano de control.
Haz clic en Crear.
gcloud
Crea una red
Primero, crea una red para el clúster. El siguiente comando crea una red, my-net-2
:
gcloud compute networks create my-net-2 \
--subnet-mode custom
Crea una subred y rangos secundarios
Luego, crea una subred, my-subnet-2
, en la red my-net-2
, con rangos secundarios my-pods
para pods y my-services
para servicios:
gcloud compute networks subnets create my-subnet-2 \
--network my-net-2 \
--range 192.168.0.0/20 \
--secondary-range my-pods=10.4.0.0/14,my-services=10.0.32.0/20 \
--enable-private-ip-google-access
Cree un clúster privado
Ahora, crea un clúster privado, private-cluster-2
, con la red, la subred y los rangos secundarios que creaste.
Para los clústeres Autopilot, ejecuta el siguiente comando:
gcloud container clusters create-auto private-cluster-2 \ --enable-master-authorized-networks \ --network my-net-2 \ --subnetwork my-subnet-2 \ --cluster-secondary-range-name my-pods \ --services-secondary-range-name my-services \ --enable-private-nodes
Para los clústeres estándar, ejecuta el siguiente comando:
gcloud container clusters create private-cluster-2 \ --enable-master-authorized-networks \ --network my-net-2 \ --subnetwork my-subnet-2 \ --cluster-secondary-range-name my-pods \ --services-secondary-range-name my-services \ --enable-private-nodes \ --enable-ip-alias \ --master-ipv4-cidr 172.16.0.16/28 \ --no-enable-basic-auth \ --no-issue-client-certificate
En este punto, estas son las únicas direcciones IP que tienen acceso al plano de control:
- El rango principal de
my-subnet-2
- El rango secundario de
my-pods
Supongamos que tienes un grupo de máquinas fuera de my-net-2
, que tienen direcciones en el rango 203.0.113.0/29
. Si deseas autorizar a esas máquinas a que accedan al extremo público, ejecuta este comando:
gcloud container clusters update private-cluster-2 \
--enable-master-authorized-networks \
--master-authorized-networks 203.0.113.0/29
En este punto, estas son las únicas direcciones IP que tienen acceso al plano de control:
- El rango principal de
my-subnet-2
- El rango secundario de
my-pods
- Los rangos de direcciones autorizados, por ejemplo,
203.0.113.0/29
.
Usa Cloud Shell para acceder a un clúster privado
El clúster privado que creaste en la sección Usa una subred generada de forma automática, private-cluster-1
, tiene un extremo público y tiene habilitadas las redes autorizadas. Si deseas usar Cloud Shell para acceder al clúster, debes agregar la dirección IP externa de Cloud Shell a la lista de redes autorizadas del clúster.
Para ello, siga estos pasos:
En la ventana de línea de comandos de Cloud Shell, usa
dig
para encontrar la dirección IP externa de tu Cloud Shell:dig +short myip.opendns.com @resolver1.opendns.com
Agrega la dirección externa de Cloud Shell a la lista de redes autorizadas del clúster:
gcloud container clusters update private-cluster-1 \ --enable-master-authorized-networks \ --master-authorized-networks EXISTING_AUTH_NETS,SHELL_IP/32
Reemplaza lo siguiente:
EXISTING_AUTH_NETS
: Son las direcciones IP de tu lista existente de redes autorizadas. Puedes encontrar las redes autorizadas en Console o mediante la ejecución del siguiente comando:gcloud container clusters describe private-cluster-1 --format "flattened(masterAuthorizedNetworksConfig.cidrBlocks[])"
SHELL_IP
: Es la dirección IP externa de tu Cloud Shell.
Obtén credenciales de modo que puedas usar
kubectl
para acceder al clúster:gcloud container clusters get-credentials private-cluster-1 \ --project=PROJECT_ID \ --internal-ip
Reemplaza
PROJECT_ID
con el ID del proyecto.Usa
kubectl
en Cloud Shell para acceder al clúster privado:kubectl get nodes
El resultado es similar a este:
NAME STATUS ROLES AGE VERSION gke-private-cluster-1-default-pool-7d914212-18jv Ready <none> 104m v1.21.5-gke.1302 gke-private-cluster-1-default-pool-7d914212-3d9p Ready <none> 104m v1.21.5-gke.1302 gke-private-cluster-1-default-pool-7d914212-wgqf Ready <none> 104m v1.21.5-gke.1302
Crea un clúster privado con acceso ilimitado al extremo público
En esta sección, crearás un clúster privado en el que cualquier dirección IP pueda acceder al plano de control.
Console
Ve a la página de Google Kubernetes Engine en la consola de Google Cloud.
Haz clic en
Crear y, luego, en la sección Standard o Autopilot, haz clic en Configurar.En Nombre, ingresa
private-cluster-3
.En el panel de navegación, haga clic en Herramientas de redes.
Selecciona la opción Clúster privado.
Deja seleccionada la casilla de verificación Permitir el acceso al plano de control mediante su dirección IP externa.
(Opcional para Autopilot): Configura el Rango de IP del plano de control como
172.16.0.32/28
.Deja la Red y la Subred del nodo establecidas en
default
. Esto hace que GKE genere una subred para el clúster.Desmarca la casilla de verificación Habilitar redes autorizadas del plano de control.
Haz clic en Crear.
gcloud
Para los clústeres Autopilot, ejecuta el siguiente comando:
gcloud container clusters create-auto private-cluster-3 \ --create-subnetwork name=my-subnet-3 \ --no-enable-master-authorized-networks \ --enable-private-nodes
Para los clústeres estándar, ejecuta el siguiente comando:
gcloud container clusters create private-cluster-3 \ --create-subnetwork name=my-subnet-3 \ --no-enable-master-authorized-networks \ --enable-ip-alias \ --enable-private-nodes \ --master-ipv4-cidr 172.16.0.32/28
Donde:
--create-subnetwork name=my-subnet-3
hace que GKE cree de forma automática una subred llamadamy-subnet-3
.--no-enable-master-authorized-networks
inhabilita las redes autorizadas para el clúster.
--enable-ip-alias
hace que el clúster sea nativo de VPC (no es necesario para Autopilot).
--enable-private-nodes
indica que los nodos del clúster no tienen direcciones IP externas.
--master-ipv4-cidr 172.16.0.32/28
especifica un rango de direcciones IP internas para el plano de control (opcional para Autopilot). Esta configuración es permanente para este clúster y debe ser única dentro de la VPC. Se admite el uso de direcciones IP internas que no sean RFC 1918.
Agrega reglas de firewall para casos prácticos específicos
En esta sección, se explica cómo agregar una regla de firewall a un clúster privado. De forma predeterminada, las reglas de firewall restringen el plano de control del clúster para iniciar solo conexiones TCP a los nodos y Pods en los puertos 443
(HTTPS) y 10250
(kubelet).
Para algunas características de Kubernetes, es posible que debas agregar reglas de firewall a fin de permitir el acceso a puertos adicionales. No crees reglas de firewall ni reglas de políticas
de firewall
jerárquicas
que tengan una prioridad
más alta que las
reglas de firewall creadas
automáticamente.
Entre las funciones de Kubernetes que requieren reglas de firewall adicionales, se incluyen las siguientes:
- Webhooks de admisión
- Servidores de API agregados
- Conversión de webhooks
- Configuración de auditoría dinámica
- Por lo general, cualquier API que tenga un campo ServiceReference requiere reglas de firewall adicionales
Agregar una regla de firewall permite el tráfico del plano de control del clúster a todos los siguientes puertos:
- El puerto especificado de cada nodo (hostPort)
- El puerto especificado de cada pod que se ejecuta en estos nodos.
- El puerto especificado de cada servicio que se ejecuta en estos nodos
Para obtener más información, consulta Reglas de firewall en la documentación de Cloud Load Balancing.
Si deseas agregar una regla de firewall a un clúster privado, debes registrar el bloque CIDR del plano de control del clúster y el destino que se usó. Después de grabar esto, puedes crear la regla.
Paso 1: Visualiza el bloque CIDR del plano de control
El bloque CIDR del plano de control del clúster es necesario para agregar una regla de firewall.
Console
Ve a la página de Google Kubernetes Engine en la consola de Google Cloud.
En la lista de clústeres, haz clic en el nombre.
En la pestaña Detalles, en Herramientas de redes, anota el valor en el campo Rango de direcciones del plano de control.
gcloud
Ejecuta el siguiente comando:
gcloud container clusters describe CLUSTER_NAME
Reemplaza CLUSTER_NAME
por el nombre de tu clúster privado.
En el resultado del comando, anota el valor en el campo masterIpv4CidrBlock.
Paso 2: Cómo ver las reglas de firewall existentes
Debes especificar el destino (en este caso, los nodos de destino) que usan las reglas de firewall existentes del clúster.
Console
Ve a la página de políticas de firewall en la consola de Google Cloud.
En Tabla de filtro, en Reglas de firewall de VPC, ingresa
gke-CLUSTER_NAME
.
En los resultados, anota el valor en el campo Destinos.
gcloud
Ejecuta el siguiente comando:
gcloud compute firewall-rules list \
--filter 'name~^gke-CLUSTER_NAME' \
--format 'table(
name,
network,
direction,
sourceRanges.list():label=SRC_RANGES,
allowed[].map().firewall_rule().list():label=ALLOW,
targetTags.list():label=TARGET_TAGS
)'
En el resultado del comando, anota el valor en el campo Destinos.
Paso 3: Agrega una regla de firewall
Console
Ve a la página de políticas de firewall en la consola de Google Cloud.
Haga clic en add_box Crear regla de firewall.
En Nombre, ingresa el nombre de la regla de firewall.
En la lista Red, selecciona la red que corresponda.
En Dirección del tráfico, haz clic en Ingress.
En Acción en caso de coincidencia, haz clic en Permitir.
En la lista Destinos, selecciona Etiquetas de destino especificadas.
En Etiquetas de destino, ingresa el valor de destino que anotaste antes.
En la lista Filtro de fuente, selecciona Rangos de IPv4.
En Rangos de IPv4 de origen, ingresa el bloque CIDR del plano de control del clúster.
En Protocolos y puertos, haz clic en Protocolos y puertos especificados, selecciona la casilla de verificación para el protocolo relevante (tcp oudp ) y, luego, ingresa el número de puerto en el campo del protocolo.
Haz clic en Crear.
gcloud
Ejecuta el comando siguiente:
gcloud compute firewall-rules create FIREWALL_RULE_NAME \
--action ALLOW \
--direction INGRESS \
--source-ranges CONTROL_PLANE_RANGE \
--rules PROTOCOL:PORT \
--target-tags TARGET
Reemplaza lo siguiente:
FIREWALL_RULE_NAME
: Es el nombre que elegiste para la regla de firewall.CONTROL_PLANE_RANGE
: Es el rango de direcciones IP del plano de control del clúster (masterIpv4CidrBlock
) que obtuviste en el paso anterior.PROTOCOL:PORT
: Es el puerto y su protocolo,tcp
oudp
.TARGET
: Es el valor de destino (Targets
) que recopilaste antes.
Verifica que los nodos no tengan direcciones IP externas
Después de crear un clúster privado, verifica que los nodos del clúster no tengan direcciones IP externas.
Console
Ve a la página de Google Kubernetes Engine en la consola de Google Cloud.
En la lista de clústeres, haz clic en el nombre del clúster.
Para los clústeres de Autopilot, en la sección Conceptos básicos del clúster, marca el campo Extremo externo. El valor es Inhabilitado.
Para los clústeres de Standard, haz lo siguiente:
- En la página Clústeres, haz clic en la pestaña Nodos.
- En Grupos de nodos, haz clic en el nombre del grupo de nodos.
- En la página de detalles del grupo de nodos, en Grupos de instancias, haz clic en el nombre de tu grupo de instancias. Por ejemplo, gke-private-cluster-0-default-pool-5c5add1f-grp`.
- En la lista de instancias, verifica que las instancias no tengan direcciones IP externas.
gcloud
Ejecuta el siguiente comando:
kubectl get nodes --output wide
La columna EXTERNAL-IP
del resultado está vacía:
STATUS ... VERSION EXTERNAL-IP OS-IMAGE ...
Ready v.8.7-gke.1 Container-Optimized OS
Ready v1.8.7-gke.1 Container-Optimized OS
Ready v1.8.7-gke.1 Container-Optimized OS
Verifica la reutilización del intercambio de tráfico de VPC en el clúster
Todos los clústeres privados que crees después del 15 de enero de 2020 vuelven a usar las conexiones del intercambio de tráfico entre redes de VPC.
Puedes comprobar si tu clúster privado vuelve a usar las conexiones de intercambio de tráfico de red de VPC mediante la CLI de gcloud o la consola de Google Cloud.
Console
Verifica la fila del intercambio de tráfico de VPC en la página de detalles del clúster. Si tu clúster vuelve a usar conexiones de intercambio de tráfico de VPC, el resultado comenzará con gke-n
.
Por ejemplo, gke-n34a117b968dee3b2221-93c6-40af-peer
.
gcloud
gcloud container clusters describe CLUSTER_NAME \
--format="value(privateClusterConfig.peeringName)"
Si tu clúster vuelve a usar conexiones de intercambio de tráfico de VPC, el resultado comenzará con gke-n
. Por ejemplo, gke-n34a117b968dee3b2221-93c6-40af-peer
Libera espacio
Después de completar las tareas de esta página, sigue estos pasos para quitar los recursos a continuación y evitar que se hagan cargos no deseados a tu cuenta:
Borra los clústeres
Console
Ve a la página de Google Kubernetes Engine en la consola de Google Cloud.
Selecciona cada clúster.
Haz clic en delete Borrar.
gcloud
gcloud container clusters delete -q private-cluster-0 private-cluster-1 private-cluster-2 private-cluster-3
Borra la red
Console
Ve a la página Redes de VPC en la consola de Google Cloud.
En la lista de redes, haz clic en
my-net-0
.En la página de detalles de la red de VCP, haz clic en delete Borrar red de VPC.
En el diálogo Borrar una red, haz clic en Borrar.
gcloud
gcloud compute networks delete my-net-0
¿Qué sigue?
- Obtén información acerca de los parámetros de configuración avanzada con clústeres privados.
- Obtén información para crear clústeres nativos de VPC.
- Obtén más información sobre el intercambio de tráfico entre redes de VPC.