Solución de problemas

Esta guía para solucionar problemas puede ayudarte a resolver los problemas habituales que pueden surgir al usar Cloud Interconnect:

Para obtener respuestas a preguntas frecuentes sobre la arquitectura y las funciones de Cloud Interconnect, consulta las preguntas frecuentes de Cloud Interconnect.

Para ver las definiciones de los términos que se usan en esta página, consulta los términos clave de Cloud Interconnect.

Para encontrar información de registro y monitorización, y ver las métricas de Cloud Interconnect, consulta Monitorizar conexiones.

Solucionar problemas generales

Comprobar si hay interrupciones del servicio Cloud Interconnect

  • Puedes consultar las interrupciones conocidas en el Google Cloud panel de estado. También puedes suscribirte a los feeds JSON o RSS para recibir notificaciones push sobre incidentes de Cloud.

  • Se te notifican los eventos de mantenimiento que afectan a tus conexiones de interconexión dedicada. Para obtener más información, consulta Eventos de mantenimiento de la infraestructura.

  • Se te notifican los eventos de mantenimiento que afectan a tus vinculaciones de VLAN de Partner Interconnect. Las notificaciones de Partner Interconnect se envían de forma similar a las de las conexiones de Interconexión dedicada, aunque con algunas pequeñas diferencias. Para obtener más información, consulta el artículo Eventos de mantenimiento de la infraestructura.

No se puede conectar a recursos de otras regiones

De forma predeterminada, las redes de nube privada virtual (VPC) son regionales, lo que significa que Cloud Router solo anuncia las subredes de su región. Para conectarte a otras regiones, define el modo de enrutamiento dinámico de tu red de VPC como global para que Cloud Router pueda anunciar todas las subredes.

Para obtener más información, consulta el modo de enrutamiento dinámico en la documentación de Cloud Router.

No se puede acceder a las VMs de una red de VPC emparejada

En este caso, has configurado una conexión de Cloud Interconnect entre tu red on-premise y una red de VPC, red A. También has configurado el emparejamiento entre redes de VPC entre la red A y otra red de VPC, la red B. Sin embargo, no puedes acceder a las máquinas virtuales de la red B desde tu red local.

Esta configuración no se admite, tal como se describe en las restricciones del artículo sobre el emparejamiento entre redes de VPC.

Sin embargo, puedes usar anuncios de intervalos de IP personalizados de Cloud Routers en tu red de VPC para compartir rutas a destinos de la red de peer. Además, debes configurar tus conexiones de emparejamiento entre redes de VPC para importar y exportar rutas personalizadas.

Para obtener más información sobre las rutas publicitadas entre redes locales y redes emparejadas de VPC, consulta los siguientes recursos:

Faltan subredes en una conexión

Para anunciar todas las subredes disponibles, especifica las rutas que faltan con rutas anunciadas personalizadas y anuncia todas las rutas de subred entre regiones con el enrutamiento dinámico global. Para ello, siga estos pasos:

  1. Especifica rutas anunciadas personalizadas tanto en un router de Cloud Router como en la sesión del protocolo de pasarela fronteriza (BGP).

    Para introducir las rutas que faltan, define los siguientes parámetros:

    --set-advertisement-groups = ADVERTISED_GROUPS
    --set-advertisement-ranges = ADVERTISED_IP_RANGES
    

    Haz los cambios siguientes:

    • ADVERTISED_GROUPS: grupo definido por Google que anuncia Cloud Router de forma dinámica. Puede tener el valor all_subnets, que imita el comportamiento predeterminado de un Cloud Router.
    • ADVERTISED_IP_RANGES: el contenido del nuevo array de intervalos de direcciones IP. Puede tener uno o varios valores de tu elección.

    Para obtener más información y ejemplos, consulte Anunciar intervalos de IP personalizados.

  2. Habilita el modo de enrutamiento dinámico global.

No se puede hacer ping a Cloud Router

Si no puedes hacer ping al router de Cloud desde tu router local, busca tu producto en la siguiente tabla y sigue los pasos para solucionar el problema. Las VMs no pueden acceder a 169.254.0.0/16.

Pasos para solucionar el problema Interconexión dedicada Partner Interconnect con un partner de nivel 3 Partner Interconnect con un partner de nivel 2
En el caso de Partner Interconnect, es posible que nunca se pueda hacer ping a Cloud Router porque algunos partners filtran el tráfico a la intervalo de IPs (169.254.0.0/16) de Cloud Router. En el caso de los partners de nivel 3, el partner configura automáticamente BGP. Si BGP no se activa, ponte en contacto con tu partner. No aplicable No aplicable
Verifica que tu dispositivo local haya aprendido la dirección MAC correcta del lado Google Cloud de la conexión. Para obtener más información, consulta Solucionar problemas de ARP. No aplicable No aplicable
Comprueba que tu Cloud Router tenga una interfaz y un par de BGP. No se puede hacer ping a Cloud Router a menos que la interfaz y el par de BGP estén completamente configurados, incluido el ASN remoto.
  • En el caso de las interconexiones dedicadas, consulta La sesión BGP no funciona.
  • En el caso de Partner Interconnect de capa 2, Google ha añadido automáticamente la interfaz y el par BGP de Cloud Router, pero debes configurar el ASN remoto.
No aplicable

Solucionar problemas de ARP

En el caso de Interconexión Dedicada, para encontrar la dirección MAC correcta, ejecuta el siguiente comando gcloud:

  gcloud compute interconnects get-diagnostics INTERCONNECT_NAME

El googleSystemID contiene la dirección MAC que debe estar presente en la tabla ARP de tu dispositivo para las direcciones IP asignadas a Cloud Router.

  result:
    links:
    — circuitId: SAMPLE-0
      googleDemarc: sample-local-demarc-0
      lacpStatus:
        googleSystemId: ''
        neighborSystemId: ''
        state: DETACHED
      receivingOpticalPower:
        value: 0.0
      transmittingOpticalPower:
        value: 0.0
    macAddress: 00:00:00:00:00:00

Si tu dispositivo no ha aprendido una dirección MAC, comprueba que el ID de VLAN y la dirección IP correctos estén configurados en la subinterfaz.

En el caso de Partner Interconnect, si ves una dirección MAC incorrecta en tu dispositivo, comprueba que no hayas puenteado los segmentos de capa 2 de dos vinculaciones de VLAN. El Google Cloud lado de la conexión de Cloud Interconnect está configurado con ip proxy-arp, que responde a todas las solicitudes ARP y puede provocar que tu router local aprenda entradas ARP incorrectas.

No se puede crear la vinculación de VLAN

Si intentas crear una vinculación de VLAN para una interconexión dedicada o una interconexión de partner que infringe una política de la organización, verás un mensaje de error. Consulta el siguiente ejemplo de mensaje de error al ejecutar gcloud compute interconnects attachments partner create:

ERROR: (gcloud.compute.interconnects.attachments.partner.create) Could not fetch resource:
- Constraint constraints/compute.restrictPartnerInterconnectUsage violated for projects/example-project. projects/example-project/global/networks/example-network is not allowed to use the Partner Interconnect.

Para obtener más información, consulta Restringir el uso de Cloud Interconnect y Usar políticas de organización personalizadas, y ponte en contacto con el administrador de tu organización.

Compartir conexiones con otros proyectos de mi organización

Usa la VPC compartida para compartir una conexión, como una vinculación de VLAN o una conexión de Interconnect dedicada, en un proyecto del host.

Para obtener más información sobre cómo configurar una red de VPC compartida, consulta Aprovisionar VPC compartida.

Para obtener más información sobre cómo configurar adjuntos en una red de VPC compartida, consulta Opciones para conectarse a varias redes de VPC.

Interconexión dedicada

Google no puede enviarte un ping durante el proceso de aprovisionamiento de la conexión

Comprueba que estés usando la configuración de IP y LACP correcta. Durante el proceso de prueba, Google te envía diferentes configuraciones de IP de prueba para tu router local, en función de si pides un paquete de varios enlaces o de un solo enlace. No configure vinculaciones de VLAN para ninguna de estas pruebas.

  • El primer conjunto de direcciones IP que envía Google es para probar la conectividad multicanal en cada enlace. Configure las direcciones IP de prueba en todos los enlaces físicos (sin LACP configurado) siguiendo las instrucciones de los correos que le ha enviado Google. Google debe hacer ping a todas las direcciones IP correctamente para que se supere esta primera prueba.
  • En la segunda prueba, elimina todas las direcciones IP de la primera. Configura el canal de puerto con LACP aunque tu conexión solo tenga un enlace. Google hace ping a la dirección del canal del puerto. No modifiques la configuración de LACP de tu canal de puerto después de que la conexión haya superado la prueba final. Sin embargo, debes eliminar la dirección IP de prueba de la interfaz del canal de puerto.
  • Google envía la dirección IP de producción final para probar la conectividad de un solo circuito. Configura la dirección IP en la interfaz del paquete (con LACP configurado, ya sea en modo activo o pasivo), tal como se indica en el correo que te ha enviado Google. Google debe hacer ping a la dirección IP de la interfaz del paquete correctamente para que esta prueba se supere. Configura el canal de puerto con LACP, aunque tu conexión solo tenga un enlace.

No se puede hacer ping a Cloud Router

  • Comprueba que puedes hacer ping a la dirección IP del canal de puerto de Google. La dirección IP es el valor googleIpAddress cuando consultas los detalles de la conexión.
  • Comprueba que tengas la VLAN correcta en la subinterfaz de tu router local. La información de la VLAN debe coincidir con la que proporciona la vinculación de VLAN.
  • Comprueba que tengas la dirección IP correcta en la subinterfaz de tu router local. Cuando creas una vinculación de VLAN, se asigna un par de direcciones IP locales de enlace. Una es para una interfaz de un Cloud Router (cloudRouterIpAddress) y la otra es para una subinterfaz del canal de puerto de tu router local, no para el canal de puerto en sí (customerRouterIpAddress).
  • Si estás probando el rendimiento de tus vinculaciones de VLAN, no hagas ping al Cloud Router. En su lugar, crea y usa una instancia de máquina virtual (VM) de Compute Engine en tu red de VPC. Para obtener más información, consulta Pruebas de rendimiento.

La sesión de BGP no funciona

  • Habilita el BGP de varios saltos en tu router on-premise con al menos dos saltos.
  • Comprueba que tengas configurada la dirección IP del vecino correcta en tu router local. Usa la dirección IP de par BGP (cloudRouterIpAddress) que ha asignado la vinculación de VLAN.
  • Comprueba que la configuración del ASN local de tu router on-premise coincida con el ASN de par del Cloud Router. Además, comprueba que la configuración del ASN local del router de Cloud coincida con el ASN de par de tu router local.
  • A cada adjunto se le asigna un CIDR /29 único de 169.254.0.0/16 dentro de tu red de VPC. Una dirección IP del CIDR /29 se asigna a Cloud Router y la otra, a tu router local.

    Comprueba que se hayan asignado las direcciones IP correctas a la interfaz de tu router local y a su vecino BGP. Es un error habitual configurar una /30 en la interfaz del router local en lugar de una /29. Google Cloud reserva todas las demás direcciones de la CIDR /29.

    Asegúrate de que no has asignado ninguna otra dirección IP de este CIDR a la interfaz de la vinculación de VLAN de tu router.

No se puede acceder a las VMs de tu red de VPC

  • Comprueba que puedes hacer ping al canal de puerto y a la vinculación de VLAN.
  • Comprueba que tu sesión de BGP esté activa.
  • Comprueba que tu router local esté anunciando y recibiendo rutas.
  • Comprueba que no haya solapamientos entre tus anuncios de rutas on-premise y los intervalos de red. Google Cloud
  • Define el tamaño de MTU con los mismos valores para el router on-premise, la VPC y la vinculación de VLAN.

El tráfico IPv6 no pasa por la vinculación de VLAN

Si tienes problemas para conectarte a hosts IPv6, haz lo siguiente:

  1. Verifica que las rutas IPv6 se anuncian correctamente. Si no se anuncian rutas IPv6, consulta Solucionar problemas de rutas BGP y selección de rutas.
  2. Inspecciona las reglas de cortafuegos para asegurarte de que permites el tráfico IPv6.
  3. Comprueba que no haya intervalos de subredes IPv6 superpuestos en tu red de VPC y en tu red local. Consulta Comprobar rangos de subred superpuestos.
  4. Determina si has superado alguna cuota o límite de las rutas aprendidas en Cloud Router. Si has superado tu cuota de rutas aprendidas, los prefijos IPv6 se eliminan antes que los prefijos IPv4. Consulta Comprobar cuotas y límites.
  5. Verifica que todos los componentes relacionados con la configuración de IPv6 se hayan configurado correctamente.

    • La red de VPC ha habilitado el uso de direcciones IPv6 internas con la marca --enable-ula-internal-ipv6.
    • La subred de VPC está configurada para usar el tipo de pila IPV4_IPV6.
    • La subred de VPC tiene el valor --ipv6-access-type en INTERNAL.
    • Las VMs de Compute Engine de la subred están configuradas con direcciones IPv6.
    • La vinculación de VLAN está configurada para usar el tipo de pila IPV4_IPV6.
    • El peer de BGP ha habilitado IPv6 y se han configurado las direcciones IPv6 correctas del siguiente salto para la sesión de BGP.

Pruebas de rendimiento en tus vinculaciones de VLAN

Si necesitas probar el rendimiento de tus vinculaciones de VLAN, usa una VM en tu red de VPC. Añade las herramientas de rendimiento que necesites en la VM. No utilices la dirección IP local con un enlace de Cloud Router para probar la latencia, como el ping ICMP o la MTU de la ruta. Usar Cloud Router puede dar resultados impredecibles.

Obtener diagnósticos

Para obtener información técnica detallada y actualizada sobre el Google Cloud lado de una conexión de interconexión dedicada bajo demanda, consulta Obtener diagnósticos.

Partner Interconnect

La sesión de BGP no funciona (conexiones de capa 2)

  • Comprueba que tu router on-premise se haya configurado con una sesión de BGP en tus Cloud Routers. Para obtener más información, consulta el artículo Configurar routers locales para Partner Interconnect.
  • Habilita el BGP de varios saltos en tu router on-premise con al menos dos saltos.
  • Comprueba que tengas configurada la dirección IP del vecino correcta en tu router local. Usa la dirección IP de par BGP (cloudRouterIpAddress) que ha asignado la vinculación de VLAN.
  • Comprueba que la configuración del ASN local de tu router local coincida con el ASN de par del router de Cloud (16550). Además, comprueba que la configuración del ASN local del router de Cloud coincida con el ASN de par de tu router local.

La sesión de BGP no funciona (conexiones de capa 3)

  • Tu Cloud Router debe configurarse con el ASN de tu proveedor de servicios. Ponte en contacto con tu proveedor de servicios para obtener ayuda.

Vinculación de VLAN inactiva en una conexión de Partner Interconnect

El estado de una vinculación de VLAN puede mostrarse como inactivo aunque no haya problemas con laGoogle Cloud configuración ni con la conexión de Partner Interconnect.

Asegúrate de haber configurado el multihop de EBGP en tu router on-premise para que tenga al menos cuatro saltos. Puedes ver un ejemplo de configuración en Configurar routers on-premise.

Problema con la clave de emparejamiento en una conexión de Partner Interconnect

Cuando intentas configurar una conexión Partner Interconnect, es posible que aparezca un mensaje de error como "Estado de Google - Proveedor no disponible". Para solucionar este problema, sigue estos pasos:

  1. Asegúrate de que la clave de emparejamiento se haya generado mediante la vinculación de VLAN del lado del cliente (tipo PARTNER). La clave es una cadena aleatoria larga que Google usa para identificar el archivo adjunto. La región de destino Google Cloud y el dominio de disponibilidad de la periferia se codifican en la clave de emparejamiento con el siguiente formato:

    <random_string>/<region_name>/<domain>
    

    El campo domain contiene la cadena any si la vinculación de VLAN no está restringida a un dominio concreto o si no especifica el dominio de disponibilidad de borde. Para obtener más información sobre las claves de emparejamiento, consulta Clave de emparejamiento.

  2. Asegúrate de que el dominio de disponibilidad de la periferia de la conexión de Interconnect de partner coincida con el dominio especificado por la clave de emparejamiento.

No se puede hacer ping a Cloud Router (conexiones de capa 2)

  • Comprueba que tengas el archivo adjunto de VLAN correcto en la subinterfaz de tu router local. La información de la vinculación de VLAN debe coincidir con la que te haya proporcionado tu proveedor de servicios.
  • Comprueba que tengas la dirección IP correcta en la subinterfaz de tu router local. Una vez que tu proveedor de servicios haya configurado tu vinculación de VLAN, la vinculación asignará un par de direcciones IP locales de enlace. Una es para una interfaz en el Cloud Router asociado (cloudRouterIpAddress) y la otra es para una subinterfaz en el canal de puerto de tu router local, no para el propio canal de puerto (customerRouterIpAddress).
  • Si estás probando el rendimiento de tus adjuntos, no hagas ping a Cloud Router. En su lugar, crea y usa una VM en tu red de VPC. Para obtener más información, consulta Pruebas de rendimiento.

Pérdida de potencia óptica en el puerto de la conexión Partner Interconnect

Si se pierde potencia óptica en un puerto, puede que se produzca uno de los siguientes problemas:

  • Pérdida de conectividad de capa 3 (pérdida de una sesión de BGP) o imposibilidad de acceder a tus instancias de máquina virtual Google Cloud .
  • Rendimiento degradado de tu paquete de enlaces. Este problema se produce si se agrupan varios puertos 10GE y solo funcionan algunos de los enlaces de un paquete.

La pérdida de potencia óptica en un puerto significa que el hardware no puede detectar una señal del otro extremo. Esto puede deberse a uno de los siguientes motivos:

  • Un transceptor defectuoso
  • Un sistema de transporte defectuoso
  • Un problema físico con la fibra

Para solucionar este problema, ponte en contacto con tu proveedor de Partner Interconnect o de circuitos. Para ello, deben seguir estos pasos:

  1. Comprueba que su transceptor funcione.
  2. Ejecuta un bucle de comprobación de hardware en la sala de reuniones para comprobar si los niveles de luz de su dispositivo funcionan correctamente.
  3. Comprueba si los problemas están en su lado o en el de Google. La mejor forma de aislar la interfaz es colocar un bucle bidireccional en el punto de demarcación. Las interfaces de cada lado transmitirán luz hasta la demarcación, donde se volverá a enviar a sí misma. El lado defectuoso será el lado de la demarcación que no se levante limpiamente.
  4. Limpia y vuelve a colocar toda la fibra de su lado.

No se pueden enviar ni recibir valores de MED a través de una conexión de Partner Interconnect de capa 3

Si usas una conexión de Partner Interconnect en la que un proveedor de servicios de capa 3 gestiona BGP por ti, Cloud Router no puede obtener valores MED de tu router local ni enviar valores MED a ese router. Esto se debe a que los valores MED no pueden pasar por sistemas autónomos. Con este tipo de conexión, no puedes definir prioridades de ruta para las rutas que anuncia Cloud Router a tu router local. Además, no puedes definir prioridades de ruta para las rutas que anuncia tu router local a tu red de VPC.

El tráfico IPv6 no funciona después de cambiar el tipo de pila de un archivo adjunto a doble pila

  1. Consulta el estado de Cloud Router y comprueba que se muestra status: UP.

    Si el BGP no está activo, haz lo siguiente:

    1. Confirma que tu router local (o el de tu partner si usas un partner de capa 3) esté configurado con una sesión BGP de IPv6 y que la sesión use las direcciones IPv6 correctas.

    2. Consulta la configuración de la sesión de BGP y comprueba que bgpPeers.enable muestra 'TRUE' en tu Cloud Router.

    Si BGP está activo, consulta las rutas de Cloud Router para verificar que se muestran las best_routes IPv6 esperadas.

    Si no se muestran los best_routes esperados, comprueba que tu router local (o el de tu partner si utilizas un partner de capa 3) esté configurado con las rutas IPv6 correctas.

Todos los demás problemas

Si necesitas más ayuda, ponte en contacto con tu proveedor de servicios. Si es necesario, tu proveedor de servicios se pondrá en contacto con Google para solucionar los problemas relacionados con la parte de la red de Google.

VPN de alta disponibilidad mediante Cloud Interconnect

Cuando implementas una VPN de alta disponibilidad mediante Cloud Interconnect, creas dos niveles operativos:

  • El nivel de Cloud Interconnect, que incluye las vinculaciones de VLAN y Cloud Router para Cloud Interconnect.
  • El nivel de VPN de alta disponibilidad, que incluye las pasarelas y los túneles de VPN de alta disponibilidad, así como Cloud Router para VPN de alta disponibilidad.

Cada nivel requiere su propio Cloud Router:

  • Cloud Router para Cloud Interconnect se usa exclusivamente para intercambiar prefijos de pasarela de VPN entre las vinculaciones de VLAN. Este router de Cloud solo lo usan las vinculaciones de VLAN del nivel de Cloud Interconnect. No se puede usar en el nivel de VPN de alta disponibilidad.
  • Cloud Router para VPN de alta disponibilidad intercambia prefijos entre tu red de VPC y tu red on-premise. El Cloud Router de la VPN de alta disponibilidad y sus sesiones BGP se configuran de la misma forma que en una implementación normal de VPN de alta disponibilidad.

La capa de VPN de alta disponibilidad se crea sobre la capa de Cloud Interconnect. Por lo tanto, el nivel de VPN de alta disponibilidad requiere que el nivel de Cloud Interconnect, basado en Interconexión dedicada o Partner Interconnect, esté configurado correctamente y operativo.

Para solucionar problemas de una implementación de VPN de alta disponibilidad mediante Cloud Interconnect, primero debes solucionar los problemas de la capa de Cloud Interconnect. Una vez que hayas verificado que Cloud Interconnect funciona correctamente, soluciona los problemas de la capa de VPN de alta disponibilidad.

No se puede establecer una sesión BGP para el router de Cloud Router de Cloud Interconnect

Para detectar si la sesión de BGP asociada a la vinculación de VLAN no está disponible, ejecuta el siguiente comando:

   gcloud compute routers get-status INTERCONNECT_ROUTER_NAME

Sustituye INTERCONNECT_ROUTER_NAME por el nombre del Cloud Router que has creado para el nivel de Cloud Interconnect de tu implementación de VPN de alta disponibilidad mediante Cloud Interconnect.

Para solucionar este problema, sigue estos pasos:

  1. Sigue los pasos que se indican en Probar conexiones y Obtener diagnósticos para asegurarte de que la conexión de Cloud Interconnect subyacente funciona correctamente.
  2. Comprueba que la interfaz de la sesión BGP apunte al adjunto correcto.
  3. Comprueba las direcciones IP configuradas para la interfaz de sesión de BGP tanto en Cloud Router como en el router on-premise.
  4. Comprueba que los números de ASN estén configurados correctamente tanto en Cloud Router como en el router local.
  5. Comprueba que la conexión de Cloud Interconnect y la vinculación de VLAN tengan el estado admin-enabled.

No se puede establecer un túnel VPN de alta disponibilidad

Para comprobar el estado del túnel, ejecuta el comando:

gcloud compute vpn-tunnels describe VPN_TUNNEL_NAME

Sustituye VPN_TUNNEL_NAME por el nombre del túnel de VPN de alta disponibilidad.

Para solucionar este problema, sigue estos pasos:

  1. Como el túnel VPN se enruta a través de una vinculación de VLAN, comprueba que se haya establecido la sesión de BGP asociada a la vinculación de VLAN. Si no es así, consulta No se puede establecer una sesión BGP para el router de Cloud Router de Cloud Interconnect.
  2. Comprueba si la clave precompartida y las cifrados del túnel están configurados correctamente en las pasarelas de Cloud VPN y en las pasarelas de VPN on-premise.
  3. Comprueba que el anuncio de BGP del router on-premise incluya las direcciones de la pasarela VPN on-premise. Si no es así, ajusta la configuración de BGP del router on-premise para anunciar las direcciones.
  4. Comprueba que las rutas a las pasarelas VPN on-premise no se hayan descartado debido a conflictos con rutas BGP ya existentes. Si hay conflictos, ajusta las direcciones de la pasarela de VPN o las rutas anunciadas.
  5. Comprueba que el anuncio BGP de Cloud Router incluya las direcciones de la pasarela de VPN de alta disponibilidad. Para comprobarlo, accede al router local o inspecciona el campo advertisedRoutes del peer de BGP. Para ver el campo advertisedRoutes, ejecuta el siguiente comando:

    gcloud compute routers get-status INTERCONNECT_ROUTER_NAME
    

    Sustituye INTERCONNECT_ROUTER_NAME por el nombre del Cloud Router que has creado para el nivel de Cloud Interconnect de tu implementación de VPN de alta disponibilidad mediante Cloud Interconnect.

    Si no se anuncian las direcciones de la pasarela de VPN de alta disponibilidad, asegúrate de que las asignaciones de VLAN estén asociadas al router de Cloud Interconnect cifrado. Comprueba que cada vinculación de VLAN esté configurada con las direcciones IPv4 internas regionales esperadas (--ipsec-internal-addresses).

No se puede establecer una sesión BGP para el router de Cloud de una VPN de alta disponibilidad

Para comprobar si la sesión BGP asociada a la vinculación de VLAN no está disponible, ejecuta el siguiente comando:

gcloud compute routers get-status VPN_ROUTER_NAME

Sustituye VPN_ROUTER_NAME por el nombre del Cloud Router que has creado para el nivel de alta disponibilidad de tu implementación de VPN de alta disponibilidad mediante Cloud Interconnect.

Para solucionar este problema, sigue estos pasos:

  1. Como el tráfico de BGP se enruta a través del túnel VPN, comprueba que el túnel VPN esté establecido. Si no es así, sigue los pasos que se indican en No se puede establecer un túnel VPN de alta disponibilidad.
  2. Comprueba que la interfaz de sesión de BGP de Cloud Router apunte al túnel VPN correcto.
  3. Comprueba que las direcciones IP de la interfaz de la sesión de BGP estén configuradas correctamente tanto en Cloud Router como en el dispositivo VPN local.
  4. Comprueba que los números ASN estén configurados correctamente tanto en Cloud Router como en el router local.

El tráfico de VPC no llega a las redes on-premise o viceversa

El tráfico generado desde una máquina virtual, como ping o iperf, no puede llegar a la red on-premise, o bien la red on-premise no puede llegar al tráfico generado desde una máquina virtual.

Para solucionar este problema, sigue estos pasos:

  1. Como el tráfico de la VM se enruta a través del túnel de VPN, asegúrate de que Cloud Router envíe la ruta de la VM al túnel de VPN.

  2. Comprueba que la sesión de Cloud Router para la VPN de alta disponibilidad se haya establecido. Si no es así, consulta No se puede establecer una sesión de BGP para el router de Cloud Router de una VPN de alta disponibilidad.

Pérdida de paquetes o rendimiento bajo

Se rechaza el tráfico de las máquinas virtuales de las redes de VPC a las redes on-premise o el tráfico de las redes on-premise a las redes de VPC.

Observas pérdida de paquetes o un bajo rendimiento a través de ping, iperf y otras herramientas de monitorización de redes.

Para solucionar este problema, sigue estos pasos:

  1. Comprueba si la vinculación de VLAN está sobrecargada de tráfico. Si es así, distribuye el tráfico entre más vinculaciones de VLAN o actualiza la capacidad de la vinculación.
  2. Comprueba si la VPN de alta disponibilidad está sobrecargada de tráfico. Si es así, crea túneles VPN adicionales en la vinculación de VLAN para redistribuir el tráfico.
  3. Asegúrate de que no haya picos inesperados o repentinos de tráfico. Los flujos TCP pueden verse afectados por otros flujos, como el tráfico UDP con picos.
  4. Comprueba si los paquetes que superan la MTU del túnel están fragmentados. Asegúrate de que la MTU esté configurada correctamente con tus adjuntos de VLAN y comprueba que el tráfico UDP no se esté limitando con MSS.

Las métricas de vinculación de VLAN muestran caídas debido a BANDWIDTH_THROTTLE

Cuando veas las métricas de vinculación de VLAN al monitorizar las conexiones, es posible que observes descensos debido a BANDWIDTH_THROTTLE. Esto ocurre cuando el tráfico se envía a una velocidad demasiado alta a través del archivo adjunto, por lo que se limita parte del tráfico.

Sin embargo, al consultar los gráficos de utilización de entrada y salida correspondientes, no se muestran picos de tráfico. Esto se debe a que las métricas se registran en un intervalo de muestreo de 60 segundos, lo que puede ocultar picos o ráfagas de tráfico breves.

Para solucionar este problema, reduce el uso de esta vinculación, aumenta su capacidad o utiliza más vinculaciones de VLAN.

No se puede eliminar una vinculación de VLAN cifrada

Recibes el siguiente error al intentar eliminar un archivo adjunto de VLAN cifrado para la interconexión dedicada o Partner Interconnect:

ResourceInUseByAnotherResourceException

Para solucionar este problema, asegúrate de haber eliminado primero todas las pasarelas y los túneles VPN de alta disponibilidad asociados al adjunto de VLAN cifrado. Para obtener más información, consulta Eliminar una VPN de alta disponibilidad mediante Cloud Interconnect.

Tipos de direcciones IP no coincidentes en vinculaciones de VLAN cifradas

Cuando intentas crear una pasarela de VPN de alta disponibilidad para usarla en una implementación de VPN de alta disponibilidad mediante Cloud Interconnect, se produce el siguiente error:

One of the VLAN attachments has private IP address type, while the other one
has public IP address type; they must have same IP address type.

Este error se produce cuando se especifican dos conexiones de VLAN cifradas para una pasarela de VPN de alta disponibilidad y tienen esquemas de direccionamiento IP diferentes para las interfaces de túnel de VPN de alta disponibilidad. Los tipos de dirección IP deben coincidir en ambas vinculaciones de VLAN.

Durante la creación de la puerta de enlace de VPN, especifica las vinculaciones de VLAN que usen direcciones IP privadas o direcciones IP públicas. Si recibe este error al crear una pasarela de VPN, vuelva a crear la vinculación de VLAN con el tipo de dirección correcto.

Falta la vinculación de VLAN de la interfaz de pasarela de VPN de alta disponibilidad

Si se va a implementar para una VPN de alta disponibilidad mediante Cloud Interconnect, una pasarela de VPN de alta disponibilidad debe tener una vinculación de VLAN cifrada especificada para ambas interfaces.

Si solo especifica una vinculación de VLAN, aparece el siguiente error:

VPN Gateway should have VLAN attachment specified in both interfaces or in none.

Para solucionar este problema, cree la pasarela de VPN de alta disponibilidad y especifique dos vinculaciones de VLAN.

Tipo de vinculación de VLAN no válido

Las vinculaciones de VLAN cifradas deben ser de tipo DEDICATED o PARTNER.

Si especificas un tipo no válido para una vinculación de VLAN cifrada, aparecerá el siguiente mensaje de error:

VLAN attachment should have type DEDICATED or PARTNER.

Para solucionar este problema, cree solo vinculaciones de VLAN encriptadas con el tipo DEDICATED o PARTNER.

Valor de MTU incorrecto para la vinculación de VLAN

Al crear una vinculación de VLAN cifrada para una interconexión dedicada, aparece el siguiente mensaje de error:

Wrong MTU value [mtuValue] for VLAN attachment.
The supported MTU for IPsec packets for HA VPN over Cloud Interconnect is 1440.

Para solucionar este problema, vuelva a crear el archivo adjunto con el valor correcto de 1440, que es el valor predeterminado.

Las vinculaciones de VLAN tienen un tipo diferente

Cuando especifica vinculaciones de VLAN cifradas para las interfaces de su pasarela de VPN de alta disponibilidad, aparece el siguiente mensaje de error:

VLAN attachments should both have same type DEDICATED or PARTNER.
But found one DEDICATED and one PARTNER.

Para solucionar este problema, especifique dos vinculaciones de VLAN del mismo tipo: DEDICATED o PARTNER.

Las vinculaciones de VLAN dedicadas no están en la misma área metropolitana

Cuando especifica vinculaciones de VLAN cifradas para las interfaces de su pasarela de VPN de alta disponibilidad, aparece el siguiente mensaje de error:

Dedicated VLAN attachments should be in the same metropolitan area.

Para solucionar este problema, cree dos vinculaciones de VLAN cifradas para la interconexión dedicada en la misma área metropolitana.

La pasarela VPN de alta disponibilidad no está en la misma red que la vinculación de VLAN

Cuando especifica vinculaciones de VLAN cifradas para las interfaces de su pasarela de VPN de alta disponibilidad, aparece el siguiente mensaje de error:

VPN Gateway should be in the same network as VLAN attachment.
VLAN attachment network: [networkName], VPN gateway network: [networkName]

Para solucionar este problema, crea la pasarela de VPN de alta disponibilidad en la misma red que las vinculaciones de VLAN encriptadas.

Tipo de cifrado incorrecto para la vinculación de VLAN

Cuando especifica vinculaciones de VLAN cifradas para las interfaces de su pasarela de VPN de alta disponibilidad, aparece el siguiente mensaje de error:

Wrong encryption type for VLAN attachment [interconnectAttachmentName],
required IPSEC.

Para solucionar este problema, especifica solo las vinculaciones de VLAN cifradas que estén configuradas con el tipo de cifrado IPSEC. Si es necesario, crea vinculaciones de VLAN cifradas.

La zona de la vinculación de VLAN no coincide con el valor de interfaceId

Cuando especifica vinculaciones de VLAN cifradas para las interfaces de su pasarela de VPN de alta disponibilidad, aparece el siguiente mensaje de error:

VLAN attachment zone should match interfaceId: interface 0 - zone1,
interface 1 - zone2, but found interface [interfaceId] - [zone] for
[interconnectAttachmentName].

La primera interfaz de la pasarela de VPN de alta disponibilidad (interface 0) debe coincidir con la vinculación de VLAN cifrada de la zona 1, y la segunda interfaz (interface 1) debe coincidir con la vinculación de VLAN cifrada de la zona 2.

Para solucionar este problema, especifique vinculaciones de VLAN cifradas de las zonas que coincidan correctamente con las interfaces de la pasarela de VPN de alta disponibilidad.

La pasarela VPN no está en la misma región que la vinculación de VLAN

Cuando especifica vinculaciones de VLAN cifradas para las interfaces de su pasarela de VPN de alta disponibilidad, aparece el siguiente mensaje de error:

VPN Gateway should be in the same region as VLAN attachment.
VLAN attachment region: [region], VPN gateway region: [region].

Para solucionar este problema, cree pasarelas de VPN de alta disponibilidad y vinculaciones de VLAN cifradas en la misma región.

La vinculación de VLAN de partner no está activa

Cuando especifiques vinculaciones de VLAN cifradas para Partner Interconnect en las interfaces de tu pasarela de VPN de alta disponibilidad, aparecerá el siguiente mensaje de error:

Interconnect Attachments [name] must be in active state.

Debes activar las vinculaciones de VLAN de Interconexión de Partner antes de asociarlas a las interfaces de la pasarela de VPN de alta disponibilidad.

Para obtener más información, consulta Activar conexiones.

Se ha especificado un tipo de Cloud Router incorrecto para la vinculación de VLAN

Cuando intentas crear una vinculación de VLAN cifrada, aparece el siguiente mensaje de error:

Router must be an encrypted interconnect router.

Para solucionar este problema, crea un router en la nube con la marca --encrypted-interconnect-router. Este Cloud Router se usa exclusivamente para la VPN de alta disponibilidad mediante Cloud Interconnect.

A continuación, crea la vinculación de VLAN cifrada y proporciona el Cloud Router cifrado.

Cross-Cloud Interconnect

En esta sección se describen los problemas que pueden surgir con Cross-Cloud Interconnect.

Google admite la conexión hasta que llega a la red de tu otro proveedor de servicios en la nube. Google no garantiza el tiempo de actividad del otro proveedor de servicios en la nube y no puede crear una incidencia en tu nombre. Con tu permiso, Asistencia de Google Cloud puede comunicarse directamente con el equipo de asistencia de tu otro proveedor de servicios en la nube para agilizar la resolución de problemas. Sin embargo, debes tener una incidencia abierta con el otro proveedor.

Discrepancias entre puertos redundantes

Después de pedir puertos de Cross-Cloud Interconnect, debes proporcionar a Google información sobre cómo quieres que los puertos se conecten a tus puertos de nube remotos. También usará esta información más adelante, cuando configure sus recursos. Si tienes problemas de conectividad, puede que no hayas usado los detalles de conectividad correctos.

Por ejemplo, puedes proporcionar instrucciones como las siguientes:

  • Conecta gcp-1 con azure-1.

  • Conecta gcp-2 con azure-2.

Sin embargo, al configurar los recursos, puede que supongas que los puertos están conectados de la siguiente manera:

  • Conecta gcp-1 con azure-2.

  • Conecta gcp-2 con azure-1.

Esta condición se puede detectar examinando la caché ARP. Sin embargo, una solución más sencilla es ir a la nube remota e intentar intercambiar los intervalos de direcciones IP asignados a los dos peers de BGP.

Por ejemplo, supongamos que azure-1 tiene un emparejamiento de vinculación de VLAN en 169.254.0.2 y que azure-2 tiene un emparejamiento de vinculación de VLAN en 169.254.99.2. Cambia los intervalos de direcciones IP para que el archivo adjunto azure-1 use 169.254.99.2 y el archivo adjunto azure-2 use 169.254.0.2.

Si has usado IDs de VLAN diferentes para la vinculación en cada puerto, también tendrás que intercambiar los IDs de VLAN que usan las vinculaciones. En Azure, este escenario es imposible porque requiere usar el mismo ID de VLAN en ambos puertos para cada vinculación.

IDs de VLAN

A veces, los problemas de conectividad se deben a errores en los valores de ID de VLAN. El ID de VLAN es un campo de tu vinculación de VLAN de Cross-Cloud Interconnect.

Azure

Azure requiere que los IDs de VLAN se asignen de forma idéntica en ambos puertos de un par. Cuando crees tu vinculación de VLAN, la consola Google Cloud aplicará este requisito. Sin embargo, si configura los archivos adjuntos mediante la CLI de Google Cloud o la API, puede asignar diferentes IDs de VLAN. Este riesgo es especialmente alto si dejas que los IDs de VLAN se asignen automáticamente al crear la vinculación. Si no define explícitamente el ID, se asignará automáticamente.

AWS

Al conectarse a AWS, puede usar la asignación automática de IDs de VLAN. Sin embargo, al configurar los recursos de AWS, debes configurar manualmente los IDs de VLAN para que coincidan con los que se asignan automáticamente. Google Cloud Además, es importante no confundir qué ID de VLAN se debe usar en cada puerto. Si se configura un ID de VLAN incorrecto en un puerto, los routers virtuales no podrán comunicarse.

Verificar la conectividad

Si aún no lo has hecho, sigue los pasos para verificar la conectividad entre Google Cloud y tu red en la nube remota: