Usa la herramienta gcpdiag
gcpdiag
es una herramienta de código abierto. No es un producto Google Cloud compatible oficialmente.
Puedes usar la herramienta gcpdiag
para identificar y corregir Google Cloudproblemas del proyecto. Para obtener más información, consulta el proyecto en GitHub.
La herramienta gcpdiag
te ayuda a descubrir los siguientes problemas de creación de clústeres de Dataproc realizando las siguientes verificaciones:
- Errores de falta de stock: Evalúa los registros del Explorador de registros para detectar faltas de stock en regiones y zonas.
- Cuota insuficiente: Verifica la disponibilidad de la cuota en el proyecto del clúster de Dataproc.
- Configuración de red incompleta: Realiza pruebas de conectividad de red, incluidas las verificaciones de las reglas de firewall necesarias y la configuración de IP interna y externa. Si se borró el clúster, la herramienta
gcpdiag
no puede realizar una verificación de conectividad de red. - Configuración incorrecta entre proyectos: Verifica las cuentas de servicio entre proyectos y revisa la aplicación de políticas adicionales de la organización y de roles.
- Faltan roles de IAM de la red de nube privada virtual compartida: Si el clúster de Dataproc usa una red de VPC compartida, se verifica que se hayan agregado los roles de cuenta de servicio requeridos.
- Fallas en la acción de inicialización: Evalúa los registros del Explorador de registros para detectar fallas y tiempos de espera en las secuencias de comandos de acción de inicialización.
Para obtener una lista de los pasos para crear un clúster de gcpdiag
, consulta Pasos posibles.
Ejecuta el comando gcpdiag
Puedes ejecutar el comando gcpdiag
desde Cloud Shell en la consola deGoogle Cloud o dentro de un contenedor de Docker.
Consola deGoogle Cloud
- Completa y, luego, copia el siguiente comando.
- Abre la Google Cloud consola y activa Cloud Shell. Abre la consola de Cloud
- Pega el comando copiado.
- Ejecuta el comando
gcpdiag
, que descarga la imagen de Dockergcpdiag
y, luego, realiza verificaciones de diagnóstico. Si corresponde, sigue las instrucciones de salida para corregir las verificaciones que fallaron.
gcpdiag runbook dataproc/cluster-creation \
--parameter project_id=PROJECT_ID \
--parameter cluster_name=CLUSTER_NAME \
--parameter OPTIONAL_FLAGS
Docker
Puedes
ejecutar gcpdiag
con un wrapper que inicie gcpdiag
en un
contenedor de Docker. Se debe instalar Docker o
Podman.
- Copia y ejecuta el siguiente comando en tu estación de trabajo local.
curl https://gcpdiag.dev/gcpdiag.sh >gcpdiag && chmod +x gcpdiag
- Ejecuta el comando
gcpdiag
../gcpdiag runbook dataproc/cluster-creation \ --parameter project_id=PROJECT_ID \ --parameter cluster_name=CLUSTER_NAME \ --parameter OPTIONAL_FLAGS
Consulta los parámetros disponibles para este runbook.
Reemplaza lo siguiente:
- PROJECT_ID: Es el ID del proyecto que contiene el recurso.
- CLUSTER_NAME: Es el nombre del clúster de Dataproc de destino en tu proyecto.
- OPTIONAL_PARAMETERS: Agrega uno o más de los siguientes parámetros opcionales. Estos parámetros son obligatorios si se borró el clúster.
cluster_uuid
: Es el UUID del clúster de Dataproc de destino en tu proyecto.service_account
: La cuenta de servicio de VM del clúster de Dataprocsubnetwork
: Es la ruta de acceso completa del URI de la subred del clúster de Dataproc.internal_ip_only
: Verdadero o falsocross_project
: Es el ID entre proyectos si el clúster de Dataproc usa una cuenta de servicio de VM en otro proyecto.
Marcas útiles:
--universe-domain
: Si corresponde, el dominio de Trusted Partner Sovereign Cloud que aloja el recurso--parameter
o-p
: Parámetros del runbook
Para obtener una lista y una descripción de todas las marcas de la herramienta gcpdiag
, consulta las instrucciones de uso de gcpdiag
.
Comprende y corrige los errores de creación de clústeres
En esta sección, se enumeran los mensajes de error de Dataproc, y sus causas comunes y soluciones.
Se agotó el tiempo de espera de la operación: Solo se ejecutan 0 de cada 2 nodos de datos o administradores de nodos mínimos necesarios.
Causa: El nodo del controlador no puede crear el clúster porque no puede comunicarse con los nodos trabajadores.
Solución:
- Verifica las advertencias de las reglas de firewall.
- Asegúrate de que las reglas de firewall sean las correctas. Para obtener más información, consulta la Descripción general de las reglas de firewall predeterminadas de Dataproc.
- Realiza una prueba de conectividad en la consola de Google Cloud para determinar qué bloquea la comunicación entre los nodos trabajadores y los de controlador.
Permiso de
compute.subnetworks.use
necesario paraprojects/{projectId}/regions/{region}/subnetworks/{subnetwork}
Causa: Este error puede ocurrir cuando intentas configurar un clúster de Dataproc con una red de VPC en otro proyecto y la cuenta de servicio del agente de servicio de Dataproc no tiene los permisos necesarios en el proyecto de VPC compartida que aloja la red.
Solución: Sigue los pasos que se indican en Crea un clúster que use una red de VPC en otro proyecto.
La zona
projects/zones/{zone}
no tiene suficientes recursos disponibles para completar la solicitud(resource type:compute)
Causa: La zona que se usa para crear el clúster no tiene suficientes recursos.
Solución:
- Crea el clúster en una zona diferente.
- Usa la función de posición de zona automática de Dataproc.
Errores de cuota excedida
Cuota insuficiente de CPUS/CPUS_ALL_REGIONS
Cuota insuficiente “DISKS_TOTAL_GB”
Cuota insuficiente “IN_USE_ADDRESSES”Causa: La solicitud de CPU, disco o dirección IP supera la cuota disponible.
Solución: Solicita una cuota adicional en la consola deGoogle Cloud .
No se pudo realizar la acción de inicialización
Causa: No se pudo instalar la acción de inicialización proporcionada durante la creación del clúster.
Solución:
- Consulta los lineamientos y consideraciones para las acciones de inicialización.
- Examina los registros de salida. El mensaje de error debe proporcionar un vínculo a los registros en Cloud Storage.
No se pudo inicializar el nodo
CLUSTER-NAME-m
. … Consulta el resultado en:<gs://PATH_TO_STARTUP_SCRIPT_OUTPUT>
Causa: No se pudo inicializar el nodo del controlador del clúster de Dataproc.
Solución:
- Revisa los registros de salida de la secuencia de comandos de inicio que se indican en el mensaje de error (
gs://PATH_TO_STARTUP_SCRIPT_OUTPUT
) y verifica la causa de la falla en la inicialización del nodo. - Las causas pueden incluir problemas de configuración de red del clúster de Dataproc y fallas en la instalación de dependencias de paquetes de Python.
- Si el problema no se resuelve después de revisar los registros de la secuencia de comandos de inicio, corrige los problemas del usuario y, luego, vuelve a intentarlo con una espera exponencial. Si el problema persiste, comunícate con el equipo de asistencia al cliente de Google Cloud.
- Revisa los registros de salida de la secuencia de comandos de inicio que se indican en el mensaje de error (
No se pudo crear el clúster: Se agotó el espacio de direcciones IP
Causa: El espacio de direcciones IP necesario para aprovisionar los nodos del clúster solicitados no está disponible.
Solución:
- Crea un clúster en una subred o red diferente.
- Reduce el uso en la red para liberar espacio de direcciones IP.
- Espera hasta que haya suficiente espacio de IP disponible en la red.
Mensaje de error del script de inicialización: El repositorio REPO_NAME ya no tiene un archivo de versión
Causa: Se borró el repositorio de backports de Debian oldstable.
Solución:
Agrega el siguiente código antes del código que ejecuta
apt-get
en tu secuencia de comandos de inicialización.oldstable=$(curl -s https://deb.debian.org/debian/dists/oldstable/Release | awk '/^Codename/ {print $2}'); stable=$(curl -s https://deb.debian.org/debian/dists/stable/Release | awk '/^Codename/ {print $2}'); matched_files="$(grep -rsil '\-backports' /etc/apt/sources.list*)" if [[ -n "$matched_files" ]]; then for filename in "$matched_files"; do grep -e "$oldstable-backports" -e "$stable-backports" "$filename" || \ sed -i -e 's/^.*-backports.*$//' "$filename" done fi
Se agotó el tiempo de espera de la instancia
DATAPROC_CLUSTER_VM_NAME
para informar o No se puede acceder a la red:dataproccontrol-REGION.googleapis.com
Causa: Estos mensajes de error indican que la configuración de red de tu clúster de Dataproc está incompleta: es posible que falte la ruta a la puerta de enlace de Internet predeterminada o las reglas de firewall.
Solución:
Para solucionar este problema, puedes crear las siguientes pruebas de conectividad:
- Crea una prueba de conectividad entre dos VMs del clúster de Dataproc. El resultado de esta prueba te ayudará a comprender si las reglas de firewall de permiso de entrada o salida de tu red se aplican correctamente a las VMs del clúster.
- Crea una prueba de conectividad entre una VM del clúster de Dataproc y una dirección IP actual de la API de control de Dataproc. Para obtener una dirección IP actual de la API de control de Dataproc, usa el siguiente comando:
dig dataproccontrol-REGION.googleapis.com A
Usa cualquiera de las direcciones IPv4 en la sección de respuestas del resultado.
El resultado de la prueba de conectividad te ayudará a comprender si la ruta a la puerta de enlace de Internet predeterminada y el firewall de salida permitido están configurados correctamente.
Según los resultados de las pruebas de conectividad, haz lo siguiente:
- Agrega una ruta a Internet a la red de VPC de tu clúster:
0.0.0.0/0
para IPv4 y::/0
para IPv6 con--next-hop-gateway=default-internet-gateway
. - Agrega reglas de firewall para el control de acceso.
Error debido a una actualización
Causa: El clúster aceptó un trabajo enviado al servicio de Dataproc, pero no pudo realizar un ajuste de escala de forma manual o a través del ajuste de escala automático. Este error también puede deberse a una configuración no estándar del clúster.
Solución:
Restablecimiento del clúster: Abre un ticket de asistencia, incluye un archivo tar de diagnóstico y solicita que se restablezca el clúster al estado RUNNING.
Clúster nuevo: Vuelve a crear el clúster con la misma configuración. Esta solución puede ser más rápida que un restablecimiento proporcionado por el equipo de asistencia.
Sugerencias para solucionar problemas de clústeres
En esta sección, se proporciona orientación adicional para solucionar problemas comunes que pueden impedir la creación de clústeres de Dataproc.
Cuando un clúster de Dataproc no se puede aprovisionar, a menudo genera un mensaje de error genérico o informa un estado PENDING
o PROVISIONING
antes de fallar. La clave para diagnosticar y resolver los problemas de fallas del clúster es examinar los registros del clúster y evaluar los puntos de falla comunes.
Síntomas y mensajes de error comunes
A continuación, se muestran los síntomas y mensajes de error comunes asociados con las fallas en la creación de clústeres:
- El estado del clúster permanece como
PENDING
oPROVISIONING
durante un período prolongado. - El clúster pasa al estado
ERROR
. - Errores genéricos de la API durante la creación del clúster, como
Operation timed out
. Mensajes de error registrados o de respuesta de la API, como los siguientes:
RESOURCE_EXHAUSTED
: Relacionado con las cuotas de CPU, disco o dirección IPInstance failed to start
Permission denied
Unable to connect to service_name.googleapis.com
oCould not reach required Google APIs
Connection refused
onetwork unreachable
- Errores relacionados con la falla de las acciones de inicialización, como errores de ejecución de secuencias de comandos y no se encontró el archivo
Revisa los registros del clúster
Un paso inicial importante para diagnosticar las fallas en la creación de clústeres es revisar los registros detallados del clúster disponibles en Cloud Logging.
- Ve al Explorador de registros: Abre el Explorador de registros en la consola de Google Cloud .
- Filtra los clústeres de Dataproc:
- En el menú desplegable Recurso, selecciona
Cloud Dataproc Cluster
. - Ingresa tu
cluster_name
yproject_id
. También puedes filtrar porlocation
(región).
- En el menú desplegable Recurso, selecciona
- Examina las entradas de registro:
- Busca mensajes de nivel
ERROR
oWARNING
que se produzcan cerca del momento de la falla en la creación del clúster. - Presta atención a los registros de los componentes
master-startup
,worker-startup
yagent
para obtener estadísticas sobre problemas a nivel de la VM o del agente de Dataproc. - Para obtener información sobre los problemas de tiempo de arranque de la VM, filtra los registros por
resource.type="gce_instance"
y busca mensajes de los nombres de instancias asociados con los nodos de tu clúster, comoCLUSTER_NAME-m
oCLUSTER_NAME-w-0
. Los registros de la consola en serie pueden revelar problemas de configuración de red, problemas de disco y fallas de secuencia de comandos que ocurren al principio del ciclo de vida de la VM.
- Busca mensajes de nivel
Causas comunes de fallas en el clúster y sugerencias para solucionar problemas
En esta sección, se describen los motivos comunes por los que podría fallar la creación de clústeres de Dataproc y se proporcionan sugerencias para solucionar problemas relacionados con las fallas de los clústeres.
Permisos de IAM insuficientes
La cuenta de servicio de la VM que usa tu clúster de Dataproc debe tener los roles de IAM adecuados para aprovisionar instancias de Compute Engine, acceder a buckets de Cloud Storage, escribir registros y, también, interactuar con otros servicios de Google Cloud .
- Rol de trabajador requerido: Verifica que la cuenta de servicio de VM tenga el rol de Trabajador de Dataproc (
roles/dataproc.worker
). Este rol tiene los permisos mínimos necesarios para que Dataproc administre los recursos del clúster. - Permisos de acceso a los datos: Si tus trabajos leen o escriben en Cloud Storage o BigQuery, la cuenta de servicio necesita roles relacionados, como
Storage Object Viewer
,Storage Object Creator
oStorage Object Admin
para Cloud Storage, oBigQuery Data Viewer
oBigQuery Editor
para BigQuery. - Permisos de registro: La cuenta de servicio debe tener un rol con los permisos necesarios para escribir registros en Cloud Logging, como el rol
Logging Writer
.
Sugerencias para solucionar problemas:
Identifica la cuenta de servicio: Determina la cuenta de servicio de la VM que tu clúster está configurado para usar. Si no se especifica, el valor predeterminado es la cuenta de servicio predeterminada de Compute Engine.
Verifica los roles de IAM: Ve a la página IAM y administración > IAM en la consola de Google Cloud , busca la cuenta de servicio de la VM del clúster y, luego, verifica que tenga los roles necesarios para las operaciones del clúster. Otorga los roles faltantes.
Se superaron las cuotas de recursos
Los clústeres de Dataproc consumen recursos de Compute Engine y otros Google Cloud servicios. Si se superan las cuotas regionales o del proyecto, se pueden producir errores en la creación del clúster.
- Cuotas comunes de Dataproc que debes verificar:
CPUs
(regional)DISKS_TOTAL_GB
(regional)IN_USE_ADDRESSES
(regional para IPs internas, global para IPs externas)- Cuotas de la API de Dataproc, como
ClusterOperationRequestsPerMinutePerProjectPerRegion
.
Sugerencias para solucionar problemas:
- Revisa las cuotas: Ve a la página IAM y administración > IAM en la consola de Google Cloud . Filtra por “Servicio” para “API de Compute Engine” y “API de Dataproc”.
- Verifica el uso en comparación con el límite: Identifica las cuotas que están en su límite o cerca de él.
- Si es necesario, solicita un aumento de la cuota.
Problemas de configuración de red
Los problemas de configuración de red, como la configuración incorrecta de la red de VPC, la subred, el firewall o el DNS, son una causa común de errores en la creación de clústeres. Las instancias del clúster deben poder comunicarse entre sí y con las APIs de Google.
- Red y subred de VPC:
- Verifica que la subred y la red de VPC del clúster existan y estén configuradas correctamente.
- Verifica que la subred tenga un rango suficiente de direcciones IP disponibles.
- Acceso privado a Google (PGA): Si las VMs del clúster tienen direcciones IP internas y necesitan acceder a las APIs de Google para Cloud Storage, Cloud Logging y otras operaciones, verifica que el acceso privado a Google esté habilitado en la subred. De forma predeterminada, los clústeres de Dataproc creados con versiones de imagen 2.2 o posteriores aprovisionan VMs con direcciones IP solo internas y con el Acceso privado a Google habilitado en la subred regional del clúster.
- Private Service Connect (PSC): Si usas Private Service Connect para acceder a las APIs de Google, verifica que los extremos de Private Service Connect necesarios estén configurados correctamente para las APIs de Google de las que depende Dataproc, como
dataproc.googleapis.com
,storage.googleapis.com
,compute.googleapis.com
ylogging.googleapis.com
. Las entradas de DNS para las APIs deben resolverse en direcciones IP privadas. Ten en cuenta que usar Private Service Connect no elimina la necesidad de usar el intercambio de tráfico entre VPC para comunicarse con otras redes de VPC administradas por el cliente. . - Intercambio de tráfico entre VPCs: Si tu clúster se comunica con recursos en otras redes de VPC, como proyectos host de VPC compartida o otras VPCs de clientes, verifica que el intercambio de tráfico entre VPCs esté configurado correctamente y que las rutas se propaguen.
Reglas de firewall:
- Reglas predeterminadas: Verifica que las reglas de firewall predeterminadas, como
allow-internal
oallow-ssh
, no sean demasiado restrictivas. Reglas personalizadas: Si hay reglas de firewall personalizadas, verifica que permitan las rutas de acceso de comunicación necesarias:
- Comunicación interna dentro del clúster (entre los nodos -m y -w)
Tráfico saliente de las VMs del clúster a las APIs de Google, ya sea con IPs públicas o una puerta de enlace de Internet, Acceso privado a Google o extremos de Private Service Connect
Tráfico a cualquier fuente o servicio de datos externos de los que dependan tus trabajos
- Reglas predeterminadas: Verifica que las reglas de firewall predeterminadas, como
Resolución de DNS: Confirma que las instancias del clúster puedan resolver correctamente los nombres de DNS para las APIs de Google y cualquier servicio interno o externo.
Sugerencias para solucionar problemas:
- Revisa la configuración de la red: Inspecciona la configuración de la red de VPC y la subred en la que se implementa el clúster.
- Verifica las reglas de firewall: Revisa las reglas de firewall en la red de VPC o en el proyecto host de VPC compartida.
- Prueba la conectividad: Inicia una VM de Compute Engine temporal en la subred del clúster y sigue estos pasos:
ping
ocurl
a dominios externos de la API de Google, comostorage.googleapis.com
nslookup
para verificar la resolución de DNS en las direcciones IP esperadas (acceso privado a Google o Private Service Connect).- Ejecuta Google Cloud pruebas de conectividad para diagnosticar las rutas desde una VM de prueba hasta los extremos pertinentes.
Fallas en las acciones de inicialización
Las acciones de inicialización de Dataproc son secuencias de comandos que se ejecutan en las VMs del clúster durante la creación del clúster. Los errores en estas secuencias de comandos pueden impedir el inicio del clúster.
Sugerencias para solucionar problemas:
- Examina los registros en busca de errores de acción de inicialización: Busca entradas de registro relacionadas con
init-actions
ostartup-script
para las instancias del clúster en Cloud Logging. - Verifica las rutas de acceso y los permisos de las secuencias de comandos: Comprueba que las secuencias de comandos de acciones de inicialización estén ubicadas correctamente en Cloud Storage y que la cuenta de servicio de la VM del clúster tenga el rol
Storage Object Viewer
necesario para leer las secuencias de comandos de Cloud Storage. - Depura la lógica de la secuencia de comandos: Prueba la lógica de la secuencia de comandos en una VM de Compute Engine independiente que simule el entorno del clúster para identificar errores. Agrega un registro detallado a la secuencia de comandos.
Disponibilidad regional de recursos (agotamientos)
En ocasiones, un tipo de máquina o un recurso de una región o zona experimentan una falta de disponibilidad temporal (agotamiento de existencias). Por lo general, esto genera errores de RESOURCE_EXHAUSTED
que no están relacionados con problemas de cuota del proyecto.
Sugerencias para solucionar problemas:
- Prueba con otra zona o región: Intenta crear el clúster en otra zona de la misma región o en otra región.
- Usa la posición de zona automática: Usa la función de posición de zona automática de Dataproc para seleccionar automáticamente una zona con capacidad.
- Ajusta el tipo de máquina: Si usas un tipo de máquina personalizado o especializado, prueba con un tipo de máquina estándar para ver si se resuelve el problema.
Comunícate con Atención al cliente de Cloud
Si sigues teniendo problemas con las fallas del clúster, comunícate con Atención al cliente de Cloud. Describe el problema de falla del clúster y los pasos de solución de problemas que seguiste. Además, proporciona la siguiente información:
- Datos de diagnóstico del clúster
- Resultado del siguiente comando:
gcloud dataproc clusters describe CLUSTER_NAME \ -region=REGION
- Son los registros exportados del clúster que falló.
¿Qué sigue?
- Obtén más información sobre las herramientas de supervisión y solución de problemas de Dataproc.
- Obtén más información para diagnosticar clústeres de Dataproc.
- Consulta el documento de Preguntas frecuentes sobre Dataproc .