Artifact Registry no supervisa los registros de terceros para las actualizaciones de las imágenes que copias en Artifact Registry. Si deseas incorporar una versión más reciente de una imagen en tu canalización, debes enviarla a Artifact Registry.
Descripción general de la migración
La migración de tus imágenes de contenedor incluye los siguientes pasos:
- Configura los requisitos.
- Identifique las imágenes que se migrarán.
- Busca tus archivos de Dockerfile y manifiestos de implementación para obtener referencias de registros de terceros
- Determina la frecuencia de extracción de las imágenes de los registros de terceros mediante Cloud Logging y BigQuery.
- Copia imágenes identificadas en Artifact Registry
- Verifica que los permisos del registro estén configurados correctamente, en especial si Artifact Registry y tu entorno de implementación de Google Cloudestán en proyectos diferentes.
- Actualiza los manifiestos de tus implementaciones.
- Vuelve a implementar tus cargas de trabajo.
Antes de comenzar
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
- Install the Google Cloud CLI.
-
To use a federated identity with the gcloud CLI, you must first configure the tool to use a federated identity.
For more information, see Browser-based sign-in with the gcloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
Create or select a Google Cloud project.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_ID
with a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_ID
with your Google Cloud project name.
-
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Artifact Registry API:
gcloud services enable artifactregistry.googleapis.com
- Install the Google Cloud CLI.
-
To use a federated identity with the gcloud CLI, you must first configure the tool to use a federated identity.
For more information, see Browser-based sign-in with the gcloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
Create or select a Google Cloud project.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_ID
with a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_ID
with your Google Cloud project name.
-
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Artifact Registry API:
gcloud services enable artifactregistry.googleapis.com
- Si no tienes un repositorio de Artifact Registry, crea uno y configura la autenticación para los clientes de terceros que requieran acceso al repositorio.
- Verifica tus permisos. Debes tener el rol de IAM de propietario o editor en los proyectos en los que migras imágenes a Artifact Registry.
- Exporta las siguientes variables de entorno:
export PROJECT=$(gcloud config get-value project)
- Verifica que esté instalada la versión 1.13 de Go o una más reciente.
Si necesitas instalar o actualizar Go, consulta la documentación de instalación de Go.go version
Costos
En esta guía, se usan los siguientes componentes facturables de Google Cloud:
Identifica las imágenes que se migrarán.
Busca los archivos que usas para compilar e implementa imágenes de contenedor a fin de hacer referencia a registros de terceros y, luego, verifica la frecuencia con la que extraes las imágenes.
Identifica referencias en Dockerfiles
Realiza este paso en una ubicación en la que se almacenen tus Dockerfiles. Esta ubicación puede ser donde tu código se verifica de forma local o en Cloud Shell si los archivos están disponibles en una VM.En el directorio con tus Dockerfiles, ejecuta el siguiente comando:
grep -inr -H --include Dockerfile\* "FROM" . | grep -i -v -E 'docker.pkg.dev|gcr.io'
El resultado se ve como en el siguiente ejemplo:
./code/build/baseimage/Dockerfile:1:FROM debian:stretch
./code/build/ubuntubase/Dockerfile:1:FROM ubuntu:latest
./code/build/pythonbase/Dockerfile:1:FROM python:3.5-buster
Este comando busca en todos los Dockerfiles de tu directorio y, luego, identifica la línea "FROM". Ajusta el comando según sea necesario para que coincida con tu forma de almacenar los Dockerfiles.
Identifica referencias en manifiestos
Realiza estos pasos en una ubicación en la que se almacenen tus manifiestos de GKE o Cloud Run. Esta ubicación puede ser donde tu código se verifica de forma local o en Cloud Shell si los archivos están disponibles en una VM.- En el directorio con tus manifiestos de GKE o Cloud Run, ejecuta el siguiente comando:
El resultado se ve de la siguiente manera:grep -inr -H --include \*.yaml "image:" . | grep -i -v -E 'docker.pkg.dev|gcr.io'
Este comando analiza todos los archivos YAML en tu directorio y, luego, identifica la línea image:. Ajusta el comando según sea necesario para trabajar con la forma en que se almacenan tus manifiestos../code/deploy/k8s/ubuntu16-04.yaml:63: image: busybox:1.31.1-uclibc ./code/deploy/k8s/master.yaml:26: image: kubernetes/redis:v1
- Para enumerar las imágenes que se ejecutan en un clúster, ejecuta el siguiente comando:
Este comando muestra todos los objetos que se ejecutan en el clúster de Kubernetes seleccionado y obtiene los nombres de las imágenes. El resultado se ve de la manera siguiente:kubectl get all --all-namespaces -o yaml | grep image: | grep -i -v -E 'docker.pkg.dev|gcr.io'
- image: nginx image: nginx:latest - image: nginx - image: nginx
Ejecuta los comandos anteriores para todos los clústeres de GKE en todos los proyectos deGoogle Cloud para obtener una cobertura total.
Identifica la frecuencia de extracción de un registro de terceros
En los proyectos que extraen registros de terceros, usa información sobre la frecuencia de extracción de imágenes para determinar si el uso se encuentra cerca o por encima de los límites de frecuencia que aplica el registro de terceros.
Recopila datos de registro
Crea un receptor de registros para exportar datos a BigQuery. Un receptor de registros posee un destino y una consulta que selecciona las entradas de registro que se exportarán. Puedes crear un receptor mediante la consulta de proyectos individuales o puedes usar una secuencia de comandos para recopilar datos entre proyectos.
A fin de crear un receptor para un solo proyecto, sigue estos pasos:
-
En la consola de Google Cloud, ve a la página Explorador de registros.
Si usas la barra de búsqueda para encontrar esta página, selecciona el resultado cuyo subtítulo es Logging.
Elige un Google Cloud proyecto.
En la pestaña Compilador de consultas, ingresa la siguiente consulta:
resource.type="k8s_pod" jsonPayload.reason="Pulling"
Filtro de historial de cambios de Last 1 hour hasta Últimos 7 días
Haga clic en Ejecutar consulta.
Después de verificar que los resultados se muestren correctamente, haz clic en Acciones > Crear receptor.
En el diálogo Detalles del receptor, completa lo siguiente:
- En el campo Nombre del receptor, ingresa
image_pull_logs
. - En Descripción del receptor, ingresa una descripción del receptor.
- En el campo Nombre del receptor, ingresa
Haz clic en Siguiente.
En el diálogo Sink destination, selecciona los siguientes valores:
- En el campo Seleccionar el servicio del receptor, selecciona Conjunto de datos de BigQuery.
- En el campo Selecciona un conjunto de datos de BigQuery, selecciona Crear un nuevo conjunto de datos de BigQuery y completa la información requerida en el diálogo que se abre. Para obtener más información sobre cómo crear un conjunto de datos de BigQuery, consulta Crea conjuntos de datos.
- Haz clic en Crear conjunto de datos.
Haz clic en Siguiente.
En la sección Elige registros para incluirlos en el receptor, la consulta coincide con la que ejecutaste en la pestaña Compilador de consultas.
Haz clic en Siguiente.
Opcional: Elige los registros que deseas filtrar del receptor. Para obtener más información sobre cómo consultar y filtrar datos de Cloud Logging, consulta Lenguaje de consulta de Logging.
Haz clic en Crear receptor.
Se creó tu receptor de registros.
A fin de crear un receptor para varios proyectos, haz lo siguiente:
Ejecute los siguientes comandos en Cloud Shell:
PROJECTS="PROJECT-LIST" DESTINATION_PROJECT="DATASET-PROJECT" DATASET="DATASET-NAME" for source_project in $PROJECTS do gcloud logging --project="${source_project}" sinks create image_pull_logs bigquery.googleapis.com/projects/${DESTINATION_PROJECT}/datasets/${DATASET} --log-filter='resource.type="k8s_pod" jsonPayload.reason="Pulling"' done
donde
- PROJECT-LIST es una lista de Google Cloud IDs de proyectos, separados por espacios. Por ejemplo
project1 project2 project3
. - DATASET-PROJECT es el proyecto en el que deseas almacenar tu conjunto de datos.
- DATASET-NAME es el nombre del conjunto de datos, por ejemplo
image_pull_logs
.
- PROJECT-LIST es una lista de Google Cloud IDs de proyectos, separados por espacios. Por ejemplo
Después de crear un receptor, los datos tardan en fluir hacia las tablas de BigQuery, según la frecuencia con la que se extraen las imágenes.
Consulta la frecuencia de extracción
Una vez que tengas una muestra representativa de las extracciones de imágenes que realizan tus compilaciones, ejecuta una consulta para conocer la frecuencia de extracción.
Ejecute la siguiente consulta:
SELECT REGEXP_EXTRACT(jsonPayload.message, r'"(.*?)"') AS imageName, COUNT(*) AS numberOfPulls FROM `DATASET-PROJECT.DATASET-NAME.events_*` GROUP BY imageName ORDER BY numberOfPulls DESC
donde
- DATASET-PROJECT es el proyecto que contiene tu conjunto de datos.
- DATASET-NAME es el nombre del conjunto de datos.
Copia imágenes en Artifact Registry
Una vez que identificaste imágenes de registros de terceros, estás listo para copiarlas en Artifact Registry. La herramienta gcrane te ayuda con el proceso de copiado.
Crea un archivo de texto
images.txt
con los nombres de las imágenes que identificaste. Por ejemplo:ubuntu:18.04 debian:buster hello-world:latest redis:buster jupyter/tensorflow-notebook
Descarga gcrane.
GO111MODULE=on go get github.com/google/go-containerregistry/cmd/gcrane
Crea una secuencia de comandos llamada
copy_images.sh
para copiar tu lista de archivos.#!/bin/bash images=$(cat images.txt) if [ -z "${AR_PROJECT}" ] then echo ERROR: AR_PROJECT must be set before running this exit 1 fi for img in ${images} do gcrane cp ${img} LOCATION-docker.pkg.dev/${AR_PROJECT}/${img} done
Reemplaza
LOCATION
por la ubicación regional o multirregional del repositorio.Haz que la secuencia de comandos sea ejecutable:
chmod +x copy_images.sh
Ejecuta la secuencia de comandos para copiar los archivos:
AR_PROJECT=${PROJECT} ./copy_images.sh
Verifica los permisos
Asegúrate de que los permisos estén configurados de forma correcta antes de actualizar y volver a implementar tus cargas de trabajo.
Para obtener más información, consulta la documentación sobre el control de acceso.
Actualiza los manifiestos para que hagan referencia a Artifact Registry
Actualiza tus Dockerfiles y tus manifiestos para que hagan referencia a Artifact Registry, en lugar de al registro de terceros.
En el siguiente ejemplo, se muestra un manifiesto que hace referencia a un registro de terceros:
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx-deployment
spec:
selector:
matchLabels:
app: nginx
replicas: 2
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx:1.14.2
ports:
- containerPort: 80
Esta versión actualizada del manifiesto apunta a una imagen en us-docker.pkg.dev
.
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx-deployment
spec:
selector:
matchLabels:
app: nginx
replicas: 2
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: us-docker.pkg.dev/<AR_PROJECT>/nginx:1.14.2
ports:
- containerPort: 80
Para una gran cantidad de manifiestos, usa sed o cualquier otra herramienta que pueda controlar las actualizaciones en muchos archivos de texto.
Vuelve a implementar las cargas de trabajo
Vuelve a implementar las cargas de trabajo con tus manifiestos actualizados.
Ejecuta la siguiente consulta en la consola de BigQuery para hacer un seguimiento de las extracciones de imágenes nuevas:
SELECT`
FORMAT_TIMESTAMP("%D %R", timestamp) as timeOfImagePull,
REGEXP_EXTRACT(jsonPayload.message, r'"(.*?)"') AS imageName,
COUNT(*) AS numberOfPulls
FROM
`image_pull_logs.events_*`
GROUP BY
timeOfImagePull,
imageName
ORDER BY
timeOfImagePull DESC,
numberOfPulls DESC
Todas las extracciones de imágenes nuevas deben ser de Artifact Registry y contener la string docker.pkg.dev
.