Crea e utilizza VM prerilasciabili

Questa pagina spiega come creare e utilizzare una macchina virtuale (VM) prerilasciabile in esecuzione in un'istanza Compute Engine. Le VM prerilasciabili sono disponibili con uno sconto fino al 60-91% rispetto il prezzo delle VM standard. Tuttavia, Compute Engine arrestare (prerilasciare) queste VM se ha bisogno di recuperare queste risorse altre attività. Le VM prerilasciabili si arrestano sempre dopo 24 ore. Le VM prerilasciabili sono consigliate solo per la tolleranza di errore in grado di sopportare il prerilascio delle VM. Assicurati che la tua applicazione può gestire i prerilascio prima di decidere di creare una VM prerilasciabile. Per comprendere i rischi e il valore delle VM prerilasciabili, consulta documentazione sulle istanze VM prerilasciabili.

Prima di iniziare

  • Leggi la documentazione sulle istanze VM prerilasciabili.
  • Se non l'hai già fatto, configura l'autenticazione. Autenticazione è Il processo di verifica dell'identità per l'accesso ai servizi e alle API di Google Cloud. Per eseguire codice o esempi da un ambiente di sviluppo locale, puoi eseguire l'autenticazione Compute Engine come segue.

    Select the tab for how you plan to use the samples on this page:

    Console

    When you use the Google Cloud console to access Google Cloud services and APIs, you don't need to set up authentication.

    gcloud

    1. Installa Google Cloud CLI, quindi initialize eseguendo questo comando:

      gcloud init
    2. Set a default region and zone.
    3. Vai

      Per utilizzare gli Go esempi in questa pagina in una località dell'ambiente di sviluppo, installare e inizializzare gcloud CLI quindi configura Credenziali predefinite dell'applicazione con le tue credenziali utente.

      1. Installa Google Cloud CLI.
      2. Per initialize gcloud CLI, esegui questo comando:

        gcloud init
      3. Crea credenziali di autenticazione locali per il tuo Account Google:

        gcloud auth application-default login

      Per ulteriori informazioni, vedi Set up authentication for a local development environment.

      Java

      Per utilizzare gli Java esempi in questa pagina in una località dell'ambiente di sviluppo, installare e inizializzare gcloud CLI quindi configura Credenziali predefinite dell'applicazione con le tue credenziali utente.

      1. Installa Google Cloud CLI.
      2. Per initialize gcloud CLI, esegui questo comando:

        gcloud init
      3. Crea credenziali di autenticazione locali per il tuo Account Google:

        gcloud auth application-default login

      Per ulteriori informazioni, vedi Set up authentication for a local development environment.

      Node.js

      Per utilizzare gli Node.js esempi in questa pagina in una località dell'ambiente di sviluppo, installare e inizializzare gcloud CLI quindi configura Credenziali predefinite dell'applicazione con le tue credenziali utente.

      1. Installa Google Cloud CLI.
      2. Per initialize gcloud CLI, esegui questo comando:

        gcloud init
      3. Crea credenziali di autenticazione locali per il tuo Account Google:

        gcloud auth application-default login

      Per ulteriori informazioni, vedi Set up authentication for a local development environment.

      Python

      Per utilizzare gli Python esempi in questa pagina in una località dell'ambiente di sviluppo, installare e inizializzare gcloud CLI quindi configura Credenziali predefinite dell'applicazione con le tue credenziali utente.

      1. Installa Google Cloud CLI.
      2. Per initialize gcloud CLI, esegui questo comando:

        gcloud init
      3. Crea credenziali di autenticazione locali per il tuo Account Google:

        gcloud auth application-default login

      Per ulteriori informazioni, vedi Set up authentication for a local development environment.

      REST

      Per utilizzare gli esempi di API REST in questa pagina in un ambiente di sviluppo locale, utilizzi le credenziali che fornisci a gcloud CLI.

        Installa Google Cloud CLI, quindi initialize eseguendo questo comando:

        gcloud init

      Per ulteriori informazioni, vedi Esegui l'autenticazione per l'utilizzo di REST nella documentazione sull'autenticazione di Google Cloud.

Crea una VM prerilasciabile

Crea una VM prerilasciabile utilizzando con gcloud CLI o l'API Compute Engine. Per utilizzare nella console Google Cloud, crea una VM spot .

gcloud

Con gcloud compute, usa lo stesso comando instances create che che useresti per creare una normale VM, ma aggiungi --preemptible flag.

gcloud compute instances create [VM_NAME] --preemptible

dove [VM_NAME] è il name della VM.

Vai

import (
	"context"
	"fmt"
	"io"

	compute "cloud.google.com/go/compute/apiv1"
	computepb "cloud.google.com/go/compute/apiv1/computepb"
	"google.golang.org/protobuf/proto"
)

// createPreemtibleInstance creates a new preemptible VM instance
// with Debian 10 operating system.
func createPreemtibleInstance(
	w io.Writer, projectID, zone, instanceName string,
) error {
	// projectID := "your_project_id"
	// zone := "europe-central2-b"
	// instanceName := "your_instance_name"
	// preemptible := true

	ctx := context.Background()
	instancesClient, err := compute.NewInstancesRESTClient(ctx)
	if err != nil {
		return fmt.Errorf("NewInstancesRESTClient: %w", err)
	}
	defer instancesClient.Close()

	imagesClient, err := compute.NewImagesRESTClient(ctx)
	if err != nil {
		return fmt.Errorf("NewImagesRESTClient: %w", err)
	}
	defer imagesClient.Close()

	// List of public operating system (OS) images:
	// https://cloud.google.com/compute/docs/images/os-details.
	newestDebianReq := &computepb.GetFromFamilyImageRequest{
		Project: "debian-cloud",
		Family:  "debian-11",
	}
	newestDebian, err := imagesClient.GetFromFamily(ctx, newestDebianReq)
	if err != nil {
		return fmt.Errorf("unable to get image from family: %w", err)
	}

	inst := &computepb.Instance{
		Name: proto.String(instanceName),
		Disks: []*computepb.AttachedDisk{
			{
				InitializeParams: &computepb.AttachedDiskInitializeParams{
					DiskSizeGb:  proto.Int64(10),
					SourceImage: newestDebian.SelfLink,
					DiskType:    proto.String(fmt.Sprintf("zones/%s/diskTypes/pd-standard", zone)),
				},
				AutoDelete: proto.Bool(true),
				Boot:       proto.Bool(true),
			},
		},
		Scheduling: &computepb.Scheduling{
			// Set the preemptible setting
			Preemptible: proto.Bool(true),
		},
		MachineType: proto.String(fmt.Sprintf("zones/%s/machineTypes/n1-standard-1", zone)),
		NetworkInterfaces: []*computepb.NetworkInterface{
			{
				Name: proto.String("global/networks/default"),
			},
		},
	}

	req := &computepb.InsertInstanceRequest{
		Project:          projectID,
		Zone:             zone,
		InstanceResource: inst,
	}

	op, err := instancesClient.Insert(ctx, req)
	if err != nil {
		return fmt.Errorf("unable to create instance: %w", err)
	}

	if err = op.Wait(ctx); err != nil {
		return fmt.Errorf("unable to wait for the operation: %w", err)
	}

	fmt.Fprintf(w, "Instance created\n")

	return nil
}

Java


import com.google.cloud.compute.v1.AttachedDisk;
import com.google.cloud.compute.v1.AttachedDiskInitializeParams;
import com.google.cloud.compute.v1.InsertInstanceRequest;
import com.google.cloud.compute.v1.Instance;
import com.google.cloud.compute.v1.InstancesClient;
import com.google.cloud.compute.v1.NetworkInterface;
import com.google.cloud.compute.v1.Operation;
import com.google.cloud.compute.v1.Scheduling;
import java.io.IOException;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class CreatePreemptibleInstance {

  public static void main(String[] args)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    // projectId: project ID or project number of the Cloud project you want to use.
    // zone: name of the zone you want to use. For example: “us-west3-b”
    // instanceName: name of the new virtual machine.
    String projectId = "your-project-id-or-number";
    String zone = "zone-name";
    String instanceName = "instance-name";

    createPremptibleInstance(projectId, zone, instanceName);
  }

  // Send an instance creation request with preemptible settings to the Compute Engine API
  // and wait for it to complete.
  public static void createPremptibleInstance(String projectId, String zone, String instanceName)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {

    String machineType = String.format("zones/%s/machineTypes/e2-small", zone);
    String sourceImage = "projects/debian-cloud/global/images/family/debian-11";
    long diskSizeGb = 10L;
    String networkName = "default";

    try (InstancesClient instancesClient = InstancesClient.create()) {

      AttachedDisk disk =
          AttachedDisk.newBuilder()
              .setBoot(true)
              .setAutoDelete(true)
              .setType(AttachedDisk.Type.PERSISTENT.toString())
              .setInitializeParams(
                  // Describe the size and source image of the boot disk to attach to the instance.
                  AttachedDiskInitializeParams.newBuilder()
                      .setSourceImage(sourceImage)
                      .setDiskSizeGb(diskSizeGb)
                      .build())
              .build();

      // Use the default VPC network.
      NetworkInterface networkInterface = NetworkInterface.newBuilder()
          .setName(networkName)
          .build();

      // Collect information into the Instance object.
      Instance instanceResource =
          Instance.newBuilder()
              .setName(instanceName)
              .setMachineType(machineType)
              .addDisks(disk)
              .addNetworkInterfaces(networkInterface)
              // Set the preemptible setting.
              .setScheduling(Scheduling.newBuilder()
                  .setPreemptible(true)
                  .build())
              .build();

      System.out.printf("Creating instance: %s at %s %n", instanceName, zone);

      // Prepare the request to insert an instance.
      InsertInstanceRequest insertInstanceRequest = InsertInstanceRequest.newBuilder()
          .setProject(projectId)
          .setZone(zone)
          .setInstanceResource(instanceResource)
          .build();

      // Wait for the create operation to complete.
      Operation response = instancesClient.insertAsync(insertInstanceRequest)
          .get(3, TimeUnit.MINUTES);
      ;

      if (response.hasError()) {
        System.out.println("Instance creation failed ! ! " + response);
        return;
      }

      System.out.printf("Instance created : %s\n", instanceName);
      System.out.println("Operation Status: " + response.getStatus());
    }
  }
}

Node.js

/**
 * TODO(developer): Uncomment and replace these variables before running the sample.
 */
// const projectId = 'YOUR_PROJECT_ID';
// const zone = 'europe-central2-b';
// const instanceName = 'YOUR_INSTANCE_NAME';

const compute = require('@google-cloud/compute');

async function createPreemptible() {
  const instancesClient = new compute.InstancesClient();

  const [response] = await instancesClient.insert({
    instanceResource: {
      name: instanceName,
      disks: [
        {
          initializeParams: {
            diskSizeGb: '64',
            sourceImage:
              'projects/debian-cloud/global/images/family/debian-11/',
          },
          autoDelete: true,
          boot: true,
        },
      ],
      scheduling: {
        // Set the preemptible setting
        preemptible: true,
      },
      machineType: `zones/${zone}/machineTypes/e2-small`,
      networkInterfaces: [
        {
          name: 'global/networks/default',
        },
      ],
    },
    project: projectId,
    zone,
  });
  let operation = response.latestResponse;
  const operationsClient = new compute.ZoneOperationsClient();

  // Wait for the create operation to complete.
  while (operation.status !== 'DONE') {
    [operation] = await operationsClient.wait({
      operation: operation.name,
      project: projectId,
      zone: operation.zone.split('/').pop(),
    });
  }

  console.log('Instance created.');
}

createPreemptible();

Python

from __future__ import annotations

import re
import sys
from typing import Any
import warnings

from google.api_core.extended_operation import ExtendedOperation
from google.cloud import compute_v1


def get_image_from_family(project: str, family: str) -> compute_v1.Image:
    """
    Retrieve the newest image that is part of a given family in a project.

    Args:
        project: project ID or project number of the Cloud project you want to get image from.
        family: name of the image family you want to get image from.

    Returns:
        An Image object.
    """
    image_client = compute_v1.ImagesClient()
    # List of public operating system (OS) images: https://cloud.google.com/compute/docs/images/os-details
    newest_image = image_client.get_from_family(project=project, family=family)
    return newest_image


def disk_from_image(
    disk_type: str,
    disk_size_gb: int,
    boot: bool,
    source_image: str,
    auto_delete: bool = True,
) -> compute_v1.AttachedDisk:
    """
    Create an AttachedDisk object to be used in VM instance creation. Uses an image as the
    source for the new disk.

    Args:
         disk_type: the type of disk you want to create. This value uses the following format:
            "zones/{zone}/diskTypes/(pd-standard|pd-ssd|pd-balanced|pd-extreme)".
            For example: "zones/us-west3-b/diskTypes/pd-ssd"
        disk_size_gb: size of the new disk in gigabytes
        boot: boolean flag indicating whether this disk should be used as a boot disk of an instance
        source_image: source image to use when creating this disk. You must have read access to this disk. This can be one
            of the publicly available images or an image from one of your projects.
            This value uses the following format: "projects/{project_name}/global/images/{image_name}"
        auto_delete: boolean flag indicating whether this disk should be deleted with the VM that uses it

    Returns:
        AttachedDisk object configured to be created using the specified image.
    """
    boot_disk = compute_v1.AttachedDisk()
    initialize_params = compute_v1.AttachedDiskInitializeParams()
    initialize_params.source_image = source_image
    initialize_params.disk_size_gb = disk_size_gb
    initialize_params.disk_type = disk_type
    boot_disk.initialize_params = initialize_params
    # Remember to set auto_delete to True if you want the disk to be deleted when you delete
    # your VM instance.
    boot_disk.auto_delete = auto_delete
    boot_disk.boot = boot
    return boot_disk


def wait_for_extended_operation(
    operation: ExtendedOperation, verbose_name: str = "operation", timeout: int = 300
) -> Any:
    """
    Waits for the extended (long-running) operation to complete.

    If the operation is successful, it will return its result.
    If the operation ends with an error, an exception will be raised.
    If there were any warnings during the execution of the operation
    they will be printed to sys.stderr.

    Args:
        operation: a long-running operation you want to wait on.
        verbose_name: (optional) a more verbose name of the operation,
            used only during error and warning reporting.
        timeout: how long (in seconds) to wait for operation to finish.
            If None, wait indefinitely.

    Returns:
        Whatever the operation.result() returns.

    Raises:
        This method will raise the exception received from `operation.exception()`
        or RuntimeError if there is no exception set, but there is an `error_code`
        set for the `operation`.

        In case of an operation taking longer than `timeout` seconds to complete,
        a `concurrent.futures.TimeoutError` will be raised.
    """
    result = operation.result(timeout=timeout)

    if operation.error_code:
        print(
            f"Error during {verbose_name}: [Code: {operation.error_code}]: {operation.error_message}",
            file=sys.stderr,
            flush=True,
        )
        print(f"Operation ID: {operation.name}", file=sys.stderr, flush=True)
        raise operation.exception() or RuntimeError(operation.error_message)

    if operation.warnings:
        print(f"Warnings during {verbose_name}:\n", file=sys.stderr, flush=True)
        for warning in operation.warnings:
            print(f" - {warning.code}: {warning.message}", file=sys.stderr, flush=True)

    return result


def create_instance(
    project_id: str,
    zone: str,
    instance_name: str,
    disks: list[compute_v1.AttachedDisk],
    machine_type: str = "n1-standard-1",
    network_link: str = "global/networks/default",
    subnetwork_link: str = None,
    internal_ip: str = None,
    external_access: bool = False,
    external_ipv4: str = None,
    accelerators: list[compute_v1.AcceleratorConfig] = None,
    preemptible: bool = False,
    spot: bool = False,
    instance_termination_action: str = "STOP",
    custom_hostname: str = None,
    delete_protection: bool = False,
) -> compute_v1.Instance:
    """
    Send an instance creation request to the Compute Engine API and wait for it to complete.

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        zone: name of the zone to create the instance in. For example: "us-west3-b"
        instance_name: name of the new virtual machine (VM) instance.
        disks: a list of compute_v1.AttachedDisk objects describing the disks
            you want to attach to your new instance.
        machine_type: machine type of the VM being created. This value uses the
            following format: "zones/{zone}/machineTypes/{type_name}".
            For example: "zones/europe-west3-c/machineTypes/f1-micro"
        network_link: name of the network you want the new instance to use.
            For example: "global/networks/default" represents the network
            named "default", which is created automatically for each project.
        subnetwork_link: name of the subnetwork you want the new instance to use.
            This value uses the following format:
            "regions/{region}/subnetworks/{subnetwork_name}"
        internal_ip: internal IP address you want to assign to the new instance.
            By default, a free address from the pool of available internal IP addresses of
            used subnet will be used.
        external_access: boolean flag indicating if the instance should have an external IPv4
            address assigned.
        external_ipv4: external IPv4 address to be assigned to this instance. If you specify
            an external IP address, it must live in the same region as the zone of the instance.
            This setting requires `external_access` to be set to True to work.
        accelerators: a list of AcceleratorConfig objects describing the accelerators that will
            be attached to the new instance.
        preemptible: boolean value indicating if the new instance should be preemptible
            or not. Preemptible VMs have been deprecated and you should now use Spot VMs.
        spot: boolean value indicating if the new instance should be a Spot VM or not.
        instance_termination_action: What action should be taken once a Spot VM is terminated.
            Possible values: "STOP", "DELETE"
        custom_hostname: Custom hostname of the new VM instance.
            Custom hostnames must conform to RFC 1035 requirements for valid hostnames.
        delete_protection: boolean value indicating if the new virtual machine should be
            protected against deletion or not.
    Returns:
        Instance object.
    """
    instance_client = compute_v1.InstancesClient()

    # Use the network interface provided in the network_link argument.
    network_interface = compute_v1.NetworkInterface()
    network_interface.network = network_link
    if subnetwork_link:
        network_interface.subnetwork = subnetwork_link

    if internal_ip:
        network_interface.network_i_p = internal_ip

    if external_access:
        access = compute_v1.AccessConfig()
        access.type_ = compute_v1.AccessConfig.Type.ONE_TO_ONE_NAT.name
        access.name = "External NAT"
        access.network_tier = access.NetworkTier.PREMIUM.name
        if external_ipv4:
            access.nat_i_p = external_ipv4
        network_interface.access_configs = [access]

    # Collect information into the Instance object.
    instance = compute_v1.Instance()
    instance.network_interfaces = [network_interface]
    instance.name = instance_name
    instance.disks = disks
    if re.match(r"^zones/[a-z\d\-]+/machineTypes/[a-z\d\-]+$", machine_type):
        instance.machine_type = machine_type
    else:
        instance.machine_type = f"zones/{zone}/machineTypes/{machine_type}"

    instance.scheduling = compute_v1.Scheduling()
    if accelerators:
        instance.guest_accelerators = accelerators
        instance.scheduling.on_host_maintenance = (
            compute_v1.Scheduling.OnHostMaintenance.TERMINATE.name
        )

    if preemptible:
        # Set the preemptible setting
        warnings.warn(
            "Preemptible VMs are being replaced by Spot VMs.", DeprecationWarning
        )
        instance.scheduling = compute_v1.Scheduling()
        instance.scheduling.preemptible = True

    if spot:
        # Set the Spot VM setting
        instance.scheduling.provisioning_model = (
            compute_v1.Scheduling.ProvisioningModel.SPOT.name
        )
        instance.scheduling.instance_termination_action = instance_termination_action

    if custom_hostname is not None:
        # Set the custom hostname for the instance
        instance.hostname = custom_hostname

    if delete_protection:
        # Set the delete protection bit
        instance.deletion_protection = True

    # Prepare the request to insert an instance.
    request = compute_v1.InsertInstanceRequest()
    request.zone = zone
    request.project = project_id
    request.instance_resource = instance

    # Wait for the create operation to complete.
    print(f"Creating the {instance_name} instance in {zone}...")

    operation = instance_client.insert(request=request)

    wait_for_extended_operation(operation, "instance creation")

    print(f"Instance {instance_name} created.")
    return instance_client.get(project=project_id, zone=zone, instance=instance_name)


def create_preemptible_instance(
    project_id: str, zone: str, instance_name: str
) -> compute_v1.Instance:
    """
    Create a new preemptible VM instance with Debian 10 operating system.

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        zone: name of the zone to create the instance in. For example: "us-west3-b"
        instance_name: name of the new virtual machine (VM) instance.

    Returns:
        Instance object.
    """
    newest_debian = get_image_from_family(project="debian-cloud", family="debian-11")
    disk_type = f"zones/{zone}/diskTypes/pd-standard"
    disks = [disk_from_image(disk_type, 10, True, newest_debian.self_link)]
    instance = create_instance(project_id, zone, instance_name, disks, preemptible=True)
    return instance

REST

Nell'API, costruisci una normale richiesta crea una VM, ma includi preemptible in scheduling e impostala su true. Ad esempio:

POST https://compute.googleapis.com/compute/v1/projects/[PROJECT_ID]/zones/[ZONE]/instances

{
  'machineType': 'zones/[ZONE]/machineTypes/[MACHINE_TYPE]',
  'name': '[INSTANCE_NAME]',
  'scheduling':
  {
    'preemptible': true
  },
  ...
}

Quote di CPU prerilasciabili

Le VM prerilasciabili richiedono la disponibilità Quote per le CPU come le VM standard. Da evitare le VM prerilasciabili che consumano le quote per le CPU per le VM standard puoi richiedere una "CPU prerilasciabile" quota. Dopo il giorno Compute Engine ti concede la quota di CPU prerilasciabile in quella regione, le VM prerilasciabili vengono conteggiate ai fini della quota e tutte le VM standard continuano a essere conteggiati ai fini della quota di CPU standard.

Nelle regioni in cui non hai una quota di CPU prerilasciabile, puoi usare CPU standard per avviare le VM prerilasciabili. Devi inoltre disporre di indirizzi IP sufficienti di archiviazione, come al solito. La quota di CPU prerilasciabili non è visibile in gcloud CLI o pagine delle quote della console Google Cloud a meno che Compute Engine non abbia concesso la quota.

Per ulteriori informazioni sulle quote, visita Pagina Quote delle risorse.

Avvia una VM prerilasciata

Come per qualsiasi altra VM, se una VM prerilasciabile viene arrestata o prerilasciata, puoi avvia la VM per riportarlo allo stato RUNNING. Avvio di una VM prerilasciabile reimposta il contatore delle 24 ore ma, poiché è ancora una VM prerilasciabile, può prerilasciare prima di 24 ore. Non è possibile convertire un modello prerilasciabile da una VM a una VM standard mentre è in esecuzione.

Se Compute Engine arresta una VM prerilasciabile in una scalabilità automatica gruppo di istanze gestite (MIG) o cluster Google Kubernetes Engine (GKE), riavvia la VM quando le risorse diventano di nuovo disponibili.

Gestire il prerilascio con uno script di chiusura

Quando Compute Engine prerilascia una VM, puoi usare un script di arresto per provare a eseguire la pulizia prima che la VM venga prerilasciata. Ad esempio, puoi interrompere delicatamente su un processo in esecuzione e copia un file di checkpoint Cloud Storage. In particolare, la durata massima del periodo di arresto è più breve per un prerilascio piuttosto che a un arresto avviato dall'utente. Per ulteriori informazioni sui periodo di chiusura per un avviso di prerilascio, consulta Procedura di prerilascio nella documentazione concettuale.

Di seguito è riportato uno script di chiusura che puoi aggiungere a una richiesta o aggiungila a una nuova VM prerilasciabile quando la crei. Questo script viene eseguito all'avvio dell'arresto della VM, prima dell'arresto il normale comando kill del sistema arresta tutti i processi rimanenti. Dopo il giorno interrompendo delicatamente il programma desiderato, lo script esegue un di un file di checkpoint in un bucket Cloud Storage.

#!/bin/bash

MY_PROGRAM="[PROGRAM_NAME]" # For example, "apache2" or "nginx"
MY_USER="[LOCAL_USERNAME]"
CHECKPOINT="/home/$MY_USER/checkpoint.out"
BUCKET_NAME="[BUCKET_NAME]" # For example, "my-checkpoint-files" (without gs://)

echo "Shutting down!  Seeing if ${MY_PROGRAM} is running."

# Find the newest copy of $MY_PROGRAM
PID="$(pgrep -n "$MY_PROGRAM")"

if [[ "$?" -ne 0 ]]; then
  echo "${MY_PROGRAM} not running, shutting down immediately."
  exit 0
fi

echo "Sending SIGINT to $PID"
kill -2 "$PID"

# Portable waitpid equivalent
while kill -0 "$PID"; do
   sleep 1
done

echo "$PID is done, copying ${CHECKPOINT} to gs://${BUCKET_NAME} as ${MY_USER}"

su "${MY_USER}" -c "gcloud storage cp $CHECKPOINT gs://${BUCKET_NAME}/"

echo "Done uploading, shutting down."

Per aggiungere questo script a una VM, configura lo script in modo che funzioni con un sulla tua VM e aggiungerla ai metadati della VM.

  1. Copia o scarica il script di arresto alla workstation locale.
  2. Apri il file da modificare e cambia le seguenti variabili:
    • [PROGRAM_NAME] è il nome del processo o del programma che vuoi chiudere verso il basso. Ad esempio, apache2 o nginx.
    • [LOCAL_USER] è il nome utente con cui hai eseguito l'accesso alla macchina virtuale.
    • [BUCKET_NAME] è il nome del bucket Cloud Storage in cui vuoi salvare il file dei checkpoint del programma. Tieni presente che il nome del bucket iniziano con gs:// in questo caso.
  3. Salva le modifiche.
  4. Aggiungi lo script di chiusura a un nuova VM o un VM esistente.

Questo script presuppone quanto segue:

  • La VM è stata creata con almeno accesso in lettura/scrittura a Cloud Storage. Consulta le documentazione sull'autenticazione per istruzioni su come creare una VM con gli ambiti appropriati.

  • Disponi già di un bucket Cloud Storage e dell'autorizzazione per scrivere li annotino.

Identifica le VM prerilasciabili

Per verificare se una VM è prerilasciabile, segui i passaggi per Identifica il modello di provisioning di una VM e l'azione di terminazione.

Determina se una VM è stata prerilasciata

Determina se una VM è stata prerilasciata con Console Google Cloud, gcloud CLI, oppure API.

Console

Puoi verificare se una VM è stata prerilasciata controllando l'attività di sistema logaritmi.

  1. Nella console Google Cloud, vai alla pagina Log.

    Vai a Log

  2. Seleziona il progetto e fai clic su Continua.

  3. Aggiungi compute.instances.preempted a campo filtra per etichetta o ricerca testuale.

  4. Se vuoi, puoi anche inserire il nome di una VM se vuoi visualizzare le operazioni di prerilascio per una VM.

  5. Premi Invio per applicare i filtri specificati. Console Google Cloud aggiorna l'elenco dei log per mostrare solo le operazioni in cui una VM è stato prerilasciato.

  6. Seleziona un'operazione nell'elenco per visualizzare i dettagli della VM che è stato prerilasciato.

gcloud


Utilizza la gcloud compute operations list con un parametro filter per un elenco di eventi di prerilascio nel progetto.

gcloud compute operations list \
    --filter="operationType=compute.instances.preempted"

Puoi utilizzare il parametro di filtro per definire ulteriormente l'ambito dei risultati. Ad esempio, per Visualizza gli eventi di prerilascio solo per le VM all'interno di un gruppo di istanze gestite:

gcloud compute operations list \
    --filter="operationType=compute.instances.preempted AND targetLink:instances/[BASE_VM_NAME]"

gcloud restituisce una risposta simile a:

NAME                  TYPE                         TARGET                                   HTTP_STATUS STATUS TIMESTAMP
systemevent-xxxxxxxx  compute.instances.preempted  us-central1-f/instances/example-vm-xxx  200         DONE   2015-04-02T12:12:10.881-07:00

Un'operazione di tipo compute.instances.preempted indica che La VM è stata prerilasciata. Puoi usare il comando operations describe per ulteriori informazioni su una specifica operazione di prerilascio.

gcloud compute operations describe \
    systemevent-xxxxxxxx

gcloud restituisce una risposta simile a:

...
operationType: compute.instances.preempted
progress: 100
selfLink: https://compute.googleapis.com/compute/v1/projects/[PROJECT_ID]/zones/us-central1-f/operations/systemevent-xxxxxxxx
startTime: '2015-04-02T12:12:10.881-07:00'
status: DONE
statusMessage: Instance was preempted.
...

REST


Per ottenere un elenco delle operazioni di sistema recenti, invia una richiesta GET all'URI delle operazioni di zona.

GET https://compute.googleapis.com/compute/v1/projects/[PROJECT_ID]/zones/[ZONE]/operations

La risposta contiene un elenco di operazioni recenti.

{
  "kind": "compute#operation",
  "id": "15041793718812375371",
  "name": "systemevent-xxxxxxxx",
  "zone": "https://www.googleapis.com/compute/v1/projects/[PROJECT_ID]/zones/us-central1-f",
  "operationType": "compute.instances.preempted",
  "targetLink": "https://www.googleapis.com/compute/v1/projects/[PROJECT_ID]/zones/us-central1-f/instances/example-vm",
  "targetId": "12820389800990687210",
  "status": "DONE",
  "statusMessage": "Instance was preempted.",
  ...
}

Per definire l'ambito della risposta in modo che mostri solo le operazioni di prerilascio, puoi aggiungere un filtro per la tua richiesta API: operationType="compute.instances.preempted". Per visualizzare le operazioni di prerilascio per una VM specifica, aggiungi un parametro targetLink al filtro: operationType="compute.instances.preempted" AND targetLink="https://www.googleapis.com/compute/v1/projects/[PROJECT_ID]/zones/[ZONE]/instances/[VM_NAME]".

In alternativa, puoi determinare se una VM è stata prerilasciata dall'interno e la VM. Questa opzione è utile se vuoi gestire un arresto a causa di il prerilascio di Compute Engine è diverso da quello la chiusura in uno script di arresto. A questo scopo, è sufficiente selezionare il server di metadati per il valore preempted nella macchina virtuale metadati dell'istanza predefiniti.

Ad esempio, usa curl dall'interno della VM per ottenere il valore di preempted:

curl "http://metadata.google.internal/computeMetadata/v1/instance/preempted" -H "Metadata-Flavor: Google"
TRUE

Se questo valore è TRUE, la VM è stata prerilasciata da Compute Engine altrimenti è FALSE.

Se vuoi utilizzarlo al di fuori di uno script di chiusura, puoi aggiungere ?wait_for_change=true all'URL. Questa operazione esegue una richiesta GET HTTP in attesa che restituisce solo se i metadati sono stati modificati e la VM è stata prerilasciata.

curl "http://metadata.google.internal/computeMetadata/v1/instance/preempted?wait_for_change=true" -H "Metadata-Flavor: Google"
TRUE

Testa le impostazioni di prerilascio

Puoi eseguire eventi di manutenzione simulati sul tuo VM per forzarne il prerilascio. Usa questa funzionalità per testare il modo in cui le tue app per gestire le VM prerilasciabili. Letto per verificare i criteri di disponibilità per scoprire come testare gli eventi di manutenzione sulle tue VM.

Puoi anche simulare il prerilascio di una VM arresto della VM, che può essere utilizzato invece di simulare un evento di manutenzione, evitando così la quota limiti.

Best practice

Ecco alcune best practice per aiutarti a ottenere il massimo dalla prerilasciabile di istanze VM di Compute Engine.

Utilizzo dell'API per istanze collettive

Anziché creare singole VM, puoi utilizzare l'istanza in blocco tramite Google Cloud.

Scegli forme di macchina più piccole

Le risorse per le VM prerilasciabili provengono da Google Cloud in eccesso e di backup e la capacità di archiviazione. La capacità è spesso più facile da ottenere per i tipi di macchine più piccole, il che significa con meno risorse come vCPU e memoria. Potresti trovare altri per le VM prerilasciabili selezionando un tipo di macchina personalizzata più piccola, è ancora più probabile per i tipi di macchina predefinita più piccoli. Per rispetto alla capacità dell'intervallo predefinito n2-standard-32 tipo di macchina personalizzata, la capacità per il tipo di macchina personalizzata n2-custom-24-96 è ma la capacità per il tipo di macchina predefinita n2-standard-16 è ancora più probabile.

Esegui cluster di VM prerilasciabile di grandi dimensioni durante le ore di punta

Il carico sui data center Google Cloud varia a seconda posizione e ora del giorno, ma generalmente i valori più bassi di notte e nei fine settimana. Di conseguenza, le notti e i fine settimana sono i momenti migliori per eseguire grandi cluster di VM prerilasciabile.

Progetta le tue applicazioni in modo che siano a tolleranza di errore e di prerilascio

È importante prepararsi ai cambiamenti schemi di prerilascio in diversi momenti. Ad esempio: Se una zona subisce un'interruzione parziale, un numero elevato di VM prerilasciabili potrebbe essere prerilasciata per fare spazio alle VM standard che devono spostati nell'ambito del ripristino. In quel piccolo lasso di tempo, il tasso di prerilascio sarebbe molto diverso da qualsiasi altro giorno. Se la tua applicazione presuppone che i prerilasci vengono sempre effettuati in piccoli gruppi, per un evento di questo tipo. Puoi testare il comportamento della tua applicazione con un prerilascio arrestando l'istanza VM.

Riprova a creare VM prerilasciate

Se la tua istanza VM è stata prerilasciata, prova a creare nuove VM prerilasciabili una o due volte prima di ricorrere alle VM standard. In base di archiviazione dei componenti, potrebbe essere una buona idea combinare VM nei tuoi cluster per garantire che il lavoro proceda a un ritmo adeguato.

Utilizzare gli script di chiusura

Gestisci gli avvisi di chiusura e prerilascio con un script di arresto che può salvare l'avanzamento di un job in modo che possa riprendere da dove era stato interrotto, anziché ricominciare da zero.

Passaggi successivi