Compilar una granja de procesamiento híbrida

En este artículo se proporciona orientación para que puedas ampliar tu granja de procesamiento local existente y que use recursos de procesamiento en Google Cloud Platform (GCP). Para ello, supondremos que ya implementaste una granja de procesamiento local y que estás familiarizado con los conceptos básicos de efectos visuales (VFX) y canalización de animación, software de administración de colas y los métodos comunes para conceder licencias de software.

Descripción general

El procesamiento de elementos en 2D o 3D para animaciones, películas, comerciales o videojuegos es una tarea que exige mucho tiempo y recursos de procesamiento. También requiere de una inversión sustancial en infraestructura y hardware, junto con un equipo dedicado de profesionales de TI que implementen y mantengan el hardware y el software.

Cuando se utiliza la totalidad de una granja de procesamiento local, la administración de los trabajos puede convertirse en un desafío. Las prioridades y dependencias de las tareas, el reinicio de los marcos descartados, la red, los discos y la carga de CPU se convierten en una parte de la ecuación compleja que debes supervisar y controlar de cerca y, a menudo, con plazos muy ajustados.

Para administrar estos trabajos, se incorporó un software de administración de colas en las canalizaciones de las instalaciones de efectos visuales. Este software realiza las siguientes funciones:

  • Implementa trabajos en los recursos locales y en la nube.
  • Administra dependencias entre trabajos.
  • Se comunica con los sistemas de administración de activos.
  • Proporciona a los usuarios una interfaz de usuario y API para los lenguajes comunes, como Python.

Aunque algunos software de administración de colas pueden implementar trabajos en trabajadores en la nube, sigues siendo responsable de conectarte a la nube, sincronizar los activos, elegir un marco de trabajo de almacenamiento, administrar las plantillas de imágenes y proporcionar tus propias licencias de software.

En algunas instalaciones pequeñas o medianas que carecen de los recursos técnicos para implementar una granja de procesamiento híbrido, se puede utilizar el servicio de granja de procesamiento de Google, llamado Zync. A fin de determinar cuál es la solución ideal para tu instalación, comunícate con tu representante de GCP.

Nota: En este artículo encontrarás notas de producción con recomendaciones para ayudarte a compilar tu granja de procesamiento.

Conectarse a la nube

Para determinar el modo de conexión de tu instalación a GCP debes tener en cuenta tu carga de trabajo. El modo de conexión puede ser a través de un ISP asociado, una conexión directa o por Internet pública.

Conexión a Internet

Sin necesidad de contar con un tipo de conectividad especial, puedes acceder a los servicios de GCP en Internet para conectarte a la red de Google y usar nuestro modelo de seguridad de extremo a extremo. Los servicios, como las herramientas de la línea de comandos de gcloud y gsutil, y los recursos, como la API de Compute Engine usan autenticación segura, autorización y encriptación para proteger tus datos.

Cloud VPN

Independientemente del modo en que te conectas, recomendamos que uses una red privada virtual (VPN) para que tu conexión sea segura.

Cloud VPN te ayuda a conectar tu red local con tu red de la nube privada virtual (VPC) de Google mediante una conexión de VPN con IPsec. Los datos que están en tránsito se encriptan antes de pasar por uno o más de los túneles VPN.

Obtén más información sobre cómo crear una VPN para tu proyecto.

VPN proporcionada por el cliente

Si bien puedes configurar tu propia puerta de enlace VPN para conectarte directamente con Google, recomendamos usar Cloud VPN, ya que ofrece mayor flexibilidad y mejor integración con GCP.

Cloud Interconnect

Google admite varias formas de conectar tu infraestructura con GCP. Las conexiones de nivel empresarial, que en conjunto se conocen como Cloud Interconnect, ofrecen mayor disponibilidad y menor latencia que las conexiones a Internet estándar, además de precios de salida más bajos.

Interconexión dedicada

La interconexión dedicada ofrece conexiones físicas directas y comunicación RFC 1918 entre tu red local y la red de Google. Proporciona capacidad de conexión por una o más conexiones Ethernet de 10 Gbps, con un máximo de ocho conexiones o un total de 80 Gbps por interconexión.

El tráfico de la interconexión dedicada no está encriptado. Por ello, si necesitas transmitir datos entre las interconexiones dedicadas de forma segura, debes establecer tu propia conexión de VPN. Cloud VPN no es compatible con la interconexión dedicada, por lo que deberás proporcionar tu propia VPN en este caso.

Interconexión de socio

La interconexión de socio proporciona conectividad entre tu red local y tu red de VPC a través de un proveedor de servicios admitido. Una conexión por interconexión de socio es útil si tu infraestructura se encuentra en una ubicación física que no puede alcanzar una instalación de colocación de interconexión dedicada o si tus necesidades de datos no garantizan una conexión completa de 10 Gbps.

Otros tipos de conexiones

En tu ubicación específica, podría haber otras formas disponibles para conectarse a Google. Si deseas obtener ayuda para determinar cuál es la forma más adecuada y rentable de conectarte a GCP, comunícate con tu representante de GCP.

Asegurar tu contenido

Para poder ejecutar su contenido en cualquier plataforma de nube pública, los propietarios del contenido, como los principales estudios de Hollywood, requieren que sus proveedores cumplan con las recomendaciones de seguridad que se definen tanto a nivel interno como de la organización, por ejemplo, la MPAA.

Si bien cada estudio tiene requisitos que pueden diferir levemente entre sí, en Asegurar las cargas de trabajo de procesamiento encontrarás recomendaciones para compilar una granja de procesamiento híbrido. También encontrarás informes de seguridad y documentación de cumplimiento en cloud.google.com/security.

Si tienes preguntas sobre el proceso de auditoría para cumplimiento de seguridad, comunícate con tu representante de GCP.

Organizar tus proyectos

Los proyectos son un componente organizativo central de GCP. En tus instalaciones, puedes organizar los trabajos dentro de su propio proyecto o dividirlos en varios proyectos. Por ejemplo, podrás crear proyectos independientes para las etapas de previsualización, investigación y desarrollo y producción de una película.

Los proyectos establecen un límite de aislamiento para los datos de red y la administración del proyecto. No obstante, puedes compartir redes entre los proyectos con la VPC compartida, que proporciona acceso a los recursos comunes para los proyectos independientes.

Notas de producción: crea un proyecto de host de VPC compartida que contenga recursos con todas tus herramientas de producción. Puedes designar todos los proyectos que se creen en tu organización como proyectos de servicio de VPC compartida. Esta designación significa que todos los proyectos de tu organización pueden acceder a las mismas bibliotecas, secuencias de comandos y software que proporciona el proyecto host.

Recurso de organización

Puedes administrar proyectos en un recurso de organización, que podrías ya tener establecido. La migración de todos tus proyectos a una organización presenta varios beneficios.

Notas de producción: designa administradores de producción como propietarios de sus proyectos independientes y administración del estudio como propietarios del recurso de organización.

Definir el acceso a los recursos

Los proyectos requieren acceso seguro a los recursos y restricciones sobre los lugares autorizados para que operen los usuarios o servicios. Para ayudarte a definir el acceso, GCP ofrece Cloud Identity and Access Management (Cloud IAM), que te permite administrar el control de acceso mediante la definición de las funciones y sus niveles de acceso a recursos específicos.

Notas de producción: si deseas restringir el acceso de los usuarios a los recursos que son necesarios para realizar tareas específicas según su función, implementa el principio del mínimo privilegio a nivel local y en la nube.

Por ejemplo, piensa en un trabajador de procesamiento, que es una máquina virtual (VM) que puedes implementar desde una plantilla de instancias predeterminada que usa una imagen personalizada. El trabajador de procesamiento que está en ejecución bajo una cuenta de servicio puede leer desde Cloud Storage y escribir en el almacenamiento adjunto, como el servidor de archivos en la nube o un disco persistente. Sin embargo, no necesitas agregar artistas individuales a los proyectos de GCP, ya que estos no requieren acceso directo a los recursos de la nube.

Puedes asignar funciones a los administradores de procesamiento o a los administradores del proyecto que tienen acceso a todos los recursos de Compute Engine, lo que les permite realizar funciones en recursos que no son accesibles para otros usuarios.

Define una política para establecer qué funciones pueden acceder a qué tipos de recursos en tu organización. En la siguiente tabla se muestra cómo se asignan las tareas de producción típicas a las funciones de IAM en GCP.

Tarea de producción Nombre de la función Tipo de recurso
Administrador del estudio resourcemanager.organizationAdmin Organización
Proyecto
Administrador de producción owner, editor Proyecto
Administrador de procesamiento compute.admin, iam.serviceAccountActor Proyecto
Cuenta de administración de colas compute.admin, iam.serviceAccountActor Organización
Proyecto
Artista individual [sin acceso] No aplicable

Alcance del acceso

Los alcances de acceso te ofrecen una forma de controlar los permisos de una instancia en ejecución, sin importar quién haya accedido. Puedes especificar alcances cuando creas una instancia o cuando el software de administración de colas implementa recursos desde una plantilla de instancias.

Los alcances tienen prioridad sobre los permisos de IAM de una cuenta de usuario o de servicio individual. Esta prioridad significa que un alcance de acceso puede evitar que un administrador del proyecto acceda a una instancia para borrar un depósito de almacenamiento o cambiar una configuración del firewall.

Notas de producción: Según la configuración predeterminada, las instancias pueden leer, pero no escribir en Cloud Storage. Si tu canalización de procesamiento escribe procesamientos finalizados en Cloud Storage, agrega el alcance devstorage.read_write a tu instancia en el momento de crearla.

Elegir el modo de implementar los recursos

Con el procesamiento en la nube puedes usar recursos solo cuando los necesitas, pero puedes elegir entre diversas formas para que tu granja de procesamiento disponga de los recursos.

Implementar según demanda

Para lograr un uso óptimo de los recursos, puedes implementar trabajadores de procesamiento solo cuando envías un trabajo a la granja de procesamiento. Puedes implementar muchas VM para que se compartan entre todos los marcos de un trabajo o, incluso, crear una VM por marco.

Tu sistema de administración de colas puede supervisar instancias en ejecución, que se volverán a colocar en cola si se interrumpe una VM o se las terminará cuando se completen las tareas individuales.

Implementar un conjunto de recursos

También puedes optar por implementar un grupo de instancias, no relacionadas con un trabajo en particular, y a las que tu sistema de administración de colas local pueda acceder como recurso adicional. A pesar de ser menos rentable que una estrategia según demanda, un grupo de instancias en ejecución puede aceptar varios trabajos por VM, para lo que usará todos los núcleos y maximizará el uso de recursos. Este enfoque puede ser la estrategia más sencilla de implementar, ya que imita la forma en que una granja de procesamiento local se propaga con trabajos.

Conceder una licencia de software

Las licencias de software de terceros pueden variar ampliamente de un paquete a otro. Aquí tienes algunos esquemas y modelos de licencias que puedes encontrar en una canalización de efectos visuales. Para cada esquema, en la tercera columna se muestra el enfoque de licencia recomendado.

Esquema Descripción Recomendación
Nodo bloqueado Con licencia para una dirección MAC, una dirección IP o un ID de CPU específicas. Solo puede ejecutarla un proceso simple. Basado en una instancia
Basado en un nodo Con licencia para un nodo específico (instancia). Una cantidad arbitraria de usuarios o procesos pueden ejecutarse en un nodo con licencia. Basado en una instancia
Flotante Se registra desde un servidor de licencias que hace un seguimiento del uso. Servidor de licencias
Licencias de software
Interactivo Permite que el usuario ejecute un software de forma interactiva en un entorno basado en gráficos. Servidor de licencias o basado en una instancia
Lote Permite que el usuario ejecute software solo en un entorno de línea de comandos. Servidor de licencias
Licencias en la nube
Basado en el uso Se registra solo cuando un proceso se ejecuta en una instancia de nube. Cuando el proceso se completa o termina, se retira la licencia. Servidor de licencias basado en la nube
Basado en el tiempo de actividad Se registra mientras la instancia está activa y en ejecución. Si se detiene o borra la instancia, la licencia se retira. Servidor de licencias basado en la nube

Usar las licencias basadas en una instancia

Algunos programas o complementos de software reciben una licencia directamente del hardware en el que se ejecutan. Este enfoque para conceder licencias puede presentar un problema en la nube, ya que los identificadores de hardware, como las direcciones IP o MAC, se asignan de forma dinámica.

Direcciones MAC

Cuando creas una instancia, se le asigna una dirección MAC que se conservará mientras no se borre la instancia. Puedes parar o reiniciar una instancia y la dirección MAC se mantendrá. Esta dirección MAC puede usarse para crear y validar licencias hasta que se borre la instancia.

Asignar una dirección IP estática

Cuando creas una instancia, se le asigna una dirección IP interna y, como opción, una externa. Para mantener la dirección IP externa, debes reservar una dirección IP estática y asignársela a tu instancia. Esta dirección IP se reservará solo para esta instancia. Las direcciones IP estáticas están sujetas a cuotas regionales porque son recursos basados en el proyecto.

También puedes asignar una dirección IP interna cuando creas una instancia. Esto resulta útil si quieres que las direcciones IP internas de un grupo de instancias estén dentro de un mismo rango.

Llaves de hardware

Es posible que el software más antiguo aún utilice licencias a través de una llave, una clave de hardware que se programa con una licencia de producto. La mayoría de las empresas de software dejaron de usar las llaves de hardware, aunque todavía hay usuarios que tienen software heredado conectado a uno de estos dispositivos. Si te topas con este problema, comunícate con el fabricante del software y pregúntale si pueden proporcionarte una licencia actualizada para tu software en particular.

Si el fabricante del software no puede hacerlo, tienes la opción de implementar un concentrador USB conectado a la red o una solución de USB sobre IP.

Usar una licencia de servidor

Los software más modernos ofrecen una opción de licencia flotante. Esta opción tiene más sentido en un entorno de nube, pero requiere una administración de licencias y un control de acceso más estrictos para evitar el consumo excesivo de una cantidad limitada de licencias.

Para evitar que se exceda tu capacidad de licencias y como parte de tu proceso de cola de trabajos, puedes elegir las licencias que quieres usar y controlar la cantidad de trabajos que las usan.

Servidor de licencias local

Puedes usar tu servidor de licencias local existente para conceder licencias a las instancias que se ejecutan en la nube. Si eliges este método, debes proporcionar una vía de comunicación entre tus trabajadores de procesamiento y la red local, ya sea a través de VPN o de otro tipo de conexión segura.

Servidor de licencias basado en la nube

En la nube, puedes ejecutar un servidor de licencias que entrega instancias en tu proyecto o entre proyectos con VPC compartida. En ocasiones, las licencias flotantes están vinculadas a una dirección MAC de hardware, por lo que una instancia pequeña y de larga ejecución con una dirección IP estática puede entregar licencias con facilidad a muchas instancias de procesamiento.

Servidor de licencias híbrido

Algunos software pueden usar varios servidores de licencias con un orden de prioridad. Por ejemplo, un procesador puede consultar la cantidad de licencias disponibles desde el servidor local y, si no hubiera ninguna, usar un servidor de licencias en la nube. Esta estrategia permite maximizar el uso de licencias permanentes antes de que registres otros tipos de licencias.

Notas de producción: Define uno o más servidores de licencias en un entorno variable y determina el orden de prioridad. Autodesk Arnold, un procesador popular, te ayudará con esto. Si el trabajo no puede obtener una licencia desde el primer servidor, intentará usar alguno de los otros servidores, como se indica en el siguiente ejemplo:

export solidangle_LICENSE=5053@x.x.0.1;5053@x.x.0.2

En el ejemplo, el procesador Arnold intenta obtener una licencia del servidor en x.x.0.1, puerto 5053. Si el intento falla, intentará obtener una licencia del mismo puerto, en la dirección IP x.x.0.2.

Licencias en la nube

Algunos proveedores ofrecen licencias en la nube, que conceden licencias de software según demanda para tus instancias. En general, las licencias en la nube se facturan de dos maneras: según el uso y según el tiempo de actividad.

Licencias según el uso

Las licencias según el uso se facturan en función de la cantidad de tiempo que el software esté en uso. Por lo general, con este tipo de licencias, la licencia se registra desde un servidor en la nube cuando inicia el proceso, y se retira cuando se completa el proceso. Si la licencia se registró, se te facturará el uso. Este tipo de licencia se suele usar para el software de procesamiento.

Licencia según el tiempo de actividad

Las licencias según el tiempo de actividad o de uso medido se facturan en función del tiempo que tu instancia de Compute Engine esté activa. La instancia se configura para que se registre con el servidor de licencias en la nube durante el proceso de startup. Si la instancia está en ejecución, la licencia se registra. Si se detiene o borra la instancia, la licencia se retira. Este tipo de licencia se suele usar para los trabajadores de procesamiento que implementa un administrador de colas.

Almacenar tus datos

El tipo de almacenamiento que elijas en Google Cloud Platform depende de la estrategia de almacenamiento que hayas elegido, junto con factores como los requisitos de durabilidad y el costo. Para obtener más información sobre Cloud Storage, consulta Servidores de archivos en Compute Engine.

Disco persistente

Hay una forma de evitar por completo la implementación de un servidor de archivos y es con la incorporación de discos persistentes (PD) en tu carga de trabajo. Los PD son un tipo de almacenamiento en bloque que cumple con POSIX, con una capacidad máxima de 64 TB, comunes en la mayoría de las instalaciones de efectos visuales. Se presentan como unidades estándar y como unidades de estado sólido (SSD). Puedes adjuntar un PD en modo de lectura-escritura a una sola instancia o en modo de solo lectura a una gran cantidad de instancias, como un grupo de trabajadores de procesamiento.

Ventajas Desventajas Caso práctico ideal
Se activa en un volumen estándar NFS o SMB.

Se puede cambiar de tamaño de forma dinámica.

Se pueden adjuntar hasta 128 discos persistentes a una sola instancia.

El mismo PD se puede activar como de solo lectura en cientos o miles de instancias.
Tamaño máximo de 64 TB.

Puede escribir en PD solo cuando se adjunta a una sola instancia.

Solo recursos que están en la misma región pueden acceder a ellos.
Canalizaciones avanzadas que pueden compilar un disco nuevo por cada trabajo.

Canalizaciones que entregan datos actualizados con poca frecuencia, como software o bibliotecas comunes, a los trabajadores de procesamiento.

Almacenamiento de objetos

Cloud Storage es un almacenamiento altamente redundante y duradero que, a diferencia de los sistemas de archivo tradicionales, no está estructura y tiene una capacidad prácticamente ilimitada. En Cloud Storage, los archivos se almacenan en depósitos, que son similares a las carpetas y tienen acceso desde cualquier lugar del mundo.

Una diferencia con el almacenamiento tradicional es que un sistema operativo (SO) no puede activar el almacenamiento de objetos como un volumen lógico. Si decides incorporar el almacenamiento de objetos en tu canalización de procesamiento, debes modificar el modo en que lees y escribes los datos, ya sea con las utilidades de la línea de comandos, como gsutil, o a través de la API de Cloud Storage.

Ventajas Desventajas Caso práctico ideal
Almacenamiento duradero y con alta disponibilidad para archivos de todos los tamaños

Una sola API para todas las clases de almacenamiento

Asequible

Los datos están disponibles en todo el mundo

Capacidad prácticamente ilimitada
No cumple con POSIX.

Se debe acceder a través de la API o de la utilidad de línea de comandos.

En una canalización de procesamiento, los datos deben transferirse de forma local antes del uso.
Canalización de procesamiento con un sistema de administración de activos que puede publicar datos en Cloud Storage.

Canalizaciones de procesamiento con un sistema de administración de colas que pueden recuperar datos de Cloud Storage antes del procesamiento.

Otros productos de almacenamiento

Hay otros productos de almacenamiento disponibles como servicios administrados, a través de canales de terceros, como GCP Marketplace, o como proyectos de código abierto a través de repositorios de software o GitHub.

Producto Ventajas Desventajas Caso práctico ideal
Avere vFXT Alto rendimiento y configurable

El almacenamiento en caché de lectura ayuda a minimizar la latencia para los flujos de trabajo híbridos.

Se puede volver a sincronizar con el almacenamiento local mediante un dispositivo de FXT.
Asistencia de terceros costosa de Avere Instalaciones de efectos visuales medianas a grandes con cientos de TB de datos para presentar en la nube.
Elastifile, Cloud File System (ECFS) Sistema de archivos con agrupamiento en clústeres que puede admitir miles de conexiones NFS en simultáneo.

Puede sincronizarse con el clúster ECFS local.
Aunque el almacenamiento local o la sincronización en la nube están disponibles, los datos solo pueden sincronizarse en una dirección. Por ejemplo, el ECFS local puede leer y escribir, pero el ECFS en la nube es de solo lectura.

No hay forma de seleccionar la sincronización de los archivos. No hay sincronización bidireccional.
Instalaciones de efectos visuales medianas a grandes con cientos de TB de datos para presentar en la nube.

Debe mantener los servidores locales para usar con un clúster ECFS.
Pixit Media, PixCache Cloud Sistema de archivos escalado que puede admitir miles de NFS o clientes POSIX en simultáneo. Los datos se pueden almacenar en caché según demanda desde tu NAS local y las actualizaciones se envían al almacenamiento local de forma automática. Asistencia de terceros costosa de Pixit. Instalaciones de efectos visuales medianas a grandes con cientos de TB de datos para presentar en la nube.
Cloud Filestore (Beta) Solución de almacenamiento completamente administrado en GCP.

Fácil de implementar y mantener.
Máximo de 64 TB por instancia. El rendimiento de NFS es fijo y no se ajusta con la cantidad de clientes activos. Instalaciones de efectos visuales pequeñas a medianas con una canalización capaz de sincronizar activos.

Disco compartido en todas las estaciones de trabajo virtuales.
Cloud Storage FUSE Activa los depósitos de Cloud Storage como sistemas de archivos. Bajo costo. El sistema de archivos no cumple con POSIX. Es difícil de configurar y optimizar. Instalaciones de efectos visuales que pueden implementar, configurar y mantener un sistema de archivos de código abierto, con una canalización que pueda sincronizar los activos.

Hay otros tipos de almacenamiento disponibles en GCP. Para obtener más información, comunícate con tu representante de GCP.

Lecturas adicionales sobre las opciones de almacenamiento de datos

Implementar las estrategias de almacenamiento

Si estableces convenciones que determinen cómo controlar tus datos, puedes implementar diversas estrategias de almacenamiento en las canalizaciones de efectos visuales o de producción de animaciones, ya sea que accedes a los datos directamente desde el almacenamiento local o que sincronizas entre el almacenamiento local y la nube.

Estrategia 1: Activación directa del almacenamiento local

Activación directa del almacenamiento local desde los trabajadores de procesamiento en la nube
Activación directa del almacenamiento local desde los trabajadores de procesamiento en la nube

Si tu instalación tiene una conectividad mínima a GCP de 10 Gbps y se encuentra cerca de una región de GCP, puedes activar tu NAS local directamente en los trabajadores de procesamiento local. Si bien es una estrategia sencilla, puede resultar costosa y tener un uso intensivo del ancho de banda porque todo lo que creas en la nube se vuelve a escribir en el almacenamiento y se cuenta como datos de salida.

Ventajas Desventajas Caso práctico ideal
Implementación sencilla

Lectura y escritura en el almacenamiento común.

Disponibilidad inmediata de los datos, sin necesidad de almacenar en caché ni de sincronizar.
Puede ser más costosa que las otras opciones.

Se necesita mucha proximidad a un centro de datos de Google para alcanzar una latencia baja.

La cantidad máxima de instancias que puedes conectar con tu NAS local depende del ancho de banda y del tipo de conexión.
Instalaciones cercanas a un centro de datos de Google que necesitan irrumpir las cargas de trabajo de procesamiento en la nube, cuando el costo no es un problema.

Instalaciones con una conectividad mínima a GCP de 10 Gbps.

Estrategia 2: Sincronización según demanda

Sincronización de datos entre el almacenamiento local y el almacenamiento en la nube según la demanda
Sincronización de datos entre el almacenamiento local y el almacenamiento en la nube según la demanda

Puedes elegir entre enviar datos a la nube o extraer datos desde el almacenamiento local, o viceversa, solo cuando necesitas los datos, como cuando se procesa un marco o se publica un activo. Si usas esta estrategia, puedes activar la sincronización con un mecanismo en tu canalización como una secuencia de comandos de observación, con un controlador de eventos como Cloud Pub/Sub o con un conjunto de comandos como parte de la secuencia de comandos del trabajo.

Hay diversos comandos que puedes usar para realizar una sincronización, como el comando gcloud scp, el comando gsutil rsync o los protocolos de transferencia de datos basados en UDP (UDT). Si decides usar un UDT de terceros, como Aspera, Tervela Cloud FastPath, BitSpeed o FDT, para comunicarte con un depósito de Cloud Storage, consulta la documentación de terceros y obtén más información sobre el modelo de seguridad y las recomendaciones. Google no administra estos servicios de terceros.

Método de envío

En general, el método de envío se usa cuando publicas un activo, colocas un archivo en una carpeta de observación o completas un trabajo de procesamiento y, después de un tiempo, lo envías a una ubicación predeterminada.

Ejemplos:

  • Un trabajador de procesamiento en la nube completa un trabajo de procesamiento y los marcos resultantes se envían de regreso al almacenamiento local.
  • Un artista publica un activo. Una parte del proceso de publicación de activos implica el envío de los datos asociados a una ruta de acceso predeterminada en Cloud Storage.

Método de extracción

El método de extracción se usa cuando se solicita un archivo, en general, por parte de una instancia de procesamiento en la nube.

Ejemplo: Como parte de una secuencia de comandos de un trabajo de procesamiento, todos los activos que se necesitan para procesar una escena se extraen a un sistema de archivos antes del procesamiento, y todos los trabajadores de procesamiento pueden acceder a ellos.

Ventajas Desventajas Caso práctico ideal
Control completo de los datos que se sincronizan y cuándo.

Capacidad para elegir el método y el protocolo de transferencia.
La canalización de producción debe tener la capacidad de controlar eventos para activar las sincronizaciones de envíos y extracciones.

Se necesitan recursos adicionales para controlar la cola de sincronización.
Instalaciones pequeñas a grandes que tienen canalizaciones personalizadas y desean control completo de la sincronización de activos.

Notas de producción: Administra la sincronización de datos con el mismo sistema de administración de colas que usas para controlar los trabajos de procesamiento. Las tareas de sincronización pueden usar recursos de nube independientes para maximizar el ancho de banda disponible y minimizar el tráfico de red.

Estrategia 3: Almacenamiento local, almacenamiento en caché de lectura y en la nube

Uso del almacenamiento local con almacenamiento en caché de lectura, en la nube
Uso del almacenamiento local con almacenamiento en caché de lectura, en la nube

En esta estrategia se implementa un dispositivo de almacenamiento en caché virtual, como Avere vFXT, en la nube para que actúe como almacenamiento en caché de lectura y como servidor de archivos. Cada trabajador de procesamiento en la nube activa el dispositivo de almacenamiento en caché conforme el protocolo NFS o SMB, como se haría con un servidor de archivos convencional. Si un trabajador de procesamiento lee un archivo que no está presente en el almacenamiento en caché, el archivo se transfiere desde el almacenamiento local al servidor de almacenamiento de archivos en la nube. Según la configuración de tu servidor de archivos de almacenamiento en caché, los datos permanecerán en la memoria caché hasta que:

  • Los datos caduquen o estén intactos por una cantidad de tiempo específica;
  • Se necesite espacio en el servidor de archivos, en cuyo caso los datos se quitan de la caché según la fecha.

Esta estrategia reduce la cantidad de ancho de banda y la complejidad que se requiere para implementar muchas instancias de procesamiento simultáneas.

En algunos casos, podrías precalentar tu almacenamiento en caché para asegurarte de que todos los datos relacionados con el trabajo estén presentes antes del procesamiento. Para precalentar el almacenamiento en caché, realiza un read o stat en uno o más archivos y lee el contenido de un directorio en el servidor de archivos en la nube. Acceder a los archivos de esta forma activa el mecanismo de sincronización.

También puedes agregar un dispositivo local físico para comunicarte con el dispositivo virtual. Por ejemplo, Avere ofrece un dispositivo de almacenamiento físico FXT que puede reducir aún más la latencia entre tu almacenamiento local y la nube.

Ventajas Desventajas Caso práctico ideal
Los datos almacenados en caché se administran de forma automática.

Reduce los requisitos de ancho de banda.

Los sistemas de archivos en la nube con agrupamiento en clústeres se pueden ampliar o reducir según los requisitos del trabajo.
Puede incurrir en costos adicionales.

Se deben implementar tareas de trabajo previo si decides precalentar el almacenamiento en caché.
Grandes instalaciones que implementan muchas instancias simultáneas y leen activos comunes entre muchos trabajos.

Filtrar datos

Puedes compilar una base de datos formada por tipos de activos y condiciones asociadas para definir si sincronizas o no un tipo de datos en particular. Es posible que nunca desees sincronizar algunos tipos de datos, como los datos efímeros que se generan como parte del proceso de conversión, los archivos almacenados en caché o los datos de simulación. También debes considerar la sincronización de los activos no aprobados, ya que no se usarán todas las iteraciones en los procesamientos finales.

Realizar una transferencia masiva inicial

Cuando implementes tu granja de procesamiento híbrida, puedes optar por realizar una transferencia inicial de la totalidad o una parte del conjunto de datos a Cloud Storage, un disco persistente, o bien otro almacenamiento en la nube. También puedes realizar una sincronización completa durante el transcurso de algunos días o semanas, en función de factores como la cantidad y el tipo de datos a transferir y la velocidad de tu conexión. En la siguiente figura se comparan los plazos típicos para las transferencias en línea y físicas.

Comparación entre los plazos típicos para transferencias en línea y físicas
Comparación entre los plazos típicos para transferencias en línea y físicas

Si la transferencia de tu carga de trabajo excede el tiempo o las restricciones de ancho de banda, Google ofrece diversas opciones de transferencia para enviar tus datos a la nube, entre ellas Transfer Appliance.

Archivo y recuperación ante desastres

Es importante señalar la diferencia entre el archivo de datos y la recuperación ante desastres. El archivo de datos es una copia selectiva del trabajo terminado, mientras que la recuperación ante desastres es un estado de los datos que se puede recuperar. Deberías considerar la elaboración de un plan de recuperación ante desastres que se adapte a las necesidades de tu instalación y que te proporcione un plan de contingencia fuera del sitio. Consulta con tu proveedor de almacenamiento local para obtener ayuda con el desarrollo de un plan de recuperación ante desastres que se adapte a tu plataforma de almacenamiento específica.

Archivar datos en la nube

Una vez que se completa un proyecto, es común guardar el trabajo terminado en algún tipo de almacenamiento a largo plazo, en general, en medios de cinta magnética, como LTO. Estos cartuchos están sujetos a requisitos medioambientales y, con el tiempo, pueden ser difíciles de gestionar en términos de logística. En ocasiones, las instalaciones con gran producción albergan la totalidad de su archivo en una sala diseñada especialmente con un archivista a tiempo completo que hace el seguimiento de los datos y los recupera cuando se los solicita.

La búsqueda de activos archivados, tomas o videos específicos puede llevar mucho tiempo, ya que los datos podrían están almacenados en varios cartuchos, podría faltar el índice del archivo o estar incompleto, o podría haber limitaciones de velocidad en la lectura de los datos desde la cinta magnética.

La migración de los archivos de datos a la nube no solo puede eliminar la necesidad de contar con administración y almacenamiento local de tus medios de archivo, sino que también ofrece más accesibilidad y capacidad de búsqueda de tus datos que los métodos de archivo tradicionales.

Una canalización de archivo básica se parecería al siguiente diagrama, en el que se emplean distintos servicios en la nube para examinar, clasificar, etiquetar y organizar archivos. Desde la nube, puedes crear una herramienta de administración y recuperación de archivos para buscar datos según diversos criterios de metadatos, como la fecha, el proyecto, el formato o la resolución. También puedes usar las API de aprendizaje automático para etiquetar y clasificar imágenes y videos y, luego, almacenar los resultados en una base de datos en la nube, como BigQuery.

Una canalización de archivos de activos que incluye aprendizaje automático para clasificar el contenido
Una canalización de archivos de activos que incluye aprendizaje automático para clasificar el contenido

Otros temas para considerar:

  • Automatiza la generación de miniaturas o proxies para el contenido que reside en los niveles de Cloud Storage Nearline o Cloud Storage Coldline. Usa estos proxies en tu sistema de administración de activos de medios para que los usuarios puedan buscar datos mientras leen solo los proxies, no los activos archivados.
  • Considera usar el aprendizaje automático para clasificar el contenido live-action. Usa Cloud Vision con el objetivo de etiquetar las texturas y las placas de fondo, o Cloud Video Intelligence para ayudar en la búsqueda y recuperación de videos de referencia.
  • También puedes usar Cloud AutoML Vision para crear un modelo de visión personalizado que reconozca los activos, ya sean en live action o procesados.
  • Para el contenido procesado, considera guardar una copia de la imagen de disco del trabajador de procesamiento, junto con el activo procesado. Si tienes que volver a crear la configuración, tendrás las versiones, los complementos, las bibliotecas del SO y las dependencias del software correcto disponibles, en caso de que tengas que volver a procesar una toma archivada.

Administrar los activos y la producción

Trabajar en el mismo proyecto desde varias instalaciones puede presentar desafíos únicos, en especial cuando el contenido y los activos deben estar disponibles en todo el mundo. La sincronización manual de los datos en las redes privadas puede ser costosa, tener un uso intensivo de los recursos y estar sujeta a las limitaciones de ancho de banda local.

Si tu carga de trabajo requiere que los datos estén disponibles en todo el mundo, deberías usar Cloud Storage, al que se puede acceder desde cualquier lugar en el que puedas acceder a los servicios de Google. Si deseas incorporar Cloud Storage en tu canalización, debes modificarla para que comprenda las rutas de acceso de objeto y, luego, enviar o extraer los datos de tus trabajadores de procesamiento antes del procesamiento. Este método proporciona acceso global a los datos publicados, pero requiere que tu canalización entregue activos donde se los necesita, en un tiempo razonable.

Por ejemplo, un artista de texturas en Los Ángeles puede publicar archivos de imagen que usará un artista de iluminación en Londres. El proceso se verá de la siguiente manera:

Publicar activos en Cloud Storage
Publicar activos en Cloud Storage
  1. La canalización de publicación envía los archivos a Cloud Storage y agrega una entrada a una base de datos de activos en la nube.
  2. Un artista en Londres ejecuta una secuencia de comandos a fin de reunir activos para una escena. Las ubicaciones del archivo se consultan desde la base de datos y se leen desde Cloud Storage al disco local.
  3. El software de administración de colas recopila una lista de activos necesarios para el procesamiento, los consulta desde la base de datos de activos y los descarga desde Cloud Storage a cada almacenamiento local del trabajador de procesamiento.

Si usas Cloud Storage como parte de tu canalización de archivos, también recibirás un archivo de todos los datos que hayas publicado en la nube.

Administrar bases de datos

El software de administración de activos y producción depende de bases de datos duraderas y con alta disponibilidad, que se entregan en hosts capaces de manejar cientos o miles de consultas por segundo. Por lo general, las bases de datos se alojan en un servidor local, que se ejecuta en el mismo bastidor que los trabajadores de procesamiento, y están sujetas a las mismas limitaciones de energía, de red y de HVAC.

Podrías considerar la ejecución de tus bases de datos de producción MySQL, NoSQL y PostgreSQL como servicios en la nube administrados. Estos servicios tienen alta disponibilidad y acceso global, encriptan datos tanto en reposo como en tránsito y ofrecen una función de replicación integrada.

Administrar colas

Los programas de software para administración de colas que están disponibles comercialmente, como Qube!, Deadline y Tractor, son los más utilizados en la industria de la animación y efectos visuales. Puedes usar este software para implementar y administrar cualquier carga de trabajo de procesamiento en una gran variedad de trabajadores, no solo en procesadores. Puedes implementar y administrar la publicación de activos, simulaciones de partículas y fluido, la preparación de texturas y la composición con el mismo marco de trabajo de programación que usas para administrar los procesadores.

Algunas instalaciones han implementado software de programación general, como HTCondor de la Universidad de Wisconsin, Slurm de SchedMD, o Univa Grid Engine en sus canalizaciones de efectos visuales. No obstante, el software que está diseñado específicamente para la industria de efectos visuales presta especial atención a las siguientes características:

  • Dependencia basada en el trabajo, en el marco y en la capa. Algunas tareas deben completarse antes de que puedas comenzar con otros trabajos. Por ejemplo, ejecutar una simulación fluida completa antes del procesamiento.
  • Prioridad del trabajo, que los administradores de procesamiento pueden usar para cambiar el orden de los trabajos según los plazos o los programas individuales.
  • Tipos de recursos, etiquetas o destinos, que puedes usar para buscar coincidencias entre recursos específicos y los trabajos que los requieren. Por ejemplo, implementa procesos acelerados por GPU solo en VM que tienen una unidad de procesamiento gráfico adjunta.
  • Captura datos históricos sobre el uso del recurso y ponlo a disponibilidad en la API o panel para poder realizar un análisis más detallado. Por ejemplo, observa el uso promedio de CPU y memoria en las últimas iteraciones de un procesamiento para predecir el uso de recursos en la próxima iteración.
  • Trabajos anteriores y posteriores al período de publicación. Por ejemplo, un trabajo posterior al período de publicación extrae todos los activos necesarios en el trabajador de procesamiento local antes del procesamiento. Un trabajo posterior al período de publicación copia el marco procesado resultante a una ubicación designada en un sistema de archivos y, luego, marca el marco como completo en el sistema de administración de activos.
  • Integración con las aplicaciones de software en 2D y 3D populares, como Maya, 3ds Max, Houdini, Cinema 4D o Nuke.

Notas de producción: Usa el software de administración de colas para reconocer un grupo de recursos en la nube como si fueran trabajadores de procesamiento locales. Este método implica cierta supervisión para poder maximizar el uso de los recursos con la ejecución de tantos procesadores como pueda manejar cada instancia, una técnica que se conoce como "comprimir". Por lo general, estas operaciones se controlan con algoritmos y por parte de los administradores de procesamiento.

También puedes automatizar la creación, la administración y la terminación de los recursos en la nube según demanda. Este método depende de que tu administrador de colas ejecute secuencias de comando anteriores y posteriores al procesamiento para crear recursos a medida que se los necesita, supervisarlos durante el procesamiento y terminarlos cuando se completan las tareas.

Consideraciones para la implementación del trabajo

Cuando implementas una granja de procesamiento que usa almacenamiento local y en la nube, tu administrador de colas debe tener en cuenta las siguientes consideraciones:

  • Las licencias pueden diferir entre las implementaciones en la nube y locales. Algunas licencias se basan en nodos, otras son controladas por el proceso. Asegúrate de que tu software de administración de colas implemente trabajos para maximizar el valor de las licencias.
  • Considera agregar etiquetas únicas a los recursos en la nube para garantizar su uso cuando se asignan a tipos específicos de trabajo.
  • Usa Stackdriver Logging para detectar instancias sin uso o inactivas.
  • Cuando inicias trabajos dependientes, considera la ubicación de los datos resultantes y dónde deben estar para el próximo paso.
  • Si los espacios de nombres de tu ruta de acceso difieren entre el almacenamiento local y en la nube, considera usar rutas de acceso relativas para que los procesadores no dependan de la ubicación. Como alternativa, según la plataforma, puedes compilar un mecanismo para intercambiar rutas de acceso en el momento del procesamiento.
  • Algunos procesamientos, simulaciones o procesos posteriores dependen de la generación de números al azar, que puede variar entre los fabricantes de CPU. Incluso las CPU del mismo fabricante, pero con generaciones de chip diferentes, pueden tener resultados diferentes. En caso de duda, usa tipos de CPU idénticos o similares para todos los marcos de un trabajo.
  • Si usas un dispositivo de almacenamiento en caché de lectura, como Avere vFXT, considera implementar un trabajo anterior al período de publicación para precalentar el almacenamiento en caché y asegurarte de que todos los activos estén disponibles en la nube antes de implementar los recursos en la nube. Este enfoque minimiza la cantidad de tiempo que los trabajadores de procesamiento deben esperar mientras se mueven los activos a la nube.

Registros y supervisión

El registro y la supervisión del uso y el rendimiento de los recursos es un aspecto fundamental para cualquier granja de procesamiento. GCP ofrece una gran variedad de API, herramientas y soluciones para que obtengas más información sobre el uso de los recursos y los servicios.

La forma más rápida de supervisar la actividad de una VM es ver la salida del puerto en serie. Esta salida puede ser útil cuando una instancia no responde a los planes de control de servicios típicos, como tu supervisor de administración de colas de procesamiento.

A continuación, se detallan las formas de recopilar y supervisar el uso de los recursos en GCP.

Configurar tus instancias de trabajador de procesamiento

Para que las cargas de trabajo sean nodos de procesamiento locales verdaderamente híbridos, deben ser iguales a los nodos de procesamiento en la nube, con versiones de SO coincidentes, compilaciones de kernel, bibliotecas instaladas y software. Además, podrías tener que reproducir puntos de activación, espacios de nombres de rutas de acceso y hasta entornos de usuario en la nube porque son locales.

Elegir una imagen de disco

Puedes elegir unas de las imágenes públicas o crear tu propia imagen personalizada, que se basa en tu imagen del nodo de procesamiento local. Las imágenes públicas incluyen una colección de paquetes que configuran y administran las cuentas de usuario y habilitan la autenticación basada en las llaves de Secure Shell (SSH).

Crear una imagen personalizada

Si eliges crear una imagen personalizada, tendrás que agregar más bibliotecas a Linux y Windows para que funcionen correctamente en el entorno de Compute Engine.

La imagen personalizada debe cumplir con las recomendaciones de seguridad. Si usas Linux, instala el entorno invitado de Linux para Compute Engine a fin de acceder a las funciones que ofrecen las imágenes personalizadas de manera predeterminada. Cuando instalas el entorno invitado, puedes realizar tareas, como acceder a metadatos, configurar el sistema y optimizar el SO para usar en GCP, mediante el uso de los mismos controles de seguridad en la imagen personalizada que usas en las imágenes públicas.

Notas de producción: administra las imágenes personalizadas en un proyecto independiente en el nivel de organización. Este enfoque te concede más control preciso sobre cómo se crean o modifican las imágenes y te permite aplicar versiones, que pueden resultar útiles cuando usas versiones de software o SO diferentes en varias producciones.

Automatizar la creación de imágenes y la implementación de instancias

Puedes usar herramientas como Packer para crear imágenes más reproducibles, auditables, configurables y confiables. También puedes usar una herramienta como Ansible para configurar los nodos de procesamiento en ejecución y ejercer un control preciso sobre la configuración y el ciclo de vida.

Para obtener más información sobre cómo automatizar la creación de imágenes y la configuración de instancias, consulta las soluciones Compilaciones de imágenes automatizadas con Jenkins, Packer y Kubernetes y Administración de Compute Engine con Puppet, Chef, Salt y Ansible.

Seleccionar un tipo de máquina

En GCP, puedes elegir uno de los tipos predefinidos de máquinas o especificar un tipo personalizado de máquina. El uso de los tipos personalizados de máquinas te brinda control de los recursos para que puedas personalizar las instancias según los tipos de trabajo que ejecutas en GCP. Cuando creas una instancia, puedes agregar GPU y especificar la cantidad de CPU, la plataforma de CPU, la cantidad de RAM y el tipo y tamaño de los discos.

Notas de producción: en el caso de las canalizaciones que implementan una instancia por marco, considera personalizar la instancia según las estadísticas de trabajo históricas, como la carga de CPU o el uso de memoria, así podrás optimizar el uso en todos los marcos de una toma. Por ejemplo, puedes elegir implementar máquinas con un mayor número de CPU para los marcos que contienen desenfoque de movimiento pesado a fin de normalizar los tiempos de procesamiento en todos los marcos.

Elegir entre VM interrumpibles y estándar

Las VM interrumpibles (PVM) refieren al exceso de capacidad de Compute Engine que se vende a un precio mucho más bajo que las VM estándar. Compute Engine puede terminar o interrumpir estas instancias si otras tareas requieren acceso a esa capacidad. Las PVM son ideales para procesar cargas de trabajo tolerantes a errores y administradas por un sistema de colas que hace el seguimiento de los trabajos que se pierden por la interrupción.

Las VM estándar se pueden ejecutar de forma indefinida y son ideales para los servidores de licencias o los hosts del administrador de colas que deben ejecutarse de manera persistente.

Las VM interrumpibles finalizan automáticamente después de 24 horas, por lo que no debes usarlas para ejecutar procesamientos o simulaciones que duren más tiempo.

Las tarifas de interrupción van del 5% al 15%, lo que para las cargas de trabajo de procesamiento típicas es tolerable, dado el costo reducido. Algunas recomendaciones de interrupción pueden ayudarte a decidir la mejor forma de integrar las PVM en tu canalización de procesamiento. Si tu instancia se interrumpe, Compute Engine envía una señal de interrupción a la instancia, que puedes usar para activar tu programador y que termine el trabajo actual y vuelve a poner en cola.

VM estándar VM interrumpible
Se puede usar para trabajos de larga ejecución.

Ideal para trabajos con prioridad alta y plazos ajustados.

Se puede ejecutar de forma indefinida y es ideal para los servidores de licencias o los hosts del administrador de colas.
Termina automáticamente después de 24 horas.

Requiere un sistema de administración de colas para controlar las instancias interrumpidas.

Notas de producción: Algunos procesadores pueden realizar una instantánea de un procesamiento en progreso a intervalos específicos, por lo que si la VM se interrumpe, puedes pausar y reanudar el procesamiento sin tener que reiniciar un marco desde cero. Si tu procesador admite la toma de instantáneas, puedes usar PVM. Recuerda habilitar la toma de instantáneas del procesamiento en tu canalización para no perder tu trabajo. Mientras se escriben y actualizan las instantáneas, los datos se pueden escribir en Cloud Storage y, si el trabajador de procesamiento se interrumpe, se los puede recuperar cuando se implementa una PVM nueva. Para evitar los costos de almacenamiento, borra los datos de las instantáneas de los procesamientos completos.

Conceder acceso a los trabajadores de procesamiento

Cloud IAM te permite asignar acceso a los recursos de nube a las personas que lo necesitan. En el caso de los trabajadores de procesamiento de Linux, puedes usar Acceso a SO para restringir aún más el acceso dentro de una sesión de SSH, lo que te permite controlar quién es el administrador.

Controlar los costos de una granja de procesamiento híbrida

Cuando se estiman los costos, debes considerar muchos factores. Sin embargo, te sugerimos que implementes estas recomendaciones comunes como política para tu granja de procesamiento híbrida:

  • Usa instancias interrumpibles de forma predeterminada. A menos que tu trabajo de procesamiento tenga una ejecución sumamente extensa, cuatro o más horas por marco, o que tengas un plazo de entrega muy acotado, usa VM interrumpibles.
  • Minimiza la salida. Copia solo los datos que necesitas de regreso en el almacenamiento local. En la mayoría de los casos, estos datos serán los marcos procesados finales, aunque también podrían ser pases independientes o datos de simulación. Si activas tu NAS local directamente o usas un producto de almacenamiento como Avere vFXT, que sincroniza automáticamente y escribe todos los datos procesados en el sistema de archivos local del trabajador de procesamiento, debes copias solo lo que necesitas de regreso en el almacenamiento local para evitar la salida de datos innecesarios y temporales.
  • Asigna el tamaño adecuado a las VM. Asegúrate de crear tus trabajadores de procesamiento con uso óptimo de recursos, asigna sola la cantidad necesaria de CPU virtuales, la cantidad óptima de RAM y la cantidad correcta de GPU, si fueran necesarias. Además, considera cómo minimizar el tamaño de los discos adjuntos.
  • Considera el mínimo de un minuto. En GCP, las instancias se facturan por segundo, con un mínimo de un minuto. Si tu carga de trabajo incluye marcos de procesamiento que duran menos de un minuto, considera agrupar las taras para evitar la implementación de una instancia por menos de un minuto del tiempo de procesamiento.
  • Guarda los conjuntos de datos grandes en la nube. Si usas tu granja de procesamiento para generar cantidades masivas de datos, como EXR profundos o datos de simulación, debes considerar el uso de una estación de trabajo en la nube, que se encuentre más abajo en la canalización. Por ejemplo, un artista de FX puede ejecutar una simulación fluida en la nube y escribir los archivos de caché en el almacenamiento en la nube. De esta forma, un artista de iluminación puede acceder a los datos de simulación desde una estación de trabajo virtual que se encuentra en GCP. Para obtener más información sobre las estaciones de trabajo virtuales, comunícate con tu representante de GCP.
  • Aprovecha los descuentos por compromiso de uso y por uso continuo. Si ejecutas un grupo de recursos, los descuentos por uso continuo pueden ayudarte a ahorrar hasta el 30% del costo de las instancias que se ejecutan en todo un mes. Los descuentos por compromiso de uso también son una opción razonable en algunos casos.

Comparación de costos de las granjas de procesamiento locales y en la nube

Compara los costos para compilar y mantener una granja de procesamiento local frente a los costos a fin de compilar una granja de procesamiento en la nube. En el siguiente ejemplo de desglose de costos se comparan las dos situaciones (todos los costos se expresan en dólares estadounidenses [USD]).

Costos de la granja de procesamiento local Costos de la granja de procesamiento en la nube
Costos iniciales de compilación
Precio por nodo: $3,800
Cantidad de nodos: 100
Hardware de redes, construcción de sala limpia: $100,000
Hardware de almacenamiento: $127,000
Conexión inicial a la compañía eléctrica: $20,000
Conectividad de aprovisionamiento: $2,000
Costo total de compilación: $629,000
Costos iniciales de conectividad
Hardware de red: $10,000
Hardware de almacenamiento: $127,000
Conectividad de aprovisionamiento: $2,000
Costo total de compilación: $139,000
Costos anuales
Contrato de asistencia de redes: $15,000
Contrato de asistencia al servidor: $34,050
Costos anuales
Contrato de asistencia de redes: $1,500
Contrato de asistencia al servidor: $19,050
Costos mensuales
Ancho de banda: $2,500
Compañía eléctrica: $8,000
Costo por pie cuadrado: $40
Cantidad de pies cuadrados requeridos: 400
Personal/Asistencia de TI: $15,000
Costo total por mes: $41,500
Costos mensuales
Ancho de banda: $2,500
2 interconexiones dedicadas: $3,600
Salida de 100 GB: $12
Costo total por mes: $6,112
Uso de la granja de procesamiento
Porcentaje mensual de uso: 50%
Cantidad de procesamientos por hora/mes: 36,500
Uso de la granja de procesamiento
Cantidad de instancias: 100
Tipo de máquina: n1-standard-32, interrumpible
Porcentaje mensual de uso: 50%
Cantidad de procesamientos por hora/mes: 36,500
Costo por hora de procesamiento: $5.62 Costo por hora de procesamiento: $1.46

Resumen

La ampliación de tu granja de procesamiento existente a la nube es una forma rentable de aprovechar los recursos potentes y de bajo costo sin gastos de capital. No existen dos canalizaciones iguales, por lo que ningún documento puede abarcar todos los temas y requisitos únicos. Para obtener ayuda con la migración de tus cargas de trabajo de procesamiento en la nube, comunícate con tu representante de GCP.

Lecturas adicionales

En cloud.google.com podrás encontrar otras soluciones aplicables, algunas de las cuales se han mencionado en este artículo.

Prueba otras características de Google Cloud Platform por ti mismo. Revisa nuestros instructivos.

¿Te sirvió esta página? Envíanos tu opinión:

Enviar comentarios sobre…