Compila una granja de procesamiento híbrida

En este artículo, se proporciona orientación para extender la granja de procesamiento local existente y que use recursos de procesamiento en Google Cloud (Google Cloud). En el artículo, se supone que ya implementaste una granja de procesamiento local y que estás familiarizado con los conceptos básicos de las canalizaciones de animación y de efectos visuales (VFX), el software de administración de colas y los métodos de licencia de software comunes.

Descripción general

El procesamiento de elementos en 2D o 3D para animaciones, películas, comerciales o videojuegos es una tarea que requiere mucho tiempo y un procesamiento intensivo. El procesamiento de estos elementos requiere una inversión importante en infraestructura y hardware, junto con un equipo dedicado de profesionales de TI para implementar y mantener el hardware y el software.

Cuando se usa una granja de procesamiento local en su totalidad, la administración de trabajos puede convertirse en un desafío. Las prioridades y dependencias de tareas, el reinicio de los marcos descartados y la carga de red, disco y CPU se convierten en una parte de la compleja ecuación que debes supervisar y controlar de cerca, por lo general, con plazos estrictos.

Para administrar estos trabajos, las instalaciones de VFX incorporaron software de administración de colas en las canalizaciones. El software de administración de colas realiza las siguientes acciones:

  • Implementa trabajos en recursos locales y basados en la nube.
  • Administra dependencias entre trabajos.
  • Se comunica con los sistemas de administración de elementos.
  • Proporciona a los usuarios una interfaz de usuario y API para lenguajes comunes, como Python.

Aunque algunos softwares de administración de colas pueden implementar trabajos en trabajadores basados en la nube, sigues siendo responsable de conectarte a la nube, sincronizar los elementos, elegir un framework de almacenamiento, administrar las plantillas de imágenes y proporcionar tus propias licencias de software.

En algunas instalaciones pequeñas o medianas que carecen de los recursos técnicos para implementar una granja de procesamiento híbrida, se puede usar el servicio de granja de procesamiento de Google, Zync. A fin de determinar cuál es la solución ideal para tu instalación, comunícate con el representante de GCP.

Nota: Encontrarás notas de producción distribuidas en este artículo. En estas notas, se ofrecen prácticas recomendadas para compilar una granja de procesamiento.

Conéctate a la nube

Según la carga de trabajo, decide cómo se conecta la instalación a Google Cloud, ya sea a través de un ISP asociado, una conexión directa o la Internet pública.

Conéctate a través de Internet

Sin necesidad de contar con un tipo de conectividad especial, puedes conectarte a la red de Google y usar nuestro modelo de seguridad de extremo a extremo. Para ello, debes acceder a los servicios de Google Cloud a través de Internet. Las utilidades, como las herramientas de línea de comandos de gcloudgsutil, y los recursos, como la API de Compute Engine, usan autenticación, autorización y encriptación seguras para ayudar a proteger los datos.

Cloud VPN

Sin importar la conexión, te recomendamos que uses una red privada virtual (VPN) para proteger la conexión.

Cloud VPN te ayuda a conectar de manera segura la red local a la red de la nube privada virtual (VPC) de Google mediante una conexión de VPN con IPsec. Los datos que están en tránsito se encriptan antes de pasar por uno o más túneles VPN.

Aprende a crear una VPN para tu proyecto.

VPN proporcionada por el cliente

Aunque puedes configurar tu propia puerta de enlace de VPN para conectarte directamente con Google, te recomendamos usar Cloud VPN, que ofrece más flexibilidad y mejor integración con Google Cloud.

Cloud Interconnect

Google admite varias formas de conectar la infraestructura a Google Cloud. Estas conexiones de nivel empresarial, conocidas como Cloud Interconnect, ofrecen una mayor disponibilidad y una menor latencia que las conexiones a Internet estándar, junto con precios de salida reducidos.

Interconexión dedicada

La interconexión dedicada proporciona conexiones físicas directas y una comunicación RFC 1918 entre la red local y la red de Google. Ofrece capacidad de conexión en los siguientes tipos de conexiones:

  • Una o más conexiones Ethernet de 10 Gbps, con un máximo de ocho conexiones o un total de 80 Gbps por interconexión
  • Una o más conexiones Ethernet de 100 Gbps, con un máximo de dos conexiones o un total de 200 Gbps por interconexión

El tráfico de la interconexión dedicada no está encriptado. Por ello, si necesitas transmitir datos entre las interconexiones dedicadas de forma segura, debes establecer tu propia conexión de VPN. Cloud VPN no es compatible con la interconexión dedicada, por lo que deberás proporcionar tu propia VPN en este caso.

Interconexión de socio

La interconexión de socio proporciona conectividad entre la red local y la red de VPC a través de un proveedor de servicios compatible. Una conexión por interconexión de socio es útil si la infraestructura se encuentra en una ubicación física que no puede alcanzar una instalación de colocación de interconexión dedicada o si tus necesidades de datos no garantizan una conexión completa de 10 Gbps.

Otros tipos de conexiones

Es posible que haya otras formas de conectarse a Google en tu ubicación específica. Si deseas obtener ayuda para determinar la forma más rentable y eficiente de conectarte a Google Cloud, habla con tu representante de GCP.

Protege el contenido

Para poder ejecutar el contenido en cualquier plataforma de nube pública, los propietarios del contenido, como los principales estudios de Hollywood, requieren que los proveedores cumplan con las prácticas recomendadas de seguridad definidas de forma interna y por organizaciones como la MPAA.

Si bien cada estudio tiene requisitos que pueden diferir un poco entre sí, en Asegura las cargas de trabajo de procesamiento encontrarás prácticas recomendadas para compilar una granja de procesamiento híbrida. También encontrarás los informes de seguridad y la documentación de cumplimiento en cloud.google.com/security.

Si tienes preguntas sobre el proceso de auditoría para el cumplimiento de seguridad, comunícate con tu representante de GCP.

Organiza los proyectos

Los proyectos son un componente organizativo principal de Google Cloud. En las instalaciones, puedes organizar trabajos en su propio proyecto o dividirlos en varios proyectos. Por ejemplo, te recomendamos crear proyectos independientes para las fases de previsualización, investigación, desarrollo y producción de una película.

Los proyectos establecen un límite de aislamiento para los datos de red y la administración del proyecto. Sin embargo, puedes compartir redes en todos los proyectos mediante la VPC compartida, que proporciona proyectos independientes con acceso a recursos comunes.

Notas de producción: Crea un proyecto host de VPC compartida que contenga recursos con todas las herramientas de producción. Puedes designar todos los proyectos que se crean en la organización como Proyectos de servicio de VPC compartida. Esta designación significa que cualquier proyecto de la organización puede acceder a las mismas bibliotecas, secuencias de comandos y software que proporciona el proyecto host.

El recurso de organización

Puedes administrar proyectos en un recurso de organización, que podrías ya tener establecido. Migrar todos los proyectos a una organización proporciona una serie de beneficios.

Notas de producción: Designa a los administradores de producción como propietarios de los proyectos individuales, y a la administración de estudios como propietaria del recurso de la organización.

Define el acceso a los recursos

Los proyectos requieren acceso seguro a los recursos y restricciones sobre los lugares autorizados para que operen los usuarios o servicios. Con el fin de ayudarte a definir el acceso, Google Cloud ofrece la administración de identidades y accesos (IAM), que puedes usar para administrar el control de acceso mediante la definición de las funciones y sus niveles de acceso a recursos específicos.

Notas de producción: Si quieres restringir el acceso de los usuarios solo a los recursos necesarios para realizar tareas específicas según su función, implementa el principio de mínimo privilegio a nivel local y en la nube.

Por ejemplo, considera un trabajador de procesamiento, que es una máquina virtual (VM) que puedes implementar desde una plantilla de instancias predefinida que usa tu imagen personalizada. El trabajador de procesamiento que se ejecuta con una cuenta de servicio puede leer desde Cloud Storage y escribir en el almacenamiento conectado, como un servidor de archivos en la nube o un disco persistente. Sin embargo, no necesitas agregar artistas individuales a los proyectos de Google Cloud, ya que no necesitan acceso directo a los recursos en la nube.

Puedes asignar funciones a administradores de procesamiento o a administradores de proyectos que tengan acceso a todos los recursos de Compute Engine, lo que les permite realizar funciones en recursos inaccesibles para otros usuarios.

Define una política para establecer qué funciones pueden acceder a qué tipos de recursos en la organización. En la siguiente tabla, se muestra cómo se asignan las tareas de producción típicas a las funciones de IAM en Google Cloud.

Tarea de producción Nombre de la función Tipo de recurso
Administrador del estudio resourcemanager.organizationAdmin Organización
Proyecto
Administrador de producción owner, editor Proyecto
Administrador de procesamiento compute.admin, iam.serviceAccountActor Proyecto
Cuenta de administración de colas compute.admin, iam.serviceAccountActor Organización
Proyecto
Artista individual [sin acceso] No aplicable

Permisos de acceso

Los permisos de acceso ofrecen una forma de controlar los permisos de una instancia en ejecución sin importar quién accedió. Puedes especificar permisos cuando creas una instancia o cuando el software de administración de colas implementa recursos desde una plantilla de instancias.

Estos permisos tienen prioridad sobre los permisos de IAM de un usuario individual o de una cuenta de servicio. Esta prioridad significa que un permiso de acceso puede evitar que un administrador del proyecto acceda a una instancia para borrar un bucket de almacenamiento o cambiar una configuración del firewall.

Notas de producción: De forma predeterminada, las instancias pueden leer en Cloud Storage, pero no pueden escribir allí. Si la canalización de procesamiento escribe procesamientos finalizados en Cloud Storage, agrega el permiso devstorage.read_write a la instancia cuando la crees.

Elige cómo implementar los recursos

Mediante el procesamiento en la nube, puedes usar recursos solo cuando los necesitas, pero puedes elegir entre diversas formas para que los recursos estén disponibles en la granja de procesamiento.

Implementa a pedido

Para lograr un uso óptimo de los recursos, puedes implementar trabajadores de procesamiento solo cuando envías un trabajo a la granja de procesamiento. Puedes implementar muchas VM para compartirlas en todos los marcos de un trabajo o, incluso, crear una VM por marco.

El sistema de administración de colas puede supervisar instancias en ejecución, que se volverán a poner en cola si se interrumpe una VM o se las finalizará cuando se completen las tareas individuales.

Implementa un conjunto de recursos

También puedes optar por implementar un grupo de instancias, que no estén relacionadas con un trabajo específico, a las que el sistema de administración de colas local pueda acceder como recursos adicionales. A pesar de ser menos rentable que una estrategia a pedido, un grupo de instancias en ejecución puede aceptar varios trabajos por VM, para lo que usará todos los núcleos y maximizará el uso de recursos. Este método puede ser la estrategia más sencilla de implementar, ya que imita la forma en que una granja de procesamiento local se propaga con trabajos.

Licencias de software

Las licencias de software de terceros pueden variar en gran medida de un paquete a otro. Estos son algunos de los esquemas y modelos de licencia que puedes encontrar en una canalización de VFX. Para cada esquema, en la tercera columna se muestra el enfoque de licencia recomendado.

Esquema Descripción Recomendación
Nodo bloqueado Con licencia para una dirección MAC, una dirección IP o un ID de CPU específicos. Solo puede ejecutarla un proceso único. Basada en instancias
Basada en nodos Con licencia para un nodo específico (instancia). Una cantidad arbitraria de usuarios o procesos pueden ejecutarse en un nodo con licencia. Basada en instancias
Flotante Se reserva desde un servidor de licencias que hace un seguimiento del uso. Servidor de licencias
Licencias de software
Interactivo Permite que el usuario ejecute un software de forma interactiva en un entorno basado en gráficos. Servidor de licencias o basada en instancias
Por lote Permite que el usuario ejecute el software solo en un entorno de línea de comandos. Servidor de licencias
Licencias basadas en la nube
Basada en el uso Se reserva solo cuando un proceso se ejecuta en una instancia en la nube. Cuando el proceso se completa o finaliza, se libera la licencia. Servidor de licencias basado en la nube
Basada en el tiempo de actividad Se reserva mientras una instancia está activa y en ejecución. Cuando se detiene o se borra la instancia, se libera la licencia. Servidor de licencias basado en la nube

Usa licencias basadas en instancias

Algunos programas o complementos de software obtienen una licencia directamente en el hardware en el que se ejecutan. Con este enfoque para conceder licencias, se puede presentar un problema en la nube, ya que los identificadores de hardware, como las direcciones IP o MAC, se asignan de forma dinámica.

Direcciones MAC

Cuando creas una instancia, se le asigna una dirección MAC que se conservará mientras no se borre la instancia. Puedes detener o reiniciar una instancia, y se conservará la dirección MAC. Puedes usar esta dirección MAC para la creación y validación de licencias hasta que se borre la instancia.

Asigna una dirección IP estática

Cuando creas una instancia, se le asigna una dirección IP interna y, de forma opcional, una externa. Para conservar la dirección IP externa de una instancia, puedes reservar una dirección IP estática y asignarla a la instancia. Esta dirección IP se reservará solo para esta instancia. Debido a que las direcciones IP estáticas son un recurso basado en proyectos, están sujetas a cuotas regionales.

También puedes asignar una dirección IP interna cuando creas una instancia, lo que es útil si deseas que las direcciones IP internas de un grupo de instancias estén dentro del mismo rango.

Llaves de hardware

Es posible que el software anterior aún use licencias a través de una llave, una llave de hardware que se programa con una licencia de producto. La mayoría de las empresas de software dejaron de usar las llaves de hardware, pero es posible que algunos usuarios tengan un software heredado conectado a uno de estos dispositivos. Si te encuentras con este problema, comunícate con el fabricante del software a fin de que te proporcione una licencia actualizada para tu software en particular.

Si el fabricante del software no puede proporcionar esa licencia, puedes implementar un centro USB conectado a la red o una solución de USB sobre IP.

Usa un servidor de licencias

El software más moderno ofrece una opción de licencia flotante. Esta opción tiene más sentido en un entorno de nube, pero requiere una administración de licencias y un control de acceso más estrictos para evitar el consumo excesivo de una cantidad limitada de licencias.

Para evitar que se exceda la capacidad de licencia, como parte del proceso de cola de trabajos, puedes elegir las licencias que quieres usar y controlar la cantidad de trabajos que las usan.

Servidor de licencias local

Puedes usar el servidor de licencias local existente para proporcionar licencias a las instancias que se ejecutan en la nube. Si eliges este método, debes proporcionar una forma para que los trabajadores de procesamiento se comuniquen con la red local, ya sea a través de una VPN o alguna otra conexión segura.

Servidor de licencias basado en la nube

En la nube, puedes ejecutar un servidor de licencias que entregue instancias en el proyecto o entre proyectos mediante una VPC compartida. En ocasiones, las licencias flotantes están vinculadas a una dirección MAC de hardware, por lo que una instancia pequeña y de larga duración con una dirección IP estática puede entregar licencias con facilidad a muchas instancias de procesamiento.

Servidor de licencias híbrido

Algunos software pueden usar varios servidores de licencias con un orden de prioridad. Por ejemplo, un procesador puede consultar la cantidad de licencias disponibles desde el servidor local y, si no hubiera ninguna, usar un servidor de licencias basado en la nube. Esta estrategia permite maximizar el uso de licencias permanentes antes de que reserves otros tipos de licencias.

Notas de producción: Define uno o más servidores de licencias en una variable de entorno y determina el orden de prioridad. Autodesk Arnold, un procesador popular, te ayudará con esto. Si el trabajo no puede obtener una licencia mediante el primer servidor, intentará usar alguno de los otros servidores enumerados, como se indica en el siguiente ejemplo:

export solidangle_LICENSE=5053@x.x.0.1;5053@x.x.0.2

En el ejemplo anterior, el procesador Arnold intenta obtener una licencia del servidor en x.x.0.1, puerto 5053. Si falla, intentará obtener una licencia desde el mismo puerto en la dirección IP x.x.0.2.

Licencias basadas en la nube

Algunos proveedores ofrecen licencias basadas en la nube, que proporcionan licencias de software a pedido para las instancias. En general, las licencias basadas en la nube se facturan de dos maneras: basadas en el uso y basadas en el tiempo de actividad.

Licencias basadas en el uso

Las licencias basadas en el uso se facturan en función de la cantidad de tiempo que el software esté en uso. Por lo general, con este tipo de licencias, una licencia se reserva de un servidor basado en la nube cuando se inicia el proceso y se libera cuando este se completa. Siempre que se reserve una licencia, se te facturará por su uso. Por lo general, este tipo de licencias se usa para el software de procesamiento.

Licencias basadas en el tiempo de actividad

Las licencias de uso medido o basadas en el tiempo de actividad se facturan en función del tiempo de actividad de la instancia de Compute Engine. La instancia se configura para que se registre con el servidor de licencias basado en la nube durante el proceso de inicio. Siempre que la instancia esté en ejecución, la licencia estará reservada. Cuando se detiene o se borra la instancia, se libera la licencia. Por lo general, este tipo de licencias se usa para los trabajadores de procesamiento que implementa un administrador de colas.

Elige cómo almacenar los datos

El tipo de almacenamiento que elijas en Google Cloud depende de la estrategia de almacenamiento elegida, junto con factores como los requisitos de durabilidad y el costo. Para obtener más información sobre Cloud Storage, consulta Servidores de archivos en Compute Engine.

Disco persistente

Si incorporas discos persistentes (PD) en la carga de trabajo, es posible que puedas evitar por completo la implementación de un servidor de archivos. Los PD son un tipo de almacenamiento en bloque compatible con POSIX, que tienen un tamaño de hasta 64 TB y son comunes en la mayoría de las instalaciones de VFX. Los discos persistentes están disponibles como controladores estándar y unidades de estado sólido (SSD). Puedes conectar un PD en modo de lectura y escritura a una sola instancia o en modo de solo lectura a una gran cantidad de instancias, como un grupo de trabajadores de procesamiento.

Ventajas Desventajas Caso práctico ideal
Se activa como un volumen SMB o NFS estándar.

Puede cambiar el tamaño de forma dinámica.

Se pueden conectar hasta 128 PD a una sola instancia.

El mismo PD se puede activar en modo de solo lectura en cientos o miles de instancias.
Tiene un tamaño máximo de 64 TB.

Se puede escribir en un PD solo cuando se conecta a una sola instancia.

Solo pueden acceder los recursos que se encuentren en la misma región.
Canalizaciones avanzadas que pueden compilar un disco nuevo por cada trabajo.

Canalizaciones que entregan datos que se actualizan con poca frecuencia, como software o bibliotecas comunes, a los trabajadores de procesamiento.

Almacenamiento de objetos

Cloud Storage es un almacenamiento con alta redundancia y alta durabilidad que, a diferencia de los sistemas de archivo tradicionales, no está estructurado y tiene una capacidad casi ilimitada. Los archivos de Cloud Storage se almacenan en depósitos, que son similares a las carpetas y son accesibles en todo el mundo.

Una diferencia con el almacenamiento tradicional es que un sistema operativo (SO) no puede activar el almacenamiento de objetos como un volumen lógico. Si decides incorporar el almacenamiento de objetos en la canalización de procesamiento, debes modificar el modo en que lees y escribes los datos, ya sea mediante las utilidades de la línea de comandos, como gsutil, o a través de la API de Cloud Storage.

Ventajas Desventajas Caso práctico ideal
Tiene un almacenamiento duradero y con alta disponibilidad para archivos de todos los tamaños.

Se usa una sola API para todas las clases de almacenamiento.

Es de bajo costo.

Los datos están disponibles en todo el mundo.

Su capacidad es casi ilimitada.
No es compatible con POSIX.

Se debe acceder a través de la API o una utilidad de línea de comandos.

En una canalización de procesamiento, los datos deben transferirse de forma local antes de su uso.
Canalizaciones de procesamiento con un sistema de administración de elementos que puede publicar datos en Cloud Storage.

Canalizaciones de procesamiento con un sistema de administración de colas que puede recuperar datos de Cloud Storage antes de procesarlos.

Otros productos de almacenamiento

Otros productos de almacenamiento están disponibles como servicios administrados, a través de canales de terceros como Cloud Marketplace, o como proyectos de código abierto a través de repositorios de software o GitHub.

Producto Ventajas Desventajas Caso de uso ideal
Elastifile, Cloud File System (ECFS) [Adquirido por Google Cloud] Es un sistema de archivos en clústeres que puede admitir miles de conexiones NFS en simultáneo.

Puede sincronizarse con el clúster de NAS local.
Aunque están disponibles el almacenamiento local o la sincronización en la nube, los datos solo pueden sincronizarse en una única dirección. Por ejemplo, el NAS local puede leer y escribir, pero el ECFS basado en la nube es de solo lectura.

No hay forma de sincronizar los archivos de forma selectiva. No hay sincronización bidireccional.
Instalaciones de VFX medianas a grandes, con cientos de TB de datos por presentar en la nube.
Pixit Media, PixStor Es un sistema de archivos de escalamiento horizontal que puede admitir miles de clientes de NFS o POSIX en simultáneo. Los datos se pueden almacenar en caché a pedido desde el NAS local, y las actualizaciones se envían al almacenamiento local de forma automática. La asistencia de terceros de Pixit es costosa. Instalaciones de VFX medianas a grandes, con cientos de TB de datos por presentar en la nube.
Filestore Es una solución de almacenamiento completamente administrada en Google Cloud.

Es fácil de implementar y mantener.
Tiene un máximo de 64 TB por instancia. El rendimiento de NFS es fijo y no escala con la cantidad de clientes activos. Instalaciones de VFX pequeñas a medianas, con una canalización capaz de sincronizar elementos.

Un disco compartido entre estaciones de trabajo virtuales.
Cloud Storage FUSE Activa los depósitos de Cloud Storage como sistemas de archivos. Tiene un costo bajo. No es un sistema de archivos compatible con POSIX. Puede ser difícil de configurar y optimizar. Instalaciones de VFX capaces de implementar, configurar y mantener un sistema de archivos de código abierto, con una canalización que pueda sincronizar los elementos.

Hay otros tipos de almacenamiento disponibles en Google Cloud. Para obtener más información, comunícate con tu representante de GCP.

Información adicional sobre las opciones de almacenamiento de datos

Implementa estrategias de almacenamiento

Si estableces convenciones que determinen cómo controlar los datos, puedes implementar varias estrategias de almacenamiento en las canalizaciones de producción de animaciones o VFX, ya sea que accedas a los datos directamente desde el almacenamiento local o que sincronices el almacenamiento local con la nube.

Estrategia 1: Activación directa del almacenamiento local

Activación directa del almacenamiento local desde los trabajadores de procesamiento basados en la nube
Activación directa del almacenamiento local desde los trabajadores de procesamiento basados en la nube

Si la instalación tiene conectividad a Google Cloud de al menos 10 Gbps y se encuentra muy cerca de una región de Google Cloud, puedes activar el NAS local directamente en trabajadores de procesamiento en la nube. Si bien es una estrategia sencilla, puede resultar costosa y generar un uso intensivo del ancho de banda, porque todo lo que creas en la nube y se vuelve a escribir en el almacenamiento se cuenta como datos de salida.

Ventajas Desventajas Caso práctico ideal
La implementación es sencilla.

Se permite la lectura y escritura en el almacenamiento común.

Hay disponibilidad inmediata de datos, sin necesidad de almacenamiento en caché ni sincronización.
Puede ser más costosa que las otras opciones.

Se necesita tener proximidad a un centro de datos de Google para alcanzar una latencia baja.

La cantidad máxima de instancias que puedes conectar al NAS local depende del ancho de banda y del tipo de conexión.
Instalaciones cercanas a un centro de datos de Google que necesitan generar picos de actividad en cargas de trabajo de procesamiento en la nube, en las que el costo no es un problema.

Instalaciones con una conectividad a Google Cloud de al menos 10 Gbps.

Estrategia 2: Sincronización a pedido

Sincronización de datos entre el almacenamiento local y el almacenamiento basado en la nube a pedido
Sincronización de datos entre el almacenamiento local y el almacenamiento basado en la nube a pedido

Puedes elegir enviar datos a la nube o extraer datos desde el almacenamiento local, o viceversa, solo cuando necesitas los datos, como cuando procesas un marco o publicas un elemento. Si usas esta estrategia, puedes activar la sincronización mediante un mecanismo en la canalización, como una secuencia de comandos de observación, un controlador de eventos, como Pub/Sub, o un conjunto de comandos como parte de la secuencia de comandos de un trabajo.

Puedes realizar una sincronización mediante una variedad de comandos, como el comando scp de gcloud, el comando rsync de gsutil, o los protocolos de transferencia de datos basados en UDP (UDT). Si decides usar un UDT de terceros, comoAspera ,Cloud FastPath, BitSpeed, o FDT para comunicarte con un bucket de Cloud Storage, consulta la documentación del tercero sobre su modelo de seguridad y las prácticas recomendadas. Google no administra estos servicios de terceros.

Método de envío

En general, el método de envío se usa cuando publicas un elemento, colocas un archivo en una carpeta de observación o completas un trabajo de procesamiento y, después, lo envías a una ubicación predefinida.

Ejemplos:

  • Un trabajador de procesamiento en la nube completa un trabajo de procesamiento, y los marcos resultantes se envían al almacenamiento local.
  • Un artista publica un elemento. Parte del proceso de publicación de elementos implica el envío de los datos asociados a una ruta de acceso predefinida en Cloud Storage.

Método de extracción

El método de extracción se usa cuando se solicita un archivo, en general, por parte de una instancia de procesamiento basada en la nube.

Ejemplo: Como parte de una secuencia de comandos de un trabajo de procesamiento, todos los elementos que se necesitan para procesar una escena se extraen a un sistema de archivos antes del procesamiento, en el que todos los trabajadores de procesamiento pueden acceder a ellos.

Ventajas Desventajas Caso práctico ideal
Ofrece el control completo de los datos que se sincronizan y cuándo lo hacen.

Puedes elegir el protocolo y el método de transferencia.
La canalización de producción debe tener la capacidad de controlar eventos para activar las sincronizaciones de envíos y extracciones.

Es posible que se necesiten recursos adicionales para controlar la cola de sincronización.
Instalaciones pequeñas a grandes que tienen canalizaciones personalizadas y desean el control completo de la sincronización de elementos.

Notas de producción: Administra la sincronización de datos mediante el mismo sistema de administración de colas que usas para controlar los trabajos de procesamiento. Las tareas de sincronización pueden usar recursos de nube independientes para maximizar el ancho de banda disponible y minimizar el tráfico de red.

Estrategia 3: Almacenamiento local con caché de lectura basada en la nube

Usa el almacenamiento local con caché de lectura basada en la nube
Usa el almacenamiento local con caché de lectura basada en la nube

En esta estrategia, implementarás un dispositivo de almacenamiento en caché virtual en la nube para que actúe como caché de lectura y servidor de archivos. Cada trabajador de procesamiento en la nube activa el dispositivo de almacenamiento en caché según el protocolo NFS o SMB, como se haría con un servidor de archivos convencional. Si un trabajador de procesamiento lee un archivo que no está presente en el almacenamiento en caché, el archivo se transfiere desde el almacenamiento local al servidor de archivos en la nube. Según la configuración del servidor de archivos de almacenamiento en caché, los datos permanecerán en la memoria caché hasta que ocurra lo siguiente:

  • Los datos caduquen o permanezcan intactos durante un período específico.
  • Se necesite espacio en el servidor de archivos, en cuyo caso los datos se quitan de la memoria caché según la antigüedad.

Con esta estrategia, se reduce la cantidad de ancho de banda y la complejidad necesarios para implementar muchas instancias de procesamiento simultáneas.

En algunos casos, podrías hacer una preparación previa de la caché para asegurarte de que todos los datos relacionados con el trabajo estén presentes antes del procesamiento. Para hacer una preparación previa de la caché, lee el contenido de un directorio que se encuentre en el servidor de archivos en la nube mediante un read o stat de uno o más archivos. Acceder a los archivos de esta forma activa el mecanismo de sincronización.

También puedes agregar un dispositivo local físico para comunicarte con el dispositivo virtual. Por ejemplo, NetApp ofrece una solución de almacenamiento que puede reducir aún más la latencia entre el almacenamiento local y la nube.

Ventajas Desventajas Caso práctico ideal
Los datos almacenados en caché se administran de forma automática.

Reduce los requisitos de ancho de banda.

Los sistemas de archivos en la nube agrupados se pueden escalar verticalmente o se puede reducir su escala según los requisitos del trabajo.
Puede generar costos adicionales.

Se deben implementar tareas de trabajo previo si decides hacer una preparación previa de la caché.
Grandes instalaciones que implementan muchas instancias simultáneas y leen elementos comunes en muchos trabajos.

Filtra datos

Puedes compilar una base de datos de tipos de elementos y condiciones asociadas para definir si sincronizas un tipo de datos en particular. Es posible que nunca desees sincronizar algunos tipos de datos, como los datos efímeros que se generan como parte del proceso de conversión, los archivos almacenados en caché o los datos de simulación. También debes considerar la sincronización de los elementos no aprobados, ya que no se usarán todas las iteraciones en los procesamientos finales.

Realiza una transferencia masiva inicial

Cuando implementes la granja de procesamiento híbrida, te recomendamos realizar una transferencia inicial de la totalidad o una parte del conjunto de datos a Cloud Storage, a un disco persistente, o a cualquier otro almacenamiento basado en la nube. También puedes realizar una sincronización completa durante el transcurso de algunos días o semanas, en función de factores como la cantidad y el tipo de datos por transferir y la velocidad de la conexión. En la siguiente figura, se comparan los períodos típicos para las transferencias físicas y en línea.

Comparación de los períodos típicos para las transferencias físicas y en línea
Comparación de los períodos típicos para las transferencias físicas y en línea

Si la carga de trabajo de la transferencia excede el tiempo o las restricciones de ancho de banda, Google ofrece varias opciones de transferencia para enviar los datos a la nube, incluido Transfer Appliance de Google.

Archivo y recuperación ante desastres

Es importante señalar la diferencia entre el archivo de datos y la recuperación ante desastres. El archivo de datos es una copia selectiva del trabajo terminado, mientras que la recuperación ante desastres es un estado de los datos que se pueden recuperar. Recomendamos que diseñes un plan de recuperación ante desastres que se adapte a las necesidades de la instalación y que proporcione un plan de contingencia fuera del sitio. Consulta con tu proveedor de almacenamiento local para obtener ayuda con un plan de recuperación ante desastres que se adapte a tu plataforma de almacenamiento específica.

Archiva datos en la nube

Una vez que se completa un proyecto, es común guardar el trabajo finalizado en algún tipo de almacenamiento a largo plazo, por lo general, en medios de cinta magnética como LTO. Estos cartuchos están sujetos a requisitos del entorno y, con el tiempo, pueden ser difíciles de administrar en términos de logística. En ocasiones, las instalaciones de producción grandes alojan la totalidad del archivo en una sala de propósitos específicos con un servidor de archivos a tiempo completo que realiza un seguimiento de los datos y los recupera cuando se le solicita.

La búsqueda de elementos archivados, tomas o videos específicos puede llevar mucho tiempo, ya que los datos podrían estar almacenados en varios cartuchos, podría faltar el índice del archivo o estar incompleto, o podría haber limitaciones de velocidad en la lectura de los datos desde la cinta magnética.

La migración de los archivos de datos a la nube no solo puede descartar la necesidad de contar con administración y almacenamiento local de los medios de archivo, sino que también ofrece más accesibilidad y capacidad de búsqueda de los datos que los métodos de archivo tradicionales.

Una canalización de archivo básica puede ser como el siguiente diagrama, en el que se implementan distintos servicios en la nube para examinar, clasificar, etiquetar y organizar archivos. Desde la nube, puedes crear una herramienta de administración y recuperación de archivos para buscar datos mediante varios criterios de metadatos, como la fecha, el proyecto, el formato o la resolución. También puedes usar las API de aprendizaje automático para etiquetar y clasificar imágenes y videos y, también, almacenar los resultados en una base de datos basada en la nube, como BigQuery.

Una canalización de archivos de elementos que incluye aprendizaje automático para clasificar el contenido
Una canalización de archivos de elementos que incluye aprendizaje automático para clasificar el contenido

Estos son otros temas que debes considerar:

  • Automatiza la generación de miniaturas o proxies del contenido que reside en los niveles de Cloud Storage Nearline, Cloud Storage Coldline o Cloud Storage Archive. Usa estos proxies en tu sistema de administración de elementos de medios para que los usuarios puedan buscar datos mientras leen solo los proxies, no los elementos archivados.
  • Considera usar el aprendizaje automático para clasificar el contenido de live action. Usa Cloud Vision para etiquetar imágenes de fondo y texturas, o la API de Video Intelligence a fin de recibir ayuda con la búsqueda y la recuperación de videos de referencia.
  • También puedes usar AutoML Vision para crear un modelo de visión personalizado que reconozca los elementos, ya sean de live action o procesados.
  • Para el contenido procesado, considera guardar una copia de la imagen de disco del trabajador de procesamiento junto con el elemento procesado. Si tienes que volver a crear la configuración, estarán disponibles los complementos, las bibliotecas del SO, las dependencias y las versiones de software correctas, en caso de que tengas que volver a procesar una toma archivada.

Administra los elementos y la producción

Trabajar en el mismo proyecto desde varias instalaciones puede presentar desafíos únicos, en especial cuando el contenido y los elementos deben estar disponibles en todo el mundo. La sincronización manual de los datos en las redes privadas puede ser costosa y tener un uso intensivo de los recursos; además, está sujeta a las limitaciones de ancho de banda locales.

Si la carga de trabajo requiere que los datos estén disponibles a nivel global, deberías usar Cloud Storage, al que se puede acceder desde cualquier lugar en el que puedas acceder a los servicios de Google. Si deseas incorporar Cloud Storage en la canalización, debes modificarla para que comprenda las rutas de acceso de objetos y, luego, enviar o extraer los datos de los trabajadores de procesamiento antes del procesamiento. Este método proporciona acceso global a los datos publicados, pero requiere que la canalización entregue elementos donde se los necesita, en un período razonable.

Por ejemplo, un artista de texturas en Los Ángeles puede publicar archivos de imagen que usará un artista de iluminación en Londres. El proceso se verá de la siguiente manera:

Publicación de elementos en Cloud Storage
Publicación de elementos en Cloud Storage
  1. La canalización de publicación envía los archivos a Cloud Storage y agrega una entrada a una base de datos de elementos basada en la nube.
  2. Un artista en Londres ejecuta una secuencia de comandos a fin de recopilar elementos para una escena. Las ubicaciones del archivo se consultan desde la base de datos y se leen desde Cloud Storage al disco local.
  3. El software de administración de colas recopila una lista de elementos necesarios para el procesamiento, los consulta desde la base de datos de elementos y los descarga desde Cloud Storage a cada almacenamiento local del trabajador de procesamiento.

Si usas Cloud Storage como parte de la canalización de archivos, también se te proporcionará un archivo de todos los datos publicados en la nube.

Administra bases de datos

El software de administración de elementos y producción depende de bases de datos duraderas y con alta disponibilidad, que se entregan en hosts capaces de controlar cientos o miles de consultas por segundo. Por lo general, las bases de datos se alojan en un servidor local, que se ejecuta en el mismo bastidor que los trabajadores de procesamiento, y están sujetas a las mismas limitaciones de energía, red y HVAC.

Puedes considerar la posibilidad de ejecutar las bases de datos de producción de MySQL, NoSQL y PostgreSQL como servicios administrados basados en la nube. Estos servicios tienen alta disponibilidad y acceso global, encriptan datos en reposo y en tránsito, y ofrecen una función de replicación integrada.

Administra colas

Existen programas de software para la administración de colas disponibles en el mercado, como Qube!. También, Deadline y Tractor se usan mucho en la industria de VFX y de animación. También existen opciones de software de código abierto disponibles, como OpenCue. Puedes usar este software para implementar y administrar cualquier carga de trabajo de procesamiento en una gran variedad de trabajadores, no solo en los procesamientos mencionados. Puedes implementar y administrar la publicación de elementos, las simulaciones de partículas y fluido, la preparación de texturas y la composición con el mismo framework de programación que usas para administrar los procesamientos.

Algunas instalaciones implementaron software de programación de uso general, como HTCondor de la Universidad de Wisconsin, Slurm de SchedMD o Univa Grid Engine en las canalizaciones de VFX. No obstante, el software que está diseñado para la industria de VFX presta especial atención a las siguientes características:

  • Dependencia basada en trabajos, marcos y capas. Algunas tareas deben completarse antes de que puedas comenzar con otros trabajos. Por ejemplo, ejecutar una simulación de fluidos completa antes del procesamiento.
  • Prioridad del trabajo, que los administradores de procesamiento pueden usar para cambiar el orden de los trabajos según los plazos o los programas individuales.
  • Tipos de recursos, etiquetas o destinos, que puedes usar para hacer que coincidan los recursos específicos y los trabajos que los requieren. Por ejemplo, implementar procesamientos acelerados por GPU solo en VM que tienen una GPU conectada.
  • Capturar datos históricos sobre el uso del recurso y hacer que esté disponible en la API o en el panel para poder realizar un análisis más detallado. Por ejemplo, observar el uso promedio de CPU y de memoria de las últimas iteraciones de un procesamiento a fin de predecir el uso de recursos para la siguiente iteración.
  • Trabajos previos y posteriores al período de publicación Por ejemplo, un trabajo previo al período de publicación extrae todos los elementos necesarios en el trabajador de procesamiento local antes del procesamiento. Un trabajo posterior al período de publicación copia el marco procesado resultante a una ubicación designada en un sistema de archivos y, luego, marca el marco como completo en el sistema de administración de elementos.
  • Integración con las aplicaciones de software en 2D y 3D populares, como Maya, 3ds Max, Houdini, Cinema 4D o Nuke.

Notas de producción: Usa el software de administración de colas para reconocer un grupo de recursos basados en la nube como si fueran trabajadores de procesamiento locales. Este método implica cierta supervisión para poder maximizar el uso de los recursos mediante la ejecución de tantos procesamientos como pueda manejar cada instancia, una técnica que se conoce como compresión. Por lo general, estas operaciones se controlan mediante algoritmos y administradores de procesamiento.

También puedes automatizar la creación, la administración y la finalización de los recursos basados en la nube a pedido. Este método depende del administrador de colas para ejecutar secuencias de comandos previas y posteriores al procesamiento a fin de crear recursos según sea necesario, supervisarlos durante el procesamiento y finalizarlos cuando se completan las tareas.

Consideraciones para la implementación del trabajo

Cuando implementas una granja de procesamiento que usa almacenamiento local y basado en la nube, el administrador de colas debe tener en cuenta lo siguiente:

  • Las licencias pueden diferir entre las implementaciones en la nube y locales. Algunas licencias se basan en nodos, otras son controladas por el proceso. Asegúrate de que el software de administración de colas implemente trabajos para maximizar el valor de las licencias.
  • Considera agregar etiquetas únicas a los recursos basados en la nube para asegurarte de que se usen solo cuando se asignan a tipos específicos de trabajos.
  • Usa Cloud Logging para detectar instancias sin uso o inactivas.
  • Cuando inicias trabajos dependientes, considera la ubicación de los datos resultantes y dónde deben estar en el próximo paso.
  • Si los espacios de nombres de la ruta de acceso difieren entre el almacenamiento local y el basado en la nube, considera usar rutas de acceso relativas para que los procesamientos no dependan de la ubicación. Como alternativa, según la plataforma, puedes compilar un mecanismo para intercambiar las rutas de acceso en el momento del procesamiento.
  • Algunos procesamientos, simulaciones o procesos posteriores dependen de la generación de números al azar, que puede variar entre los fabricantes de CPU. Incluso las CPU del mismo fabricante, pero con generaciones de chip diferentes, pueden producir resultados distintos. Si tienes dudas, usa tipos de CPU idénticos o similares para todos los marcos de un trabajo.
  • Si usas un dispositivo de almacenamiento en caché de lectura, considera implementar un trabajo previo al período de publicación para precalentar la caché y asegurarte de que todos los recursos estén disponibles en la nube antes de implementar los recursos en la nube. Con este enfoque, se minimiza la cantidad de tiempo que los trabajadores de procesamiento deben esperar mientras se mueven los elementos a la nube.

Registro y supervisión

El registro y la supervisión del uso y el rendimiento de los recursos es un aspecto fundamental de cualquier granja de procesamiento. Google Cloud ofrece varias API, herramientas y soluciones que proporcionan estadísticas sobre el uso de los recursos y los servicios.

La forma más rápida de supervisar la actividad de una VM es ver la salida del puerto en serie. Esta salida puede ser útil cuando una instancia no responde a los planes de control de servicios típicos, como el supervisor de administración de colas de procesamiento.

Otras formas de recopilar y supervisar el uso de recursos en Google Cloud son las siguientes:

Configura las instancias de trabajador de procesamiento

Para que las cargas de trabajo sean nodos de procesamiento locales híbridos, deben ser iguales a los nodos de procesamiento basados en la nube, con versiones de SO, compilaciones de kernel, bibliotecas instaladas y software coincidentes. Además, es posible que tengas que reproducir puntos de activación, espacios de nombres de rutas de acceso y hasta entornos de usuario en la nube, porque son locales.

Elige una imagen de disco

Puedes elegir una de las imágenes públicas o crear tu propia imagen personalizada basada en la imagen de nodo de procesamiento local. Las imágenes públicas incluyen una colección de paquetes que configuran y administran cuentas de usuario, y habilitan la autenticación basada en claves (SSH) de Secure Shell.

Crea una imagen personalizada

Si eliges crear una imagen personalizada, tendrás que agregar más bibliotecas a Linux y Windows para que funcionen de forma correcta en el entorno de Compute Engine.

La imagen personalizada debe cumplir con las prácticas recomendadas de seguridad. Si usas Linux, instala el entorno invitado de Linux para Compute Engine a fin de acceder a las funciones que proporcionan las imágenes públicas de forma predeterminada. Cuando instalas el entorno invitado, puedes realizar tareas, como acceder a metadatos, configurar el sistema y optimizar el SO para usarlo en Google Cloud, mediante los mismos controles de seguridad en la imagen personalizada que usas en las imágenes públicas.

Notas de producción: Administra las imágenes personalizadas en un proyecto independiente a nivel de la organización. Con este enfoque, puedes tener un control más preciso sobre cómo se crean o modifican las imágenes y te permite aplicar versiones, que pueden resultar útiles cuando usas versiones de software o SO diferentes en varias producciones.

Automatiza la creación de imágenes y la implementación de instancias

Puedes usar herramientas como Packer para que la creación de imágenes sea más reproducible, auditable, configurable y confiable. También puedes usar una herramienta como Ansible para configurar los nodos de procesamiento en ejecución y controlar su configuración y ciclo de vida en detalle.

Para obtener más información sobre cómo automatizar la creación de imágenes y la configuración de instancias, consulta Compilaciones automatizadas de imágenes con Jenkins, Packer y Kubernetes.

Selecciona un tipo de máquina

En Google Cloud, puedes elegir uno de los tipos predefinidos de máquinas o especificar un tipo personalizado de máquina. Si usas tipos personalizados de máquinas, tendrás control sobre los recursos para personalizar las instancias según los tipos de trabajo que ejecutas en Google Cloud. Cuando creas una instancia, puedes agregar GPU y especificar la cantidad de CPU, la plataforma de CPU, la cantidad de RAM, y el tipo y tamaño de los discos.

Notas de producción: En las canalizaciones que implementan una instancia por marco, considera personalizar la instancia según las estadísticas de trabajo históricas, como la carga de CPU o el uso de memoria, para optimizar el uso de recursos en todos los marcos de una toma. Por ejemplo, puedes elegir implementar máquinas con un mayor conteo de CPU para los marcos que contienen mucho desenfoque de movimiento a fin de normalizar los tiempos de procesamiento en todos los marcos.

Elige entre VM interrumpibles y estándar

Las VM interrumpibles (PVM) hacen referencia al exceso de capacidad de Compute Engine que se vende a un precio más bajo que las VM estándar. Compute Engine podría finalizar o interrumpir estas instancias si otras tareas requieren acceso a esa capacidad. Las PVM son ideales para procesar cargas de trabajo tolerantes a errores y administradas por un sistema de colas que hace un seguimiento de los trabajos que se pierden en la interrupción.

Las VM estándar se pueden ejecutar de forma indefinida y son ideales para los servidores de licencias o los hosts de administrador de colas que deben ejecutarse de manera persistente.

Las VM interrumpibles se finalizan de forma automática después de 24 horas, por lo que no debes usarlas para ejecutar procesamientos o simulaciones que tomen más tiempo.

Las tasas de interrupción van del 5% al 15%, lo que es tolerable en las cargas de trabajo de procesamiento típicas, dado el costo reducido. Algunas prácticas recomendadas de interrupción pueden ayudarte a decidir la mejor forma de integrar las PVM a la canalización de procesamiento. Si la instancia se interrumpe, Compute Engine envía una señal de interrupción a la instancia, que puedes usar para activar el programador a fin de que finalice el trabajo actual y lo vuelva a poner en cola.

VM estándar VM interrumpible
Se puede usar para trabajos de ejecución larga.

Es ideal para trabajos de prioridad alta con plazos estrictos.

Se puede ejecutar de forma indefinida y es ideal para los servidores de licencias o el hosting del administrador de colas.
Se finaliza de forma automática después de 24 horas.

Requiere un sistema de administración de colas para controlar instancias interrumpibles.

Notas de producción: Algunos procesadores pueden capturar una instantánea de un procesamiento en progreso en intervalos específicos, por lo que si la VM se interrumpe, puedes pausar y reanudar el procesamiento sin tener que reiniciar un marco desde cero. Si el procesador admite la captura de instantáneas, y usas PVM, habilita la captura de instantáneas del procesamiento en la canalización para no perder trabajo. Mientras se escriben y actualizan las instantáneas, los datos se pueden escribir en Cloud Storage y, si el trabajador de procesamiento se interrumpe, se los puede recuperar cuando se implementa una PVM nueva. Para evitar los costos de almacenamiento, borra los datos de las instantáneas de los procesamientos completos.

Otorga acceso a los trabajadores de procesamiento

IAM te ayuda a otorgar acceso a los recursos de nube a quienes lo necesiten. En el caso de los trabajadores de procesamiento de Linux, puedes usar el Acceso al SO para restringir aún más el acceso dentro de una sesión de SSH, lo que te permite controlar quién es el administrador.

Controla los costos de una granja de procesamiento híbrida

Cuando se estiman los costos, debes tener en cuenta muchos factores. Sugerimos que implementes las siguientes prácticas recomendadas comunes como política para la granja de procesamiento híbrida:

  • Usa instancias interrumpibles de forma predeterminada. A menos que el trabajo de procesamiento tenga una ejecución muy larga, de cuatro o más horas por marco, o que tengas un plazo de entrega estricto, usa VM interrumpibles.
  • Minimiza la salida. Copia solo los datos que necesites en el almacenamiento local. En la mayoría de los casos, estos datos serán los marcos procesados finales, aunque también podrían ser pases independientes o datos de simulación. Si activas el NAS local directamente o usas un producto de almacenamiento que se sincroniza de forma automática, escribe todos los datos procesados en el sistema de archivos local del trabajador de procesamiento y copia lo que necesites en el almacenamiento local para evitar la salida de datos innecesarios y temporales.
  • VM de tamaño adecuado. Asegúrate de crear los trabajadores de procesamiento con un uso de recursos óptimo, mediante la asignación de la cantidad necesaria de CPU virtuales, la cantidad óptima de RAM y la cantidad correcta de GPU, si las hubiera. Además, considera cómo minimizar el tamaño de los discos conectados.
  • Ten en cuenta el mínimo de un minuto. En Google Cloud, las instancias se facturan por segundo con un mínimo de un minuto. Si la carga de trabajo incluye marcos de procesamiento que duran menos de un minuto, considera agrupar las tareas para evitar la implementación de una instancia por menos de un minuto de tiempo de procesamiento.
  • Guarda los conjuntos de datos grandes en la nube. Si usas la granja de procesamiento para generar grandes cantidades de datos, como EXR profundos o datos de simulación, considera usar una estación de trabajo basada en la nube que esté más adelante en la canalización. Por ejemplo, un artista de FX puede ejecutar una simulación de fluidos en la nube y escribir los archivos de caché en el almacenamiento basado en la nube. Un artista de iluminación podría acceder a estos datos de simulación desde una estación de trabajo virtual que se encuentra en Google Cloud. Para obtener más información sobre las estaciones de trabajo virtuales, comunícate con tu representante de GCP.
  • Aprovecha los descuentos por compromiso de uso y por uso continuo. Si ejecutas un grupo de recursos, los descuentos por uso continuo te pueden ahorrar hasta un 30% en el costo de las instancias que se ejecutan durante un mes entero. Los descuentos por compromiso de uso también son una opción razonable en algunos casos.

Compara costos de las granjas de procesamiento locales y basadas en la nube

Compara los costos de compilación y mantenimiento de una granja de procesamiento local con los costos de compilación de una granja de procesamiento basada en la nube. En el siguiente ejemplo de desglose de costos, se comparan las dos situaciones (todos los costos se expresan en USD).

Costos de la granja de procesamiento local Costos de la granja de procesamiento basada en la nube
Costos iniciales de compilación
Precio por nodo: $3,800
Cantidad de nodos: 100
Hardware de Herramientas de redes, compilación de sala limpia: $100,000
Hardware de almacenamiento: $127,000
Conexión inicial con la compañía de electricidad: $20,000
Conectividad de aprovisionamiento: $2,000
Costos totales de compilación: $629,000
Costos iniciales de conectividad
Hardware de Herramientas de redes: $10,000
Hardware de almacenamiento: $127,000
Conectividad de aprovisionamiento: $2,000
Costos totales de compilación: $139,000
Costos anuales
Contrato de asistencia de Herramientas de redes: $15,000
Contrato de asistencia de servidores: $34,050
Costos anuales
Contrato de asistencia de Herramientas de redes: $1,500
Contrato de asistencia de servidores: $19,050
Costos mensuales
Ancho de banda: $2,500
Electricidad: $8,000
Costo por pie cuadrado:  $40
Pies cuadrados requeridos: 400
Personal y asistencia de TI: $15,000
Costos mensuales totales: $41,500
Costos mensuales
Ancho de banda: $2,500
2x Interconexión dedicada: $3,600
Salida de 100 GB: $12
Costos mensuales totales: $6,112
Uso de la granja de procesamiento
Porcentaje de uso mensual: 50%
Cantidad de horas de procesamiento por mes: 36,500
Uso de la granja de procesamiento
Cantidad de instancias: 100
Tipo de máquina: n1-standard-32, interrumpible
Porcentaje de uso mensual: 50%
Cantidad de horas de procesamiento por mes: 36,500
Costo por hora de procesamiento: $5.62 Costo por hora de procesamiento: $1.46

Resumen

La extensión de la granja de procesamiento existente a la nube es una forma rentable de aprovechar los recursos potentes y de bajo costo sin gastos de capital. No existen dos canalizaciones de producción iguales, por lo que ningún documento puede abarcar todos los temas y requisitos únicos. Para obtener ayuda con la migración de las cargas de trabajo de procesamiento a la nube, comunícate con tu representante de GCP.

Lecturas adicionales

En cloud.google.com podrás encontrar otras soluciones aplicables, algunas de las cuales se mencionaron en este artículo.

Prueba otras funciones de Google Cloud. Consulta nuestros instructivos.