Lo que se debe saber antes de adoptar una estrategia de múltiples nubes
Raymundo Peixoto, vicepresidente ejecutivo de Soluciones para Centros de Datos de Dell Technologies en Latinoamérica
Cada vez son más las empresas que invierten en una estrategia de múltiples nubes buscando reducir costos, aumentar la eficiencia operativa y aprovechar los mejores recursos que ofrecen diferentes proveedores.
Este movimiento comenzó hace algunos años, con la primera ola de migración a la
nube liderada por los departamentos de TI con el objetivo inicial de optimizar
las capacidades de sus centros de datos mediante la creación de catálogos de
servicio y portales de autogestión. Así se logró dinamizar la interacción con
los demás sectores de la empresa sumando una percepción de agilidad en la
provisión de recursos.
Luego, las estrategias evolucionaron hacia un modelo híbrido en el que el ambiente interno pasó a comportarse como una instancia de la nube pública, permitiendo la transferencia de cargas de trabajo para atender demandas estacionales y desarrollar nuevas aplicaciones rápidamente y con un costo competitivo. Esto permitió mantener el control y las directivas de seguridad y rendimiento de aplicaciones críticas y, a la vez, ampliar la infraestructura de los centros de datos.
Ahora estamos en una tercera ola, conocida como las múltiples nubes. Este movimiento fue estimulado por tres leyes que exigen que las empresas piensen en la movilidad de las cargas de trabajo:
- La ley de la física: Factores como la conectividad de red, la latencia y el volumen de datos impactan directamente en cómo se define la distribución de las cargas de trabajo. La latencia está asociada a límites físicos, así como la conectividad de red de alto rendimiento requiere niveles de inversión elevados dependiendo del nivel de capilaridad deseado.
- La ley de economía: Los factores que definen la compra de componentes de infraestructura (servidores, almacenamiento y red) también son determinantes en la definición de la distribución de las cargas de trabajo. Para proyectos de mediano a largo plazo que sean críticos para el negocio y demanden mayor control de la seguridad, serán preferibles soluciones de nube privada. La nube pública, en cambio, será más indicada para operaciones que demanden agilidad y requieran poca inversión.
- La ley de la gestión: Es necesario tener en cuenta las legislaciones vigentes, como la Ley General de Protección de Datos (LGPD), reglamentaciones de industrias, tasas e impuestos, que también imponen reglas que determinan la distribución de las cargas de trabajo.
El concepto de movilidad de las cargas de trabajo que define esta ola de proyectos de múltiples nubes está directamente asociado a la capacidad de gestión, por software, de los componentes de computación, almacenamiento y red. Es necesario gestionar y orquestar componentes automáticamente con flujos de trabajo y procedimientos establecidos. Esto se relaciona con el concepto del centro de datos definido por software (SDDC, Software Defined Data Center), en el cual se pueden migrar máquinas virtuales, contenedores, microservicios, código fuente y funciones con transparencia entre infraestructuras y ubicaciones heterogéneas. Con esto definido, queda saber cuáles son las ubicaciones de una arquitectura de múltiples nubes.
Cuando la carga de trabajo está en el centro de datos de la empresa, es posible acercarse a la experiencia del ambiente interno, con la agilidad y la flexibilidad necesarias, mediante la implementación de la infraestructura de TI como servicio (IaaS). Cuando ni el centro de datos ni el equipo de TI están internamente en las empresas, las cargas de trabajo están en la “nube pública”. También existe el “borde” (o frontera), que es la infraestructura que se ubica donde no existen siquiera departamentos de TI ni centros de datos. En este caso, la idea es colocar el procesamiento cerca del origen de los datos, generando así la reducción de la latencia en la comunicación.
Para resumir, en ambientes de múltiples nubes, la arquitectura de TI debe comportarse como una malla única, con gestión integrada y unificada, versátil ante los diversos perfiles de aplicaciones del negocio, permitiendo flexibilidad y agilidad, y al mismo tiempo garantizar la seguridad y el rendimiento necesarios para las aplicaciones críticas. Para esto, es necesario asegurar que la dinámica de distribución sea transparente y coherente, sin requerir entrenamientos continuos ni gestiones aisladas o en silos. Por lo tanto, deberá considerar lo siguiente:
- Infraestructura: Con propiedades y capacidades comunes entre los objetos administrados,
independientemente de la ubicación. Por ejemplo, en las máquinas virtuales (VM), deberá permitirse agregar memoria, poder de cómputo y almacenamiento, de forma coherente, en todas las ubicaciones, sin importar si las VM están en el núcleo, en la nube o en el borde.
- Operación: Deben existir patrones de procedimientos para todas las ubicaciones, para que un profesional de gestión pueda aplicarlos sin nuevos entrenamientos y, sobre todo, con posibilidad de automatización que permita actuar en objetos de las diferentes ubicaciones mediante interfaces y procedimientos comunes.
- Servicios: La operación y la infraestructura necesitan servicios que permitan la automatización de la administración, el uso de contenedores, la comunicación, el desarrollo y la ejecución de código.
Finalmente, sea cual sea la estrategia de múltiples nubes, es importante conocer profundamente las exigencias del negocio. El departamento de TI deberá ubicarse como socio y funcionar como un habilitador de innovación y de oportunidades. Solo así será posible sacar el máximo provecho de los beneficios de esta tercera ola de migración hacia la nube.