Red de información TI para profesionales ITMedia NetWork

lunes, 25 de mayo de 2020
Actualizado a las 7:36


Búsqueda avanzada

Publicidad

Publicidad

Ventajas y desventajas de la virtualización

23 Mayo 2008por Isabel Martín, consultor preventa de Software de Servidores Críticos de HP Española

Página 3 de 4 de Ventajas y desventajas de la virtualización

Las soluciones óptimas para virtualizar los servidores críticos son las que se ejecutan en servidores de alta gama, por ejemplo HP Integrity Virtual Machines. Esta solución permite crear máquinas virtuales sobre servidores Itanium.

La arquitectura Itanium proporciona estupendas características de rendimiento: procesador 64 bits puro, con enormes cachés, etc.), fiabilidad y disponibilidad a la altura de los grandes ordenadores o mainframes. En HP Integrity Virtual Machines es posible ejecutar sistemas operativos estables como HP-UX.

La virtualización presenta múltiples ventajas para los centros de datos, principalmente desde el punto de vista de simplificación de la infraestructura física y conexiones. Pero al realizarse por software lo que antes se hacía por hardware, se introducen una nueva problemática que no existían en los entornos físicos

La importancia de la gestión de la virtualización

En el apartado anterior analizábamos la importancia de elegir de la tecnología más adecuada para virtualizar correctamente el servidor que deseemos; tanto o más importante es disponer de una buena herramienta de gestión.

La virtualización presenta múltiples ventajas para los centros de datos, principalmente desde el punto de vista de simplificación de la infraestructura física y conexiones. Pero al realizarse por software lo que antes se hacía por hardware, se introducen una nueva problemática que no existían en los entornos físicos.

Por ejemplo, si una máquina virtual puede ejecutarse en distintos servidores físicos, debemos saber en qué servidor físico se está ejecutando en cada momento. O si un servidor físico cuenta con varias máquinas virtuales que pueden estar arrancadas o no, debemos conocer en todo momento el estado de esas máquinas virtuales.

Normalmente, en un CPD convivirán servidores físicos y virtuales, por lo que la herramienta de gestión deberá permitir la administración de los dos tipos de plataformas, idealmente en una única consola. Además, si se utilizan diversas tecnologías de virtualización, desde esta consola deberán poderse invocar de manera transparente todas las herramientas de gestión específicas de cada plataforma.

E idealmente, debería tratarse de una herramienta de gestión de la infraestructura con capacidad para integrarse con plataformas y soluciones de gestión empresarial, que nos avisen de la repercusión que un problema en una máquina virtual puede tener en el negocio.

Un ejemplo: si se detiene la máquina virtual que contiene la base de datos de clientes, se generaría una alerta en la herramienta de gestión de la infraestructura virtual; alerta que se redirigirá a la herramienta de gestión empresarial informando de que el servicio “Atención al cliente” no está disponible.

Virtualización y negocio

Si además queremos ligar totalmente nuestra infraestructura virtual con el negocio, no sólo a nivel de alertas, sino para asegurar que se satisfacen todos los compromisos de la compañía con sus clientes, podemos utilizar las denominadas herramientas de automatización.

Las herramientas de automatización permiten definir una serie de métricas que deben cumplirse siempre en una máquina virtual, y si la herramienta detecta que se va a incumplir una métrica, es capaz de reconfigurar las máquinas virtuales para que esto no llegue a ocurrir. Esta métrica puede ser una medida de infraestructura (% consumo de CPU, MB de memoria libres) o una métrica de negocio (tiempo de respuesta, duración de un trabajo batch).

Supongamos una máquina física que alberga varias máquinas virtuales. Si una de estas máquinas virtuales contiene una aplicación cuyo tiempo de respuesta debe estar siempre por debajo de 2 segundos, pero la herramienta de automatización detecta que el tiempo de respuesta es de 1,9 segundos y es muy probable que en breve sobrepase los 2 segundos de máximo, la herramienta reconfigurará la máquina virtual asignándole, por ejemplo, más CPU.

Esta capacidad de CPU la puede obtener “tomándola prestada” de otra máquina virtual que se esté ejecutando en la misma máquina física (que no esté utilizando la CPU que tiene asignada), activando CPUs presentes pero desactivadas de la máquina física o moviendo la máquina virtual a otra máquina física con más CPU libre disponibles, entre otras opciones.

Lo primero que hay que tener en cuenta es que la consolidación total es algo sólo teórico, que no es posible en el mundo real. La consolidación total implicaría reutilizar todo el hardware existente, que no hubiera ningún tipo de traba política, de licenciamiento, ni de aislamiento entre aplicaciones, y lamentablemente esto no es así

El término SLA (Service Level Agreement o Acuerdo de Nivel de Servicio) se emplea mucho en las compañías, para referirse al contrato que tiene esa compañía con otras partes (normalmente clientes) de proporcionar un servicio con determinadas características de calidad.

Por ejemplo, una compañía de telefonía que ofrezca a sus clientes de línea ADSL un compromiso de sólo 30 minutos de indisponibilidad al año tendrá que vigilar una serie de métricas, que serán las que definirán si se cumple o no es SLA. Estas métricas se conocen con el nombre de SLOs (Service Level Objectives).

Volviendo al ejemplo de la ADSL, un SLO podría ser que la aplicación que asigna dinámicamente direcciones IP a los routers domésticos de ADSL, debe proporcionar la IP en un tiempo de 5 segundos como máximo. Podríamos decir que un SLA (contrato) está formado por SLOs (métricas).

Si en la herramienta de automatización se definen métricas que correspondan con los SLOs, la compañía tendrá su infraestructura virtual totalmente ligada con los SLAs, y por tanto, con el negocio.

ShareThis

Publicidad

Publicidad

Publicidad

Opinión

Werner Vogels, CTO de Amazon y de AWS

Amazon supera los grandes desafíos del Big Data con Galaxy, el data lake de su red logística

En 2019, Amazon decidió crear Galaxy, un data lake capaz de dar soporte a toda su red logística, una de las mayores del planeta. Werner Vogels, CTO de Amazon.com, nos revela los retos de aplicar el Big Data en las empresas y lo que resuelve el aplicar un lago de datos, similares a los que se enfrenta la propia Amazon

Soluciones

Seresco participa en el proyecto CIP - Olive para el cultivo eficiente de olivares en Egipto

Seresco participa, junto a empresas españolas y de Egipto, en el proyecto CIP - Olive de agricultura de precisión, financiado por el CDTI y el ITIDA egipcio, que contempla el desarrollo de un sistema integrado de IoT basado en la nube y que permitirá controlar los principales problemas que se presentan en los olivares, como son plagas e infecciones

techWEEK info

TechWEEK forma parte de la red de información TI para profesionales de IDG Communications.


Sitios especializados de ITMedia NetWork: IT CIO.es, IT PYMES.es, IT SEGURIDAD.es, Strategic Partner, NUEVAempresa.com.

ITMedia NetWork. © 2006 - 2020 Information Technology & Media S.A. (CIF A-84950211). Todos los derechos reservados.

Envío de artículos por email de techWEEK.es

Por favor, introduzca la siguiente información











Cerrar

Envío de artículos por email de techWEEK.es

Procesando envíos...

Envío de artículos por email de techWEEK.es

Email enviado. Cerrar

Envío de artículos por email de techWEEK.es

Error en el envio. Pulse aqui para cerrar.Cerrar