Informes
Tendencias 2016: La virtualización acaba con los límites y transforma redes y centros de datos
Mientras que los últimos 10 años han sido testigo de cómo se iban consolidando nuevas funciones de red en un appliance físico, hoy en día se está produciendo el efecto contrario: se pasando de lo físico a lo virtual en una “descomposición” de la red que, según Kemp Technologies, se acelerará durante el próximo año y transformará profundamente redes y centros de datos .
![Eduardo García](http://recursos.itmedia.es/files/67/72.jpg)
Eduardo García
“La virtualización elimina los límites de la red y sus funciones pueden desplegarse allí donde tengan más sentido”, destaca Eduardo García, director para la Región del Sur de Europa de KEMP Technologies.
Es más, “desde que las funciones de red virtualizadas pueden localizarse más cerca del usuario final, la potencia en computación puede ser distribuida en torno al extremo de la red, lo que reduce la necesidad de que se tengan que enviar paquetes al centro de datos, algo crítico para tener una red de baja latencia”.
García señala cómo las capacidades de los balanceadores de carga tradicionales se han ampliado para incluir WAF (Web Application Firewalls), IPS (sistemas de prevención de intrusiones), cortafuegos, aceleradores SSL, compresión y almacenamiento en caché, dando lugar a lo que hoy conocemos como ADCs, controladoras de distribución de aplicaciones.
“Lo que tiene sentido en el mundo físico no tiene el mismo sentido en el mundo virtual. En el caso de los ADCs, podríamos colocar el firewall o los sistemas de prevención de intrusiones en el extremo, mientras que las capacidades de balanceo de carga se podrían colocar más cerca de la aplicación en el centro de datos. Esto evitaría que el tráfico “malo” atravesase toda la red y acabase finalmente sobrecargando el centro de datos”.
Además de la creciente descomposición de la red, KEMP también prevé otras tendencias emergentes y que se irán afianzando durante 2016.
Desde que las funciones de red virtualizadas pueden localizarse más cerca del usuario final, la potencia en computación puede ser distribuida en torno al extremo de la red, lo que reduce la necesidad de enviar paquetes al centro de datos, algo crítico para tener una red de baja latencia
Eduardo García
Adopción empresarial del IoT
Aunque el frigorífico o la tostadora conectada sigan aún lejos de la gran mayoría de personas, las empresas más innovadoras están adoptando el Internet de las Cosas para mejorar la recogida y análisis de información, como bases para la automatización y el control.
Durante el próximo año, el alcance de IoT llegará a entidades grandes y complejas, como las fábricas. Esta evolución supondrá no sólo un incremento en los volúmenes y fuentes de datos, sino que requerirá nuevas capas de seguridad y de distribución de aplicaciones.
Estas capas adicionales se entregarán en un entorno virtualizado como microservicios dinámicos que pueden adaptarse ágilmente a los cambios en los patrones de uso que a menudo caracterizan los servicios IOT.
El Centro de Datos Definido por Software (SDDC)
La necesidad de que los servicios de TI puedan adaptarse rápidamente para soportar las dinámicas del negocio llevará a la adopción de sets de herramientas de orquestación y automatización que simplificarán las operaciones de TI.
Un enfoque definido por software permite al departamento de TI reaccionar de forma más rápida, hacer un mejor uso de los recursos y tener una visión unificada de la distribución de aplicaciones desde la red a los componentes de las aplicaciones.
La clave de este enfoque está en el uso de tecnologías emergentes de redes definidas por software (SDN) y de la virtualización de las funciones de red (NFV) junto con tecnologías consolidadas de servidores y virtualización del almacenamiento. Disponer de un entorno que está virtualizado desde arriba (aplicación) hasta abajo (la red) es la clave para el centro de datos definido por software en 2016.
Surgen modelos de Seguridad Adaptativa
Con la aparición de infraestructuras de entrega de aplicaciones más complejas y dinámicas, las herramientas tradicionales de seguridad diseñadas para identificar amenazas conocidas son insuficientes y veremos un enfoque de seguridad adaptativa.
Este modelo podrá ver las políticas de seguridad y comportamientos horneados en el stack de entrega de aplicaciones, lo que impulsará un cambio fundamental en cómo se desarrollan y despliegan las aplicaciones. La capacidad de desplegar y orquestar las funciones de seguridad como microservicios permite la aplicación de políticas de seguridad en múltiples puntos, en lugar de hacerlo en el extremo de la red, como se hace habitualmente.
Uso de APIs para acelerar el desarrollo y despliegue
El modelo DevOps para el desarrollo y entrega de software impulsará el uso de herramientas y microservicios de terceros que acelerarán el proceso. La clave para la utilización de estos microservicios está en el uso generalizado de las APIs que no sólo proporcionan la funcionalidad de la aplicación, sino que también permitirán la gestión y orquestación.
En el modelo DevOps es fundamental poder aprovisionar, monitorizar y controlar a través de APIs, ya que es la automatización lo que permite la entrega continuada y asegura la consistencia. Con APIs impulsando microservicios que proporcionan funciones de red y de seguridad, los entornos DevOps podrán adoptar un enfoque tipo Lego para crear y desplegar servicios en 2016. Más información en http://kemptechnologies.com/es
Publicidad
Publicidad
Publicidad
Últimas Noticias
- 06/06/2024Bonitasoft impulsa el mercado BPM ante la necesidad de automatización de las empresas
- 06/06/2024Babel, reconocida por OutSystems como ‘premier partner’
- 25/05/2024NetApp y Lenovo presentan AIPod, una solución de infraestructura convergente optimizada para la IA generativa
- 25/05/2024Lantik aplica DevSecOps y las soluciones de observabilidad de Dynatrace a sus sistemas
Publicidad
Opinión
Bill Waid, director de tecnología en FICO
La importancia del trabajo en equipo en los procesos de innovación y aceleración
El científico estadounidense Thomas Alva Edison llegó a registrar más de un millar de inventos a lo largo de su vida y, sin embargo, no pudo patentar el que para muchos fue su hallazgo más importante: 'la factoría de inventos', un concepto sobre el que Bill Waid, chief product and technology officer en FICO, reflexiona y anima a que se aplique a estrategias de colaboración, innovación y aceleración
Soluciones
Porsche elige a NetApp como partner de infraestructura inteligente de datos
NetApp da nuevos pasos en su colaboración con Porsche Motorsport y se convierte en su partner exclusivo de infraestructura inteligente de datos, acelerando el acceso a los datos de Porsche y la toma de decisiones en pista. El acuerdo construye una nueva relación entre NetApp y el equipo Porsche Penske Motorsport en el campeonato IMSA WeatherTech SportsCar (IWSC) y en el Mundial de Resistencia (World Endurance Championship), así como un apoyo continuado al equipo TAG Heuer Porsche de Fórmula E