Red de información TI para profesionales ITMedia NetWork

jueves, 18 de octubre de 2018
Actualizado a las 9:15


Búsqueda avanzada

Publicidad

Publicidad

Opinión

Predicciones 2018 para el CTO: Cinco modos de evolución para los datos

11 Diciembre 2017por Mark Bregman, CTO de NetApp

Con la transformación digital como pieza central de toda estrategia tecnológica y, como eje, unos datos cada vez más distribuidos, dinámicos y diversos, Mark Bregman, CTO de NetApp, comparte cinco grandes líneas de evolución que van a caracterizar el próximo año y que, a modo de predicción, seguro que interesan a CTOs y, en general, a directivos y profesionales de las empresas.

Mark Bregman

Mark Bregman

Muchos hemos escuchado en NetApp afirmar que el mundo está cambiando básica y rápidamente. La trasformación digital es -o debería ser- una pieza central en cualquier estrategia tecnológica empresarial. Y, directamente en el centro se encuentran los datos; elementos cada vez más distribuidos, dinámicos y diversos.

Todo, desde las infraestructuras tecnológicas a las arquitecturas de las aplicaciones o las estrategias de aprovisionamiento, van a tener que cambiar como respuesta a las nuevas realidades en el mundo del cloud híbrido. En este contexto, hemos elaborado nuestras cinco principales predicciones para los CTO en 2018, que deseamos ver cómo se desarrollan a lo largo del año que viene.

1 - Los datos se convierten en elementos conscientes de sí mismos

En la actualidad contamos con unos procesos que actúan sobre los datos y determinan cómo se trasladan, gestionan y protegen. Pero, ¿qué ocurriría si, por el contrario, los datos se definieran por sí mismos?

A medida que los datos se convierten en elementos conscientes de sí mismos e incluso se hacen más diversos de lo que lo son en la actualidad, los metadatos permitirán a los datos transportarse, categorizarse, analizarse y protegerse por sí mismos de forma proactiva.

Todo, desde las infraestructuras tecnológicas a las arquitecturas de las aplicaciones o las estrategias de aprovisionamiento, van a tener que cambiar como respuesta a las nuevas realidades en el mundo del cloud híbrido

El flujo entre datos, aplicaciones y elementos de almacenamiento se mapeará en tiempo real y los datos proporcionarán la información exacta que necesitan los usuarios en el momento preciso que la necesiten. Esto también incluye la posibilidad de autogobierno de los datos que, por sí mismos, van a ser capaces de determinar quién tiene derecho de acceso a ellos, además de a compartirlos y usarlos; algo que podría tener unas mayores consecuencias en materia de protección externa, privacidad, gobernanza y soberanía de los datos.

Por ejemplo, si tiene un accidente de tráfico puede que haya varios grupos diferentes de personas que quieran o exijan tener acceso a los datos del vehículo. Un juez o la compañía de seguros pueden reclamarlos para determinar la responsabilidad del accidente, mientras que el fabricante del automóvil puede necesitarlos para optimizar el rendimiento de los frenos o de otros sistemas mecánicos. Esta autoconsciencia de los datos permite etiquetarlos para controlar quiénes ven qué parte de ellos y cuándo lo pueden hacer sin pérdidas de tiempo o potenciales errores adicionales debido a intervenciones de personas para subdividir, aprobar y distribuir los datos pertinentes a cada parte interesada.

Las máquinas virtuales aprovisionadas en infraestructuras de escala web son como los servicios de carpool de la tecnología, en los que el usuario sencillamente especifica las tareas que necesita realizar, dejando el resto de los detalles en manos del proveedor del cloud

2 - Las máquinas virtuales se convierten en máquinas de “carpool”

La gestión de unos datos cada vez más distribuidos será más rápida, barata y cómoda, usando para ello máquinas virtuales aprovisionadas en infraestructuras de escala web, en vez de máquinas físicas reales.

Algo que se puede comparar con comprar un coche o usar un servicio de traslado compartido (o carpool), como Uber o Lyft. Así, para aquellos que realizan transportes de cargas a diario puede tener sentido adquirir una camioneta. Otros, sin embargo, pueden necesitar un cierto tipo de vehículo durante un periodo de tiempo determinado, por lo que el alquiler es la mejor opción.

Y por último están los individuos que únicamente necesitan un vehículo para ir de un lugar a otro una sola vez y, en este caso, el tipo de vehículo no importa, solo la velocidad y la comodidad, por lo que un servicio de carpool es la mejor opción para este último tipo de usuarios.

En vez de trasladar los datos, serán las aplicaciones y los recursos necesarios para procesarlos los que se muevan a los datos y esto tendrá algunas consecuencias para las nuevas arquitecturas, como las de nivel local (edge), la esencial (core) y el cloud

Lo mismo puede aplicarse a un contexto de instancias de máquinas físicas frente a virtuales. El hardware personalizado puede ser caro pero, para cargas de trabajo intensivas y constantes, podría tener más sentido invertir en una infraestructura física.

Una instancia de máquina virtual en el cloud que admita cargas de trabajo variables podría ser comparable a un alquiler: los usuarios pueden acceder a la máquina virtual sin necesidad de ser propietarios o sin necesidad de saber cualquier detalle sobre ella. Y, al final del periodo de “alquiler”, desaparece.

Las máquinas virtuales aprovisionadas en infraestructuras de escala web (es decir, la tecnología sin servidores) son como los servicios de carpool de la tecnología, en los que el usuario sencillamente especifica las tareas que necesita realizar, dejando el resto de los detalles en manos del proveedor del cloud, lo que facilita y hace más cómodo su uso en comparación a los métodos tradicionales para ciertos tipos de cargas de trabajo.

3 - La cantidad de datos crecerá más rápido que la capacidad para transportarlos … Y no pasará nada

No es un secreto afirmar que los datos se están convirtiendo en unos elementos increíblemente dinámicos y que se están generando a una velocidad sin precedentes, y esto va a hacer que, en breve, se supere en gran medida la capacidad para transportarlos.

En la actualidad, el departamento de TI es una pieza básica para mejorar las relaciones con los clientes, proporcionando servicios siempre activos, aplicaciones móviles y mejores experiencias en Internet

Sin embargo, en vez de trasladar los datos, serán las aplicaciones y los recursos necesarios para procesarlos los que se muevan a los datos y esto tendrá algunas consecuencias para las nuevas arquitecturas, como las de nivel local (edge), la esencial (core) y el cloud.

En el futuro, la cantidad de datos utilizados en la arquitectura esencial será siempre menor de la generada a nivel local, pero esto no ocurrirá de forma accidental y se debe facilitar de forma muy deliberada para garantizar que los datos correctos se retienen para aprovecharlos en las tomas de decisiones posteriores.

Por ejemplo, los fabricantes de vehículos autónomos están incorporando sensores que van a generar una cantidad tan enorme de datos que harán que ninguna red existente sea lo suficientemente rápida como para trasladarlos ágilmente entre los vehículos y los centros de datos.

Históricamente, los dispositivos a nivel local no han creado una gran cantidad de datos, pero, ahora, los sensores incorporados en todo -desde coches a termostatos o dispositivos ponibles- van a hacer que los datos a nivel local crezcan de una forma tan rápida que lleguen a superar la capacidad de las conexiones de red para llevarlos a la infraestructura esencial. Los vehículos autónomos y otros dispositivos locales requieren unos análisis en tiempo real a nivel local para permitirles tomar decisiones críticas e instantáneas. Como resultado, llevaremos las aplicaciones a los datos.

Los mecanismos descentralizados como los del blockchain representan un reto al concepto tradicional de la protección y la gestión de datos

4 - La evolución desde el Big Data al ‘Huge Data’ exigirá nuevas arquitecturas impulsadas por unidades de estado sólido

A medida que se incrementa la demanda para analizar con más rapidez unas cantidades impresionantes de datos, necesitamos trasladar los datos más cerca de la computación. La memoria persistente es lo que va a permitir una computación de latencia ultra baja sin pérdida de datos; y estas demandas de latencia obligaran en última instancia a las arquitecturas de software a cambiar y crear nuevas oportunidades de negocio impulsadas por los datos.

La tecnología Flash ha sido un tema destacado en el sector, pero el software que funciona con esta tecnología no ha cambiado verdaderamente, sino que solo se ha hecho más rápido.

Los mecanismos inmutables descentralizados para la gestión de datos ofrecerán microservicios que los datos pueden usar para realizar las funciones

Esto se está viendo impulsado por la evolución del papel de los departamentos de TI dentro de la organización. En el pasado su principal función fue la automatización y la optimización de procesos como los pedidos, la facturación, las cuentas por cobrar, etc. En la actualidad, el departamento de TI es una pieza básica para mejorar las relaciones con los clientes, proporcionando servicios siempre activos, aplicaciones móviles y mejores experiencias en Internet.

El siguiente paso será la monetización de los datos recopilados a través de varios sensores y dispositivos, para generar nuevas oportunidades de negocio; éste es un paso que va a precisar nuevas arquitecturas y aplicaciones compatibles con tecnologías como, por ejemplo, la memoria persistente.

5 - Emergen mecanismos descentralizados e inmutables para la gestión de los datos

Surgirán mecanismos para gestionar los datos de forma inmutable, verdaderamente distribuida y con toda confianza (es decir, sin autoridad central) que van a tener un impacto profundo en los centros de datos. El blockchain es un buen ejemplo de esto.

Los mecanismos descentralizados como los del blockchain representan un reto al concepto tradicional de la protección y la gestión de datos. Como no hay un punto central de control, como un servidor centralizado, es imposible cambiar o eliminar la información en un blockchain y, además, todas las transacciones son irreversibles.

Piense en ello como si se tratara de un sistema biológico: tiene una serie de pequeños organismos que saben lo que se supone que tienen que hacer, sin tener que comunicarse con algo más o que les digan lo que deben hacer. A continuación, les proporcionamos algunos nutrientes (en este caso, los datos). Los nutrientes saben lo que hacer y todo empieza a funcionar de manera cooperativa, sin ningún control central. Como un arrecife coralino.

Los centros de datos y las aplicaciones actuales funcionan como granjas gestionadas de forma comercial, con una unidad central de control (el granjero) que gestiona el entorno que tiene a su alrededor. Los mecanismos inmutables descentralizados para la gestión de datos ofrecerán microservicios que los datos pueden usar para realizar las funciones necesarias. Los microservicios y los datos trabajarán de forma cooperativa, sin un control general gestionado de forma centralizada.

(*) Mark Bregman es CTO de NetApp

ShareThis

Publicidad

Publicidad

Publicidad

Análisis

Joy Rodríguez Hirayama (Teamleader): “El CRM impulsa la productividad, el negocio y la recuperación de clientes perdidos”

Durante su ponencia en eShow 'Vende más en digital con la tecnología CRM', Joy Rodríguez Hirayama, Customer Success Manager en Teamleader, ha desarrollado distintas pautas sobre cómo el CRM puede impulsar la productividad y aumentar con ello el volumen de negocio y los ingresos

Soluciones

Telefónica inicia el despliegue del Proyecto Territorio Rural Inteligente en Castilla y León basado en tecnologías NB-IoT

Telefónica apuesta por la disponibilidad de las dos tecnologías de acceso radio licenciadas de LPWA, de baja potencia y largo alcance. Así, además de NB-IoT para usos específicos, y ya desplegada, también iniciará la implantación de LTE-M con mayor versatilidad o capacidad de transmisión en movilidad. Ambas iniciativas forman parte del despliegue estratégico que posicionará a Telefónica como uno de los operadores de relevancia en la industria IoT en disponer de ambas tecnologías celulares LPWA

techWEEK info

TechWEEK forma parte de la red de información TI para profesionales de IDG Communications.


Sitios especializados de ITMedia NetWork: IT CIO.es, IT PYMES.es, IT SEGURIDAD.es, Strategic Partner, NUEVAempresa.com.

ITMedia NetWork. © 2006 - 2018 Information Technology & Media S.A. (CIF A-84950211). Todos los derechos reservados.

Envío de artículos por email de techWEEK.es

Por favor, introduzca la siguiente información











Cerrar

Envío de artículos por email de techWEEK.es

Procesando envíos...

Envío de artículos por email de techWEEK.es

Email enviado. Cerrar

Envío de artículos por email de techWEEK.es

Error en el envio. Pulse aqui para cerrar.Cerrar