Opinión
Predicciones 2018 para el CTO: Cinco modos de evolución para los datos
Con la transformación digital como pieza central de toda estrategia tecnológica y, como eje, unos datos cada vez más distribuidos, dinámicos y diversos, Mark Bregman, CTO de NetApp, comparte cinco grandes líneas de evolución que van a caracterizar el próximo año y que, a modo de predicción, seguro que interesan a CTOs y, en general, a directivos y profesionales de las empresas.
Muchos hemos escuchado en NetApp afirmar que el mundo está cambiando básica y rápidamente. La trasformación digital es -o debería ser- una pieza central en cualquier estrategia tecnológica empresarial. Y, directamente en el centro se encuentran los datos; elementos cada vez más distribuidos, dinámicos y diversos.
Todo, desde las infraestructuras tecnológicas a las arquitecturas de las aplicaciones o las estrategias de aprovisionamiento, van a tener que cambiar como respuesta a las nuevas realidades en el mundo del cloud híbrido. En este contexto, hemos elaborado nuestras cinco principales predicciones para los CTO en 2018, que deseamos ver cómo se desarrollan a lo largo del año que viene.
1 - Los datos se convierten en elementos conscientes de sí mismos
En la actualidad contamos con unos procesos que actúan sobre los datos y determinan cómo se trasladan, gestionan y protegen. Pero, ¿qué ocurriría si, por el contrario, los datos se definieran por sí mismos?
A medida que los datos se convierten en elementos conscientes de sí mismos e incluso se hacen más diversos de lo que lo son en la actualidad, los metadatos permitirán a los datos transportarse, categorizarse, analizarse y protegerse por sí mismos de forma proactiva.
Todo, desde las infraestructuras tecnológicas a las arquitecturas de las aplicaciones o las estrategias de aprovisionamiento, van a tener que cambiar como respuesta a las nuevas realidades en el mundo del cloud híbrido
El flujo entre datos, aplicaciones y elementos de almacenamiento se mapeará en tiempo real y los datos proporcionarán la información exacta que necesitan los usuarios en el momento preciso que la necesiten. Esto también incluye la posibilidad de autogobierno de los datos que, por sí mismos, van a ser capaces de determinar quién tiene derecho de acceso a ellos, además de a compartirlos y usarlos; algo que podría tener unas mayores consecuencias en materia de protección externa, privacidad, gobernanza y soberanía de los datos.
Por ejemplo, si tiene un accidente de tráfico puede que haya varios grupos diferentes de personas que quieran o exijan tener acceso a los datos del vehículo. Un juez o la compañía de seguros pueden reclamarlos para determinar la responsabilidad del accidente, mientras que el fabricante del automóvil puede necesitarlos para optimizar el rendimiento de los frenos o de otros sistemas mecánicos. Esta autoconsciencia de los datos permite etiquetarlos para controlar quiénes ven qué parte de ellos y cuándo lo pueden hacer sin pérdidas de tiempo o potenciales errores adicionales debido a intervenciones de personas para subdividir, aprobar y distribuir los datos pertinentes a cada parte interesada.
Las máquinas virtuales aprovisionadas en infraestructuras de escala web son como los servicios de carpool de la tecnología, en los que el usuario sencillamente especifica las tareas que necesita realizar, dejando el resto de los detalles en manos del proveedor del cloud
2 - Las máquinas virtuales se convierten en máquinas de “carpool”
La gestión de unos datos cada vez más distribuidos será más rápida, barata y cómoda, usando para ello máquinas virtuales aprovisionadas en infraestructuras de escala web, en vez de máquinas físicas reales.
Algo que se puede comparar con comprar un coche o usar un servicio de traslado compartido (o carpool), como Uber o Lyft. Así, para aquellos que realizan transportes de cargas a diario puede tener sentido adquirir una camioneta. Otros, sin embargo, pueden necesitar un cierto tipo de vehículo durante un periodo de tiempo determinado, por lo que el alquiler es la mejor opción.
Y por último están los individuos que únicamente necesitan un vehículo para ir de un lugar a otro una sola vez y, en este caso, el tipo de vehículo no importa, solo la velocidad y la comodidad, por lo que un servicio de carpool es la mejor opción para este último tipo de usuarios.
En vez de trasladar los datos, serán las aplicaciones y los recursos necesarios para procesarlos los que se muevan a los datos y esto tendrá algunas consecuencias para las nuevas arquitecturas, como las de nivel local (edge), la esencial (core) y el cloud
Lo mismo puede aplicarse a un contexto de instancias de máquinas físicas frente a virtuales. El hardware personalizado puede ser caro pero, para cargas de trabajo intensivas y constantes, podría tener más sentido invertir en una infraestructura física.
Una instancia de máquina virtual en el cloud que admita cargas de trabajo variables podría ser comparable a un alquiler: los usuarios pueden acceder a la máquina virtual sin necesidad de ser propietarios o sin necesidad de saber cualquier detalle sobre ella. Y, al final del periodo de “alquiler”, desaparece.
Las máquinas virtuales aprovisionadas en infraestructuras de escala web (es decir, la tecnología sin servidores) son como los servicios de carpool de la tecnología, en los que el usuario sencillamente especifica las tareas que necesita realizar, dejando el resto de los detalles en manos del proveedor del cloud, lo que facilita y hace más cómodo su uso en comparación a los métodos tradicionales para ciertos tipos de cargas de trabajo.
3 - La cantidad de datos crecerá más rápido que la capacidad para transportarlos … Y no pasará nada
No es un secreto afirmar que los datos se están convirtiendo en unos elementos increíblemente dinámicos y que se están generando a una velocidad sin precedentes, y esto va a hacer que, en breve, se supere en gran medida la capacidad para transportarlos.
En la actualidad, el departamento de TI es una pieza básica para mejorar las relaciones con los clientes, proporcionando servicios siempre activos, aplicaciones móviles y mejores experiencias en Internet
Sin embargo, en vez de trasladar los datos, serán las aplicaciones y los recursos necesarios para procesarlos los que se muevan a los datos y esto tendrá algunas consecuencias para las nuevas arquitecturas, como las de nivel local (edge), la esencial (core) y el cloud.
En el futuro, la cantidad de datos utilizados en la arquitectura esencial será siempre menor de la generada a nivel local, pero esto no ocurrirá de forma accidental y se debe facilitar de forma muy deliberada para garantizar que los datos correctos se retienen para aprovecharlos en las tomas de decisiones posteriores.
Por ejemplo, los fabricantes de vehículos autónomos están incorporando sensores que van a generar una cantidad tan enorme de datos que harán que ninguna red existente sea lo suficientemente rápida como para trasladarlos ágilmente entre los vehículos y los centros de datos.
Históricamente, los dispositivos a nivel local no han creado una gran cantidad de datos, pero, ahora, los sensores incorporados en todo -desde coches a termostatos o dispositivos ponibles- van a hacer que los datos a nivel local crezcan de una forma tan rápida que lleguen a superar la capacidad de las conexiones de red para llevarlos a la infraestructura esencial. Los vehículos autónomos y otros dispositivos locales requieren unos análisis en tiempo real a nivel local para permitirles tomar decisiones críticas e instantáneas. Como resultado, llevaremos las aplicaciones a los datos.
Los mecanismos descentralizados como los del blockchain representan un reto al concepto tradicional de la protección y la gestión de datos
4 - La evolución desde el Big Data al ‘Huge Data’ exigirá nuevas arquitecturas impulsadas por unidades de estado sólido
A medida que se incrementa la demanda para analizar con más rapidez unas cantidades impresionantes de datos, necesitamos trasladar los datos más cerca de la computación. La memoria persistente es lo que va a permitir una computación de latencia ultra baja sin pérdida de datos; y estas demandas de latencia obligaran en última instancia a las arquitecturas de software a cambiar y crear nuevas oportunidades de negocio impulsadas por los datos.
La tecnología Flash ha sido un tema destacado en el sector, pero el software que funciona con esta tecnología no ha cambiado verdaderamente, sino que solo se ha hecho más rápido.
Los mecanismos inmutables descentralizados para la gestión de datos ofrecerán microservicios que los datos pueden usar para realizar las funciones
Esto se está viendo impulsado por la evolución del papel de los departamentos de TI dentro de la organización. En el pasado su principal función fue la automatización y la optimización de procesos como los pedidos, la facturación, las cuentas por cobrar, etc. En la actualidad, el departamento de TI es una pieza básica para mejorar las relaciones con los clientes, proporcionando servicios siempre activos, aplicaciones móviles y mejores experiencias en Internet.
El siguiente paso será la monetización de los datos recopilados a través de varios sensores y dispositivos, para generar nuevas oportunidades de negocio; éste es un paso que va a precisar nuevas arquitecturas y aplicaciones compatibles con tecnologías como, por ejemplo, la memoria persistente.
5 - Emergen mecanismos descentralizados e inmutables para la gestión de los datos
Surgirán mecanismos para gestionar los datos de forma inmutable, verdaderamente distribuida y con toda confianza (es decir, sin autoridad central) que van a tener un impacto profundo en los centros de datos. El blockchain es un buen ejemplo de esto.
Los mecanismos descentralizados como los del blockchain representan un reto al concepto tradicional de la protección y la gestión de datos. Como no hay un punto central de control, como un servidor centralizado, es imposible cambiar o eliminar la información en un blockchain y, además, todas las transacciones son irreversibles.
Piense en ello como si se tratara de un sistema biológico: tiene una serie de pequeños organismos que saben lo que se supone que tienen que hacer, sin tener que comunicarse con algo más o que les digan lo que deben hacer. A continuación, les proporcionamos algunos nutrientes (en este caso, los datos). Los nutrientes saben lo que hacer y todo empieza a funcionar de manera cooperativa, sin ningún control central. Como un arrecife coralino.
Los centros de datos y las aplicaciones actuales funcionan como granjas gestionadas de forma comercial, con una unidad central de control (el granjero) que gestiona el entorno que tiene a su alrededor. Los mecanismos inmutables descentralizados para la gestión de datos ofrecerán microservicios que los datos pueden usar para realizar las funciones necesarias. Los microservicios y los datos trabajarán de forma cooperativa, sin un control general gestionado de forma centralizada.
(*) Mark Bregman es CTO de NetApp
Publicidad
Publicidad
Publicidad
Últimas Noticias
- 06/06/2024Bonitasoft impulsa el mercado BPM ante la necesidad de automatización de las empresas
- 06/06/2024Babel, reconocida por OutSystems como ‘premier partner’
- 06/06/2024Vodafone Business y Ericsson fomentan el despliegue de redes privadas 5G en España
- 25/05/2024Lantik aplica DevSecOps y las soluciones de observabilidad de Dynatrace a sus sistemas
Publicidad
Análisis
Claves de la IA: hiperpersonalización, edge computing, datos en tiempo real y aprendizaje automático federado
Durante el pasado año, los retos económicos han obligado a empresas y gobiernos a reevaluar sus prioridades. Pese a ello, la inversión en transformación digital sigue siendo alta y no muestra signos de caer: la tecnología cumple una función estratégica cada vez más esencial para afrontar el reto de controlar los costes, mejorar la eficiencia, la agilidad y la capacidad de recuperación para prepararse para el reto que su pone el rápido crecimiento de la IA generativa. Es una de las principales conclusiones a las que llegan los expertos de Couchbase, reunidos para concretar oportunidades y evolución en 2024
Soluciones
DXC desarrolla una solución para Oxfam Intermón sobre la plataforma de Servicenow
Dentro de su compromiso con el voluntariado y la innovación social, DXC Technology ha desarrollado de manera altruista para la ONG Oxfam Intermón, que trabaja en 86 países para acabar con las desigualdades, una ‘solución digital de derechos humanos’, que facilitará a distintos tipos de empresas gestionar y cumplir los requisitos de diligencia debida en materia de derechos humanos y medioambientales, aplicada en múltiples legislaciones