Buscadores, redes sociales, comunicaciones. Todos son sistemas que consumen una gran cantidad de datos minuto a minuto. Según cifras del mercado, diariamente se generan más de 2,5 quintillones de bytes de información en la red. En Chile, por ejemplo, solo en julio de 2018 el consumo de datos, según la Subtel, llegó a los 748 PB (equivalentes a 132 millones de horas de video 4K). Todas cifras que dan cuenta del gran volumen de data hoy y de cómo también este seguirá creciendo, pero más allá de eso, el tema clave, concuerdan los especialistas, es cómo almacenamos esta “ola” de datos y cómo luego podemos lograr extraer valor de ellos.
Para Juan Pablo Forno, Director Académico Diplomado en Inteligencia de Clientes y Big Data, Unegocios FEN UCHILE, “existen muchas tecnologías que están generando que el volumen de datos que se requiere almacenar crezca exponencialmente todos los años, como las redes sociales y el aumento en la penetración de los teléfonos inteligentes”.
Pero no basta solo con tener muchos datos y almacenarlos; “existe la imperiosa necesidad de tomar decisiones de forma más rápida con una mejor y mayor información”, explica Alejandro Corro, Profesor del Área Informática y Telecomunicaciones de Inacap Sede Santiago Sur. Agrega que “todas las organizaciones necesitan generar más valor a partir de estos para mantener su nivel de competitividad. El éxito de un negocio también se encuentra dentro de su estrategia de storage, puesto que este es la base fundamental para data centers y entornos cloud”. En definitiva, los datos son la base de todo negocio.
Juan Pablo Forno, FEN UCHILE. Alejandro Corro, INACAP. Cristián Leiva, DUOC UC.
En opinión de Cristián Leiva, Docente de la Escuela de Informática y Telecomunicaciones de Duoc UC, “surge la necesidad de orientar arquitecturas de solución centradas en los datos, en donde, de manera eficiente, estos puedan ser procesados y permitan obtener el valor y productividad de forma sencilla, rápida y segura”. Para el Director Académico del Diplomado de Unegocios FEN UCHILE, “poder almacenar correctamente esta avalancha de información se ha vuelto parte importante de las decisiones informáticas. Por ejemplo, debemos precisar para qué se quiere guardar la información, qué tipo vamos a guardar, con qué frecuencia accederemos a ella, qué tan estratégica es y, por lo tanto, qué medidas de seguridad y respaldo debemos tener”.
También es importante definir qué tipo de datos voy a almacenar, porque no solo son los datos estructurados, sino que también no estructurados, que son los que están creciendo con mayor velocidad por el creciente uso de imágenes, videos, textos, grabaciones, para generar análisis para distintos fines. “Esto es relevante pues las tecnologías para procesar bases estructuradas, que habitualmente se administran utilizando lenguaje SQL, son distintas que las bases de datos No SQL para gestionar datos no estructurados, como los mencionados anteriormente”, agrega.
¿Cuáles son las nuevas tecnologías?
“El almacenamiento All-Flash y NVMe, storage en la nube, tecnología de virtualización, automatización de procesos de almacenamiento, incorporación de Inteligencia Artificial y los dispositivos hiperconvergentes, son parte de las tendencias”, señala el profesor de Duoc UC. Pero vamos por parte. Comenzando por lo básico, Juan Pablo Forno explica que se observa cómo los discos duros tradicionales han aumentado fuertemente su capacidad de almacenamiento, llegando incluso hasta 6 TB, pero también lo han hecho otras tecnologías, como los discos sólidos SSD (Solid State Drive) que son mucho más rápidos y seguros que los tradicionales de disco magnético, aunque también más costosos. Es común entonces que los PCs tengan memorias híbridas, en donde una parte menor es de SSD, que es la que se utiliza para las aplicaciones de mayor uso, y discos tradicionales de 1 TB para guardar información que no se utiliza mayormente.
A nivel de estrategias de almacenamiento, en busca de obtener o sumar valor sobre los datos, muchas empresas en el mundo han cambiado su enfoque de storage. Según explica el docente de Inacap, “han implementado el almacenamiento basado en software (Software Defined Storage o SDS), cuya tecnología asociada permite transformar el almacenamiento tradicional, operado manualmente, en un storage “pensante”, que monitorea automáticamente los datos, los mueve de forma apropiada, y realiza otras actividades que a largo plazo permiten reducir los costos y la complejidad asociada con el almacenamiento”. El profesional se- ñala que la virtualización es el principio básico en SDS: para generar eficiencias funciona estableciendo un “pool” común de unidades de almacenamiento y, mediante software, se manejan como una sola. “Esta virtualización ofrece a las organizaciones la posibilidad de utilizar recursos multimarca, entregándoles un mayor nivel de independencia. Este grado de autonomía, al momento de desplegar infraestructuras TI, también es ofrecido por las soluciones de hiperconvergencia.
Cristián Leiva coincide en que este enfoque definido por software para la gestión del almacenamiento o storage hiperconvergente es una de las nuevas tendencias de este mercado, que combina las tecnologías de storage, computación, redes y virtualización, en una sola unidad física que se gestiona como un único sistema.
Otras tendencias
Este mercado también apunta hacia el almacenamiento conocido como arreglo de almacenamiento todo flash (All-Flash Array – AFA), que ha sido diseñado para aprovechar la tecnología de memorias de estado sólido y que desde hace unos años se ve fuertemente. “AFA ha mostrado un positivo crecimiento frente a los HDD y los Flash-Arrays híbridos, que están en declive. Dentro de sus beneficios es posible incluir la baja latencia, mayor volumen de IOPS, mayor densidad de almacenamiento y menor consumo de energía”, comenta Alejandro Corro, y agrega que este tipo de storage es principalmente utilizado para soportar aplicaciones de transacciones o de un rendimiento extremadamente alto, que requieren de sobremanera mayores velocidades y menores tiempos de respuesta, como las transacciones financieras, grandes sitios e-commerce y servicios de streaming on demand. “Dado que el precio de la memoria Flash ha bajado, y el valor del rendimiento para la analítica y la Inteligencia Artificial ha aumentado, no llevar el almacenamiento principal de la empresa a AFA puede convertirse en una pérdida de competitividad”, detalla el docente de Inacap.
En cuanto a los avances en la tecnología NAND, estos han permitido aumentar la capacidad de los chips, mejorar el rendimiento y la eficiencia energética. “Durante 2018 prepararon el lanzamiento de las primeras unidades SSD de 128 capas, que podrían comenzar a ver la luz a fines de este año”, adelanta Alejandro Corro.
Asimismo, NVMe (Non-Volatile Memory express) -especificación para el acceso a las unidades de estado sólido conectadas a través del bus PCI Express-, tendrá una expansión como un protocolo de alto rendimiento para los sistemas de almacenamiento, servidores y SANs. “Las mejoras del protocolo y su consolidación permitirán soportar más aplicaciones, cargas de trabajo y casos de uso en toda la infraestructura TI”, añade el profesor de Inacap.
“Definitivamente el storage en la nube es una gran tendencia en estos tiempos, si bien servicios como Dropbox o Google Drive, entre otros, existen hace bastante tiempo. Lo novedoso es que ahora hay plataformas que no solo permiten almacenar los datos en la nube sino también procesarlos”, detalla el directivo de la Universidad de Chile. Agrega que estas plataformas tienen muchas ventajas para los usuarios; pues parte importante del soporte tecnológico lo prestan ellos, por lo tanto una empresa promedio puede reducir significativamente su área de tecnología, teniendo un servicio más robusto y escalable en función de sus necesidades.
A juicio de Alejandro Corro se observa una tendencia a la “nubificación”, que no debe significar únicamente la utilización del almacenamiento de un proveedor de servicios cloud o de servicios administrados, sino también la capacidad de almacenamiento para transferir los datos desde sistemas locales a las nubes públicas y en implementaciones de nubes privadas, de manera transparente para lograr disfrutar los niveles de servicio que ofrece una nube privada y los ahorros con las nubes públicas para backup y archive.
“La ‘nubificación’ del almacenamiento radica en obtener el storage adecuado para la tarea correcta, sin importar la implementación del entorno de nube existente en las empresas. Esta tendencia continúa siendo la más importante en las arquitecturas de nube híbrida y multinubes”, agrega.
Como consecuencia de la transformación digital, existirá la necesidad de automatizar todo ámbito. Por lo mismo, la automatización es otra de las tendencias que se ven en este mercado, “lo que es aplicable no solamente a profesionales del almacenamiento, sino a DevOps y otras funciones: dueños de aplicaciones, administradores de servidores, etc. Todos requerirán conocer la manera de realizar copias de seguridad y optimizar las cargas de trabajo”, asevera el profesor de Inacap.
El impacto de la trasformación digital
La transformación digital está generando cambios sin precedentes en todas las industrias del mundo, y cada una de esas nuevas tecnologías impacta de gran forma al almacenamiento. Con el advenimiento de la Inteligencia Artificial (IA) se augura, sin duda, un impacto también en este mercado; “su almacenamiento adoptará un rol central en cómo se utilice esta tecnología dentro de las empresas”, detalla el académico de Inacap. Para lograr conseguir los beneficios de la IA, el storage debe tener lo último en rendimiento, disponibilidad y confiabilidad. “Contar con esta tecnología dentro del ‘core’ de negocio, requiere grandes cantidades de datos que deberán ser procesados de forma precisa y confiable durante los 365 días del año, lo que convierte al almacenamiento en una pieza esencial para este nuevo paradigma”, agrega Alejandro Corro.
Entre las principales tecnologías que han sido pronosticadas como tendencias en el año en curso -destaca el docente de Duoc UC- se cuentan: Big Data, Inteligencia Artificial, Internet de las Cosas, Analítica Aumentada, Realidad Virtual, Blockchain, Ciberseguridad, Espacios Inteligentes, Computación Cuántica, Autonomía de Transporte y Biotecnología, entre otras. ¿Qué tienen en común todas estas tecnologías? “Los datos, los cuales son parte del activo principal de las empresas, que corresponde a la información; y el tratamiento de ella es base para el éxito de las organizaciones. Esto nos lleva a fomentar una cultura basada en la toma de decisiones con los datos. Esta cultura generará la necesidad de nuevas habilidades y competencias que deben ser entregadas a nuevos perfiles del mercado que cubrirán puestos de trabajo tales como: analista de datos, analista de inteligencia de negocios, científicos de datos, expertos en ciberseguridad, ingeniero de datos y asesores de Big Data, entre otros”, agrega Cristian Leiva. Más datos, nuevas tecnologías, transformación digital. Sin duda, todo apunta a que la forma en que las empresas usan, optimizan y maximizan sus datos, continuará adquiriendo un rol fundamental dentro de los negocios en el futuro
¿Qué elementos considerar para elegir la opción de almacenamiento más adecuada?
Para Cristián Leiva, docente de Duoc UC, la respuesta es sencilla: “La mejor elección de almacenamiento de acuerdo a cada aplicación debe considerar cómo las empresas puedan gestionar su gran volumen de información y garantizar de manera eficiente la seguridad, la integridad y el rendimiento de procesamiento de sus datos sin desbaratar todo su presupuesto”. Agrega que es necesario considerar los siguientes dos grandes aspectos: características de la carga de trabajo, que incluyen qué datos serán almacenados, cuál es el nivel de acceso a los datos, edad de los datos, tipo de carga de trabajo, protocolos y método de instalación; y requisitos de selección de almacenamiento, que contemplan el rendimiento y desempeño de la solución, flexibilidad de adaptarse a distintos entornos, simplicidad de la administración, portabilidad, escalabilidad, interoperabilidad, SDS, garantía y soporte de la solución, y costo. “Estos factores nos permitirán evaluar y tomar una adecuada determinación de cuál es la mejor solución de almacenamiento para la aplicación soportada”, complementa el profesor de Duoc UC.