IN-MEMORY COMPUTING: ¿Un nuevo paradigma?

Acceso más rápido a los datos, cálculos simplificados y análisis en tiempo real, es lo que viene como tendencia en el procesamiento de información con In-Memory Computing (IM), una tecnología que incluso permite acelerar este proceso en al menos 20 veces, y un ahorro en la relación precio-desempeño del 200%.

Publicado el 30 Jun 2013

in1

Acceso más rápido a los datos, cálculos simplificados y análisis en tiempo real, es lo que viene como tendencia en el procesamiento de información con In-Memory Computing (IM), una tecnología que incluso permite acelerar este proceso en al menos 20 veces, y un ahorro en la relación precio-desempeño del 200%.

Las arquitecturas tradicionales de Business Intelligence se han basado en soluciones definidas en diferentes capas que tratan de hacer posibles cuadros de mando o informes de indicadores ágiles, a través del tratamiento y agrupación de información en diferentes sistemas. De esta forma, hacen posible definir e, incluso, descubrir nuevos puntos de vista sobre los datos operacionales, lo que trae como consecuencia una fuerte demanda en mayor capacidad y velocidad de proceso de la minería de datos.

Para estar a la altura de esta demanda, el software ha evolucionado hacia soluciones que almacenan, agrupan y ordenan la data, indexándola desde diferentes dimensiones y realizando cálculos agregados para facilitar la elaboración de informes y consultas que puedan ejecutarse en tiempo real y permitan una visión actualizada y ágil de la información. Las capas de software y hardware se han ido ampliando y haciendo más complejas para compensar el hecho de que la tecnología de base para el almacenamiento de data se ha mantenido anclada en las bases de datos tradicionales.

Ante esta situación, y como consecuencia de la introducción de las soluciones In-Memory y de la reducción del precio de la memoria, los proveedores de software han podido diseñar herramientas de gestión de datos equivalentes a las bases de datos relacionales, orientadas a reducir las capas de software y hardware intermedias y a permitir los procesos de data mining en tiempo real. Las posibilidades de esta tecnología se amplían hasta la sustitución de las bases de datos tradicionales en otros entornos.

In-Memory Computing define un nuevo paradigma en el que los datos residen en la memoria en lugar de en el disco y son posibles algoritmos que optimizan las consultas y accesos a éstos, permitiendo la ejecución en tiempo real, por ejemplo, de herramientas de BI.


Agilizando la analítica en las organizaciones

Los enormes volúmenes de información son un problema para cualquier departamento de Business Intelligence, y con el uso cada vez más avanzado de grandes bases de datos en las organizaciones, la velocidad en la operación es una preocupación fundamental: la Computación In-Memory está tratando de ser la respuesta a estos problemas y hay una gran cantidad de compañías de software que está impulsando la investigación de estas tecnologías para posicionarlas en el mercado.


¿Qué es la tecnología In-Memory?

Es una arquitectura que, a diferencia de la tradicionalmente usada para procesar la información en un computador, envía los datos a través de puentes (conocidos como BUS) hacia la memoria RAM, donde la almacena temporalmente para tener acceso rápido o la envía al disco duro, donde finalmente se guarda para futuros accesos. El problema es que cada etapa extra en la transacción añade una cantidad de tiempo considerable, haciendo más lento el proceso en general.

En cambio In-Memory utiliza directamente un sector de la CPU conocido como caché para realizar las transacciones, o directamente la memoria RAM, ambos métodos que ahorran tanto ciclos de operación del procesador, como energía y, principalmente, viajes entre un sector y otro, lo que a la larga impacta con fuerza y positivamente la velocidad.

El enfoque In-Memory elimina la dependencia de modelos rígidos, con datos pre-incorporados. Esto permite a los usuarios un verdadero autoservicio, pudiendo crear fácilmente su propia vista de los datos y permitir así que el departamento de TI se centre en su capacidad de administración de grandes volúmenes de información.

Las empresas que implementan las soluciones basadas en memoria, mostraron (según cifras de SAP) un incremento en la velocidad de al menos 20 veces, mientras que el hardware consume sólo el 10% en costos y tamaño, en comparación con estructuras tradicionales, lo que representa un ahorro en la relación precio-desempeño del 200%.

Según la consultora Gartner, en 2014 el 30% de las aplicaciones analíticas de BI se realizarán con la tecnología In-Memory, para ir sumando escalabilidad y velocidad de procesamiento, lo que tiene un beneficio directo al adelantarse a escenarios futuros más proactivos. Dentro de esta dinámica, el rendimiento de las corporaciones se verá potenciado gracias al aumento de aplicaciones analíticas, sumado a la estrategia de BI, la minería de datos, predicciones y simulaciones.


Ventajas concretas

¿Cuáles son los beneficios concretos de incorporar la computación en memoria a los procesos de BI de una empresa? Y más aún, ¿qué tipo de compañías pueden verse beneficiadas?

La velocidad es la principal ganancia, ya que en vez de analizar la información en días o semanas, las empresas pueden realizar consultas complejas en minutos, incluso segundos, en donde sus operaciones de negocio, especialmente las predicciones y respuestas anticipadas, marcarán la diferencia. Por otro lado, con la Computación In-Memory el poder de cómputo hará que las organizaciones puedan investigar conjuntos completos de datos en lugar de muestras representativas, lo que significa que estarán seguras de que están elaborando estrategias en base a todas las variables relevantes.

Al confiar en que no importando la cantidad de datos que se ingresen los procesadores tendrán el poder de realizar las búsquedas en tiempos mínimos, las compañías pueden tener mucha más flexibilidad a la hora de acceder y utilizar provechosamente dicha información.

Para quienes estén a cargo de la planificación de ventas y operaciones, la IMC permite la colaboración con el área de operaciones y finanzas, para tomar decisiones estratégicas que mejoren los resultados finales, evaluando de forma colectiva el impacto financiero de la estrategia. Las analíticas de medición inteligente harán que las empresas usen los datos obtenidos para realizar una previsión de la demanda, visualizar la rentabilidad de los segmentos de cliente, e implementar nuevos productos.


¿Quiénes están trabajando en desarrollar tecnologías de IMC?

El gigante Oracle desarrolló In-Memory Database Cache (IMDB Cache) una opción ideal de Oracle Database para el almacenamiento en caché de subparticiones esenciales para el rendimiento de una base de datos de la marca en la capa de aplicaciones. El uso de IMDB Cache mejora el tiempo de respuesta y la capacidad de procesamiento de las aplicaciones. Además, cuenta con tres componentes tecnológicos clave: la tecnología de Oracle TimesTen In-Memory Database (TimesTen) para administrar los datos en tiempo real en la capa de aplicaciones; la tecnología de almacenamiento en caché para guardar las tablas de acceso frecuente desde un servidor de Oracle Database a la capa de aplicaciones y mantener la coherencia de los datos almacenados; y un componente de replicación de información transaccional para asegurar una alta disponibilidad entre capas.

TimesTen es una base de datos relacionales de memoria optimizada que ofrece un tiempo de respuesta muy breve y un procesamiento muy alto de los sistemas de rendimiento crítico. Está diseñada para operar en la capa de aplicaciones, cerca de éstas y, en forma opcional, en proceso con aplicaciones. Una base de datos TimesTen puede utilizarse como registro o como caché de una base de datos de Oracle.

Las aplicaciones pueden crear y administrar tablas de bases de datos en TimesTen o almacenar en caché las subparticiones de una base de datos de Oracle en IMDB Cache. Las tablas almacenadas en caché y las que no lo están pueden coexistir en la misma base de datos de memoria, y además son todas persistentes y recuperables. Las consultas y actualizaciones de datos almacenados en caché y no almacenados se ejecutan con aplicaciones mediante SQL92 o PL/SQL que usan ODBC, JDBC, la interfaz Oracle Call Interface (OCI) o TTClasses, así como también Pro*C.

Para la escalabilidad horizontal del rendimiento y la capacidad, es posible valerse de mallas de caché. En ese caso, la malla consiste en una recopilación de cachés de IMDB que administran en forma conjunta los datos almacenados en caché de una aplicación.


Las aplicaciones IMC

Recientemente, la compañía alemana de software empresarial SAP lanzó al mercado latinoamericano su aplicación en memoria denominada HANA (High Performance Analytic Appliance), la que permite analizar volúmenes masivos de datos en tiempo real, facilitando la toma acelerada de decisiones de negocios y promoviendo la acción inmediata. Dada a conocer en detalle durante el SAP Partner Summit 2011, HANA es la nueva aplicación de BI de la compañía, la cual se integra a toda la suite ERP de la empresa, con la posibilidad de funcionamiento en la nube.

HANA es apta para todo tamaño de compañías, así como para cada sector económico, puesto que puede adaptarse a la realidad de cada organización (con alta o baja adopción de tecnologías), y su cercanía o lejanía geográfica, pudiendo ser operativa desde cinco empleados. La especialización de la solución es, en este caso, a la medida. “SAP HANA es la base y el núcleo de todo lo que estamos haciendo y de lo que haremos, tanto con nuestros productos actuales como con todos los que vayamos a lanzar en el futuro, porque se trata de un nuevo paradigma, de una manera completamente diferente de construir aplicaciones”, explica Rodolpho Cardenuto, Presidente de SAP América Latina y El Caribe.

Otra innovación que puede correr gracias a la Computación In-Memory es lo que se denomina sistemas de pagos inteligentes, aplicación financiera que calcula y entrega alternativas de financiamiento en facturas abiertas, analizando los datos actuales e históricos, y proponiendo con inteligencia los descuentos que se deberían realizar en determinadas facturas. La tecnología IMC ayudará a que se eliminen conjeturas y suposiciones en cuanto a descuentos, facilitando a los profesionales predecir el impacto de esos términos financieros sobre la liquidez de los clientes.

Una de las compañías que están innovando en este sentido es la australiana Tibco, que entrega ejemplos prácticos de cómo esta tecnología puede elevar la competitividad de las empresas, ayudando a romper la barrera del rendimiento en cualquier aplicación que requiera frecuentes y altos volúmenes de solicitudes de grandes conjuntos de datos almacenados. Algunas de las ventajas se enumeran a continuación:

-Industria aeronáutica: El almacenamiento en caché de millones de registros de vuelo en constante cambio, incluyendo los itinerarios, tarifas y disponibilidad, para garantizar tiempos de respuesta rápidos para búsquedas de disponibilidad de vuelos.

-E-commerce: El almacenamiento de datos para los sitios web de comercio electrónico para apoyar la personalización y los carros de compras, garantizando la experiencia del cliente.


Un hito en la evolución del software empresarial

“El impacto de la Computación In-Memory en los departamentos de TI es importante. Hoy en día si se quiere competir en los mercados verticales donde tiene un impacto real (finanzas, telecomunicaciones, comercio minorista, etc), en la infraestructura y los conocimientos de programación, tomar ventaja de IMC es un imperativo, donde el análisis y la búsqueda a través de grandes conjuntos de datos lleva a las empresas a diferenciar sus negocios en el futuro”, indica David Hickman, Director of Service Oriented Architecture (SOA) de Marketing de Tibco.

Sin duda el más aventajado es SAP, que ha realizado grandes avances con su nuevo software, el SAP HANA. La compañía ha puesto en marcha un programa de co-innovación junto con HP e IBM, además de anunciar una ampliación en las relaciones con Cisco, Fujitsu Technology Solutions e Intel para trabajar de manera conjunta en programas similares que darían soporte a SAP HANA.

“Junto con sus partners y clientes, SAP está rompiendo las barreras entre los hechos en tiempo real y las decisiones de negocio en tiempo real”, declara Vishal Sikka, miembro de la Junta Directiva para el Area de Plataforma de Innovación y Tecnología de SAP AG.

Además añade que un ejemplo claro de los beneficios que aporta este software, tras las primeras pruebas realizadas con un cliente, es que la compañía pudo consultar más de 460.000 millones de datos en tan sólo unos pocos segundos, lo que supone un hito en la evolución del software empresarial.


Informática en tiempo real

SAP ya está realizando proyectos piloto con HP e IBM para que en diciembre comience la fase de “ramp up” con los clientes, lo que incluye el análisis de los costos y la rentabilidad en tiempo real, así como la conciliación de cuentas y análisis de inventario. Esto está dirigido principalmente a los sectores del retail y bienes de consumo empaquetado donde se necesita procesar de manera más rápida los datos.

“Los clientes necesitan aprovechar la explosión de la información y hacer que las enormes cantidades de datos de negocio originales se conviertan en una ventaja empresarial”, sostiene Elke Reichart, Vicepresidente de SAP Alliance de HP.

Por ello, tal y como afirma el ejecutivo, HP y SAP están ampliando su colaboración combinando HP Converged Infrastructure y los servicios de Business Intelligence de HP con SAP HANA para ofrecer una base In-Memory dirigida a los procesos de negocio del cliente, así como a cumplir con la promesa de la informática en tiempo real.

Este artículo es gentileza de Ernesto Castillo, Socio de Acender Consultores.

¿Qué te ha parecido este artículo?

¡Síguenos en nuestras redes sociales!

Redacción

Artículos relacionados

Artículo 1 de 2