Dynatrace OpenPipeline ofrece total visibilidad y control sobre los datos que están ingresando en la plataforma Dynatrace y evalúa los flujos de datos de cinco a diez veces más rápido que las tecnologías heredadas, lo que permite gestionar mejor el volumen y la variedad cada vez mayores de datos que provienen de sus entornos híbridos y multinube, y que más equipos accedan a las respuestas y automatizaciones alimentadas por la inteligencia artificial de la plataforma Dynatrace sin necesidad de herramientas adicionales.
“Los datos son vitales para nuestro negocio. Contienen conocimientos valiosos y permiten la automatización que libera a nuestros equipos de tareas de poco valor. Sin embargo, enfrentamos desafíos a la hora de gestionar nuestros canales de datos de manera segura y rentable. Agregar OpenPipeline a Dynatrace extiende el valor de la plataforma. Nos permite gestionar datos desde un amplio espectro de fuentes junto con datos en tiempo real recopilados nativamente en Dynatrace, todo en una única plataforma, lo que nos permite tomar decisiones mejor informadas”, dijo Alex Hibbitt, Director de Ingeniería, SRE y Cumplimiento en albelli-Photobox Group.
Dynatrace OpenPipeline trabaja con otras tecnologías centrales de la plataforma Dynatrace, como data lakehouse Grail, topología Smartscape y la inteligencia hipermodal Davis, brindando los siguientes beneficios:
● Análisis de datos a escala de petabytes: Utiliza los algoritmos de procesamiento de flujo pendientes de patente para lograr un rendimiento de datos significativamente mayor a escala de petabytes.
● Ingesta unificada de datos: Permite a los equipos ingresar y enrutar datos de observabilidad, seguridad y eventos comerciales, incluyendo Servicio de Calidad (QoS) dedicado para eventos comerciales, desde cualquier fuente y en cualquier formato, como Dynatrace OneAgent, Dynatrace APIs y OpenTelemetry, con tiempos de retención personalizables para casos de uso individuales.
● Análisis de datos en tiempo real: Permite a los equipos convertir datos no estructurados en formatos estructurados y utilizables en el momento de la ingestión, por ejemplo, transformando datos sin procesar en series de tiempo o métricas y creando eventos comerciales a partir de líneas de registros.
● Contexto completo de los datos: Enriquece y conserva el contexto de puntos de datos heterogéneos, incluidas métricas, rastros, registros, comportamiento del usuario, eventos empresariales, vulnerabilidades, amenazas, eventos del ciclo de vida y muchos otros, reflejando las diversas partes del ecosistema en la nube de donde provienen.
● Controles para la privacidad y seguridad de los datos: Brinda a los usuarios control sobre qué datos analizar, almacenar o excluir de los análisis e incluye controles de privacidad y seguridad totalmente personalizables, como enmascaramiento automático y basado en roles de información personal identificable (PII), para ayudar a cumplir con las necesidades específicas de los clientes y requisitos regulatorios.
● Gestión de datos rentable: Ayuda a los equipos a evitar la ingestión de datos duplicados y reduce las necesidades de almacenamiento al transformar datos en formatos utilizables, por ejemplo, de XML a JSON, y permitir a los equipos eliminar campos innecesarios sin perder conocimientos, contexto o flexibilidad analítica.