Vivimos en una época en la que muchas personas hablan sistemáticamente de la importancia de los datos y la Inteligencia Artificial.
Por supuesto, es verdad que estos se han usado desde tiempos históricos para apoyar decisiones. Además, las teorías sobre las que descansa el análisis de datos vienen desde tiempo antiguo (su base es la estadística y las probabilidades), y la Inteligencia Artificial es una disciplina cuyos fundamentos vienen desde la década de los 80’ o antes. Pero lo especial que ha ocurrido en este siglo XXI es que la disponibilidad de estos, en grandes cantidades, se ha masificado. Las aplicaciones de redes sociales (Facebook, entre las más conocidas), Google y otras capturan grandes cantidades de datos de nuestra interacción con sitios web, nuestros movimientos, compras, etc., y esos son analizados para extraer de ahí información útil para entender mejor a los usuarios, entre otras cosas. Esta información permite, por ejemplo, hacer publicidad más efectiva y también ofrecer productos que las personas podríamos necesitar.
Un enorme potencial
Lo anterior es, posiblemente, uno de los usos más conocidos de las técnicas de Big Data y similares. Sin embargo, el potencial es mucho más grande, y no solo se restringe al análisis de grandes cantidades de información. Esto es particularmente relevante en el ámbito de la gestión de las operaciones productivas y de servicios. Las empresas y organizaciones, ya sean públicas o privadas, tienen un enorme potencial de abordar los complejos problemas que se presentan hoy si hacen uso inteligente de lo que se llama, en forma más general, “herramientas analíticas”.
Un buen ejemplo es el servicio de entrega en el mismo día que Amazon.com tiene implementado en varias ciudades de los Estados Unidos y otras partes. En este esquema, un cliente pide un producto y este es entregado algunas pocas horas más tarde. Esto requiere coordinar muy bien los pedidos de los clientes y toda la operación de bodega y la logística de despacho. Por una parte, Amazon utiliza la gigantesca cantidad de datos de la navegación de sus clientes en sus sitios web para tratar de construir una buena predicción de qué podrían pedir los clientes en las próximas horas.
Con este fin hace un uso masivo de las herramientas de Ciencias de Datos. Pero no basta con eso, ya que además hay que despachar el producto y hacerlo en forma eficiente. Para esto, la empresa usa modelos analíticos de optimización dinámica bajo incertidumbre, una disciplina de las Matemáticas Aplicadas, y que son ejecutados en computación de alto rendimiento usando algoritmos sofisticados. La enseñanza acá es que no basta con conocer a los clientes, como se dice muchas veces; hay que llegar con el producto correcto cuando el cliente lo necesita, no antes ni después. Esta última etapa tiene que trabajar íntimamente coordinada con la otra, y hacerlo mal es algo que se ve más frecuentemente de lo que uno quisiera.
Herramientas para optimizar procesos y operaciones
Hay, entonces, una enorme caja de herramientas analíticas que están a disposición de las empresas para estudiar a sus clientes, optimizar las operaciones y analizar y mejorar los procesos. Este último tema también es fundamental, especialmente en estos tiempos en que las operaciones industriales y de servicios se hacen cada vez más complejas. Esta complejidad viene de la enorme dinámica introducida por el comercio electrónico y los tiempos cada vez más cortos en que debe cumplirse con los requerimientos de los clientes, entre otros. Los métodos tradicionales de gestión enseñan que es fundamental medir y estudiar el funcionamiento de nuestros procesos para poder diseñar formas de mejorarlos.
Por ejemplo, las metodologías 6-Sigma parten de un levantamiento cuantitativo de los procesos y de sus relaciones, para estudiar la variabilidad y descubrir cómo mejorar. Lo mismo está detrás de las metodologías Lean. En una empresa moderna, en donde se canalizan miles de órdenes y en corto tiempo, la tarea de análisis se puede complicar mucho. Pero acá es donde podemos recordar que las tecnologías actuales permiten registrar el detalle de todas y cada una de las transacciones y movimientos que se hagan con las órdenes, los movimientos de materiales, los inventarios, etc. Esto generará una cantidad enorme de datos, y acá es donde se puede pensar de inmediato en métodos de Big Data para su análisis. Sin embargo, la dimensión de los procesos y su dinámica es muy importante, y se debe tomar en cuenta al hacer el análisis.
En años recientes se han desarrollado métodos de análisis de procesos que permiten hacer esto, y se conocen bajo el nombre general de minería de procesos. Con estas técnicas es posible, por ejemplo, no solo identificar el cuello de botella en un proceso (que sería el recurso más utilizado, en promedio), sino que también estudiar cómo esa característica cambia en el tiempo, si acaso determinados tipos de órdenes o clientes complican más el proceso que otros y si acaso algún evento que ocurre con una orden en una etapa intermedia es un predictor de lo que pueda ocurrir con ese pedido más adelante, en términos de retrasos, por ejemplo.
Estas ideas se pueden usar en ambientes industriales manufactureros, pero especialmente en áreas de servicios de los más diversos tipos. Por ejemplo, en un hospital se puede llevar un registro de los distintos exámenes y procedimientos a los que un paciente es sometido mientras transita por todas las distintas áreas. El usar técnicas de minería de procesos aquí puede ser muy potente, por ejemplo, para estudiar de qué forma los diversos procedimientos, resultados de exámenes, etc., pueden ser un predictor del tiempo de permanencia del paciente en el hospital. Notemos la diferencia con el caso de una orden de producción en un área más tradicional de manufactura o servicio: en estos casos, los tiempos de proceso son bastante bien conocidos, así como las distintas etapas que debe seguir la orden. Pero en un ambiente como un hospital, hay una gran incertidumbre respecto a la evolución del paciente: su salud puede empeorar, ciertos procedimientos pueden no ser exitosos y necesitan cambiarse, etc., y todo esto puede alterar el tiempo de permanencia y también las etapas que seguirá, con respecto a la predicción que se pueda haber hecho originalmente.
Podemos ver, entonces, que hay un gran potencial en el uso de las herramientas analíticas modernas para apoyar una mejora en la eficacia y eficiencia de las operaciones. Estas engloban no solo lo que se ha asociado a Ciencias de Datos (o Big Data) sino que también el uso de otras herramientas de las Matemáticas Aplicadas y de la Ingeniería Industrial, como los modelos de optimización, que ayudan a apoyar decisiones en ambientes altamente complejos. Es cada vez más importante estar al día en estos temas. Los profesionales que se están formando en las escuelas de Ingeniería, por ejemplo, tienen en sus currículos cada vez más elementos relacionados con potentes herramientas analíticas modernas, y también habilidades más blandas que les permite estudiar y entender un problema en una empresa, construir modelos sofisticados, poder sacar conclusiones de la información entregada en los análisis, y pensar en las mejores formas de implementar esas conclusiones en la empresa.
Estos son competencias claves para el futuro de las operaciones en todas partes, y Chile no es excepción.