Lean y Big Data: la última frontera de la mejora A lo largo de mi trayectoria profesional, la pregunta “y después de lean, ¿qué?” ha sido una constante. Tanto Lean como Six Sigma son metodologías y filosofías de mejora que, a pesar de llevar con nosotros desde mediados del siglo pasado, nos han permitido obtener ganancias en rentabilidad, productividad y calidad como ninguna otra técnica conocida. Todas las compañías World Class, sin excepción, disponen de sistemas de producción que abrazan los principios fundacionales de Lean y Six Sigma para luchar contra el desperdicio, la variabilidad y la inflexibilidad de procesos, personas y sistemas. La aplicación sistemática y orgánica (implicando TODOS los procesos y nos solo los manufactureros) de Lean y Six sigma, ha revelado grandes ganancias para las empresas, no obstante, los procesos siguen escondiendo enormes oportunidades de mejora cuya transformación al patrón oro no se puede dar sólo con la ayuda de las herramientas tradicionales. Pongamos como ejemplo un proceso químico (continuo), en el que existen cuellos de botella móviles y en el que es complejo predecir el comportamiento combinado de la multitud de variables que producen el resultado final (presión, temperatura, velocidad, viscosidad, variabilidad de materias primas, pureza, interacciones y/o efectos secundarios entre productos y subproductos, efecto de variables químicas en propiedades mecánicas o físicas del producto final….). Tradicionalmente abordábamos la mejora con herramientas lean para las partes del proceso más visibles (donde se generan inventarios, paradas, desperdicios…) y herramientas Six Sigma como el diseño de experimentos (DOE) para simular el comportamiento de algunas de las variables más significativas en el resultado final (¿alguno de ustedes ha jugado al juego de la catapulta alguna vez?). Con estas herramientas fuimos capaces de obtener excelentes resultados pero era como estar buscando la cueva donde se escondía Bin Laden con una varita de zahorí en lugar de con un georadar. ¿Me siguen? Estamos en la época de los datos y no los estamos explotando hasta donde podemos. La tecnología actual permite la captación de un vasto número de datos de nuestros procesos; bien sea porque disponemos de sensores de campo en línea con el proceso productivo, captadores de señal, PLCs, mecanismos de automatización y control, sistemas MES… y también en nuestros procesos transaccionales, almacenados en sistemas de gestión de almacén (WMS), ERP’s, CRM`s… Los datos nos rodean en una nube de la que podemos (y debemos) extraer valor para la compañía. Volvamos al ejemplo anterior. Si en lugar de emplear la estadística clásica aplicáramos herramientas analíticas avanzadas (simulaciones Monte Carlo, Value in use Modelling o Process Parameter Optimization entre otras muchas) sobre un gran banco de datos, podríamos determinar con precisión aspectos claves para nuestro proceso de producción continuo. Es cierto que para lograr resultados debemos disponer de un conocimiento nuevo y experto (especialistas en datos) que, combinado con nuestros actuales expertos en excelencia operacional, nos pueden permitir dar un salto cuántico en las prestaciones económicas de nuestros procesos productivos o transaccionales. Por último, mencionar que no se trata de abrir un debate del tipo Lean versus Big Data como el que se produjo a principios de este siglo entre Lean y Six Sigma. No. Se trata de combinar la potencia de las mejores metodologías de mejora conocidas con la potencia de la analítica aplicada sobre un vasto número de datos. Se trata de que hoy SI tenemos la capacidad técnica y tecnológica para llevar nuestros procesos hasta el límite de la excelencia. Se trata de aprovechar esta oportunidad única para mejorar nuestra competitividad hasta lugares difícilmente imaginables tan solo unos años atrás. Bruno Juanes Partner everis Business Consulting