08 Feb ¿Por qué la ciencia de datos es crítica para la distribución de la vacuna de Pfizer?
“El desafío logístico más grande desde la Segunda Guerra Mundial”, así describen muchos especialistas lo que será el proceso de distribución de las vacunas contra la Covid-19.
Producción, almacenamiento, traslado y seguridad son algunos de los aspectos que las empresas farmacéuticas, proveedores y gobiernos deberán enfrentar para vacunar con éxito a cientos de millones de personas.
Una de las primeras vacunas autorizadas en varios países y que representa serios desafíos es la creada por Pfizer y BioNTech.
Con base en la evidencia de los ensayos clínicos, la vacuna de Pfizer-BioNTech registró una efectividad del 95% en la prevención de casos de COVID-19, está basada en ARNm, debe aplicarse en dos dosis y necesita ser conservada a -70 grados celsius.
Pfizer y BioNTech proyectaban implementar 100 millones de vacunas en todo el mundo para fines de este mismo año; pero en noviembre dicho plan se redujo a 50 millones. No obstante, ambas empresas están en camino de implementar 1.300 millones de vacunas en 2021, y el déficit de dosis de 50 millones de este año se cubriría en el próximo, a medida que aumente la producción.
Los procesos de distribución y logística serán clave para el éxito en la lucha contra la Covid-19; sin embargo, la tarea se proyecta muy difícil. «No hay nada que se compare con este volumen, esta urgencia, no hay nada ni remotamente como esto», explica la Dra. Hermione Parsons, directora fundadora del Centro de Cadena de Suministro y Logística de la Universidad de Deakin, en una entrevista con ABC News.
Chile ya recibió las primeras 10 mil dosis de la vacuna de Pfizer-BioNTech; según el Subsecretario de Relaciones Económicas Internacionales, Rodrigo Yáñez, 1,6 millones de dosis entrarán al país entre enero y marzo.
El desafío que depara a Chile la distribución de esta vacuna no tiene precedentes. Sin embargo, una certeza compartida por muchos especialistas es que este proceso de distribución deberá apoyarse como nunca antes en la tecnología y, sobretodo, en la ciencia de datos.
Para entender cómo la analítica de datos, el big data, las soluciones de Inteligencia Artificial y Machine Learning pueden ser decisivas en esta tarea, hemos conversado con Javier Correa, Jefe de Analítica en Analytics 10.
P: ¿Cómo se inicia la planificación de estos macro proyectos de logística y cadena de suministro? ¿Por dónde hay que comenzar?
JC: Todo parte con el análisis los procesos regulares de gestión de stock que poseen las empresas.
Con base en la forma de operar la cadena de suministro de cada empresa, se realiza un examen que permita detectar las mejoras que se necesitan implementar, partiendo con la analítica descriptiva hasta evaluar iniciativas por medio de la analítica avanzada.
Este camino cuenta con diferentes etapas. No se puede esperar que la implementación sea violenta, no es como que se pueda ir de 0 a 100 km/h en 4 segundos; además, es crítico perseguir retornos de manera incremental. Por tal razón, las empresas deben transitar una ruta de madurez para lo anterior, entendiendo las particularidades de su propio negocio.
En resumen, debemos enfocarnos, en una primera etapa, en entender el estado actual de la compañía; posteriormente, dada la experiencia, se aplica una metodología de abastecimiento basada en la estrategia adoptada en el proceso de análisis de la cadena de abastecimiento de la compañía; se establecen procesos analíticos y de medición en términos descriptivos (información estadística); en esa etapa, se podrán identificar las lagunas, los espacios de mejora, los puntos que necesitan reforzamiento y los beneficios que proveerán estos ajustes.
Pero algo es infalible en estos procesos: no puedo mejorar lo que no puedo medir. Por ende, sin analítica de datos, será muy difícil encontrar soluciones.
P: ¿Cuáles son los primeros factores que se deben analizar para mejorar los procesos de logística y distribución?
JC: Lo primero que se debe construir son las curvas de stock. Para tal fin, debemos calcular factores como:
- El stock mínimo.
- El stock máximo.
- El stock de seguridad.
- Puntos de reorden.
- Orden de equilibrio.
- Cálculos de desviaciones.
- Variables adicionales (dependientes de cada negocio).
Para llegar a esos cálculos, debemos usar información relevante como promedios de venta, tiempos de entrega de los productos, desviaciones estándar de entrega, oscilaciones en tiempo y demanda. A partir de este análisis, se puede determinar si las ventas cuentan con una distribución normal o con una distribución de baja probabilidad, finalmente, establecer y proyectar los niveles de servicio que se desean alcanzar.
Por niveles de servicio me refiero a la disponibilidad de los productos en el mercado. Si una empresa aspira a contar con una disponibilidad del 100% naturalmente, el costo operacional será altísimo. Balancear estos números y objetivos es muy complejo, pero actualmente, si se toman decisiones basadas en ciencia de datos, este equilibrio es posible.
P: ¿Cómo pueden ayudar la analítica de datos, El Big Data y las soluciones de Machine Learning a mitigar las complicaciones de logística y abastecimiento?
JC: Como comenté, generalmente, las empresas ya tienen niveles de medición y esquemas de abastecimiento. Analizar esta información es el primer paso.
Posteriormente, cuando se establecen los métodos analíticos y de medición enfocados, por ejemplo, en un kpi, lo que se obtiene es un cálculo que permite entender un ratio y el motivo de su comportamiento, basado en las variables que seamos capaces de detectar, capturar y procesar.
Por ejemplo, en el caso de la vacuna de Pfizer-BioNTech, ya sabemos que los tiempos de entrega son críticos, además, existen condiciones especiales (debe estar conservada a -70 grados celsius), por lo cual se crearán cajas especiales cubiertas de hielo seco. También se conoce que una vez sacadas de estas cajas, se cuenta con una cantidad de días determinados para usarla, de lo contrario, se estropearía la dosis. Por ende, es fundamental entender qué afecta cada uno de estos procesos.
Por ejemplo, nosotros hemos desarrollado modelos en los que trazamos predicciones de los tiempos de entrega de empresas distribuidoras; cuando analizamos al proveedor, vemos sus tiempos de entrega promedio y construimos modelos de Machine Learning con distintas características: dónde está ubicada la casa central del distribuidor, cuántos años de experiencia tiene en el rubro, cuántas personas lo atienden, entre otras variables que nos permiten determinar características que expliquen por qué dicha empresa demora más o menos que otras.
Saber, con altos niveles de certeza, cuántos días se demora una empresa en entregar un producto es tan importante como entender cuáles son los factores que afectan esa variable objetivo.
Para la entrega de determinados productos quizás existen menos conductores de los que se necesitan, hay un déficit. Quizás no se necesitan tantos como se piensa; entonces hay que encontrar el número más eficiente. Esas son las variables que ayudan; sobre cada una de ellas (curvas de demanda) se pueden aplicar técnicas analíticas para entender qué factores afectan más o menos la demanda.
P: ¿Cómo registrar, gestionar y visualizar los datos existentes?
Para las operaciones de abastecimiento y logística este es un desafío no menor. Las empresas con alta demanda, pensemos en un supermercado o, en este caso, una farmacéutica, necesitan que el dato esté lo más fresco posible. A esta urgencia se le conoce como ‘oportunidad del dato’.
La oportunidad del dato es muy importante en los procesos de abastecimiento porque el dato, que da cuenta del estado del stock, necesita ser visualizado casi en tiempo real para poder tomar decisiones a tiempo. Si un producto está por debajo del umbral de stock mínimo y no se gestiona eficientemente, la probabilidad de quiebre crecerá exponencialmente.
En el caso de la vacuna Pfizer-BioNTech, el producto está en crisis desde el día 1. Las probabilidades de quiebre son extremas porque las dosis son reducidas. Por tal razón, la entrega de los datos debe ser más eficiente que nunca, si se quiere mantener un seguimiento oportuno.
Para el caso de la vacuna, existe una opción viable: se puede tomar la información de
logística y de distribución de las farmacéuticas, registrada por los gps; para obtener el dato en tiempo real, se pueden instalar Change Data Capture (CDC) en los motores de orígenes de la información y, así, reflejarla en cualquier visualizador que domine los múltiples gps que están haciendo las entregas en tiempo real.
A través de este proceso, el beneficio no solo estará en la obtención y monitoreo de los datos, sino en la oportunidad de establecer metas, trazadas por análisis basados en Machine Learning; de esta forma, se pueden configurar alertas y notificaciones de manera proactiva (analítica) y no reactiva (humano), aplicar ciertas reglas, lógicas y, finalmente, impulsar procesos de automatización analíticos o analítica proactiva.
P: ¿Analítica tradicional Vs. Analítica Avanzada? ¿Por qué pueden ser el factor clave en la logística para la distribución de la vacuna Pfizer?
JC: Las condiciones para la distribución de la vacuna están planteando una problemática única, nunca antes atendida; por tanto, lo mejor que podemos hacer es trabajar con la información disponible.
El camino para mejorar y tomar mejores decisiones en la logística siempre ha dependido de los datos.
La analítica de datos es el factor clave para la optimización de procesos en la cadena logística. La razón principal está en la exigencia de integrar múltiples fuentes de datos (los cuales, generalmente, están disociados entre sí). Este trabajo de recopilación, organización y gestión de la información se convertirá en la punta de lanza de las decisiones que se tomen para mejorar la posición de stock.
Quizás sea posible obtener información de otros ejemplos similares, otras vacunas transportadas. Analizar los datos históricos sobre la entrega de otros productos similares podría arrojar cierta luz, aunque hay que reconocer que no será mucha porque, como bien se sabe, estas condiciones son totalmente nuevas.
No obstante, analizar información histórica nos permitirá detectar los problemas que ya se cometían con otros productos, es decir, problemas básicos. Si durante el traslado de otras vacunas, con una cadena de frío menos demandante, ya se cometían errores, será fundamental tener claros cuáles eran y por qué ocurrían, para no repetirlos. El traslado de la vacuna de Pfizer-BioNTech contará con errores higiénicos (históricos) y errores nuevos; los primeros se tienen que evitar a toda costa, ya que los segundos, de por sí, pondrán una presión enorme sobre las operaciones.
Entonces, es clave mitigar los errores que habitualmente ocurrían en el traslado de vacunas conocidas; de lo contrario, la suma de fallas asegurará un fracaso rotundo. En este escenario, la analítica tradicional ayudará a detectar los errores higiénicos y la analítica avanzada ayudará a mitigarlos proactivamente.
En otras palabras, yo sugiero enfocarnos en la oportunidad de mejorar las operaciones higiénicas. Es decir, si una empresa ya presentaba problemas transportando vacunas no tan exigentes, si ya tenía problemas de LSA (Logistics Support Analysis) en los tiempos de entrega y time to market, será necesario armar una estrategia con dos frentes:
- Atender los problemas higiénicos básicos (mientras más simples y alejados de una vacuna con ARN, mejor). Tenemos que cubrir las fallas elementales.
- Luego, podríamos estudiar la historia de vacunas con ARN que se han transportado previamente y han fallado en su distribución para, posteriormente, detectar las fallas y crear respuestas basadas en soluciones de Machine Learning.
P: ¿Qué hace falta en Chile para comenzar a sustentar estos procesos de cadena de distribución en ciencia de datos, soluciones de inteligencia artificial y Machine Learning?
JC: Creo que en materia económica falta mucho por hacer a nivel de datos. Democratizar la información puede crear un puente directo al desarrollo de nuevas tecnologías y la creación de startups. A su vez, las empresas ya instaladas en el país podrían optimizar sus procesos de capitales de trabajo, como las tasas de interés en operaciones financieras, permitiendo mejorar el acceso y reducir los costos.
Considero que es fundamental crear políticas de democratización de datos; es decir, compartir la información que sigue siendo de uso exclusivo para la competitividad de las empresas (y que en muchos casos no se usa). Sería muy positivo que todos podamos tener conocimiento de cuánto tarda un proveedor determinado en entregar una cantidad específica de productos en una posición geográfica concreta. Podríamos ser mucho más precisos a la hora de presentar soluciones y proyectar resultados mucho más veloces.
En Chile se debiese generar una apertura de este tipo de información, que sea global. De esta forma, las propias empresas, los centros de estudios I+D y las consultoras podrían mejorar procesos de cadena de suministro, por ejemplo, especialmente, los relacionados con situaciones de crisis como la que enfrentamos ahora.
Estos datos no tienen que estar relacionados directamente con ventas, sino con procesos de distribución, tiempos de entrega, entre otros. Democratizar los datos permite estudiar la información a partir de su masividad. De esa forma, se pueden extraer conclusiones mucho más precisas y crear conocimiento. Puedo usar como ejemplo a la banca: si se liberaran comportamientos de pago de casas comerciales, cuentas de luz, agua, entre otros, los niveles de riesgo de las personas podrían mejorar muchísimo y, con ello, podrían acceder a mejores condiciones de financiación.
Si la información sobre cómo operan las empresas en estos temas fuese pública, podríamos generar análisis más precisos, mejoraríamos el capital de trabajo e, incluso, las predicciones de demandas. Si un proveedor nacional se encargará de distribuir la vacuna en el país, podría apoyar sus operaciones en la información (ordenada) que ya existiese, entregada por el Estado. Los resultados serían mucho más positivos.
Una vez contáramos con datos otorgados por el Estado, podríamos:
- Hacer ingeniería de datos.
Podríamos extraer y asociar datos. Por ejemplo, si la temperatura es un factor crítico para la distribución de la vacuna, conocer la relación entre clima y distribución será muy importante. Actualmente, para realizar un análisis de esta naturaleza se requiere crear un data lake, reunir los datos, asociar las fechas y cruzar la información. No es algo sencillo. Si este tipo de información fuese pública, este proceso se agilizaría enormemente.
- Estudiar distintos comportamientos.
Una vez se cuente con los datos, se pueden crear características, tales como ratios por mayor concentración de distribuidores en zonas geográficas, cuánto toma llevar las vacunas hasta cierta región, cuál es el costo, los obstáculos, los desafíos.
En resumen, si los datos estuvieran democratizados, los emprendedores podrían crear productos y soluciones que impactaran directamente en sus modelos de negocios y, sobretodo, en la sociedad.