16 May El autoML otorga resultados que no se consiguen en ninguna otra parte
Las industrias de nutrición y salud siempre han estado conectadas. Son espacios que se caracterizan por sus constantes esfuerzos por innovar y ofrecer mayor valor a las personas.
Actualmente, la ola de innovación de estas industrias se centra en el Big Data.
El volumen de datos en estas industrias se ha maximizado, lo cual ha generado múltiples posibilidades para la creación de valor.
“Hoy en día, no estamos viendo la salud en un solo parámetro. Todos tenemos sensores con los que caminamos. Sabemos que podemos monitorear nuestra ingesta, nuestra actividad física; podemos controlar nuestros patrones de sueño, nuestra presión arterial, nuestro ritmo cardíaco. Y podemos hacer todo esto simultánea y continuamente”, explica Nora Khaldi, fundadora y CSO de Nuritas, una empresa de biotecnología con sede en Dublín.
Con base en esta realidad, explica Khaldi, el aprendizaje automático y la ciencia de datos brindan un potencial emocionante al mundo de la nutrición personalizada.
La combinación de estas tecnologías con plataformas cohesivas, que canalicen el seguimiento continuo de datos, permitiría compartir recomendaciones nutricionales validadas en tiempo real, adaptadas al estilo de vida de cada persona.
Estas industrias están apoyándose en tecnologías analíticas para el desarrollo de procesos de nutrición personalizada.
Una de las empresas referentes en estos esfuerzos es Nestlé, líder mundial en nutrición, salud y bienestar.
Esta empresa suiza, con más de 156 años de historia, ha demostrado que el desarrollo de soluciones analíticas puede maximizar las oportunidades para la creación de valor, el desarrollo de productos y, sin duda, el incremento de los beneficios.
En su informe de resultados de 2021, Nestlé reportó que sus ventas totales aumentaron un 3,3%, lo que se tradujo en ganancias superiores a los 94 mil millones de dólares.
Asimismo, las ganancias por acción subyacentes aumentaron un 5,8% ($4,80 dólares) en moneda constante.
Para 2022, la empresa espera un crecimiento orgánico de ventas de alrededor del 5% y un margen de beneficio operativo subyacente de entre 17% y 17,5%.
Las expectativas para Latinoamérica
Siguiendo su cultura innovadora, Nestlé ha demostrado ser una de las empresas más disruptivas en América Latina.
Constantemente, están buscando desarrollar soluciones que abran y refuercen oportunidades de negocio y generación de valor.
México es uno de los países donde mayor impacto han tenido estos esfuerzos.
Para entender más sobre esta realidad, hemos conversado con Mariana Ramírez, Líder de Equipo de Data Scientists en Nestlé México, quien nos ha contado la experiencia que se vive en la empresa, a propósito del desarrollo de soluciones con base en tecnologías analíticas y sus resultados.
Cuéntanos un poco de ti ¿Cómo empezaste en todo este camino en el mundo de la ciencia de datos?
MR: Yo estudié cine.
Comencé a entrar en temas de ciencia de datos hace como 5 años.
Mi proceso ha sido bastante autodidacta, aunque actualmente estoy haciendo una maestría en ciencia de datos; me interesa reforzar un poco lo que ya he aprendido.
Desde hace 5 años que lidero el departamento de ciencia de datos en Nestlé, que reporta directamente al área de Business Intelligence.
Siempre me ha gustado la parte numérica; además, vivo motivada por aprender cosas nuevas. La curiosidad, creo yo, me llevó a adentrarme en todas las posibilidades de este mundo de la ciencia de datos.
Aunque no tengo nada que ver, creo que el cine te da cierta base, especialmente en el storytelling de los datos y la información; me ha ayudado a tener una estructura para saber lo que irá pasando en los diferentes momentos de un proyecto.
Al final, he recorrido un camino distinto… pero me ha ayudado mucho la combinación de ambas disciplinas.
¿Cuáles son tus responsabilidades en Nestlé?
MR: Somos tres células dentro del equipo.
Mi célula trabaja 100% en ciencia de datos. En resumen: transformamos los datos en insights.
Un departamento puede solicitarnos entender y explicar por qué está pasando una situación específica: forecast, elasticidad de precios, modelos predictivos, entre otros.
El desafío está en hacer que los usuarios finales puedan acceder y usar fácilmente los datos.
En estos momentos, nos interesa escalar las acciones y avanzar en el desarrollo de modelos más predictivos y prescriptivos; estos atributos nos permitirán ser más estratégicos de cara al futuro.
¿Cómo se vinculan con las áreas de negocio?
MR: Hay una alineación previa.
No puedes avanzar sin entender antes la pregunta que tiene el área de negocio.
De hecho, en ocasiones, ni siquiera ellos conocen la pregunta; entonces, debemos ayudarlos a que la encuentren.
En mi equipo hay personas que tienen un amplio conocimiento del negocio. En cualquier equipo de datos es necesario contar con un traductor de negocio que canalice la transición entre lo que busca el negocio y las respuestas que se pueden obtener con los datos.
¿Cómo describirías tu proceso de formación, tus años como estudiante autodidacta y ahora en un modelo más formal?
MR: Ayuda mucho que este mundo es relativamente nuevo y hay muchas personas entrando en él, existe mucho open sourcing, por ejemplo. Estos recursos te brindan la posibilidad de aprender y resolver dudas muy rápido.
Considero que mi transición fue muy natural; pienso que me ayudaron las ganas de hacerlo y la curiosidad por entender de qué iba todo esto.
La curiosidad tiene que ser constante. El mundo de la ciencia de datos cambia mucho, no es algo en lo que te capacitas una única vez. El conocimiento de hoy es probable que no te sirva en seis meses.
Sin embargo, con respecto a la formación autodidacta, sí he sentido que hay huecos. Por ejemplo, es difícil encontrar la mirada de negocio en foros de estudio o canales de Youtube. Entonces, es importante contar con partners comerciales que te ayuden a ver lo que tú no ves, ya sea por falta de tiempo o recursos.
En esos casos, una formación más estructurada podría brindar mucho valor.
¿Cuáles deberían ser las competencias para desarrollar tus funciones?
MR: Pienso que tener un conocimiento del negocio es una parte fundamental.
Lo evidente: saber estadística es super necesario.
Otra competencia importante es saber hacer las preguntas adecuadas, incluso ayudar a los otros a identificar sus preguntas, para llegar a respuestas que brinden resultados positivos.
Muchas veces los usuarios de negocio vienen con una pregunta que no necesariamente resuelve lo que quieren resolver. Por eso es tan importante entender el negocio y sus detalles.
Yo uso mucho python; así que creo que es otra habilidad importante.
Y curiosidad. Obviamente no puedes saber todo, pero tienes que entender de todo un poquito, interesarte por todas las aristas de los proyectos de analítica e ir registrando aprendizajes.
¿Cómo llegaron a trabajar con nosotros? ¿Cuál fue el contexto?
MR: comenzamos a trabajar con Analytics10 hace un tiempo ya.
Partimos con una plataforma de acceso a la información interna… aún la seguimos usando. Este fue un proyecto de analítica descriptiva en el que facilitamos el acceso a la información de todos nuestros clientes.
Esa solución ha ido escalando. De hecho, ese fue uno de los argumentos que me trajo a la empresa.
Actualmente, estamos desarrollando un proyecto de forecast, generando análisis de datos semanales de un universo de más de 6000 tiendas.
Es un proyecto bastante amplio; no solo por lo que representa a nivel de modelado, sino por lo que significa en términos de datos.
Los datos que tenemos de los clientes no siempre son constantes, y esa realidad se traduce en un gran desafío.
El proyecto ha contado con varias fases: data engagement, limpieza y calidad de datos, entre otros. Finalmente, el desafío pasa por poner en productivo todo ese esfuerzo y generar modelos con altos niveles de precisión.
Para obtener realmente beneficios, necesitamos alcanzar un 90% de precisión en nuestro forecast.
Lo hemos logrado.
¿Cuál es el fin de esta activación?
MR: tener la información precisa del stock de los inventarios, de esa manera, podemos mejorarlos.
Conocer cómo nos miden los clientes; por ejemplo, cuando revisan su inventario en función de categorías, cantidades y público objetivo.
A veces podemos estar pasados de inventario con algunos clientes, pero otras tiendas que tienen altos volúmenes de ventas se quedan más rápido sin productos.
Entonces, es crítico proyectar escenarios de demanda dentro de cada una de las tiendas.
Pero no todos los clientes tienen la capacidad para hacer estos análisis por sí mismos: la idea del proyecto es ayudarles a eso. Entregarles la proyección precisa de lo que van a necesitar, en función de las ventas que registra.
El proyecto se establece a 12 semanas. 4 meses en los que los clientes puedan tener las proyecciones de su Sell Out.
Internamente, haber desarrollado esta capacidad nos ha permitido mejorar nuestros niveles de disponibilidad de productos en tiendas, lo que en definitiva es lo que sostiene el negocio.
¿Cómo describes los resultados?
MR: Han sido muy buenos.
Ha habido aprendizajes muy interesantes en términos de manejo de datos.
Hemos podido detectar nuestras deficiencias en el manejo de la información.
Un accionable importante pasó por entender bien lo que queríamos hacer con los datos que no eran constantes y que no eran lo suficientemente buenos para usarlos en una primera etapa.
Identificar los datos no funcionales es un gran paso.
Por otro lado, también descubrimos y expandimos las posibilidades de lo que podemos hacer con datos funcionales. Cuando tienes datos constantes y limpios, puedes proyectar con niveles muy altos de precisión.
La precisión de los modelos que desarrollamos con Analytics10 llegan a un 98%.
En resumen, nos ayuda muchísimo entender que no todos los datos sirven… y que los datos que sí sirven pueden usarse para desarrollar modelos de forecast buenísimos.
¿Tienen planes de seguir trabajando en esta línea y escalar soluciones?
MR: Para nosotros el forecast es un must. Por eso, estamos buscando crear más modelos con altos niveles de precisión. De esta manera, tendremos la capacidad para planificar y accionar mejor.
En cuanto a la trazabilidad de los proyectos, esta experiencia ha detonado otros nuevos; por ejemplo, el desarrollo de una solución de manejo de la información, para saber cómo usar la data que no está funcionando.
Por supuesto, también nos queremos esforzar por enriquecer cada uno de estos modelos, y así analizar el impacto de cada una de nuestras variables hacia el futuro.
¿Qué te pareció DataRobot, la tecnología que se usó para este proyecto?
MR: DataRobot es una super herramienta.
Hemos hecho muchas cosas con DataRobot. Sin su capacidad de autoML sería casi imposible crear una cantidad tan alta de modelos, por ejemplo, comparado con una creación manual en Python.
Con modelos en Python se necesitaría mucho tiempo y recursos para llegar a los mismos resultados que provee DataRobot.
Este proyecto se ha extendido por 6 meses y estamos analizando 6000 tiendas. Hacerlo de forma manual hubiese sido imposible, aun clusterizando.
Además, los niveles de precisión obtenidos con DataRobot son excelentes. Una precisión del 98% es algo impresionante.
La gestión de modelos también es muy sencilla en DataRobot. Puedes hacer un modelo y dejar que se reentrene autónomamente semana a semana con nuevos datos.
En términos de recursos y ROI es inmejorable.
Se necesitarían demasiadas personas, enfocadas 100% al trabajo, para obtener los mismos resultados que proveen estos modelos de autoML.
¿Cómo evalúas el desempeño de la ciencia de datos en México?
MR: Pienso que el nivel es bueno, especialmente cuando vemos lo que hacen las startups.
Muchas startups mexicanas han logrado entrar al mercado de Estados Unidos porque son muy eficientes, se mueven muy rápido… esta velocidad es difícil de ver en empresas grandes, ya que siempre se necesitan mover muchas cosas.
Las startups también apuestan por las mejores tecnologías, lo cual puede sonar extraño. Lo que yo creo que pasa es que no se centran en un tema de recursos, sino en lo que más les conviene para moverse con la velocidad que necesitan.
En los últimos tres años creo que ha habido un avance tremendo en el mundo de la ciencia de datos.
Cuando yo comencé hace cinco años en Nestlé, solo éramos dos científicos de datos. Actualmente, cada célula tiene, al menos, dos personas. Dentro del equipo somos más de 30 y cada vez la compañía suma más perfiles.
También se nota en la demanda general de científicos de datos. Hace cinco años se encontraban en todos lados, ahora se ha vuelto bastante difícil encontrar perfiles de este tipo.
¿Cómo te proyectas a futuro?
MR: Me gusta mucho lo que hago.
Mirando hacia adelante, creo que es muy retador comenzar a meter más ecuaciones en nuestros modelos analíticos. Necesitamos apoyar el desarrollo de soluciones más personalizadas; para eso necesitamos más variables digitales y potenciar el manejo de los datos. Debemos trabajar duro para llegar a un análisis más granular.
Puede parecer muy granular tener información a nivel sku, pero no necesariamente lo es. Hoy en día, estamos indexando muchas más variables que fortalezcan los modelos y nos permitan llegar a todo nuestro público objetivo.