Mas leido
Building Stories
Modo Rua: Redefiniendo el desarrollo de aplicaciones mediante iteración centrada en el usuario Ago 23
Building Stories
NuStories: Adaptación de productos para clientes fanáticos en varios países Oct 30
Culture & Values
Cómo los valores y la cultura de Nu dan forma a los productos que creamos Ago 7
Carreras
Reunimos a grandes mentes de diversos orígenes que permiten la discusión y el debate y mejoran la resolución de problemas.
Conoce más sobre nuestras carreras



En Nubank, la innovación en machine learning (ML) y ciencia de datos (DS) impulsa nuestra misión de construir el Futuro Púrpura. Recientemente, celebramos la 92ª edición de nuestro DS & ML Meetup, con el tema “Prácticas para Escalar Operaciones de Machine Learning”. Este evento profundizó en los desafíos técnicos y las soluciones para construir sistemas de ML en tiempo real, con un enfoque en la detección de fraude—un dominio donde la velocidad, precisión y escalabilidad son críticas.
Liderada por Otávio Vasques, Lead Machine Learning Engineer, la sesión exploró la arquitectura, estrategias de optimización y prácticas de implementación detrás de los modelos de ML en tiempo real de Nubank. Los temas principales incluyeron las diferencias entre modelos batch y en tiempo real, el papel del Model Server, técnicas para reducir la latencia y los costos de infraestructura, y las mejores prácticas para probar e implementar modelos utilizando el modo shadow.
En este artículo, desglosaremos estos insights, ofreciendo una mirada detrás de escena de cómo Nubank escala las operaciones de machine learning para proteger a millones de clientes. Si eres un científico de datos, ingeniero de ML o simplemente curioso sobre ML en tiempo real, este post ofrece lecciones prácticas para construir sistemas robustos y escalables. ¡Vamos allá!
¿Qué son los modelos en tiempo real?
Los modelos en tiempo real se diferencian de los modelos batch tradicionales en un aspecto crucial: operan dentro de la infraestructura de servicios, no solo en pipelines de datos. Mientras que los modelos batch procesan grandes volúmenes de datos durante la noche y generan predicciones para el día siguiente, los modelos en tiempo real responden a eventos en el momento en que ocurren.
Esto es esencial para casos de uso como la detección de fraude, donde retrasar una decisión incluso unos segundos puede significar la diferencia entre detener una transacción fraudulenta o permitir que se concrete.
Por ejemplo, si alguien roba tu tarjeta de crédito e intenta hacer una compra, un modelo en tiempo real puede marcar la transacción de inmediato, mientras que un modelo batch solo la detectaría al día siguiente—mucho después de que el daño esté hecho.
Descubre las oportunidades
La arquitectura de los modelos en tiempo real en Nubank
En Nubank, nuestros modelos en tiempo real se construyen sobre una arquitectura robusta que garantiza baja latencia y alta confiabilidad. Así es como funciona:
Optimizando para escala y velocidad
Los modelos en tiempo real son intensivos en recursos, especialmente cuando operan a la escala de Nubank. Aquí hay algunas de las técnicas que utilizamos para optimizar el rendimiento:
1. Implementación Fragmentada vs. Global
2. Filtrado Pre-Política
3. Paralelización de la Recuperación de Features
4. Monitoreo y Timeouts
Construyendo pipelines de features confiables
La ingeniería de features es una parte crítica de cualquier modelo de ML, pero es especialmente desafiante en sistemas en tiempo real. Así es como garantizamos consistencia y confiabilidad:
Pruebas y modo shadow
La implementación de modelos en tiempo real requiere pruebas rigurosas para garantizar que funcionen como se espera. Aquí está nuestro enfoque:
Reflexiones finales
Construir modelos de ML en tiempo real es un desafío complejo, pero gratificante. En Nubank, hemos aprendido que el éxito depende de una combinación de arquitectura robusta, optimización cuidadosa y colaboración entre equipos. Aunque las técnicas que hemos desarrollado están adaptadas a la detección de fraude, muchos de los principios—como paralelizar la recuperación de features, monitorear dependencias y probar rigurosamente—pueden aplicarse a otros casos de uso en tiempo real.
Como se enfatizó durante el meetup, no todos los modelos necesitan todas las optimizaciones. La clave es ser crítico con tu caso de uso, entender tus restricciones y enfocarte en las mejoras que aportarán más valor. Y recuerda: el ML en tiempo real es un esfuerzo de equipo. Se necesitan científicos de datos, ingenieros y analistas trabajando juntos para construir sistemas que sean rápidos y confiables.
Descubre las oportunidades