Español

Modelos de Predicción de Churn: Usando Datos para Pronosticar la Pérdida de Clientes

churn-prediction-models

Su cliente envió un ticket de soporte el mes pasado, inició sesión tres veces, y su uso cayó un 30% respecto al mes anterior. ¿Está a punto de abandonar?

Sin un modelo de predicción, está adivinando. Quizás están solo ocupados. Quizás es estacional. O quizás están evaluando a la competencia ahora mismo y tiene dos semanas para cambiar su opinión. No lo sabrá hasta que cancelen formalmente, lo cual ya es demasiado tarde.

Los modelos de predicción de Churn convierten los patrones en sus datos en sistemas de alerta temprana. Identifican qué clientes tienen mayor riesgo de irse, con suficiente tiempo de anticipación para que su equipo realmente intervenga. Los mejores modelos detectan a los clientes en riesgo 60-90 días antes de que abandonen, dándole una oportunidad real de abordar los problemas y salvar la cuenta.

Construir estos modelos no requiere un doctorado en ciencia de datos. Los modelos simples basados en reglas detectan el 60-70% del Churn. Los modelos de scoring ponderado lo llevan al 75-80%. Los enfoques de machine learning pueden alcanzar una precisión del 85-90%. La clave es empezar con algo, medir su efectividad y mejorar con el tiempo.

Objetivos del Modelo de Predicción: Qué Logran los Buenos Modelos

Los modelos efectivos de predicción de Churn sirven propósitos específicos.

La identificación temprana significa detectar el riesgo antes de que el cliente haya decidido mentalmente irse. Si su modelo solo marca a los clientes que ya han enviado avisos de cancelación, es inútil. Necesita 60-90 días de anticipación para marcar una diferencia.

El análisis de Gainsight muestra que la intervención antes del umbral de los 60 días tiene éxito 3 veces más a menudo que la intervención a 30 días o menos. En ese momento, el cliente ya suele haber evaluado alternativas y tomado su decisión. Usted simplemente lo está escuchando tarde.

La priorización de recursos ayuda a su equipo de CS a enfocar el tiempo limitado en los clientes que más lo necesitan. Tiene 500 clientes y 5 CSMs. No puede darle a todos una atención de alto contacto. Pero puede identificar los 50 con mayor riesgo y priorizarlos en consecuencia.

Sin modelos de predicción, los CSMs se extienden demasiado o se enfocan en quien se queja más alto. Ninguno de los dos enfoques optimiza la retención ni hace un uso eficiente del tiempo de su equipo.

El desencadenamiento de intervenciones automatiza respuestas basadas en los niveles de riesgo. Cuando un cliente supera un umbral de riesgo, su sistema puede alertar automáticamente al CSM, activar una campaña de contacto, programar una llamada de revisión de salud, o escalar a la gerencia si es necesario. La automatización garantiza que nada se pase por alto, incluso cuando su equipo está desbordado.

La precisión del pronóstico le ayuda a proyectar los ingresos futuros y las tasas de Churn con confianza. Si sabe que 40 cuentas que representan $500K de ARR tienen alto riesgo este trimestre, puede modelar el impacto financiero y planificar en consecuencia. Los inversores quieren ver que comprende su dinámica de retención y puede predecir el rendimiento futuro. Los buenos modelos de Churn lo permiten exactamente.

La mejora continua significa tratar su modelo de predicción como un sistema vivo. Haga seguimiento de su precisión. Aprenda cuándo se equivoca. Refine los inputs. Pruebe nuevos indicadores. Los modelos que no mejoran con el tiempo se vuelven obsoletos y pierden efectividad, necesitan la misma atención que le da a su producto.

Indicadores Predictivos: Señales que Pronostican el Churn

Ciertos comportamientos y eventos se correlacionan fuertemente con el Churn futuro. Esto es lo que realmente importa.

La caída en el uso es el predictor individual más fuerte. Cuando el uso activo cae más del 30% mes a mes, el riesgo de Churn aumenta drásticamente.

Slack descubrió que los equipos cuyo volumen de mensajes cae por debajo de cierto umbral abandonan a 5 veces la tasa de los equipos activos. Alertan a los CSMs siempre que se producen caídas sostenidas en el uso, dándoles la oportunidad de investigar qué está pasando antes de que sea demasiado tarde.

Debe rastrear la frecuencia de inicio de sesión (de diario a semanal a mensual), la amplitud del uso de funciones (de usar 10 funciones a usar 3), el volumen de acciones principales (llamadas a la API, documentos creados, usuarios invitados), y la duración y profundidad de las sesiones. Cada una cuenta parte de la historia sobre si el cliente realmente está obteniendo valor.

La caída en el compromiso muestra relaciones que se desconectan incluso cuando el uso del producto parece correcto. La disminución en la asistencia a los QBR, la reducción de la respuesta al contacto del CSM, dejar de asistir a capacitaciones o webinars, caída en la participación en la comunidad: estas señales indican que el cliente se está desconectando mentalmente. Cuando los clientes dejan de relacionarse con su equipo, la relación se está deteriorando independientemente de lo que digan los números de uso.

El aumento en los tickets de soporte, especialmente con sentimiento negativo, señala una frustración creciente. Esté atento a picos en los tickets después de períodos de bajo volumen, tickets escalados o airados, problemas repetidos que muestran falta de resolución, y tickets que preguntan sobre competidores o alternativas.

El modelo de HubSpot marca las cuentas con 5 o más tickets en 30 días Y una puntuación NPS por debajo de 6 como de alto riesgo. La combinación de volumen y sentimiento importa más que cualquiera de los dos por separado.

La caída en el sentimiento y la satisfacción se captura a través de caídas en la puntuación NPS (especialmente alguien que va de 9 a 6, o de promotor a detractor), puntuaciones CSAT por debajo del umbral, lenguaje negativo en los tickets de soporte, y respuestas a encuestas que indican insatisfacción.

Wootric descubrió que los clientes cuyo NPS cae 3 o más puntos trimestre a trimestre abandonan a 4 veces la tasa de referencia. Las pequeñas caídas en la satisfacción predicen grandes aumentos en el riesgo de Churn.

Los cambios de stakeholders y campeones crean vulnerabilidad inmediata. Su campeón dejó la empresa. Una reorganización eliminó el equipo que usaba su producto. Llegó un nuevo liderazgo que no conoce su producto. Los correos electrónicos de contacto rebotan porque las personas ya no están.

Las relaciones de un solo hilo se vuelven de alto riesgo en el momento en que esa única relación desaparece. Si solo tiene una persona que se preocupa por su producto, está a un despido de perder la cuenta.

Los problemas de pago y facturación predicen tanto el Churn voluntario como el involuntario. Intentos de pago fallidos, solicitudes de downgrade, solicitudes de extensiones de pago, preguntas sobre presupuesto o preocupaciones de costos, tarjetas de crédito rechazadas: todos estos se correlacionan con el Churn inminente.

Los datos de Recurly muestran que los clientes con 2 o más pagos fallidos abandonan al 60% en comparación con una línea de base del 5%. Los problemas de pago a menudo indican estrés financiero o despriorización de su producto.

Las señales de competencia indican que están buscando activamente alternativas. Preguntas sobre integración con competidores, solicitudes de comparación, menciones de nombres de competidores, actividad en LinkedIn que muestra interés en alternativas: cuando los clientes empiezan a investigar a los competidores, el reloj está corriendo. Están construyendo un caso de negocio para cambiarse.

El momento del contrato y la renovación crea ventanas de riesgo naturales independientemente de todo lo demás. El riesgo aumenta 90-60 días antes de la renovación, al final de los contratos anuales, durante los períodos posteriores a un aumento de precios, y al acercarse a las fechas de fin de compromiso. El riesgo de Churn aumenta a medida que se acercan las fechas de renovación simplemente porque los clientes reevalúan la relación y las alternativas durante estas ventanas.

Modelos Basados en Reglas: Umbrales Simples que Funcionan

Empiece con modelos simples basados en reglas. Son sencillos, transparentes y sorprendentemente efectivos para detectar la mayoría del Churn.

Definir umbrales de riesgo significa establecer criterios claros y específicos que cualquiera pueda entender:

Alto riesgo si ALGUNA de estas condiciones es verdadera:

  • El uso cayó más del 40% mes a mes durante 2 o más meses consecutivos
  • Sin inicio de sesión en los últimos 30 días
  • Puntuación NPS por debajo de 5, o caída de 4 o más puntos recientemente
  • Salida del campeón confirmada
  • 60 días para la renovación con health score por debajo de 60

Riesgo medio si ALGUNA de estas condiciones es verdadera:

  • El uso cayó entre el 20-40% mes a mes
  • Menos de 5 inicios de sesión en los últimos 30 días
  • NPS entre 5-6, o caída de 2-3 puntos
  • 3 o más tickets de soporte en los últimos 30 días
  • 90 días para la renovación con health score entre 60-75

Estas reglas son completamente transparentes. Cualquier miembro de su equipo puede entender exactamente por qué se marcó a un cliente, lo que genera confianza en el sistema.

Combinar múltiples señales mejora drásticamente la precisión. Los indicadores individuales generan demasiados falsos positivos: muchos clientes sanos tienen un mes flojo. Las señales combinadas son mucho más fiables.

Por ejemplo, marcar como alto riesgo SOLO si 2 o más de estas condiciones son verdaderas: uso por debajo del umbral, puntuación de compromiso baja, tickets de soporte elevados, y renovación dentro de 90 días. Esto reduce los falsos positivos manteniendo la sensibilidad al riesgo genuino.

Las condiciones de activación determinan cuándo y cómo actuar sobre las predicciones. Alerta inmediata al CSM más escalación al gerente para cuentas de alto riesgo con más de $50K de ARR. Resumen semanal para cuentas de riesgo medio. Revisión mensual para cuentas de bajo riesgo con señales emergentes. Campañas de intervención automática para cuentas de contacto tecnológico.

Los diferentes niveles de riesgo justifican diferentes respuestas. No puede tratar todas las alertas de la misma manera.

La simplicidad y la transparencia son en realidad fortalezas de los modelos basados en reglas, no debilidades. Los CSMs entienden por qué se marcan los clientes. Pueden validar la lógica ellos mismos. Confían en las alertas porque tienen sentido intuitivo.

Los modelos de machine learning pueden ser más precisos, pero a menudo se sienten como cajas negras. Nadie sabe por qué se marcó a un cliente, lo que hace que los CSMs sean escépticos. Los modelos basados en reglas generan confianza precisamente porque son interpretables.

Intercom empezó con una regla muy simple: cualquier cliente con menos de 10 sesiones en 30 días y que se acerque a la renovación está en riesgo. Eso es todo. Detectó el 65% de los abandonos finales con básicamente cero falsos positivos. La simplicidad impulsó la adopción inmediata en todo el equipo de CS.

Modelos de Scoring: Factores Ponderados para una Predicción Más Matizada

Los modelos de scoring añaden sofisticación ponderando múltiples factores según su poder predictivo.

La selección de componentes identifica los factores que realmente importan en su negocio. Podría ponderar el uso del producto al 30%, el nivel de compromiso al 20%, la salud del soporte al 15%, la solidez de la relación al 15%, la salud financiera al 10%, y el tiempo hasta la renovación al 10%.

Estas ponderaciones deben reflejar qué factores se correlacionan históricamente más fuertemente con el Churn EN SUS PROPIOS DATOS, no en los de otra persona.

La metodología de ponderación puede venir de la intuición (juicio de expertos de líderes de CS que han visto cientos de abandonos), análisis de regresión (análisis estadístico de patrones históricos de Churn), o pruebas iterativas (intente diferentes ponderaciones, mida la precisión, refine según los resultados).

La mayoría de las empresas empiezan con ponderaciones basadas en la intuición, luego las refinan con datos con el tiempo a medida que acumulan más historial de Churn.

El cálculo del score combina componentes ponderados en un único health score:

Aquí hay un ejemplo de cliente:

  • Uso del producto: 40 sobre 100, ponderado al 30% = 12 puntos
  • Compromiso: 60 sobre 100, ponderado al 20% = 12 puntos
  • Salud del soporte: 70 sobre 100, ponderado al 15% = 10,5 puntos
  • Relación: 80 sobre 100, ponderado al 15% = 12 puntos
  • Salud financiera: 90 sobre 100, ponderado al 10% = 9 puntos
  • Tiempo hasta la renovación: 30 sobre 100, ponderado al 10% = 3 puntos

Health score total: 58,5 sobre 100, que cae en territorio de alto riesgo si su umbral es 60.

La definición de umbrales determina los niveles de riesgo. Podría usar 80-100 como sano (verde), 60-79 como en riesgo (amarillo), y por debajo de 60 como de alto riesgo (rojo).

Estos umbrales deben calibrarse con sus datos históricos de Churn. Si el 80% de los clientes que abandonaron tenían puntuaciones por debajo de 60 en los 90 días anteriores, ese umbral tiene sentido. Si solo el 40% lo tenía, necesita ajustarlo.

La validación y el ajuste fino prueban el modelo con datos históricos para ver si realmente funciona. ¿Cuántos clientes que abandonaron fueron marcados como de alto riesgo con antelación? ¿Cuántos marcados como de alto riesgo no abandonaron realmente (falsos positivos)? ¿Cuál es el tiempo de anticipación entre la alerta de riesgo y el abandono real? ¿El modelo funciona igual de bien en diferentes segmentos de clientes?

Totango construyó un modelo de scoring ponderado y lo retroalimentó con 18 meses de datos de Churn. La precisión inicial fue del 71%, lo cual no está mal. Después de ajustar las ponderaciones y los umbrales en función de lo aprendido, alcanzaron una precisión del 82% con un tiempo de anticipación promedio de 75 días.

Enfoques de Machine Learning: Detección de Patrones a Escala

Para conjuntos de datos más grandes, los modelos de machine learning pueden detectar patrones que los humanos nunca detectarían.

La selección de algoritmos depende del tamaño de sus datos, las capacidades técnicas y los requisitos de precisión:

La regresión logística es el enfoque de ML más simple. Predice la probabilidad de Churn basándose en múltiples variables, sigue siendo interpretable (muestra qué factores importan más), funciona bien con conjuntos de datos más pequeños (100+ eventos de Churn), y sirve como punto de partida común para la predicción de Churn basada en ML.

Los árboles de decisión y los random forests crean lógica de ramificación basada en combinaciones de características. Manejan bien las relaciones no lineales y pueden revelar patrones inesperados (como "los clientes que hacen X e Y pero NO Z tienen 10 veces más riesgo de Churn"). Son más complejos pero más potentes que la regresión simple.

Las redes neuronales detectan patrones complejos en conjuntos de datos grandes. Requieren datos sustanciales (1000+ eventos de Churn para entrenar correctamente), ofrecen menos interpretabilidad pero potencialmente mayor precisión, y generalmente son excesivos para la mayoría de las empresas SaaS de tamaño medio.

Los métodos de gradient boosting como XGBoost y LightGBM representan el estado del arte para datos estructurados. Ofrecen alta precisión con una interpretabilidad razonable, son el estándar del sector para la predicción seria de Churn, pero requieren experiencia real en ciencia de datos para implementarlos correctamente.

Los requisitos de datos de entrenamiento determinan qué es realmente factible para su empresa:

El conjunto de datos mínimo viable incluye 100+ eventos históricos de Churn, 12+ meses de datos de clientes, y 20+ características potenciales (uso, compromiso, soporte, etc.).

El conjunto de datos óptimo incluye 500+ eventos de Churn, 24+ meses de datos, 50+ características diseñadas, y múltiples segmentos de clientes para una validación adecuada.

Si no tiene suficientes datos históricos de Churn, el machine learning no superará a los modelos más simples basados en reglas. Necesita datos suficientes para entrenar.

El diseño de características crea variables predictivas que capturan patrones significativos:

Las características básicas incluyen el nivel de uso actual, la puntuación NPS, los días hasta la renovación, y el recuento de tickets de soporte.

Las características diseñadas son más sofisticadas: tendencia de uso (promedio de 7 días vs 30 días), velocidad de compromiso (aumentando vs disminuyendo con el tiempo), uso relativo (comparado con clientes similares), amplitud de adopción de funciones, antigüedad de la relación, y patrones del historial de pagos.

ProfitWell descubrió que las características de tendencia (tasa de cambio en el uso) eran 3 veces más predictivas que las características puntuales (nivel de uso actual). Cómo están cambiando las cosas importa mucho más que el estado actual.

El entrenamiento del modelo sigue un proceso estándar:

Divida los datos históricos en conjuntos de entrenamiento (70%), validación (15%) y prueba (15%). Entrene el modelo con el conjunto de entrenamiento. Ajuste los hiperparámetros usando el conjunto de validación. Evalúe el rendimiento final en el conjunto de prueba (datos que el modelo nunca ha visto). Luego reentrene con el conjunto de datos completo una vez que haya validado que funciona.

Esto previene el sobreajuste, donde su modelo memoriza los datos de entrenamiento pero tiene un rendimiento deficiente con datos nuevos.

La importancia de las características muestra qué impulsa realmente las predicciones, lo que le dice dónde enfocar los esfuerzos de intervención:

Un ejemplo de resultado podría mostrar la tendencia de uso (cambio en 30 días) al 28% de importancia, los días hasta la renovación al 18%, el sentimiento de los tickets de soporte al 15%, la caída en la puntuación de compromiso al 12%, el estado del campeón al 10%, y otras características combinándose para el 17%.

Esto revela qué factores importan más en su negocio específico y dónde debe enfocar los esfuerzos de retención.

Rendimiento del Modelo: Métricas de Precisión y Optimización

Los modelos solo son útiles si son precisos y accionables. Así es como medir y mejorar el rendimiento.

Las métricas de precisión miden diferentes aspectos de qué tan bien funciona su modelo:

La precisión responde: De los clientes marcados como en riesgo, ¿qué porcentaje realmente abandonó? Alta precisión (80%+) significa pocas falsas alarmas. Baja precisión (40%) significa que los CSMs desperdician mucho tiempo en clientes que no van a abandonar.

El recall responde: De los clientes que abandonaron, ¿qué porcentaje marcamos como en riesgo con antelación? Alto recall (85%+) significa que detectamos la mayoría de los abandonos antes de que ocurran. Bajo recall (50%) significa que la mitad de nuestros abandonos llegan como sorpresas completas.

El F1 score equilibra precisión y recall usando su media armónica. Evita que se manipule el sistema optimizando solo una métrica. Los buenos modelos alcanzan puntuaciones F1 por encima de 0,75.

Los verdaderos vs falsos positivos implican un equilibrio que requiere criterio empresarial:

Los falsos positivos (marcados como en riesgo pero no abandonaron) le cuestan tiempo desperdiciado del CSM en intervenciones innecesarias. Pero también hay un beneficio: el compromiso proactivo podría prevenir el Churn que hubiera ocurrido sin la intervención.

Los falsos negativos (abandonaron pero no fueron marcados) le cuestan una oportunidad perdida de salvar a un cliente. Pierde ingresos y nunca intenta siquiera una intervención.

La mayoría de las empresas optimizan para alto recall (detectar abandonos) aunque signifique más falsos positivos. Perderse un Churn de $100K duele mucho más que gastar una hora extra en un cliente que no estaba realmente en riesgo.

Los equilibrios de optimización requieren ajustar su negocio según su economía específica:

Para cuentas de alto valor, optimice para el recall. Quiere detectar cada posible Churn, aunque obtenga falsos positivos. El costo de perderse uno es demasiado alto.

Para cuentas de bajo valor, optimice para la precisión. No puede permitirse desperdiciar tiempo del CSM en falsas alarmas cuando el valor de la cuenta no justifica el costo de la intervención.

Puede ejecutar dos modelos completamente diferentes con diferentes umbrales para diferentes segmentos de clientes.

Las pruebas A/B validan si las mejoras del modelo realmente funcionan en la práctica:

El grupo de control recibe alertas de su modelo actual. El grupo de prueba recibe alertas de un nuevo modelo que está evaluando. Mida las tasas de Churn, las tasas de éxito en el rescate, y el esfuerzo del CSM requerido en ambos grupos.

Si el nuevo modelo reduce el Churn en el grupo de prueba sin requerir dramáticamente más tiempo del CSM, impleméntelo ampliamente. Si no lo hace, averigüe por qué antes de hacer cambios.

La mejora continua mantiene los modelos precisos a medida que su negocio evoluciona:

Las revisiones mensuales deben examinar las cuentas marcadas que no abandonaron (falsos positivos, ¿por qué fueron marcadas?) y los abandonos que no fueron marcados (falsos negativos, ¿qué señales nos perdimos?).

Las actividades trimestrales incluyen reentrenar el modelo con nuevos datos, probar nuevas características e indicadores, y ajustar los umbrales si los patrones han cambiado.

Las actividades anuales implican reconstrucciones integrales del modelo y evaluar si actualizar a enfoques más sofisticados.

Los patrones de Churn cambian con el tiempo a medida que su producto evoluciona, su base de clientes madura y las condiciones del mercado cambian. Su modelo debe evolucionar con ellos.

Operacionalizar las Predicciones: Del Score a la Acción

Los modelos solo crean valor cuando realmente impulsan las intervenciones. Así es como convertir las predicciones en cuentas salvadas.

La integración con los flujos de trabajo integra las predicciones en las operaciones diarias donde la gente trabaja:

La integración con el CRM pone un campo de health score visible en cada registro de cliente. Las alertas de riesgo activan flujos de trabajo automatizados. El nivel de riesgo determina la asignación del CSM y la prioridad automáticamente.

La visibilidad en el Dashboard da a los CSMs Dashboards que muestran cuentas en riesgo ordenadas por ARR. Los informes de riesgo semanales van al liderazgo de CS. Los indicadores de tendencia de riesgo muestran cuentas moviéndose de verde a amarillo a rojo para que pueda detectar situaciones que se deterioran con anticipación.

La generación de alertas notifica a las personas correctas en el momento correcto:

Las alertas escalonadas podrían incluir notificación inmediata al CSM más escalación al gerente para cuentas de alto riesgo y alto valor (más de $50K de ARR). Las cuentas de alto riesgo y valor medio ($10K-$50K) van en resúmenes diarios del CSM. Las cuentas de riesgo medio reciben listas de revisión semanal. Las cuentas de bajo riesgo con señales emergentes reciben monitoreo mensual.

La fatiga de alertas es real. Envíe demasiadas alertas y los CSMs las ignorarán todas. Segmente por prioridad para que las alertas críticas realmente reciban atención.

Los Dashboards de los CSMs proporcionan vistas accionables que hacen que la priorización sea trivial:

Un buen Dashboard de "Mis cuentas en riesgo" muestra cuentas ordenadas por ARR (mayor valor primero), score de riesgo y tendencia (mejorando vs deteriorándose), factores clave que impulsan el riesgo (uso caído, problemas de soporte, renovación próxima), fecha del último punto de contacto, y próxima acción sugerida.

Esto hace que sea muy sencillo para los CSMs priorizar su día: empiece con las cuentas de mayor valor y mayor riesgo donde puede tener el mayor impacto.

El desencadenamiento de intervenciones automatiza respuestas apropiadas:

Los Playbooks automatizados podrían incluir: la cuenta de riesgo medio recibe un correo electrónico con mejores prácticas y consejos de uso, la cuenta de alto riesgo activa una llamada de contacto programada del CSM, la salida del campeón detectada lanza una campaña de construcción de relaciones multihilo, la caída en el uso detectada activa una secuencia de re-onboarding.

La automatización garantiza una respuesta consistente incluso cuando los CSMs están completamente desbordados o alguien está de vacaciones.

El seguimiento de resultados mide si las intervenciones realmente funcionan:

Para cada cuenta en riesgo, haga seguimiento del score de riesgo cuando se marcó inicialmente, las intervenciones intentadas, la respuesta del cliente a las intervenciones, el resultado final (retenido, abandonó, o incluso expandió), y los días desde la alerta hasta la resolución.

Estos datos se retroalimentan en la mejora del modelo. Si los clientes marcados por "bajo compromiso" responden consistentemente bien a las invitaciones a webinars, ha aprendido una táctica de intervención efectiva.

El refinamiento del modelo basado en resultados reales hace preguntas críticas:

¿Qué factores de riesgo respondieron a la intervención? ¿Qué factores eran básicamente inevitables? ¿Cuál es el tiempo de anticipación óptimo (demasiado pronto significa falsos positivos, demasiado tarde significa que no puede salvarlos)? ¿Diferentes segmentos de clientes necesitan modelos completamente diferentes?

Zendesk descubrió que los clientes SMB necesitaban 90 días de anticipación pero los clientes enterprise solo necesitaban 45. Construyeron modelos específicos por segmento con diferentes umbrales, mejorando la precisión general en un 15% en comparación con el enfoque de talla única.


¿Listo para construir una predicción de Churn que impulse la retención? Aprenda a implementar sistemas de monitoreo de salud del cliente, construir sistemas de alerta temprana, desarrollar estrategias de rescate para cuentas en riesgo, y establecer procesos de análisis de Churn que mejoren continuamente sus modelos.

Recursos relacionados: