Árboles de decisión: la forma más eficiente de hacer predicciones

¿Por qué un árbol de decisión?

Ya sabemos que en ocasiones es muy difícil evaluar de forma eficaz los posibles resultados y consecuencias de las decisiones que tomamos dentro de una empresa. Por este motivo, es indispensable tener las mejores herramientas para poder valorar todos los escenarios posibles sin perder detalle y poder tomar la mejor decisión sin asumir grandes riesgos.

Los árboles de decisión son una de las herramientas más populares que nos ayudan a visualizar los posibles resultados de una serie de decisiones que están relacionadas entre sí. Funcionan con algoritmos estadísticos o técnicas de machine learning que nos permiten construir modelos predictivos y nos ayudan a evaluar la información de forma gráfica. Su nombre es debido a la estructura que tiene parecido con las ramas de un árbol.

Puedes usar un diagrama de árbol para tomar decisiones en muchas áreas, incluidas operaciones, planificación presupuestaria y gestión de proyectos. Siempre que sea posible, lo mejor es incluir datos cuantitativos y números para poder crear un árbol eficaz. Cuanto mayor número de datos dispongas, más sencillo te resultará calcular los valores esperados y analizar las soluciones en función de los números.

La estructura es la siguiente:

  • Los nodos de decisión representan cada una de las características o propiedades a considerar para tomar una decisión.
  • Los nodos de oportunidad retratan varios resultados posibles.
  • Las ramas muestran la decisión en función de una determinada condición.
  • Los nodos finales son el resultado de la decisión.

El funcionamiento detrás de este método se basa en dividir las observaciones del dataset en subconjuntos en función de los atributos. Este proceso se repite en cada subconjunto, lo que se llama partición recursiva y, en el ejemplo propuesto, se realiza mediante el índice de Gini, que evalúa una puntuación entre 0 y 1, donde en 0 todas las observaciones pertenecen a una clase y 1 es una distribución aleatoria de los elementos dentro de las clases. La recursividad se completa cuando el subconjunto en un nodo tiene el mismo valor de la variable de destino, o cuando la división ya no agrega valor a las predicciones.

En el siguiente ejemplo, se quiere saber las probabilidades de ser comprador o no en base a una serie de atributos extraídos de un dataset proporcionado por uno de nuestros clientes. Para ello, se va a utilizar el objeto visual Decision Tree, de Microsoft, que esta a su vez basado en la librería rpart de R.

 

El primer nodo asigna una probabilidad equilibrada al 100% de la muestra y realiza la primera partición al distinguir entre clientes con 4 hijos o más y aquéllos con menos: en el primer caso, la probabilidad de no ser comprador aumenta hasta el 68%, lo que supone el 28% de la muestra total y además cierra ese nodo; en el segundo caso, la probabilidad de ser comprador aumenta hasta el 57%. Se realiza entonces otra división entre los clientes con 67 años o más y aquellos con menos. El razonamiento es idéntico hasta llegar al último nivel del árbol.

Ventajas

Cuando necesitas tomar una decisión compleja y debes evaluar una gran cantidad de datos, los árboles de decisiones pueden ayudarte a visualizar con mayor claridad las posibles consecuencias o beneficios asociados a cada decisión.

  • Es transparente: la mayor ventaja de este método es que ofrece un enfoque centrado en la toma de decisiones. Cuando analices cada decisión y calcules su valor esperado, tendrás una idea más clara de cuál será la decisión más apropiada.
  • Es flexible: si se te ocurre una idea nueva después de haber creado el árbol, puedes agregarla fácilmente al diagrama y abrir un nuevo escenario.
  • Es eficiente: los árboles de decisiones son eficientes ya que puedes crearlos en muy poco tiempo y con pocos recursos. Con otras herramientas de toma de decisiones, como las encuestas, las pruebas de usuarios o los prototipos, puedes tardar meses y tener que invertir mucho dinero para lograr un resultado. Un árbol de decisiones es una forma sencilla y eficiente de tomar una decisión fiable.

Como se puede comprobar, los árboles de decisión son muy interpretables y proporcionan un indicador claro de qué variables son significativas para clasificar el dataset. Recuerda que analizar las ventajas y desventajas antes de tomar una decisión te podrá llevar a dominar sus impulsos, identificar oportunidades y obtener el máximo provecho de aquellas situaciones que se te presenten día a día.

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

He leído y acepto el Aviso legal y la política de privacidad.
Este formulario recopila tu nombre, correo electrónico y e contenido para que podamos realizar un seguimiento de los comentarios dejados en la web. Para más información revisa nuestra política de privacidad, donde encontrarás más información sobre dónde, cómo y por qué almacenamos tus datos.