Construcción de un árbol de decisión

Autor: | Última modificación: 10 de abril de 2024 | Tiempo de Lectura: 3 minutos
Temas en este post: ,

Algunos de nuestros reconocimientos:

Premios KeepCoding

El árbol de decisión es una de las herramientas más poderosas para clasificación y modelos predictivos y nos puede ayudar a tomar decisiones complejas en un modelo determinado.

Los árboles de decisión son estructuras que, a pesar de ser fáciles de entender, pueden tener muchos nodos de decisión que aumentan su complejidad en determinados puntos. Por eso, en este artículo, te explicaremos detalladamente la construcción de un árbol de decisión o decision tree.

Árbol de decisión: ¿cómo empezar?

Para construir un árbol de decisión damos inicio con los siguientes pasos:

  • Empezamos con el árbol de decisión vacío.
  • Seleccionamos la característica sobre la que particionar el espacio (splitting).
    • Regresión: minimizar error cuadrático medio (MSE).
    • Clasificación:
      • Mínimo error de clasificación.
      • Mínima impureza.
      • Máxima entropía.
  • Para cada región resultante repetimos el proceso (recursive splitting), hasta que se cumpla un criterio de parada:
    • Todas las muestras con única variable target (y).
    • Complejidad:
      • Profundidad.
      • Número de muestras en hoja.
      • Mejora en el criterio de splitting.

Métricas de clasificación

Tratamos con un problema de clasificación con K categorías. En el nodo m se define pkm como la proporción de observaciones de entrenamiento en dicho nodo para la clase k.

  • Error de clasificación: E (Xm) = 1 — max {pkm }
  • Índice Gini: G (Xm) = ∑ pkm (1 — pkm) = 1 — ∑ (pkm)2
  • Entropía: D (Xm) = — ∑ pkm (log (pkm))

Donde Xm son los datos de entrenamiento en en nodo m.

Un ejemplo sencillo de árbol de decisión

Veamos un ejemplo simple donde podemos aplicar un árbol de decisión:

LabelVar1Var2
A033
A054
A056
A042
A150
B155
B131
B0-4
B177
B049

¿Por qué variable particionamos el árbol?

Tenemos dos hipótesis:

  • Var1 == 1
  • Var2 >= 32
Árbol de decisión

Veamos el primer caso, la variable1 (Var1). Tenemos que Var1 puede ser igual a cero o a uno (variable binaria). Entonces:

  • Var1 = 0
    • Tenemos una división de la variable target: tenemos 6 muestras de 10 (6/10), de las cuales 4 son A y 2 son B. Así, concluiríamos que el voto mayoritario es por A.

Ahora veamos cuál es el error de G para el lado izquierdo (Var1 = 0) es:

GLEFT = 1 – [(4 / 6)2 + (2 / 6)2] = 0.444

ELEFT = 1 – max {4 / 6, 2 / 6} = 2 / 6 = 1 / 3

  • Var1 = 1
    • Tenemos, al igual que en el caso anterior, una división de la variable target: tenemos 4 muestras de 10 (4/10), de las cuales 1 es A y 3 son B. De modo que el voto mayoritario sería por B.

El error de G para el lado derecho (Var1 = 1)

GRIGHT = 1 – [(1 / 4)2 + (3 / 4)2] = 0.375

ERIGHT = 1 – max {1 / 4, 3 / 4} = 1 / 4

Ahora veamos cuál es el error total:

GTOTAL = 6 / 10 * 0.44 + 4 / 10 * 0.375 = 0.41667

ETOTAL = 6 / 10 * 1 / 3 + 4 / 10 * 1 / 4 = 3 / 10 = 0.3

El árbol de decisión habría terminado aquí y el error de G habría sido 0.41667, mientras que el error de clasificación habría sido 0.3.

Ahora podemos hacer lo mismo con el segundo caso, la variable 2 (Var2). Al igual que Var1, esta variable también es binaria, así que se procede del mismo modo y el resultado es:

Construcción de un árbol de decisión

GLEFT = 1 – [(0 / 2)2 + (2 / 2)2] = 0

ELEFT = 1 – max {0 / 2, 2 / 2} = 0

GRIGHT = 1 – [(5 / 5)2 + (3 / 8)2] = 0.469

ERIGHT = 1 – max {5 / 8, 3 / 8} = 3 / 8

GTOTAL = 2 / 10 * 0 + 8 / 10 * 0.469 = 0.375

ETOTAL = 2 / 10 * 0 + 8 / 10 * 3 / 8 = 3 / 10 = 0.3

Si lo comparamos con la variable anterior y de estar usando G, la Var2 sería la mejor, porque el error de G en esta variable es menor.

Así, concluiríamos que, de las dos hipótesis planteadas en el inicio:

  • Var1 == 1
  • Var2 >= 32

De este modo continuaríamos construyendo el árbol de decisión hasta cumplir el criterio de parada.

¿Qué sigue?

Ahora que hemos visto cómo funciona un árbol de decisión, podemos dar paso a aprender otros conceptos, como el random forest o los boosted trees. Si quieres seguir formándote en estas temáticas que pertenecen a un área que está siendo top en este momento en el mercado laboral, tenemos para ti el Big Data, Inteligencia Artificial & Machine Learning Full Stack Bootcamp, en el cual aprenderás todo lo necesario para incursionar en el interesante mundo IT. ¡No esperes más y solicita información ahora!

Posts Relacionados

¡CONVOCATORIA ABIERTA!

Inteligencia Artificial

Full Stack Bootcamp

Clases en Directo | Profesores en Activo | Temario 100% actualizado