Arbres de décision

Transcription

Arbres de décision
Arbres de décision
Arbres de décision n 
Exemple:
¨ 
¨ 
¨ 
n 
Arbre de décision
Classification de la
grandeur d’une personne
T= grand, t=moyen à grand,
M= moyen, m= petit à
grand, S= petit
But: prédire la grandeur
d’une personne à partir
d’une série de questions.
CART: Classification &
Regression Trees
2
3
1
Exemple: Arbre de décision
Instance
Arbre de décision
n 
a)ribut
Jour
Ciel
Température
Humidité
Vent
Jouer
J1
Soleil
Chaud
Élevé
Faible
Non
J2
Soleil
Chaud
Élevé
Fort
Non
J3
Couvert
Chaud
Élevé
Faible
Oui
J4
Pluie
Moyen
Élevé
Faible
Oui
J5
Pluie
Frais
Normal
Faible
Oui
J6
Pluie
Frais
Normal
Fort
Non
J7
Couvert
Frais
Normal
Fort
Oui
J8
Soleil
Moyen
Élevé
Faible
Non
J9
Soleil
Frais
Normal
Faible
Oui
J10
Pluie
Moyen
Normal
Faible
Oui
J11
Soleil
Moyen
Normal
Fort
Oui
J12
Couvert
Moyen
Élevé
Fort
Oui
J13
Couvert
Chaud
Normal
Faible
Oui
J14
Pluie
Moyen
Élevé
Fort
Non
Arbre de décision
Exemple : Est-ce que les conditions sont favorables pour
jouer au tennis?
n 
Un arbre de décision est représenté par une
séquence de conditions.
n 
JouerTennis =
Ciel
Ensoleillé
Pluie
Couvert
Humidité
Élevée
Non
4
Basse
Oui
Vent
Oui
Fort
Non
Faible
(Ciel = ensoleillé et Humidité = normal)
ou
(Ciel = couvert)
ou
(Ciel = pluie et Vent = faible)
Oui
Classifier l’instance suivante:
<Ciel = Ensoleillé,Température = chaud, Humidité = élevé,Vent = fort>
5
6
2
Arbre de décision: Apprentissage
n 
Première possibilité: produire un chemin pour chaque
donnée d’entraînement
n 
A2
A3
Sortie
+
+
+
1
+
-
+
0
+
-
-
0
Principe:
¨ 
A1
A1
¨ 
¨ 
¨ 
A1
¨ 
A1
0
¨ 
A1
0
Comment choisir le meilleur
discriminant?
Arbre de décision: Apprentissage
[39+, 31-­‐‑]
Étant donné un ensemble d’instances I
Trouver l’attribut qui est le meilleur discriminant sur
l’ensemble d’entraînement.
Cet attribut sera utilisé comme test pour le nœud.
Un nœud enfant est créé pour chacune des valeurs possibles
de l’attribut.
Les exemples d’entraînement sont ensuite assignés à leurs
nœuds correspondants
On reprend le processus pour chacun des nœuds.
[39+, 31-­‐‑]
Genre
[20+, 15-­‐‑]
[19+, 16-­‐‑]
Fumeur
[39+, 0-­‐‑]
[0+, 31-­‐‑]
Lequel des deux attributs devrions nous choisir?
1
7
8
9
3
Algorithme d’entraînement
Arbre de décision: Entropie
Exemple: Arbre de décision
ID3( Exemples, AttributCible, Attributs )
Créer un nouveau nœud
n 
n 
Quel attribut est le meilleur discriminant?
Calcul de l’entropie:
n 
Gain(S,Ciel) = 0.246
Gain(S,Humidité) = 0.151
Gain(S,Vent) = 0.048
Gain(S,Température) = 0.029
Sinon
A <- l’attribut classifie le mieux l’ensemble d’entraînement
Calcul du gain d’information
question[noeud]
∑
v∈Valeurs ( A )
n 
n 
Si attribut est vide, le nœud prend la valeur la plus commune des exemples
i =1
Gain( S , A) = Entropie( S ) −
n 
Si tous les exemples sont négatifs, le nœud est une feuille négative
Entropie ( S ) = ∑ − pi log 2 pi
n 
n 
Si tous les exemples sont positifs, le nœud est une feuille positive
c
Sv
S
pour chaque v
Entropie( S v )
Où Valeurs(A) est l’ensemble des valeurs v possibles pour l’attribut
A et Sv = {s ∈S | A(s) = v}
<- A
{J1,J2,…,J14}
∈A Ciel
Ajouter une branche à nœud pour la valeur v
Exemplesv = {e
∈ exemples | A[e] = v}
Ensoleillé
Si Exemplesv est vide
Pluie
Couvert
{J1,J2,J8,J9,J11}
nœud devient une feuille avec la valeur la plus commune de AttributCible dans Exemples.
?
sinon
{J3,J7,J12,J13}
Oui
{J4,J5,J6,J10,J14}
?
ID3(Exemplesv,AttributCible,Attributs – {A}
10
retourner noeud
11
12
4
Exemple: Arbre de décision
n 
n 
n 
Gain(Ssoleil,Humidité) = 0.970
Gain(Ssoleil,Vent) = .019
Gain(Ssoleil,Température) = 0.570
{J1,J2,…,J14}
{J1,J2,…,J14}
Ciel
Ciel
Ensoleillé
Humidité
{J3,J7,J12,J13}
Oui
Pluie
Humidité
?
{J3,J7,J12,J13}
Élevée
Basse
Fort
{J1,J2,J8}
{J9,J11}
{J1,J2,J8}
{J9,J11}
{J6,J14}
Non
13
Oui
Un exemple pratique:
Reconnaissance de la parole: classification des triphones
Vent
Oui
Basse
Oui
n 
{J4,J5,J6,J10,J14}
Élevée
Non
Un autre exemple:
¨ 
Couvert
{J1,J2,J8,J9,J11}
{J4,J5,J6,J10,J14}
n 
Decision Tree Learning Applet
Ensoleillé
Pluie
Couvert
{J1,J2,J8,J9,J11}
Arbre de décision
Exemple: Arbre de décision
Non
Faible
{J4,J5,J10}
Oui
14
15
5
Élagage
n 
n 
n 
n 
Technique d’élagage
Contrôler la complexité du nombre des branches et
des feuilles pour réaliser un arbre de décision.
Minimiser la taille de l’arbre.
Trouver le nombre optimale k0 de nœuds.
Une méthode régularisation ou de sélection des
modèles
n 
Pré-élagage
Deux techniques d’élagage
¨ 
¨ 
n 
Pré-élagage.
Post-élagage.
n 
n 
n 
Arrêter de diviser un nœud quand la pureté des
points qui domine est non parfaite mais suffisante.
Arrêter quand il y a une classe majoritaire dans le
nœud.
Utiliser un seuil pour détecter une classe
dominantes.
Inconvénients:
¨ 
16
17
Arrêter la construction de l’arbre peut donner un arbre
sous optimal.
18
6
Post élagage
n 
n 
n 
n 
Finir la construction de l’arbre.
Simplifier l’arbre en remontant des feuilles vers la
racine pour trouver ou élaguer.
Utiliser des critères de qualité qui mesure un
compromis l’erreur obtenue et la complexité de
l’arbre.
Utiliser un ensemble de validation pour mesurer
l’erreur à chaque neouds.
19
7

Documents pareils