Professional Documents
Culture Documents
Exemple
21 mars 2007
! Lecture d’un arbre ?
! Construction de l’arbre ?
! Régularisation/sur-apprentissage ?
Plan Plan
Conclusion Conclusion
Contexte Vocabulaire
Définitions
Utilisation
nœuds chaque nœud correspond à une question sur un
! Classification supervisée (pattern recognition) attribut et à un ensemble d’exemples
! S = {(x1 , y1 ), . . . , (x! , y! )} ensemble d’apprentissage branches chaque branche part d’un nœud et correspond à
! xi ∈ X , yi ∈ Y une réponse possible à la question posée en ce
! Utilisation nœud
! apprentissage (plutôt) rapide ! CART [Breiman et al., 1984] : 2 branches par
! interprétabilité du modèle
nœud
! possible bruit sur les données
! ID3 [Quinlan, 1986], C4.5 [Quinlan, 1993] :
! Exemples dans ce cours
autant de branches que de valeurs possibles
! X espace de vecteurs d’attributs discrets
pour l’attribut étudié
! classification binaire
feuilles nœuds d’où ne part aucune branche ; correspond
à une classe
Question
Algorithme (Description Haut-niveau)
Comment choisr à chaque étape de la construction la meilleure
méthode construit_arbre(S) question (i.e. le meilleur attribut) à poser ?
! si tous les exemples de S sont de la même classe ou bien
il n’existe plus de question possible alors n instances
! créer une feuille de la classe majoritaire de ce nœud
Attribut Ai
! sinon
! choisir la meilleure question pour créer un nœud : S est Ai = a1 Ai = a2 Ai = am
partitionné en S1 , . . . , Sm (e.g. m est le nombre de
modalités que peut prendre l’attribut sur lequel porte la n1 instances n2 instances nm instances
question) n+
1 de classe + n+
2 de classe + n+
m de classe +
! pour i allant de 1 à m faire n−
1 de classe − n−
2 de classe − n−
m de classe −
construit_arbre(Si ) Attribut Aj ? Attribut Ak ? Attribut Al ?
(1 − p⊕ ) log2 (1 − p⊕ )
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
p!
Entropie (3/3) Maximisation du gain d’information (1/2)
Index de Gini G
avec nj = nj+ + nj−
Critère utilisable à la place de l’entropie : G = 2p⊕ (1 − p⊕ )
Plan Sur-apprentissage (1/2)
Problème
Critères guidant l’élagage de l’arbre
Tel que présenté, l’algorithme d’induction d’arbre de décision
! Mesure sur un échantillon indépendant de l’erreur de proposé ne permet pas de gérer des attributs numériques
classification : élaguer l’arbre tant que cette mesure ne
croît pas Exercice
! Critère ad hoc type C4.5 de Quinlan Proposer une méthode introduisant des seuils permettant de
classifier des instances contenant des attributs numériques.
Plan Résumé
A retenir
Induction d’arbres de décision ! Interprétabilité du modèle par arbre de décision
Contexte ! Méthode d’apprentissage TDIDT
Représentation par arbre de décision ! entropie (Shannon)
Algorithme d’apprentissage ! élagage
Choix d’un attribut
Exemple
Non couvert
Problématiques connexes ! arbres de régression
Sur-apprentissage ! apprentissage incrémental
Valeurs continues
! forêt d’arbres
! ...
Conclusion