L’arbres de décision est un des schémas qui tentent d’afficher la gamme des résultats possibles et les décisions ultérieures faites après une première décision. Par exemple, votre décision initiale pourrait être de savoir si d’aller au collège, et l’arbre de décision pourrait tenter de montrer combien de temps serait consacré à faire différentes activités et votre pouvoir d’achat en fonction de votre décision. Il y a plusieurs avantages notables et des inconvénients à l’aide d’arbres de décision. La popularité des arbres de décision se justifie par les raisons suivantes :
- Ils sont faciles à comprendre.
- Ils peuvent être utiles avec ou sans données concrètes, et les données quelles qu’elles soient nécessitent une préparation minimale.
- De nouvelles options peuvent être ajoutées aux arbres existants.
- Ils permettent de sélectionner l’option la plus appropriée parmi plusieurs.
- Il est facile de les associer à d’autres outils de prise de décision.
L’arbres de décision peut toutefois devenir extrêmement complexes. Dans ce cas, un diagramme d’influence, plus compact, peut représenter une bonne alternative. Les diagrammes d’influence se focalisent sur les décisions, données et objectifs critiques.
L’arbres de décision est instables et a tendance à overfiter. Être instable signifie qu’il suffit parfois d’ajouter ou de supprimer quelques exemples d’apprentissage, ou de modifier légèrement leurs propriétés, pour changer radicalement la structure de l’arbre. C’est embêtant lorsqu’on se base sur cette structure pour comprendre les relations entre les données. Par exemple, dans le cadre d’une analyse de causes primaires.
L’overfitting signifie qu’un arbre de décision a un peu trop tendance à tirer une généralité d’un cas particulier, d’un bruit ou d’une anomalie. De sorte que le modèle a du mal a correctement prédire de nouvelles valeurs après son apprentissage. Pour atténuer ce défaut, on peut utiliser des ensembles d’arbres, comme des forêts aléatoires.