Otsustusmets

Allikas: Vikipeedia
Jump to navigation Jump to search

Otsustusmetsa (ingl random forest) algoritm kuulub ansambelõppe meetodite hulka. Ansambelmeetodi mõte on kasutada koos paljusid "nõrku õppijaid" (siinkohal otsustuspuu), et moodustada nendest üks "tugev õppija". Nagu ka teised masinõppe meetodid, kasutab otsustusmets õppimiseks ja väärtuste ennustamiseks treeningandmeid.[1]

Klassifikatsiooni algoritmide täpsus suurenes, kui esmakordselt loodi eri puudest koosnev ansambel, sellise algoritmi väljundiks on puude poolt kõige enam ennustatud klass. Selliste ansamblite kasvatamiseks kasutatakse tavaliselt juhuslikke vektoreid, mis juhivad iga puu kasvu ansamblis.[2]

Varajane näide sellisest algoritmist on bagging-algoritm, mille koostas Breiman aastal 1996. Bagging-meetodi puhul kasutatakse puu kasvatamiseks juhuslikku hulka treeningandmete hulgast.[2]

Ajalugu[muuda | muuda lähteteksti]

Aastal 1995 pakkus Tin Kam Ho välja meetodi, mis eemaldaks otsustuspuude klassifitseerija keerukuse limitatsiooni.[3] Sellised klassifitseerijad ei saa meelevaldselt keerukuses kasvada nii, et klassifitseerija ei kaotaks oma üldistamisoskust veel nägemata andmetel. Ho pakutud meetod kasutab kaldus otsustuspuid (ingl oblique decision tree), mis on head treenimisandmete täpsuse optimeerimiseks. Põhiline idee on koostada palju otsustuspuid juhuslikult valitud tunnuste alamruumides.[1]

Algoritm[muuda | muuda lähteteksti]

Otsustusmetsa algoritmil on kaks staadiumi. Üks on otsustusmetsa loomine ja teine on loodud otsustusmetsa põhjal ennustuste tegemine.

Otsustusmetsa loomise pseudokood:

  1. Vali juhuslikult tunnust kõikide m tunnuste hulgast, kus .
  2. k tunnuste seas arvuta puu tipp , kasutades parimat lahknemispunkti.
  3. Jaota tipp tütartippudeks, kasutades parimat lahknemispunkti.
  4. Korda 1.–3. sammu, kuni otsustuspuus on loodud arv tippe.
  5. Koosta mets, korrates 1.–4. sammu korda, et koostada mets, mis koosneb n otsustuspuust.[4]

Omadused[muuda | muuda lähteteksti]

Muutujate tähtsus[muuda | muuda lähteteksti]

Otsustusmetsa saab kasutada selleks, et hinnata erinevate muutujate tähtsust klassifikatsiooni- või regressiooniprobleemis. Tähtsamad muutujad mõjutavad väljastatavaid väärtuseid rohkem. Seevastu vähetähtsad tunnused avaldavad mudeli ennustustele väiksemat mõju ja seega võib need tunnused otsustusmetsa mudelist välja jätta, tehes nii mudeli lihtsamaks ja kiiremaks.

Muutujate tähtsuse hindamiseks on kaks mõõdet. Esimene mõõde põhineb sellel, kui palju väheneb täpsus, kui tunnus mudelist välja jäetakse. Teine mõõde põhineb sellel, kui palju väheneb andmete ebapuhtus Gini indeksiga, kui muutujat kasutatakse puutipu lahknemiseks.[5]

Otsustusmetsa eelised ja puudused[muuda | muuda lähteteksti]

Otsustusmetsa eelised:

  • kasutatav nii regressiooni kui ka klassifikatsiooniprobleemide korral;
  • oskab eristada tähtsamad tunnused vähetähtsatest;
  • ülesobitamise oht on minimaalne;
  • anomaaliad andmetes ei mõjuta algoritmi väljundit;
  • algoritm oskab hästi ennustada puuduvaid andmeid.

Otsustusmetsa puudused:

  • algoritm võib muutuda aeglaseks, kui puude arv metsas on väga suur, ja pole seetõttu päriselu probleemide lahendamisel kõige efektiivsem;
  • ei oska ennustada andmetevahelisi sidemeid;
  • otsustusmets pole väga hea regressiooniülesande puhul.[6]

Viited[muuda | muuda lähteteksti]

  1. 1,0 1,1 Tin Kam Ho. "The Random Subspace Method for Constructing Decision Forests". (Introduction). IEEE Transactions on Pattern Analysis and Machine Intelligence. 20 (8): 832–844, 1998. Kasutatud 06.12.2018.
  2. 2,0 2,1 Leo Breiman. "Random Forests". (Introduction). Machine Learning, 2001. Kasutatud 06.12.2018.
  3. Tin Kam Ho. "Random Decision Forests". (Introduction). 1995. Kasutatud 06.12.2018.
  4. Shixin Gu. "How Random Forest Algorithm Works in Machine Learning". 24.10.2017. Kasutatud 13.11.2018.
  5. Jake Hoare. "How is Variable Importance Calculated for a Random Forest?". Kasutatud 06.12.2018.
  6. Tristan Luminous (2017). Machine Learning For Beginners Guide Algorithms: Supervised & Unsupervised Learning Decision Tree & Random Forest Introduction. Lk 51–52.