A zsákolásban az egyes fák függetlenek egymástól, mert a jellemzők és minták különböző részhalmazait veszik figyelembe.
Mi a zsákolás a döntési fán?
Bagging (Bootstrap Aggregation) akkor használatos, amikor a célunk egy döntési fa varianciájának csökkentése. Az ötlet az, hogy több adatrészhalmazt hozzunk létre véletlenszerűen kiválasztott betanítási mintából, cserével. … A különböző fákból származó összes előrejelzés átlagát használjuk, ami robusztusabb, mint egyetlen döntési fa.
Miért hoz létre a zsákolás korrelált fákat?
Minden zsákos fánk hajlamos ugyanazokat a vágásokat végrehajtani, mert mindegyiknek ugyanazok a tulajdonságai. Emiatt ezek a fák nagyon hasonlónak tűnnek, ami növeli a korrelációt. A fa korreláció megoldásához megengedjük, hogy a véletlenszerű erdő véletlenszerűen csak m előrejelzőt válasszon a felosztás során.
Mi az a véletlenszerű erdő zsákolása?
A zsákolás egy olyan ensemble algoritmus, amely több modellhez illeszkedik egy betanítási adatkészlet különböző részhalmazaihoz, majd egyesíti az összes modell előrejelzéseit. A véletlenszerű erdő a zsákolás kiterjesztése, amely véletlenszerűen választja ki az egyes adatmintákban használt jellemzők részhalmazait.
Hogyan működik a zsákolás véletlenszerű erdőben?
A véletlenszerű erdő algoritmus valójában egy zacskózási algoritmus: itt is véletlenszerű bootstrap mintákat veszünk az edzéskészletedből. A bootstrap mintákon kívül azonban mi israjzolja meg a jellemzők véletlenszerű részhalmazait az egyes fák betanításához; zsákolásnál minden fát a funkciók teljes készletével biztosítunk.