Gyakorlati szempontból az L1 az együtthatókat nullára, míg az L2 egyenletesen zsugorítja az együtthatókat. Az L1 ezért hasznos a jellemzők kiválasztásához, mivel minden olyan változót eldobhatunk, amely az együtthatókhoz kapcsolódik, amelyek nullára mennek. Az L2 viszont akkor hasznos, ha kollineáris/kodependens jellemzői vannak.
Mire használható a regularizáció Mi az L1 és L2 regularizáció?
Az
L1 regularizáció 0-tól 1-ig terjedő bináris súlyozásban adja meg a kimenetet a modell jellemzőihez, és egy hatalmas dimenziós adatkészlet jellemzőinek számának csökkentésére alkalmazzák. Az L2 szabályosítás szétszórja a hibatagokat az összes súlyozásban, ami pontosabb, testreszabott végső modellekhez vezet.
Mi a különbség az L1 és L2 regularizáció között?
A fő intuitív különbség az L1 és L2 regularizáció között az, hogy L1 regularizáció az adatok mediánját, míg az L2 regularizáció az adatok átlagát próbálja megbecsülni a túlillesztés elkerülése érdekében. … Ez az érték matematikailag az adateloszlás mediánja is lesz.
Mi az L1 és L2 legalizálás a mélytanulásban?
Az
L2 regularizációt súlycsökkentésnek is nevezik, mivel arra kényszeríti a súlyokat, hogy a nulla felé csökkenjenek (de nem pontosan nulla). L1-ben van: Ebben büntetjük a súlyok abszolút értékét. Az L2-vel ellentétben itt a súlyok nullára csökkenthetők. Ezért nagyon hasznos, ha tömöríteni próbálunka modellünk.
Hogyan működik az L1 és L2 szabályosítás?
A regressziós modellt, amely az L1-es regularizációs technikát használja, Lasso-regressziónak, az L2-t használó modellt Ridge-regressziónak nevezik. A legfontosabb különbség a kettő között a büntetés időtartama. A Ridge regresszió az együttható „négyzetes magnitúdóját” büntetésként adja a veszteségfüggvényhez.