Röviden: nem tudsz visszaszaporítani, ha nincs célfüggvényed. Nem lehet célfüggvénye, ha nincs mérőszáma egy előre jelzett érték és egy címkézett (tényleges vagy képzési adat) érték között. Tehát a „felügyelet nélküli tanulás” eléréséhez el kell hagynia a gradiens kiszámításának képességét.
Milyen korlátai vannak a visszaszaporításnak?
A visszaterjedési algoritmus hátrányai:
A bemenetre támaszkodik egy adott probléma megoldásához. Érzékeny az összetett/zajos adatokra. Szüksége van az aktiválási függvények származékaira a hálózat tervezési idejéhez.
Hogyan oldja meg a visszaterjedést?
Visszaterjesztési folyamat a mély neurális hálózatban
- Beviteli értékek. X1=0,05. …
- Kiinduló súly. W1=0,15 w5=0,40. …
- Bias Values. b1=0,35 b2=0,60.
- Célértékek. T1=0,01. …
- Forward Pass. A H1 értékének meghatározásához először megszorozzuk a bemeneti értéket a súlyokból as. …
- Visszalépés a kimeneti rétegen. …
- Visszalépés a Rejtett rétegnél.
Hatékony a visszaterjesztés?
Backpropagation hatékony, lehetővé téve a sok neuront tartalmazó többrétegű hálózatok betanítását, miközben a veszteség minimalizálása érdekében frissítik a súlyokat.
Milyen problémát old meg a visszaterjesztés, ha neurális hálózatokkal dolgozik?
A neurális hálózat illesztése során a visszaterjesztés kiszámítja a gradienséta veszteségfüggvény a hálózat súlyaira vonatkoztatva egyetlen bemenet-kimenet példánál, és ezt hatékonyan teszi, ellentétben a gradiens naiv közvetlen kiszámításával minden egyes súlyhoz külön-külön.