Kortom, je kunt geen back-propagation doen als je geen objectieve functie hebt. U kunt geen objectieve functie hebben als u geen maat hebt tussen een voorspelde waarde en een gelabelde (werkelijke of trainingsgegevens) waarde. Dus om "zonder toezicht leren" te bereiken, heb je misschien de mogelijkheid om een gradiënt te berekenen achterwege gelaten.
Wat zijn de beperkingen van terugvermeerdering?
Nadelen van Back Propagation Algorithm:
Het is afhankelijk van input om een specifiek probleem uit te voeren. Gevoelig voor complexe/lawaaierige data. Het heeft de afgeleiden van activeringsfuncties nodig voor de netwerkontwerptijd.
Hoe repareer je terugvermeerdering?
Terugpropagatieproces in diep neuraal netwerk
- Invoer waarden. X1=0,05. …
- Aanvankelijk gewicht. W1=0,15 w5=0,40. …
- Bias-waarden. b1=0,35 b2=0,60.
- Doelwaarden. T1=0,01. …
- Forward Pass. Om de waarde van H1 te vinden, vermenigvuldigen we eerst de invoerwaarde van de gewichten als. …
- Achterwaartse pas bij de uitvoerlaag. …
- Achterwaartse pas bij verborgen laag.
Is terugvermeerdering efficiënt?
Terugpropagatie is efficiënt, waardoor het mogelijk is om meerlaagse netwerken met veel neuronen te trainen, terwijl de gewichten worden bijgewerkt om verlies te minimaliseren.
Welk probleem lost backpropagation op bij het werken met neurale netwerken?
Bij het aanpassen van een neuraal netwerk berekent backpropagation de gradiënt vande verliesfunctie met betrekking tot de gewichten van het netwerk voor een enkel invoer-uitvoervoorbeeld, en doet dit efficiënt, in tegenstelling tot een naïeve directe berekening van de gradiënt met betrekking tot elk afzonderlijk gewicht.