Skip to content

Latest commit

 

History

History
17 lines (12 loc) · 1.49 KB

docs.md

File metadata and controls

17 lines (12 loc) · 1.49 KB

Tips for bedre konfigurere nettet

  1. Ved grunne nett (få lag) er det ofte lurt å velge mellom sigmoid eller eller hyperbolic tangent. Det er viktig å merke seg at sigmoid funksjonen har veldig mye dårlige egenskaper når det kommer til dype nett. Hovedsakelig er de dårlige egenskapene hvor lang tid det tar å beregne og hvordan gradientverdiene blir dårligere over tid. Vektene burde konfigureres etter tabellen under.
function lower upper
Sigmoid 0 1
Hyperbolic tangent -1 1
  1. Ved bruk av dype nett er det lurt å velge RELU (Rectified Linear Unit) eller ELU (Exponential Linear Unit) som aktiveringsfunksjon. RELU og ELU har ikke feilen som Sigmoid har der gradienten blir dårligere og er dermed et brukbart alternativ. Det er veldig vanlig å se en av disse to i dypere nett.

  2. Øvre og nedre grense av verdier (se tabellen under) bestemmer ofte hvordan du ønsker at de forskjellige lagene skal bli brukt. Ved å bruke rangen (0 --> 1) ser vi at vektene i dette laget har en mindre effekt på lagene videre nedover i nettet. For å oppnå akkurat det motsatte, at vektene skal ha stor effekt på det som skjer videre nedover i nettet setter vi rangen til (0 --> 1).

lower upper Effekt
0 1 Liten effekt på nodene videre nedover i nettet
-1 1 Stor effekt på nodene videre nedover i nettet