Jag tog upp en bok om statistik med sannolikhet. Intressant bok. Halva boken handlade om sannolikhetslära och resten av boken handlade om regressionsanalys.
Det fanns massvis med olika regressionsanalyser bereoende om problemet var linjärt, olinjärt, logaritmiskt osv.
Men boken är skriven innan 2012, och 2012 var det år man först kunde tillämpa djupa neurala nätverk.
Neurala nätverk är inget annat än linjär algebra, fast olinjär. Det är samma Ax = b system som man löser, fast istället är det en aktivitetsfunktion σ(Ax) = b där σ är en olinjär funktion.
Djupa neurala nätverk så är det så här:
Citat:
σ(A0*x) = b0
σ(A1*b0) = b1
σ(A2*b1) = b2
σ(A3*b2) = b3
σ(A4*b3) = b4
....
....
....
σ(An*b(n-1)) = y
Där varje σ är sin unika aktivetsfunktion. Då är min fråga: Borde inte djupa neurala nätverk vara bättre på alla olika sätt jämfört med vanliga regressionsanalyser?