Citat:
Ursprungligen postat av
Perfecthairline
Det för gärna vara på övergripande nivå, vill få en grundläggande förståelse.
Okej, jag tänkte mest på programmeringsbakgrund eller så.
Men om du vill ha en snabb överblick av den absoluta grunden (har länkat till denna tidigare)
Medans det inte är en bok, så är detta väldigt bra illustrerat och förklarande. Samtlig deep learning/machine learning bygger på variationer av detta - just detta är det mest grundläggande FNN; men det skiljer inte enormt mot tex CNN annat än CNNs har diskreta lager som gör just feature extraction (dvs konvoluterande lager som inte har med artificiella neuroner att göra i sig) som är vad han ”hoppas” detta gör också.
Sen är nästa variant RNN som är lika fast har feedback från output till input.
Så jag tror detta ger dig en bättre förståelse oavsett bakgrund (utom möjligen grundläggande algebra)
https://youtu.be/aircAruvnKk?si=OAzYy7dTy8gHrmM1
Men kanske också bör tillägga hur trivialt detta än verkar är det den enda delen i transformer arkitekturen (som GPT, BeRT osv bygger på) som är ett neuralt nätverk (alltså transformers använder FNNs som är vad video serien länkad ovan går igenom) det som skiljer är att de har lite extra förmassering av ingående data via selfattention mekanismen (det är lite det pappret ”attention is all you need” bygger på; en metod att koda positioner för viktiga/relevanta ord och sedan skicka in detta i FNNet som utför själva transformen)