Citat:
Ursprungligen postat av
Tankebrott
Det finns ingen evolutionär anledning till att det skulle ha utvecklats hjärnmekanismer för att efterkonstruera. Negativ selektion av sådant slöseri med näring hade varit särskilt starkt för djur som var beroende av en grupp och därmed tjänade på att sänka individens förbrukning av näring.
Och om en sådan efterkonstruktionshjärna hade funnits så hade den ändå inte dugit till att utföra vetenskaplig forskning.
Förmågan till introspektion och självreflektion är ett relativt nytillkommet tillägg till hjärnfunktionaliteten som torde ha kommit med primater eller möjligen först med den moderna människan. För att vara evolutionärt möjlig måste en sådan funktion vara både effektivt implementerad och utvecklad i inkrementella steg.
En vanlig dator har inte åtkomst till hur den själv utför sina beräkningar. Skulle den ha det så skulle det krävas en extra transistor för att övervaka varje befintlig transistor, vilket leder till oändlig regress eftersom även transistorerna som övervakar behöver övervakas. Problemet försvinner inte för att naturen använder neuroner istället för transistorer.
För att man alls skall kunna debugga ett program som kör på en dator så rapporterar hårdvaran en minimal mängd information. Debuggern simulerar sedan den egna hårdvaran för att återskapa information som saknas. Eftersom man bara debuggar program i undantagsfall så är det en kostnadseffektiv lösning som kan tillämpas på en befintlig dator med minimalt hårdvarustöd. Inte heller hjärnan har behov av att göra mer än så.
Ta blinda fläcken i ögat som exempel. Hade vi kunnat direktavlyssna vårt syncentrum så hade vi kunnat se den blinda fläcken om vi ansträngde oss. Men det går inte eftersom den färdigtolkade bilden rapporteras vidare utan sådana defekter. Genom att varje del av hjärnan kommunicerar utvald och bearbetad information så minskar mängden information som behöver snurra runt i systemet, men det leder också till att den primära upplevelsen är en illusion. Allt vi vet om oss själva är hörsägen som förvrängs i varje steg.
Citat:
Att språket ibland saknar ord och uttryck för att snabbt uttrycka en tanke betyder inte att hjärnan skulle sakna vetskap om sig själv. Självkunskap behöver inte nödvändigtvis ha ord att uttryckas verbalt. Svenska och engelska har ont om luktord, men Jahai har gott om sådana ord.
Det handlar inte om förmågan att hitta ord utan att den delen av hjärnan som styr munnen helt enkelt inte vet hur man gör när man cyklar. Att kunna cykla är procedurell kunskap som är otillgänglig för introspektion. Att kunna förklara hur man cyklar är deklarativ kunskap som är tillgänglig för introspektion. För att skapa deklarativ kunskap från procedurell kunskap måste vi utföra proceduren (cykla) och memorera hur armarna och benen gör. Det hjälper inte att stänga in sig och meditera.
Här är en översikt över hjärnans minnestyper:
http://www.human-memory.net/types.html
Citat:
Det hade krävts väldigt mycket mer näring för att bygga och driva en dator som simulerade en neural hjärna i en virtuell värld än att helt enkelt bygga och driva en neural hjärna. Att stapla specialiserade mekanismer är ett mycket dyrt sätt att åstadkomma beteenden som bara fungerar under mycket begränsade omständigheter. En väl sammankopplad hjärna av nätverkstyp kan däremot upplösa detaljer på ett flexibelt sätt och på ett relativt sparsamt sätt som evolutionen kan selektera för.
Att datorer eller hjärnor har skiktade arkitekturer innebär inte att de simulerar sina kretsar. Det handlar om att bryta ned komplexiteten genom lager som steg för steg ökar abstraktionsnivån. Datorns transistorer är parvis ihopkopplade till grindar som ger stabil logik. Grindarna är sammankopplade till adressavkodare, minnesceller, ackumulatorer osv. Från andra hållet är datorns program skrivna i högnivåspråk där varje ord översätts till hundratals maskininstruktioner och varje maskinstruktion översätts till hundratals mikroinstruktioner.
Marvin Minsky uppskattade att hjärnan var uppdelad i sju sådana lager. Minsky som för övrigt uppfann de simulerade neurala nätverken som blivit populära på senare tid, förkastade dock tanken på att neurala nätverk skulle kunna lösa några mer komplexa problem då de inte skalar. De kan bara tillhöra ett av de lägre skikten i hjärnans abstraktionslager.
Antag att du reflekterar över att du som barn gick ned till sjön för att fiska och fick några laxar. Det skulle krävas miljoner eller miljarder av dedikerade neuroner för att underhålla ett sådant minne i form av ett neuralt nätverk. Konkreta bilder av en sjö med dess egenskaper skulle kopplas samman med bilder av ditt metspö och fiskarna som nappade. Givet att hjärnan istället tillhandahåller ett generellt ramverk för abstrakta associativa minnen så kan samma minne lagras med en association för varje ord jag använde för att beskriva händelsen i text, dvs. det räcker med en handfull neuroner för att lagra samma sak. Givet att vi varje dag kan fylla på med nya minnen utan att det blir fullt under vår livstid så krävs en kompakt representation.
Citat:
Empiriskt är det dessutom så att mutationen i genen SRGAP2 som skedde när släktet Homo uppstod ökade just antalet kopplingar mellan hjärncellerna. Tror du att evolutionen skulle ha lagt näring på det om det var irrelevant för intelligensen?
Givet att hjärnan ökade både volym och komplexitet så kan det säkert vara effektivare med större fan-out än vad som var optimalt tidigare. Men det betyder inte att det är en förutsättning för medvetande eller intelligens. En större och långsammare hjärna hade kunnat vara lika intelligent med lite sämre parametrar. För en abstrakt associativ minnesmodell som exempel så spelar det ingen roll hur bottenskiktet är implementerat. Det skulle kunna vara neuroner med få eller många kopplingar eller transistorer för den delen.