Vinnaren i pepparkakshustävlingen!
2011-09-15, 02:04
  #1
Avstängd
Jag har en tankeram i ett sidospår inom AI. Behöver ett bollplank åt mina tankar, samtidigt som jag delar med mig av en kanske intressant idé.

Har funderat på det här med medvetandet. All följande text är hypotetisk, jag är förbehåller att jag pratar nonsens på varenda punkt. Häng med i hela texten! Det finns en poäng med alltihop, det är ingen "skriva av sig fritt" text. Varje snutt leder vidare. Ha till tåls, i princip allt är relevant och ett enda långt resonemang som kräver sina bitar.

Kan börja med att säga att tanken på vad verkligheten egentligen är, gör en knäpp och galen. Vad du än har för teori, så går det att sticka hål på den. Så vi utgår från vår mänskliga bubbla här, och väljer något perspektiv som vi tänker oss skulle kunna vara av applikation.

Kort sagt så ser vi en tydlig korrelation mellan hjärnstrukturen (samt dess aktivitet) och innehållet i medvetandet. Om vi tittar på hjärnan (och det karaktäristiska fysiska beteendet som vi tycker oss se) så ser vi något som närmar sig strukturer, hierarkier (kan ge källa på begäran), moduler mm, och "harmoniska vågor av aktivitet" (bluegene project, hittar inte videon.. men elektriska aktiviteter verkar gå som vågor genom hjärnan).

Vi kan kanske konstatera att "snurrburr-aktivitet" och strukturer i hjärnan, rentav epileptiska aktiviteter och psykotiska strukturer (mer eller mindre, förenklat, trasig hullerbullerstruktur i hjärnan), dvs en flummig fysiskt slarvig trasig hjärna, ger "abnormala" aktiviteter och samtidigt även ett abnormalt medvetande. Dvs, fysiskt trasig hjärna med slumpmässiga aktiviteter, trasiga tankar, upplevelser och beteenden.

Kör ner ett antal elektroder i hjärnan på måfå ställen och tänd till. Det köttar till både aktiviteten i hjärnan, och hjärnans beteende/upplevelse.

Jag menar att vår observation av en hjärnas aktiviteter, är närtill synonymt (men exakt samma, eftersom att det inte är hjärnans upplevelse i sig) med den observerade hjärnans inre värld. Skitaktiviteter i huvudet = skitupplevelse.

So far, so god. Inget nytt här.

Här kommer det "nya". Det "nya" börjar med frågan: varför upplever en viss neural aktivitet+struktur en viss sak? Plocka loss en björns primära visuella kortex och anslut denna till en synnerv. Låt oss anta (INGEN vet inte ett skit om medvetandet dock) att björnens visuella kortex förnimmer en hund. Att den förnimmer något iöht. Att det är medvetet.

Vidare.

En visuell kortex räcker kanske inte till för den direkta perceptionen av en hund. Låt oss därför anta att vi gör detta experiment med hela björnens hjärna. Flera delar av björnens hjärna aktiveras. I den stund som björnen anses förnimma hunden, så tar vi ett snapshot av hela scenen. Vi ska nu titta på detta snapshot.

Björnens hjärna har en representation av en hund, i form av någon struktur. Låt oss säga att strukturen ser ut såhär, låt oss låtsas att vi kan uttrycka den exakta scenen --nu hjärnan endast-- i en matris (representativ data dvs endast ur ett observerbart fysiskt perspektiv):

Matrisen kan se ut som, påhittat, följande: [1 2 3 4 5 3 9 3 3 3]. Låt den representera laddningar, positioner och partiklar eller kanske supersträngar - det spelar mindre roll nu, bara du är med på konceptet här.

Denna matris är alltså den fysiska beskrivningen av en björns hjärna, så noggrant beskriven som möjligt med den mest detaljrika beskrivning utifrån observation som vi lyckas åstadkomma.

Okej, då har jag förklarat och målat upp några utgångspunkter för er nu och bäddat för lite tankeställningar.

När vi nu ska börja resonera och sammanställa det vi har här, så kommer vi att hamna i en s.k. strange loop. Kort sagt en enda loop som aldrig leder någon vart. När vi försöker att ta oss utanför den loopen så kommer vi bara på en massa overifierbara hypoteser (iallafall overifierbara i dagens läge, antar jag).

En frågeställning som leder runt och runt är: Varför upplever vår matris just en hund, och inte en katt? Det behöver inte finnas någonting utanför matrisen, för att den hjärna som den representerar, ska uppleva precis det som matrisen beskriver (som endast beskriver hjärnan).

Varför upplever inte "matrisen" (läs hjärnan) något helt slumpmässigt? Varför ger exakt den matrisen, exakt den upplevelsen som den gör? Svaret på denna fråga kan vi helt glömma i dagsläget. Man kan skapa sig så många hypoteser som man vill; man kommer att må lika dåligt av dem alla och inte kunna verifiera en enda av dem. Och när man formulerar en hypotes, så ska man minnas att denna hypotes i sig kan målas upp i en matris som ovan (du tänker ju, din hjärna kan sägas vara en matris som ovan) och ställa sig samma fråga igen. Visare så kan man ställa samma frågor om matristänkandet i sig, och denna fråga jag just ställde. Och ställa frågan ifall något av dessa resonemang, eller det jag nyss skrev, eller det jag nyss skrev, är meningsfull. Det spårar helt enkelt ur, och vi kan fortsätta med att fråga oss varför. Så vi skiter i just denna viktiga fråga och går vidare. Om det ens är en fråga... ja. Vi skiter i detta och går vidare men något som vi hoppas kan vara applicerbart.

Dåsa. Ur vår mänskliga bubbla här, så ser vi en korrelation mellan specifika sådana matriser, och specifika upplevelser. Vi vet inte så mycket om medvetandet, men vi gör ett försök och börjar såhär; man måste börja någonstans.

Bare with me, vi är påväg någonstans med allt detta!

Vi ser att struktur i matrisen, ger struktur i medvetandet. Blajjig matris, blajjigt medvetande. Okej, vidare, till det viktigaste av allt detta:

Blajjigt medvetande impliciterar blajjig struktur. Det behöver inte nödvändigtvis vara så. Vi kan helt enkelt vara kassa på att urskilja strukturer; något vi ser som blajjigt kanske är harmoniskt. Jag vill hur som helst göra en sista poäng innan vi går vidare (fetmarkerar bara för att lätt kunna refferera till denna bit igen.. den är inte mindre galen än resten av texten):

Det finns inget "rätt eller fel" hos ett medvetande, och (vilket kanske är ekvivalent med) en fysisk struktur (matris). Må ett medvetande vara snurriburr (schizzo, knäpp). Konsekvensen av ett sjukt sinne är helt enkelt att den individen blir snurrig och dör. Evolutionen skapar "fina" medvetanden; medvetanden anpassade för fortplantning och överlevnad. Bland medvetanden finns inga absolut värden för vad som är mer rätt än det andra. Precis som vid moral, så finns det inga absoluta sanningar. Likadant är det inom biologin. Vi skapas inte av något syfte, det som händer evolutionärt "bara händer". Liknande kan sägas om medvetandet.

Det finns anpassade medvetanden (för vissa mål), och det finns missanpassade medvetanden (för vissa mål). Om målet är att självdö så finns det massor med knarkande människor som vi kan kalla anpassade. Vi föredrar att kalla "starka" människor "starka" - vår hjärna gör den kategoriseringen. Ett exempel på två olika "bra" sinnen är: den psykiskt sjuke förvirrade sopätande mannen, och den målmedvetna hårt jobbande snälla familjemamman.

Okej, så nu vill jag göra en viktig poäng (en gång till) (och som ter sig självklart):
Strukturerat friskt sinne är starkt förenat med en strukturerad fysiskt struktur. Notera ordet struktur i fysisk struktur. En ingen-struktur är ingen-struktur. Låt oss anta att det förekommer strukturer som vi bara är dåliga på att identifiera.

Neokortexen bygger enligt forskning (kan ordna referens på begäran) på hierarkier. Neokortexen är den senast utvecklade delen av hjärnan i människans evolution. Den är duktig på att lära sig saker, och den ser mönster. Kort sagt så ser vi en korrelation mellan vår hjärna och en viktig aspekt av våra sinnen: abstraktioner.

Vad har allt detta med AI att göra då? Jo, vi kan ta lärdom av detta tankesätt (om dessa tankar är vettiga dvs). Vi kanske kan gå andra vägen in istället: bygga vår fysiska struktur (AI) utefter ett föreställt medvetande.

Var det allt
?? Tänker du säker nu. Nejdå!
__________________
Senast redigerad av godhet 2011-09-15 kl. 02:18.
Citera
2011-09-15, 02:05
  #2
Avstängd
I vår design av en stark (alltså högintelligent, eller iaf väldigt funktionell) AI så menar jag att en möjlig approach är att empatisera med det vi skapar. En skitig struktur ger ett skitigt medvetande, och resultatet är därmed skitigt. Om vi låtsas att vår AI har ett medvetande, hur ska vi då bygga det medvetandet?

Det finns delar av vår hjärna som knappt verkar medvetna alls. Men som sagt så vet vi knappt något om medvetandet; varför det finns, varför en viss struktur ger ett visst medvetande. Hypoteserna kan flöda. Men det är en annan diskussion, då vi som sagt inte vet så mycket.

Iallafall så kan det låta trivialt. Vi kan ge AIn planeringsförmåga, ett minne, mental karta av omgivningen, "hörsel" osv osv. I ren programkod så kan vi skriva:

[Program.AI]
String namn = "Pelle"
LoadCamerapicToMemory()
IdentifyObsticles()
PlanRouteToOtherSide()
WalkRoute()

Huruvida detta program skulle känna något, vet vi inte. (kuriosa, kan hoppas):
Citat:
kan ge referenser till cutting edge forskning i just detta område (medvetandet) --blandat med filosofi-- där auktoriteterna inte vet mer än det hjärnforskningen säger. Kuriosa: det närmsta jag hört om "verkligheten som den är", men som ändå inte ens lär vara i närheten, är Max Tegmarks MUH och holographic principle som menar att, citationstecken, "all information om världen är sparad i en 2D-matris".
Programmet ovan ser iallafall inte ut att vara en tjock sammanhängande klump med någon holistisk världsuppfattning. Parallellism nödvändigt här kanske?

Iallafall. Vi vet inte vad som skulle ge upphov till ett medvetande. Om vi visste det så skulle vi kanske utefter de principerna kunna strukturera upp något fysiskt utefter hur vi vill att det medvetandet ska se ut. Förenklat: Ett funktionellt medvetande är en funktionell kropp.

Låt oss utgå från tanken att vi skapar en fysisk struktur utefter ett önskat medvetande. Låt oss skapa detta med abstrakta notationer (närmare, programmering i det här fallet).

Vi tänker oss ett medvetande. Hur det ska tänka, hur det ska agera, hur det ska reagera, hur det ska känna. Vi föser sedan över alla dessa detaljer till ett datorprogram.

Utan att motivera så vill jag mena att ett imperativt programmeringsspråk inte känns lämpligt för detta. Vi behöver ett språk som vi "direkt" kan uttrycka våra "empatiska tankar" med.

Ja, vart fan ska vi börja? Jo, jag hade en poäng med "björnexperimentet" i början. Kom ihåg att vi i den här approachen strävar efter (dvs använder som ledstång!) ett harmoniskt medvetande. Det innebär att vi söker ett harmoniskt medvetande och alltså även såväl en bra struktur på vår "fysiska" produkt. Vi vill veta (och som jag sagt tidigare, okänt, och vore bra om vi visste vad som gav medvetande) ifall en viss fysisk struktur är meningsfullt om det vore medvetet. Om vi antar att det som vi skapar (vårt försök till en AI), de fysiska processer som det innebär, är medvetet, så vill vi också se en viss "harmoni". Men istället för att tänka på det fysiska som sådant, så kan vi tänka vår abstrakta modell som sådan.

Dvs. Vi vill se abstraktioner, minnen, osv osv.

Läs följande noga.

Nu till björnen. I dess hjärna ligger många olika medvetandeinnehåll latent. Om vi tänder till rätt neuroner så kan vi väcka de minnen hos björnen som vi vill. Det vi ser i björnens sinne, hur som helst, är en hund. Kan vi identifiera denna hund i den (björnens fysiska)matris som jag pratat om? Antagligen inte. En starkt förenklad modell av hjärnan ser ut såhär: bild på ett vanligt artificiellt neuronnät. Våra hjärnor är inte utvecklade till att urskilja en hund ur detta nät. Vi vet att det som kommer in i inputlagret abstraheras utifrån nätets statistik (nätet är praktiskt taget en statistisk modell), och ger någon form av output på utlagret.

Givet vilket artificiellt nätverk som helst, och må det efterlikna någon människa, så ter det sig att vissa neurala konfigurationer får ett visst medvetande. Är inte det helt onödigt? I ett artificiellt neuronnät (kallat ANN i fortsättningen) så spelar det väl ingen roll huruvida det känner något eller ej? Hela modellen bygger ju på matematik och logiska konsekvenser! Att hjärnan känner något kan ha med verklighetens beskaffenhet att göra, vi kanske lever i en idévärld, men det får bli en annan diskussion.

Löst och kortfattat:
Kan vi alltså bygga ett godtyckligt strukturerat ANN, men fortfarande få det önskade beteende som vi vill ha? Innebär ien godtycklig struktur också ett godtyckligt medvetande? Är inte ett godtyckligt medvetande KAOS i vissa ändamål? Kan ett korkat medvetande ge en smart funktion?

Jag har inga säkra svar på dessa frågor. Men kom ihåg att jag först frågade: varför upplever inte björnen en stor katt istället, som ser ut som en hund? Varför upplever vi just grönt, istället för rött när vi har en viss fysisk matris? En fysisk matris bör väl ha exakt samma orsak-verkan oavsett vad den upplever? eller? Detta verkar ha något med verklighetens fundamentala uppbyggnad att göra. Men jag vet ej. Men det vore så bra att veta varför.

Låt oss fortsätta med vår testliga approach till att bygga en stark AI: att empatisera med det. Låt säga att vi föreställer oss det medvetande vi vill ha. Om vi då visste korrelationen mellan medvetande och fysisk struktur, så skulle vi kanske kunna bygga detta.

Ska vi försöka oss på det en snabbis? Det tycker jag. Det är nog rimligt att man kan bygga detta medvetandet abstrakt, exempelvis i en fysisk simulator. ANN vore kanske ett exempel, bara för att redogöra idén. En simulering av hjärnan exempelvis, borde väl ha samma orsak-verkan, dvs resultat, som en riktig hjärna? Låt oss tänka oss det.

Vi har dock ett problem ifall vi ska försöka efterlikna vårt eget medvetande; våra skrivande händer är iallafall inte medvetna om det mesta som händer i hjärnan.

Det vi vet om själva medvetandets innehåll är iallafall att:
- Lista på många saker.

Kan vi peta in allt det vi vet i ett program? Vi listar några separata objekt som vi håller i hjärnan --tror inte att det fungerar riktigt så, men here we go--:
- Syn
- Konstanta objekt med massor av attribut:
-- Färger, bildlig struktur
-- Fysisk struktur
- Ljud
* associationer emellan saker görs automatiskt

Man kan tänka sig att en intelligent tanke också är ett intelligent läge (state) i någon state-machine. Om ett neuronnät är medvetet, oavsett struktur, så är endast den struktur som ger upphov till något vettigt medvetande (exempelvis korrekt perception eller en intelligent tanke/plan/anpassad reaktion) användbart? Vem vet.

Jag vet faktiskt inte just nu hur man ska implementera denna idé här: att empatisera med sin tänkta AI och realisera det "medvetandet" i ett datorprogram. Eller jo, men inte riktigt så. Man kan tänka sig att AIn ska ha syn, att dess uppmärksamhet ska styras osv, vilket inte är någonting annat än ren och skär systemutveckling.

Det var lite av mina tankar. Dead end. Wasted time. Antagligen ingen givande approach.

Vad har du för synpunkter?
__________________
Senast redigerad av godhet 2011-09-15 kl. 02:42.
Citera
2011-09-15, 14:36
  #3
Medlem
En av mina tankar är att dina inlägg även om dom är intressant är lite grötiga.
Jag har därför bara skummat igenom.

Nåväl: varför upplever vi färgen grön som grön och inte röd?

Hur vet du att vi inte ser den som röd?
Min poäng är att det är en slumpmässig koppling mellan en hjärnstruktur till ett abstrakt begrepp.

Röd är det område i just den delen av din hjärna som lyser när du ser något som kallas röd.
Området kommer att variera mellan personer, men det grundar alltid(nja) mot samma fysiska mönster.
Citera
2011-09-15, 15:44
  #4
Avstängd
Citat:
Ursprungligen postat av dedu
En av mina tankar är att dina inlägg även om dom är intressant är lite grötiga.
Jag har därför bara skummat igenom.

Nåväl: varför upplever vi färgen grön som grön och inte röd?

Hur vet du att vi inte ser den som röd?
Min poäng är att det är en slumpmässig koppling mellan en hjärnstruktur till ett abstrakt begrepp.

Röd är det område i just den delen av din hjärna som lyser när du ser något som kallas röd.
Området kommer att variera mellan personer, men det grundar alltid(nja) mot samma fysiska mönster.

Kan rekommendera föreläsningar av christoph koch (video.google.com) och intervjuer med David Chalmers.

Dessa är frågor som jag personligen kommer att sluta ställa mig, tills vidare. Jag har försökt och försökt, och mår nästan dåligt av det --det syns bl a i trådstarten--. I min text så spånar jag om att ifall vi känner till korrelationen mellan ett givet medvetande (mha empati, mentalisering, föreställning av ett fullt sinne) och dess fysiska observation, så kan vi modellera AI utefter ett föreställt medvetande.

Att vi låtsas att vi är "kalle", och att kalle tänker si och så och så och si, och ser det och hör det, och upplever det si och det andra så. Säg att vi har en stor tabell på korrelationer mellan medvetande (innehållet i medvetandet) och dess fysiska (eller abstrakta) uppenbarelse. Kanske kan vi då utefter denna tabell kan härleda (mha t ex datorer) fram en fysisk eller abstrakt produkt som ger upphov till det medvetande som vi använt som grundritning till vår AI-produkt. Som jag argumenterat för så är ett sansat medvetande, en sansad fysisk produkt.

Jag gjorde lite försök i att förstå medvetandet, det som du var inne på. För att ens komma ett [litet] steg längre där, så tror jag nog att man måste syssla med groundbreaking hjärnforskning och filosofi i 50 år.

Jag avslutade min text med att: denna approach till stark AI är nog inte aktuell. Hederlig systemutveckling och datalogi är nog the way in. De flesta programmerare har en viss slags "empati" för de program jag skriver ändå; annars så skulle inte programmen fungera så bra.
__________________
Senast redigerad av godhet 2011-09-15 kl. 15:47.
Citera

Stöd Flashback

Flashback finansieras genom donationer från våra medlemmar och besökare. Det är med hjälp av dig vi kan fortsätta erbjuda en fri samhällsdebatt. Tack för ditt stöd!

Stöd Flashback