Citat:
Ursprungligen postat av
Wheazel
Kan du ge några konkreta exempel på fall där en dator utför någonting, och den som skapat datorn inte förstår hur datorn kommit fram till resultatet? Vad har du för kunskap/utbildning inom elektronik, datorer, matematik eftersom du gör dessa anspråk?
AlphaGo (bästa exemplet)
Siri
Modernare bildigenkänning
NSA:s (med fleras) program för identifiering av märkliga beteenden.
Avancerad AI fungerar i dagsläget så att man har 3 typer av lager. Input, dolda lager och output. Endast I/O är definierade. De dolda lagren får datorn leka med hur mycket som helst. Vi "ser" (förstår) dem inte. Det är därför de är anses vara dolda.
Vi säger till datorn: Du får detta. Vi vill ha detta. Gör hur fan du vill. Efter en tid så presenterar datorn önskat resultat utan att man förstår riktigt hur. Jag anser att detta kan vara farligt eftersom vi inte kan förutse all världens önskade output eller ens vad som är nödvändigt input. Vad ska de ta hänsyn till?
Ingen vet hur algoritmerna fungerar i detalj. Möjligtvis extremt övergripande. Det är för länge sedan bortom vår förståelse. Vi kan inte säga
hur de fungerar. Vi kan bara konstatera
att de fungerar. Årets nobelpris i medicin (eller vad det nu var) var fan forskare som hade lärt sig hur djur navigerar i tid och rum med ett neuronantal under 10 neuroner? Sex neuroner kanske det var? Simpel sak att navigera, men tänk att det tog såhär lång tid att förstå dessa få 6 neuroner...
Påståendet kommer ursprungligen inte ifrån mig, utan ifrån en av skaparna bakom världens första kända
kvantdator (om jag inte minns fel, kan ha varit någon från Googles
Deepmind också, kan leta upp på begäran).
Jag har jobbat som systemutvecklare i ~5-7+ år, är endast medelmåttig inom klassisk matematik (symbolerna är jobbiga, men Haskell underlättar som fan), samtliga tillgängliga onlinekurser inom artificiell intelligens (MIT) samt spenderat ~50-100 h extra inom att bara studera teorin bakom AI. Har bland annat köpt forskningsrapporterna som ledde fram till AlphaGo och personligan chattat med några av de ledande forskarna (inte för att det gav mig jättemycket, men jag tror att det visar att jag i alla fall brinner för ämnet). Jag påstår mig inte vara expert. Men jag påstår att jag jobbar på att bli det. Jag anser mig vara hyfsat insatt, och tillräckligt insatt för att jag ska hålla fast vid min TS.
Men är jag verkligen relevant här? Dina och mina åsikter är lika mycket värda så länge argumenten är giltiga. Är det inte ett intressant ämne? Tror du att det aldrig kommer att hända? Jag vill att alla ska diskutera detta.
Vi börjar närma gränsen mellan människa och maskin. Senast igår publicerades den här nyheten:
http://www.svd.se/minister-ser-snabb...vkorande-bilar
Vem är ansvarig vid en krock? Vem ska bilen döda om den tvingas välja? För någonstans måste den göra ett val. "Ah, men där är ju företaget ansvariga!" tänker säkert någon, det är ju de som programmerat!. Okej. Men hur blir det när den är självlärd? Vem har programmerat en självlärande maskin? Det låter säkert som "spejsade" frågor, men detta är väldigt nära. Och ju tidigare sånt här diskuteras, desto bättre.
Är det okej om jag programmerar en robot med kort stubin..? Hur kort? Om ens någon alls? Blir den kort av evolutionär programmering (där prototyperna i många simuleringar lär sig att attackera motparten, även om det inte var de ursprungliga instruktionerna)? Hur behandlar vi sånt? Vi måste ju framåt. Vi får inte vänta tills "det är dags". Vi kanske inte kommer långt här på FB, men det är alltid bra att väcka diskussion och medvetande om det. Äh, jag vet inte. Förväntade väl mig inte att bli tagen på allvar heller...