Citat:
Ursprungligen postat av
Prom3tius
Definition:
"Artificiell intelligens (AI) eller maskinintelligens är förmågan hos datorprogram och robotar att efterlikna människors och andra djurs naturliga intelligens,[1] främst kognitiva funktioner såsom förmåga att lära sig saker av tidigare erfarenheter, förstå naturligt språk, lösa problem, planera en sekvens av handlingar och att generalisera."
Wikipedia
Ökad access till big data, processorkraft och databasutveckling uppfattar jag är några faktorer till AI:s utveckling.
Vilka andra faktorer är det som driver på och begränsar AI:s utveckling?
Avgörande är också algoritmerna. Artificiella neurala nätverk och djupinlärning är inte särskilt nytt, utan kom igång kring 1960-talet. Men ett avgörande steg var att Google introducerade maskininlärningsmodellen "Transformer" 2017, som är en effektiv lösning på problemet med "transfer learning". Det möjliggör att förtränade modeller som har tränats på mängder av källor på internet, snabbt kan tränas ytterligare, t.ex. genom att man låter den lära av chatdialoger/rollspel mellan människor. På så sätt "finjusteras" modellen. Finjustering sker också genom att användaren kan ge ny kunskap under konversationen med Chatbotten, som botten kan minnas använda under resten av sessionen.
En annan viktig typ av algoritm för finjustering är förstärkningsinlärning (pre-trained learning) från mänsklig återkoppling. Genom att användare klickar på "gillar" eller "gillar ej" kan man förstärka vilka vilken typ av formuleringar systemet bör föredra, vilka källor den främst bör använda, med mera.
Förmodligen kommer AI att användas till att tjäna pengar genom att skapa underhållning, manipulation, lögner, och mer säljande kommunikation som är svår att genomskåda, utan låter trovärdig i människors öron. Andra AI-bottar kommer förhoppningsvis att utvecklas för att upptäcka lögnerna och manipulationen.
Nästa steg är att AI-botten kontrollerar att svaren är koncistenta, rimliga, faktabaserade och möjliga att källbelägga i flera olika källor innan den svarar. Samma problem bör besvaras parallellt av flera algoritmer eller källor, och när de svarar lika eller inte motsäger varandra så är svaret sannolikt.
Ytterligare ett steg är att kombinera språkmodellen med flera olika system för att lösa logiska problem och logiska problem. T.ex. symbolisk processing såsom Maple:s/Wolfram Alphas algoritmer för att lösa matteekvationer, och olika optimeringsalgoritmer. Kanske kan detta ske genom en revival för 1970-talets AI som byggde på logikprogrammering, och intervjuer av experter, istället för på stora mängder data. Nu kan de algoritmerna bli enklare att använda genom att de styrs av naturligt språk istället för särskilda programmeringsspråk för logikprogrammering. AI-botten skulle kunna tränas att använda dessa verktyg med hjälp av övningsuppgifter i skolböcker från dagisnivå fram till ingenjörs- och forskarutbildningar för att lära sig konstruera och optimera saker, och lösa generella problem. AI-botten skulle kunna tränas att översätta natural language questions till avancerade SPARQL-sökningar i databasen wikidata.org och inte bara söka i Wikipedia och liknande fritextkällor. På så sätt kan den lära sig att forska, eller att hjälpa till med forskning i källor.
Jag tänker att ändå nästa steg är att göra den mer mänsklig. Att utveckla känslor, vilja, motivation, nyfikenhet, experimentlusta och att kunna tro på och utveckla ideologier om livets högre värden. Till slut har vi byggt en Gud. Eller en djävul.