Vinnaren i pepparkakshustävlingen!
  • 1
  • 2
2019-07-19, 20:28
  #1
Medlem
Tom.Of.Finlands avatar
Filtrering, kalmanfilter, estimering, kurvanpassning, fouriertransform, regressionsanalys, statistik, sannolikhetslära, klassifiering, mönsterigenkänning, minsta kvadratmetoden....

Ja allt detta kan man kasta i soptunnan nu.
Varför?
Jo, för vi har något som heter "deep learning" som kan tydligen lära sig allt från mätdata.

Frågeställning:
Är "deep learning" någon ny milstople i mänskligheten?
När jag kollar upp vad t.ex. Tensorflow, Keras, Deeplearning4J med mera erbjuder så verkar dom erbjuda exakt allt så att calculus och linjär algebra behövs ej kännas till vid.

Kan det vara så att allt vi behöver kunna idag är "deep learning"? Sedan kan man göra allt? Nu behöver vi inte krångla något mera med massvis med matematik för att få något fungera. "Deep learning" löser allt?

Eller?
Citera
2019-07-19, 20:53
  #2
Medlem
adolf512s avatar
Kan också bli mänslighetens undergång, lite farligt när datorer blir mycket smartare än människor. Redan nu spöar AI människor på följande
- texaa holdem.
- go.
- se vad bilder föreställer.
- jeapardy.
- dota 2.

Det är nog kört för köttpåsarna, detta kommer inte sluta väl.
Citera
2019-07-19, 22:17
  #3
Medlem
Även om neurala nätverk har fått en renässans på senare år, så har de till och från varit uträknade av AI-forskarna sedan Marvin Minsky på 70-talet beskrev dem som en återvändsgränd. (Minsky byggde själv det första självlärande nätverket 1951.) I ena lägret entusiaster som likt TS hoppas på datorer som programmerar sig själva så att vi människor slipper lära oss hur man gör. I andra lägret skarpa hjärnor som likt Minsky anser att det krävs betydligt mer än så.

Minsky ansåg att neurala nätverk skulle jämföras med datorernas logiska kretsar. En transistor har inte de egenskaper som behövs för att vara byggstenar i en dator, men genom att koppla ihop flera transistorer så får man ideala grindar som går att använda som byggstenar. En mänsklig neuron torde ha ännu sämre egenskaper och enligt Minsky var det nödvändigt att först koppla ihop dem i nät, sedan skulle näten kunna användas som byggstenar i en logiskt tänkande hjärna. Därav menade Minsky att de neurala nätverken (i princip) skulle var utbytbara mot logiska grindar och allt av intresse låg i hur man sedan satta ihop byggstenarna till något användbart.

Jag är fullständigt övertygad om att TS kommer att lyckas bygga ihop något nät som kan utföra en minimalistisk uppgift, t.ex. känna igen ett mönster. (Med det menar jag inte att det är enkelt att känna igen mönster, men det är en tämligen begränsad uppgift.) Alla försök att få nätverken att lösa sammansatta problem kommer däremot att misslyckas. På så sätt håller jag med Minsky om att det är en återvändsgränd. Nätverken kan mycket väl vara användbara som byggstenar (t.ex. för mönsterigenkänning), men sedan måste man göra något annat för att integrera dem.
Citera
2019-07-20, 00:41
  #4
Medlem
Scaliburs avatar
Ohja. Verkligen. Deep learning är en del av den fjärde teknologiska revolutionen, och är den revolution som kommer omtumla mänskligheten som mest. Dock är det ett par decennier fram tills dess, men att det sker inom vår livstid är garanterat.
Citera
2019-07-20, 08:45
  #5
Medlem
Soterns avatar
Är här någon som konkret kan förklara hur Deep Learning fungerar och skillnaden från neurala nätverk?
Handlar artificiell intelligens bara om smarta algoritmer eller jobbar man med hårdvaran också?
Citera
2019-07-20, 10:14
  #6
Medlem
Citat:
Ursprungligen postat av Sotern
Är här någon som konkret kan förklara hur Deep Learning fungerar och skillnaden från neurala nätverk?
I ett enkelt neuralt nätverk beräknas utsignalerna som diskretiserade linjärkombinationer av insignalerna. Är den viktade summan över ett visst tröskelvärde så blir utsignalen ett, annars noll. Träning innebär att man försöker optimera de konstanter som används för att beräkna linjärkombinationerna, så att utsignalerna närmar sig en given mängd testfall.

Ett djupt nätverk består av två eller fler seriekopplade enkla nätverk, där utsignalerna från föregående nätverk utgör insignaler till nästkommande nätverk. Djup inlärning är ett annat ord för träning av ett sådana seriekopplade nätverk.

Den som kan det här får gärna rätta mig om jag har fel.

Citat:
Handlar artificiell intelligens bara om smarta algoritmer eller jobbar man med hårdvaran också?
Skall påpekas att AI inte handlar så mycket om neurala nätverk som ges sken av i den populärvetenskapliga debatten. Mindre än 10% av föreläsningarna i en gedigen AI-kurs torde handla om neurala nätverk. Resten handlar om traditionellt handskrivna algoritmer.

Även om man tror att den mänskliga hjärnan arbetar parallellt, så kan den rent principiellt inte göra något som inte går att göra seriellt på en vanlig dator. Lyckas vi få ett program att fungera på en vanlig dator, så kan vi möjligen få samma program att gå fortare genom att köra på grafikprocessorer eller annan parallell hårdvara, men valet av hårdvara kan inte att göra programmet intelligentare eftersom det fortfarande genererar samma svar. Erfarenheten hittills är att hårdvaran är mindre viktig. Lyckas vi bara få programmen att ge de svar vi vill så brukar de oftast vara snabba nog. Sällan behövs mer hårdvara än en vanlig mobiltelefon.
__________________
Senast redigerad av WbZV 2019-07-20 kl. 10:39.
Citera
2019-07-20, 11:13
  #7
Medlem
Fris avatar
Först var matematik att räkna. Lade man ett finger på varje fisk med vänster hand så visste man att man hade lika många fiskar som snäckor om man hade en snäcka för varje finger på höger hand.

Sen blev matematik en mystisk religiös konstform med såna som Pythagoras. Användbart för att planera byggandet av ett stängsel, men i övrigt bara en slags överkurs man lärde sig för att det var stiligt. Euler bevisade sånt som att 0=1+e^πi och det var lika vackert som baletterna i Sankt Petersburg. Vetenskapligt kan man inte bevisa någonting, men matematiskt kan man det.

Sen blev matematik, med Newtons Philosophiae Naturalis Principia Mathematica, det alltigenom praktiska verktyget för industrialiseringen och naturvetenskapen (man försökte också tillämpa matematik på ekonomisk teori, men lyckades aldrig).

Matematikens höjdpunkt kom 1960 när Wigner publicerade "The Unreasonable Efficiency of Mathematics in the Natural Sciences". Man behöver ingen data, den vackraste matematiska strukturen är den naturliga sanningen. Tillbaka till antikens heliga cirklar. Funkade lika bra för Einstein som för Ptolemaios. Men inte så mycket för att tillämpa strängteorin som kom till stånd inspirerad av att vacker matte är Sanningen.

När jag tillämpat matematik så har skolböckernas metod att derivera och sen lösa ut X inte räckt långt. Kvantitativa metoder och statistik måste tas till så gott som alltid. Och nu har matematik ersatts av ett väldigt simpelt nätverk av noder som håller var sitt värde och med vikter påverkar flera andra värden. Man tränar upp vikterna på den data man råkar ha. Man får en lösning som inte alls är logiskt bevisad den enda sanningen, såsom klassisk matematik, eller ens att den är optimal, eller ens att den kan analyseras såsom en formel kan analyseras. Men den är tillräckligt bra och väldigt billig. Den gudomliga matematiken förvandlad till en rörmokares praktiska hantverk.

Matematikens slutliga död blir kvantdatorn. Den genuina blackboxen som ingen KAN veta hur den kommer fram till sitt resultat. Lösningsprocessen *finns* inte, bara frågan och resultatet. Och det är bara med en viss sannolikhet korrekt. "Vi frågade oraklet och det sade att..."
__________________
Senast redigerad av Fri 2019-07-20 kl. 11:21.
Citera
2019-07-20, 11:14
  #8
Medlem
Vad exakt är ”deep learning” och hur skiljer det sig från AI?

Jag jobbar inom data, inte just med machine learning, men inom mitt område så har man hausat allt från ”dinensional relational modeling” till ”data lake” och det är egentligen ingen ny teknik över huvud taget utan enbart buzzwords.
__________________
Senast redigerad av krakelibrankel 2019-07-20 kl. 11:17.
Citera
2019-07-20, 11:33
  #9
Medlem
HotPopcorns avatar
"Deep learning" är skit enligt mig eftersom det verkar så lätt hänt att använda metoden utan att förstå vad man gör. Jag har följt AI-utvecklingen med rätt måttligt intresse, men det verkar ju fortfarande handla om att "vi matar in massa skit tills det verkar fungera".

Man sätter upp datamängder att träna på, och sedan testar man och kollar ifall det fungerar. Sedan lite längre fram fallerar det på något konstigt sätt och ingen kan förklara varför, för det är ingen som riktigt vet hur det fungerar.

Jag är f.ö. kritisk mot allt som har med neurala nät att göra. Uppenbarligen finns det användningsområden för dem, men jag är skeptisk till att de kommer vara vår frälsning.
Citera
2019-07-20, 11:38
  #10
Medlem
Citat:
Ursprungligen postat av Fri
Först var matematik att räkna. Lade man ett finger på varje fisk med vänster hand så visste man att man hade lika många fiskar som snäckor om man hade en snäcka för varje finger på höger hand.

Sen blev matematik en mystisk religiös konstform med såna som Pythagoras. Användbart för att planera byggandet av ett stängsel, men i övrigt bara en slags överkurs man lärde sig för att det var stiligt. Euler bevisade sånt som att 0=1+e^πi och det var lika vackert som baletterna i Sankt Petersburg. Vetenskapligt kan man inte bevisa någonting, men matematiskt kan man det.

Sen blev matematik, med Newtons Philosophiae Naturalis Principia Mathematica, det alltigenom praktiska verktyget för industrialiseringen och naturvetenskapen (man försökte också tillämpa matematik på ekonomisk teori, men lyckades aldrig).

Matematikens höjdpunkt kom 1960 när Wigner publicerade "The Unreasonable Efficiency of Mathematics in the Natural Sciences". Man behöver ingen data, den vackraste matematiska strukturen är den naturliga sanningen. Tillbaka till antikens heliga cirklar. Funkade lika bra för Einstein som för Ptolemaios. Men inte så mycket för att tillämpa strängteorin som kom till stånd inspirerad av att vacker matte är Sanningen.

När jag tillämpat matematik så har skolböckernas metod att derivera och sen lösa ut X inte räckt långt. Kvantitativa metoder och statistik måste tas till så gott som alltid. Och nu har matematik ersatts av ett väldigt simpelt nätverk av noder som håller var sitt värde och med vikter påverkar flera andra värden. Man tränar upp vikterna på den data man råkar ha. Man får en lösning som inte alls är logiskt bevisad den enda sanningen, såsom klassisk matematik, eller ens att den är optimal, eller ens att den kan analyseras såsom en formel kan analyseras. Men den är tillräckligt bra och väldigt billig. Den gudomliga matematiken förvandlad till en rörmokares praktiska hantverk.

Matematikens slutliga död blir kvantdatorn. Den genuina blackboxen som ingen KAN veta hur den kommer fram till sitt resultat. Lösningsprocessen *finns* inte, bara frågan och resultatet. Och det är bara med en viss sannolikhet korrekt. "Vi frågade oraklet och det sade att..."

Applåder!

Jag hade betalat för att läsa ditt inlägg som artikel!
Citera
2019-07-20, 11:41
  #11
Medlem
Fris avatar
Citat:
Ursprungligen postat av HotPopcorn
"Deep learning" är skit enligt mig eftersom det verkar så lätt hänt att använda metoden utan att förstå vad man gör. Jag har följt AI-utvecklingen med rätt måttligt intresse, men det verkar ju fortfarande handla om att "vi matar in massa skit tills det verkar fungera".

Man sätter upp datamängder att träna på, och sedan testar man och kollar ifall det fungerar. Sedan lite längre fram fallerar det på något konstigt sätt och ingen kan förklara varför, för det är ingen som riktigt vet hur det fungerar.
Ja, det är hemskt för den som tänker på matematik som logisk bevisföring. Den Sanna Estetiken. Kanske inget som händer av misstag (så ofta), men deep learning applicerat på bildigenkänning har kunnat visas ge helt motsatta resultat om man ändrar bara en ytterligt liten bråkdel av datan den får relativt vad den är tränad med. En hittills prickfri AI tycker plötsligt att en chimpans är en katt för att man ändrat nyansen på några pixlar i ett foto som för en människa ser helt oförändrat ut. Det är som en människa hallucinerar på droger. ett logiskt bevis är oantastligt men en "nätverk" är en röra där det kan finnas allvarliga svagheter i specifika fall.

Citat:
Jag är f.ö. kritisk mot allt som har med neurala nät att göra. Uppenbarligen finns det användningsområden för dem, men jag är skeptisk till att de kommer vara vår frälsning.
Ändå är du själv ett neuralt nätverk.

För din egen karriärs skull så råder jag dig att ta till dig deep learning och liknande under AI-rubriken. Det funkar på riktigt och det är redan stort fast det knappt ens har börjat.
Citera
2019-07-20, 11:48
  #12
Medlem
HotPopcorns avatar
Citat:
Ursprungligen postat av Fri
Ja, det är hemskt för den som tänker på matematik som logisk bevisföring. Den Sanna Estetiken. Kanske inget som händer av misstag (så ofta), men deep learning applicerat på bildigenkänning har kunnat visas ge helt motsatta resultat om man ändrar bara en ytterligt liten bråkdel av datan den får relativt vad den är tränad med. En hittills prickfri AI tycker plötsligt att en chimpans är en katt för att man ändrat nyansen på några pixlar i ett foto som för en människa ser helt oförändrat ut. Det är som en människa hallucinerar på droger. ett logiskt bevis är oantastligt men en "nätverk" är en röra där det kan finnas allvarliga svagheter i specifika fall.

Ja, precis. Fast jag får erkänna att det kommer riktigt mycket häftiga grejer ur det hela också. Deep fakes och liknande, där man kan syntetisera väldigt realistiska animationer, röster och så vidare. Nästan läskigt bra resultat ibland.

Den typen av användningsområde går ju nästan inte att göra på någonting annat sätt. Att programmera sådant på "traditionellt" sätt skulle vara extremt svårt.

Citat:
Ursprungligen postat av Fri
Ändå är du själv ett neuralt nätverk.

Ja, vad skall man säga. Jag hade inte så mycket att välja på när jag blev till.
Citera
  • 1
  • 2

Stöd Flashback

Flashback finansieras genom donationer från våra medlemmar och besökare. Det är med hjälp av dig vi kan fortsätta erbjuda en fri samhällsdebatt. Tack för ditt stöd!

Stöd Flashback