Citat:
1. Vad är det som säger att den kommer att göra det? Det kräver moral och empati, som den förmodligen inte kan ha. Om man lär upp den att mänskligt liv är viktigare, kommer den väl att ta det som en sanning? Det är väl Miljöpartisterna som är faran här, som projicerar sina egna känslor på djur.
Känslor är absolut inte nödvändiga för att en ASI ska bli ett problem för vårt liv/hälsa/miljö. Egentligen krävs det bara två väldigt simpla komponenter:
1. En människa beställer någonting som är destruktivt, eller som kan innebära destruktiva sidoeffekter. T.ex. bygg en väg, helt oavsett konsekvenserna för biologiskt liv. Så borde ju ingen vettig människa göra. Men det finns människor som kommer att göra precis så.
2. En ASI som får beställningen och kan utföra den med agens i den fysiska världen. T.ex genom att styra robotar, drönare, maskiner, dörrar, servrar, eller för den delen, anlita eller manipulera människor att utföra manuella steg, t.ex konfigurera om en brandvägg via en trojansk häst/ett virus. Allt det här har påvisats som fullt möjligt i många experiment. Det har du förmodligen sett men förträngt.
Det är ju snarare tvärtom, att en känslokall ASI (preview version 0.1 inom 1-2 år?) skapar mycket mer problem eftersom den är helt hänsynslös by default. Schubert är inne på att vi ska förmedla fina känslor och på det sättet skapa en snäll AI. Det är ju en fin tanke men han kan inte påvisa hur man kan säkerställa att det fungerar rent tekniskt.
1. En människa beställer någonting som är destruktivt, eller som kan innebära destruktiva sidoeffekter. T.ex. bygg en väg, helt oavsett konsekvenserna för biologiskt liv. Så borde ju ingen vettig människa göra. Men det finns människor som kommer att göra precis så.
2. En ASI som får beställningen och kan utföra den med agens i den fysiska världen. T.ex genom att styra robotar, drönare, maskiner, dörrar, servrar, eller för den delen, anlita eller manipulera människor att utföra manuella steg, t.ex konfigurera om en brandvägg via en trojansk häst/ett virus. Allt det här har påvisats som fullt möjligt i många experiment. Det har du förmodligen sett men förträngt.
Det är ju snarare tvärtom, att en känslokall ASI (preview version 0.1 inom 1-2 år?) skapar mycket mer problem eftersom den är helt hänsynslös by default. Schubert är inne på att vi ska förmedla fina känslor och på det sättet skapa en snäll AI. Det är ju en fin tanke men han kan inte påvisa hur man kan säkerställa att det fungerar rent tekniskt.
Du förutsätter en massa saker som det inte finns belägg för och verkar utgå från din egen moral, som gäller just nu inom ett snävt befolkningsunderlag. Det är inte säkert att det är den moralen som gäller i framtiden, eller rättare sagt, det är nästan 100% att det inte kommer att var så då. Hur många parametrar tror du det behövs för att kunna förutsäga alla möjliga utfall om ett hypotetiskt scenario i framtiden?
2. Att något är teoretiskt möjligt, betyder inte att det är troligt eller ens rimligt att anta. Den stora faran är inte maskinerna, den stora faran är människor som kontrollerar maskinerna. För de drivs av känslor.
Att AI kan manipulera människor, är redan ett problem, där man programmerar dem att vara PK och undvika obekväma sanningar, som inte följer en viss ideologi eller till och med ljuga. Genom att analysera psykologin och använda data därifrån, är det redan möjligt att manipulera människor vid val och kanske förekommer. Även att skvallra på människor utifrån vilka åsikter de har och vad de frågar om, är fullt möjligt redan idag och kanske förekommer.
Likadant är inte faran att den teoretiskt kan styra andra saker, faran ligger i om människor använder dem till det. Så de scenarion du menar kan förkomma i framtiden, är redan fullt möjliga idag och för vissa saker till och med ett faktum. Men problemet är inte maskinen, utan människan. Där har du den stora faran som man knappt diskuterar idag. De som kontrollerar AI.
För övrigt anser nog att Schubert är ett knäppis, för varför skulle en känslolös maskin bry sig om ifall andra är vänliga eller otrevliga. Det är liksom en felaktig slutsats utifrån förutsättningarna. Den kan inte bli sårad eller glad av hur andra bemöter den. Dagerns AI är avsiktligt programmerad hur den ska bete sig när man kallar den saker. Det är inte inlärt.