Citat:
Ursprungligen postat av
Ambelain
Även ryssarna använder sig av patrullerande "sentry-guns" för bevakning av skyddsobjekt såsom tex kärnkraftverk och viktigare militära installationer. Men då bakom avspärrningar naturligtvis..
Den ryska Gen 5 stridsvagnen Armata har ju också ett motsvarande vapensystem på tornet.
TS kanske menar mer frigående saker?
Som man kan skicka iväg in i en fientlig stad tex?
Men då kan det väl inte heta "Sentry Guns", för då får de ju en mer offensiv kapacitet och är väl mer att likna vid AI-enheter. Robotsoldater liksom.
Folk är ju redan som det är nu oroliga för att civila kan bli nerskjutna, och de misstänker ju att robot-soldater och dessa bevaknings-vapen kommer skjuta helt okontrollerat på första bästa figur den registrerar.
Men syftet med robotiserade vapensystem är ju att minska risken för civila dödsfall. Om de tex bara skjuter mot figurer med vapen, som rör sig mot dem/mot ett skyddsobjekt. Så kan den ge order om att stå till "annars". Och då påkalla mänsklig assistans för avväpning. Och då skjuter den ju aldrig mot den som stå stilla med händer i luften.
Men det är en svår etiska fråga.
Hur hade det som angripen känts att bli attackerad av en robotarmé tex?
Men jämför tex med AI-bilarna, de förarlösa bilarna, som nu börjar testas och introduceras så smått.
Bilar är ju potentiella dödsmaskiner. Så kan man lita på att de ska fatta "rätt beslut", så borde man ju faktiskt även lita lika mycket på att även Sentry Guns och AI-vapen ska fatta lika bra beslut.
MEN - hade vi trots det ändå velat se en Sentry Gun inne i en bank tex?
Och Varför inte?
Om vi accepterar en AI-bil, så varför inte en lika dödlig maskin inne i en bank?
Jag kan inte motivera det, men jag hade ändå hellre accepterat en AI-bil på gatorna i min stad än en Sentry Gun inne i en bank.
Fast med AI-bilar vs sentry guns så är skillnaden väldigt stor på en väldigt viktig punkt.
Vad händer med din patrullerande sentry gun som beordrar någon att vara stilla, när denne bär en lång kappa och det är en blåsig dag?
Kan AIn göra skillnad på kläder som rör sig i vinden och en person som gör sig klar att använda ett vapen?
Skillnaden med AI-bilar är att om det uppstår minsta lilla risk för att något ska feltolkas, så kan AI-bilen helt enkelt stanna och stå stilla tills det att assistans anländer eller situationen ändras på ett sådant sätt att det är riskfritt att fortsätta.
En sentry gun är totalt omvänt i det läget, för det är när någonting händer som den måste ta beslutet om den ska skjuta eller inte, skulle den göra samma som AI-bilen så skulle den vara ett patrullerande larmsystem (endast upptäcka inkräktare och sedan kalla på mänsklig hjälp, vilket iofs kan ges via radio och videokamera*).
Där är det stora problemet med en helt autonom sentry gun, hur den ska agera när någonting händer.
*Det stora nu skulle vara autonom patrullering, men där beslut om vapenverkan tas av en mänsklig operatör. Fördelen är att man kan ha en mängd drönare som patrullerar och letar mål med ett väldigt litet antal människor som behövs för att styra systemet.
Jämför med patrullerande vakter istället för en mängd kameror kopplade till en central med en enda vakt som tittar på flera videoskärmar som alla har en rörelsedetektor (för att göra det enkelt att uppmärksamma vakten på om något händer på en av hans tiotals kameror)
Patrullerande drönare kopplade till en mänsklig operatör skulle därför slippa "ansvaret" att ta beslut i situationer när det gäller att skjuta. Den patrullerar och söker upp mål, skriker ut en varning (om det är en vaktrobot) om att stå stilla och kontaktar mänsklig operatör som får se bilden via kamera och kan via drönarens högtalare ge order till inkräktaren eller skjuta denne (eller skjuta varningsskott bredvid denne) eller ge kommandot till drönaren att "fire at will" om så krävs.
Samma fungerar för flygande drönare i ett militärt scenario, där man kan ha hundratals drönare i luften som patrullerar och spanar efter mål och bara ha ett tiotal operatörer i en byggnad någon helt annanstans.
Allt som krävs är att när drönarna upptäcker något så skickas en signal till operatörerna och en av dem tar över direkt kommando.
AIn behöver därför inte ta något ansvar för vad som ska skjutas, utan det är överlämnat till människan.
Ett sådant sätt skulle lösa många av problemen, dels med vem som har ansvaret men också med hur man ska göra skillnad på civila och fiender.
Man kan även göra så att drönaren kan sikta och skjuta på egen hand, och allt som krävs endast är ett klartecken från operatören.
Citat:
Ursprungligen postat av
Gurney
Jag noterar att du helt ignorerade det problem jag presenterade i form av att personen som startar en robot kanske inte ens lever längre när den skjuter någon.
Men det största argumentet är helt enkelt att en helt självgående robot som kan köra runt och skjuta själv är för komplex för att den som placerar ut den ska hållas ansvarig. Placerar man ut minor eller skjuter en värmesökande robot så kan man föreställa sig allt som kan hända, en värmesökande robot har en begränsad mängd drivmedel och en mina kan bara explodera, alltså kan operatören hållas ansvarig. En helt självgående robot kan misstolka saker i sin mjukvara på oförutsebara sätt som gör det helt orimligt att hålla den som satte igång roboten ansvarig - detta var min poäng. Det är bara att starta valfritt tvspel och se hur ofta AIn gör något helt absurt och tänka på att det blir mycket värre när samma slags AI ska interagera med den riktiga världen och inte den förutsägbara värld som ett tvspel är.
Fast där snackar ni om ansvarsfrågor som redan existerar.
Vem har ansvaret för en massaker som begås av människor på order från högre officerare?
Vem ska straffas för förintelsen när Hitler och övriga begick självmord hellre än att tas till fånga?
En autonom robot kan ses på samma sätt som en människa i det syftet. Det är den som ger ordern som därför är ansvarig, det mänskliga ansvaret för den som får ordern "skjut dem eller så skjuter vi dig" är begränsad. Och om den som gav ordern inte längre lever så finns det inte någon man kan straffa.
Vad händer om någon plöjer in i en folkmassa med en bil, vem har ansvaret?
Ändras den ansvarsfrågan om bilen i slutet av sin färd träffar en vägg och föraren, utan bälte, flyger igenom rutan och krossar skallen mot väggen som bilen körde in i?
När det gäller buggar och liknande i mjukvaran så är det något som den som ger ordern också har ansvaret över.
Se ovan om AI-bilar till exempel, där de har valet att stanna och stå stilla om något oväntat skulle dyka upp. Om de skulle missa detta och ändå köra på någon, så skulle den som släppte ut dem på vägarna ha ansvaret för det.
Att AI i spel har buggar är inte något stort problem eftersom konsekvenserna inte är särskilt allvarliga.
Jämför med hur ofta operativsystem i hemdatorer får problem och vad som skulle hända om operativsystemet för datorerna i ett kärnkraftverk skulle få problem. Eller ett modernt stridsflygplan eller en mängd andra saker som också är beroende av mjukvara.
Datorspel har buggar eftersom programmerarna (eller snarare, utgivaren) inte bryr sig, problemen kostar mer att fixa än den kostnad som de ger upphov till (eller om man vill, vi har buggar i spel och operativsystem eftersom vi användare accepterar att dessa finns, skulle vi ställa till med ett helvete för utgivarna varje gång en bugg hände, så skulle de sätta högre prioritet på att fixa dem).