Vad är rätt och fel för krigsrobotar?

 


Thomas Hellström

 

 

 

Description: http://bestgamewallpapers.com/files/mass-effect-3/atlas-war-robot_wide.jpg

Back Home

 

 

 

 

 

 

På senare tid har robotforskare, datavetare och kognitionsvetare börjat samarbeta med filosofer, jurister, sociologer och antropologer inom det nya området robotetik. Syftet är att utforska och utforma etiska principer som kommer att behövas för framtidens avancerade robotar. Vi kommer till exempel att behöva ta ställning till om och hur servicerobotar inom äldrevården ska utformas och introduceras som ersättning för mänskliga vårdare.  Blir robotarna populära och eftertraktade uppstår ett fördelningspolitiskt etiskt problem: vem ska få rätten att använda och betjänas av dessa dyra robotar?  När robotarna blir kapabla att fatta komplicerade beslut uppstår dessutom ett behov av att utrusta robotarna med etiska principer så att de beter sig på ett sätt som vi människor anser vara etiskt korrekt.

 

Robotetik är relevant inte minst för de tiotusentals militära robotar som på senare tid börjat användas runt om i världen. De allra flesta av dessa robotar är obeväpnade och fjärrstyrda, och används för övervakning och för att desarmera sprängladdningar. De mest kontroversiella militära robotarna är de obemannade flygplanen, drönarna, som i snart tio år använts av bl.a. USA:s arméer i Irak och Afghanistan. Drönarna fjärrstyrs ofta från kontrollrum i Nevadaöknen, och besluten att avfyra missiler görs då av soldater som själva sitter i säkerhet långt borta från krigsområdet. Ett vanligt argument mot användningen av dessa drönare är att operatörerna lätt blir avtrubbade och inte inser att den TV-spelliknande situationen faktiskt handlar om liv och död, även om deras egna liv aldrig riskeras. De som argumenterar för användning av drönare utgår från samma faktum men drar andra slutsatser. De menar att människor som inte själva är hotade till livet är mindre lätta på hanen än stridspiloter i bemannade flygplan, som på bråkdelar av en sekund måste fatta beslut om beskjutning av de mål de ser på marken. Därför, menar de, att obemannade flygplan är att föredra från en moralisk synvinkel eftersom besluten om eldgivning tas av personer som inte känner behov av att skjuta först och fråga sen för att rädda sig själva.

 

Etiska ställningstaganden rörande krigsföring är ingalunda en ny företeelse. Redan i Gamla testamentet betonas t.ex. vikten av att minimera skador på civilbefolkningen när en stad belägrats. Långt senare formulerades Genèvekonventionerna for att reglera behandlingen av människor i krig, och Haagkonventionerna för att definiera etiska principer för användning av olika typer av vapensystem. Det är intressant att notera att åsikterna om vad som är moraliskt acceptabelt varierar med tiden. Användningen av armborstar förbjöds t.ex. av påven år 1139, troligen för att de möjliggjorde dödande på långt avstånd, något som man knappast protesterar mot idag. Om man är intresserad av att reglera det helvete som krig är handlar det ofta om att välja mellan pest och kolera. Man kan t.ex. notera att människorättsorganisationen Human Rights Watch förespråkar att flygbombning i befolkade områden enbart ska ske med så kallade smarta bomber, som själva styr mot ett förutbestämt mål. Detta inte för att man gillar flygbombning med smarta bomber, utan för att de anses orsaka färre civila skador. Det finns för närvarande väldigt få riktlinjer för användning av robotar i krig, men det är högst troligt att sådana kommer att finnas med i framtida internationella konventioner.

 

Nya etiska problem uppstår i takt med att robotarna blir allt mer autonoma (självstyrande), och framför allt när de ges möjlighet att själva besluta när och hur vapen ska användas. Ett mindre antal sådana militära robotar är redan i drift. SGR-1, som tillverkas av företaget Samsung, används för att övervaka gränsen mellan Syd- och Nordkorea, och kan automatiskt detektera och skjuta människor som rör sig i de otillåtna gränsområdena. Ska sådana robotar över huvud taget tillåtas? Och om så: ska de utrustas med moraliska principer som styr deras handlande? Och hur ska i så fall dessa principer utformas? För att svara på den senare frågan kan man studera de centrala riktlinjer för soldaters beteende i krig som finns beskrivna i Genèvekonventionerna. Diskrimineringsprincipen innebär att man bara får sikta på stridande och inte på civila, och Proportionalitetsprincipen innebär att de förväntade civila skadorna måste stå i rimlig proportion till de förväntade militära vinsterna med en militär operation. En mänsklig soldat som följer denna typ av principer anses som etiskt korrekt. Samma principer skulle även kunna användas för att konstruera etiska robotar. En militärrobot som beter sig som en korrekt agerande mänsklig soldat skulle alltså betraktas som etiskt klanderfri. Även om detta fungerar som en god första ansats leder det inte hela vägen, utan vi kräver sannolikt mer av en robotsoldat än av en mänsklig soldat. En mänsklig soldat kan ibland ursäktas för att ha skjutit först och frågat sen. Det är naturligtvis rimligt att kräva att en robotsoldat riskerar sin existens i större utsträckning än sina mänskliga kollegor.

 

Men dagens robotar är väldigt långt ifrån den typ av artificiell intelligens som vi ser i filmer som Terminator och Star Wars. Det krävs tekniska och vetenskapliga genombrott inom en rad områden innan en robot kan analysera och förstå vad som sker i omgivningen, och därefter agera för att uppnå sina egenformulerade mål. En stor teknisk utmaning för robotar som SGR-1 är att kunna skilja på civila och stridande. Redan normalfallet är svårt nog, och man kan lätt föreställa sig ytterligare komplikationer. Att avgöra om en beväpnad, civilklädd pojke bör betraktas som stridande är ett dilemma redan för en människa, och blir inte lättare för en robot. Vissa forskare menar att problemen är så stora och principiellt svåra att de aldrig kan lösas på ett tillfredställande sätt, och att vi därför bör stoppa utvecklingen av alla militära robotar. Idag tillämpas vanligtvis principen begränsad moralitet (bounded morality), vilket innebär att robotarna enbart används i situationer där de moraliska övervägandena är starkt förenklade. SGR-1 används t.ex. i inhägnade gränsområden där inga människor, vare sig civila eller militärer, får vistas. Diskrimineringsprincipen blir då betydligt lättare att följa.

 

En annan ny frågeställning rör moraliskt ansvar: Kan och bör en robot betraktas som moraliskt ansvarig för sina handlingar? Vi kan återigen jämföra med hur vi betraktar människor i motsvarande avseende. Enligt en modern ståndpunkt definieras moraliskt ansvar av pragmatiska normer i ett samhälle, och är helt enkelt en kontrollmekanism som vi uppfunnit för att främja de handlingar vi anser goda och undertrycka de vi anser onda. Kommer framtidens intelligenta och autonoma robotar att bedömas på liknande sätt som männniskor? Det spontana svaret på den frågan är vanligtvis Nej, med motiveringen att robotar bara gör det som de programmerats att göra. Det moraliska ansvaret ligger då helt på de som utvecklar, tillverkar och använder robotarna. Även om det är en rimlig slutsats för de robotar som existerar i dag, så finns anledning att gardera sig för hur vi kommer att se på saken i den inte alltför avlägsna framtiden. Vi kan konstatera att människor betraktas som moraliskt ansvariga i varierande grad. Små barn anses t.ex. inte som moraliskt ansvariga för sina handlingar, och ansvaret växer gradvis med stigande ålder. En anställd kan, till viss grad, skylla på chefen och därigenom avsäga sig ansvar för sina handlingar på jobbet. Vi tillskriver dessutom redan nu döda ting moraliskt ansvar. Företag, alltså juridiska personer, kan inneha egendom och teckna avtal, och de kan både åtalas och straffas och dessutom ibland anklagas för det vi kallar omoraliskt beteende. Det finns undersökningar av hur människor anklagar industrirobotar för de fel som uppstår under arbetet. Man tilldelar då robotarna ett ansvar som beror på dess autonomitet, alltså dess grad av självstyrande, eller om man så vill, intelligens. Framtidens robotar, så väl militära som civila, kommer definitivt att bli mer autonoma, och de kommer också att kunna lära sig av sina erfarenheter, på samma sätt som människor gör. Deras beteende kommer därför inte bara att bero på det som programmerarna stoppat in i robotens dator vid tillverkningstillfället, utan i stor grad även på det som roboten upplevt efter att den lämnat fabriken. Det är inte alls otroligt att en sådan robot kommer att betraktas som moraliskt ansvarig för sina handlingar.

 

Om och när det kommer till att utdöma ”straff” för robotar som misskött sig uppstår ännu ett etiskt problem: hur vi människor behandlar robotar. Om vi avslutningsvis tillåter oss en fri fantasi om den svårförutsägbara framtiden, kan vi föreställa oss ett scenario där en militärrobot löpt amok och begått ett krigsbrott. Vid närmare analys av robotens minne framkommer dock att anledningen till dess brott står att finna i robotens tidigare upplevelser, då den vid upprepade tillfällen tvingats bevittna massakrer på människor och robotar som den haft till uppdrag att försvara. Detta faktum betraktas av rätten som förmildrande omständigheter. Roboten undgår därigenom lagens hårdaste straff, permanent avstängning, och får i stället tillbringa resten av sitt liv som robotsopare i stadsbibliotekets källare. Om den behandlingen kan anses som etiskt korrekt, och meningsfull, får framtiden utvisa.

 

 

En omarbetad version av denna artikel finns publicerad I Forskning & Framsteg Nr.5/6-2012.