På senare tid
har robotforskare, datavetare och kognitionsvetare börjat samarbeta med
filosofer, jurister, sociologer och antropologer inom det nya området
robotetik. Syftet är att utforska och utforma etiska principer som kommer att
behövas för framtidens avancerade robotar. Vi kommer till exempel att behöva
ta ställning till om och hur servicerobotar inom äldrevården ska utformas och
introduceras som ersättning för mänskliga vårdare. Blir robotarna populära och eftertraktade
uppstår ett fördelningspolitiskt etiskt problem: vem ska få rätten att
använda och betjänas av dessa dyra robotar?
När robotarna blir kapabla att fatta komplicerade beslut uppstår
dessutom ett behov av att utrusta robotarna med etiska principer så att de
beter sig på ett sätt som vi människor anser vara etiskt korrekt.
Robotetik är
relevant inte minst för de tiotusentals militära robotar som på senare tid
börjat användas runt om i världen. De allra flesta av dessa robotar är
obeväpnade och fjärrstyrda, och används för övervakning och för att desarmera
sprängladdningar. De mest kontroversiella militära robotarna är de obemannade
flygplanen, drönarna, som i snart tio år använts av bl.a. USA:s arméer i Irak
och Afghanistan. Drönarna fjärrstyrs ofta från kontrollrum i Nevadaöknen, och
besluten att avfyra missiler görs då av soldater som själva sitter i säkerhet
långt borta från krigsområdet. Ett vanligt argument mot användningen av dessa
drönare är att operatörerna lätt blir avtrubbade och inte inser att den
TV-spelliknande situationen faktiskt handlar om liv och död, även om deras
egna liv aldrig riskeras. De som argumenterar för användning av drönare utgår
från samma faktum men drar andra slutsatser. De menar att människor som inte
själva är hotade till livet är mindre lätta på hanen än stridspiloter i
bemannade flygplan, som på bråkdelar av en sekund måste fatta beslut om
beskjutning av de mål de ser på marken. Därför, menar de, att obemannade
flygplan är att föredra från en moralisk synvinkel eftersom besluten om
eldgivning tas av personer som inte känner behov av att skjuta först och
fråga sen för att rädda sig själva.
Etiska
ställningstaganden rörande krigsföring är ingalunda en ny företeelse. Redan i
Gamla testamentet betonas t.ex. vikten av att minimera skador på
civilbefolkningen när en stad belägrats. Långt senare formulerades
Genèvekonventionerna for att reglera behandlingen av människor i krig, och
Haagkonventionerna för att definiera etiska principer för användning av olika
typer av vapensystem. Det är intressant att notera att åsikterna om vad som
är moraliskt acceptabelt varierar med tiden. Användningen av armborstar förbjöds t.ex. av påven år 1139, troligen för
att de möjliggjorde dödande på långt avstånd, något som man knappast
protesterar mot idag. Om man är intresserad av att reglera det helvete som
krig är handlar det ofta om att välja mellan pest och kolera. Man kan t.ex.
notera att människorättsorganisationen Human Rights
Watch förespråkar att flygbombning i befolkade områden enbart ska ske med så
kallade smarta bomber, som själva styr mot ett förutbestämt mål. Detta inte
för att man gillar flygbombning med smarta bomber, utan för att de anses
orsaka färre civila skador. Det finns för närvarande väldigt få riktlinjer
för användning av robotar i krig, men det är högst troligt att sådana kommer
att finnas med i framtida internationella konventioner.
Nya etiska
problem uppstår i takt med att robotarna blir allt mer autonoma
(självstyrande), och framför allt när de ges möjlighet att själva besluta när
och hur vapen ska användas. Ett mindre antal sådana militära robotar är redan
i drift. SGR-1, som tillverkas av företaget Samsung, används för att övervaka
gränsen mellan Syd- och Nordkorea, och kan automatiskt detektera och skjuta
människor som rör sig i de otillåtna gränsområdena. Ska sådana robotar över
huvud taget tillåtas? Och om så: ska de utrustas med moraliska principer som
styr deras handlande? Och hur ska i så fall dessa principer utformas? För att
svara på den senare frågan kan man studera de centrala riktlinjer för
soldaters beteende i krig som finns beskrivna i Genèvekonventionerna.
Diskrimineringsprincipen innebär att man bara får sikta på stridande och inte
på civila, och Proportionalitetsprincipen innebär att de förväntade civila
skadorna måste stå i rimlig proportion till de förväntade militära vinsterna
med en militär operation. En mänsklig soldat som följer denna typ av
principer anses som etiskt korrekt. Samma principer skulle även kunna
användas för att konstruera etiska robotar. En militärrobot som beter sig som
en korrekt agerande mänsklig soldat skulle alltså betraktas som etiskt
klanderfri. Även om detta fungerar som en god första ansats leder det inte
hela vägen, utan vi kräver sannolikt mer av en robotsoldat än av en mänsklig
soldat. En mänsklig soldat kan ibland ursäktas för att ha skjutit först och
frågat sen. Det är naturligtvis rimligt att kräva att en robotsoldat riskerar
sin existens i större utsträckning än sina mänskliga kollegor.
Men dagens
robotar är väldigt långt ifrån den typ av artificiell intelligens som vi ser
i filmer som Terminator och Star Wars. Det krävs
tekniska och vetenskapliga genombrott inom en rad områden innan en robot kan
analysera och förstå vad som sker i omgivningen, och därefter agera för att
uppnå sina egenformulerade mål. En stor teknisk utmaning för robotar som SGR-1
är att kunna skilja på civila och stridande. Redan normalfallet är svårt nog,
och man kan lätt föreställa sig ytterligare komplikationer. Att avgöra om en
beväpnad, civilklädd pojke bör betraktas som stridande är ett dilemma redan
för en människa, och blir inte lättare för en robot. Vissa forskare menar att
problemen är så stora och principiellt svåra att de aldrig kan lösas på ett
tillfredställande sätt, och att vi därför bör stoppa utvecklingen av alla
militära robotar. Idag tillämpas vanligtvis principen begränsad moralitet (bounded morality), vilket
innebär att robotarna enbart används i situationer där de moraliska
övervägandena är starkt förenklade. SGR-1 används t.ex. i inhägnade
gränsområden där inga människor, vare sig civila eller militärer, får vistas.
Diskrimineringsprincipen blir då betydligt lättare att följa.
En annan ny
frågeställning rör moraliskt ansvar: Kan och bör en robot betraktas som
moraliskt ansvarig för sina handlingar? Vi kan återigen jämföra med hur vi
betraktar människor i motsvarande avseende. Enligt en modern ståndpunkt
definieras moraliskt ansvar av pragmatiska normer i ett samhälle, och är helt
enkelt en kontrollmekanism som vi uppfunnit för att främja de handlingar vi
anser goda och undertrycka de vi anser onda. Kommer framtidens intelligenta
och autonoma robotar att bedömas på liknande sätt som männniskor?
Det spontana svaret på den frågan är vanligtvis Nej, med motiveringen att
robotar bara gör det som de programmerats att göra. Det moraliska ansvaret
ligger då helt på de som utvecklar, tillverkar och använder robotarna. Även
om det är en rimlig slutsats för de robotar som existerar i dag, så finns
anledning att gardera sig för hur vi kommer att se på saken i den inte
alltför avlägsna framtiden. Vi kan konstatera att människor betraktas som
moraliskt ansvariga i varierande grad. Små barn anses t.ex. inte som
moraliskt ansvariga för sina handlingar, och ansvaret växer gradvis med
stigande ålder. En anställd kan, till viss grad, skylla på chefen och
därigenom avsäga sig ansvar för sina handlingar på jobbet. Vi tillskriver
dessutom redan nu döda ting moraliskt ansvar. Företag, alltså juridiska
personer, kan inneha egendom och teckna avtal, och de kan både åtalas och
straffas och dessutom ibland anklagas för det vi kallar omoraliskt beteende.
Det finns undersökningar av hur människor anklagar industrirobotar för de fel
som uppstår under arbetet. Man tilldelar då robotarna ett ansvar som beror på
dess autonomitet, alltså dess grad av
självstyrande, eller om man så vill, intelligens. Framtidens robotar, så väl
militära som civila, kommer definitivt att bli mer autonoma, och de kommer
också att kunna lära sig av sina erfarenheter, på samma sätt som människor
gör. Deras beteende kommer därför inte bara att bero på det som programmerarna
stoppat in i robotens dator vid tillverkningstillfället, utan i stor grad
även på det som roboten upplevt efter att den lämnat fabriken. Det är inte
alls otroligt att en sådan robot kommer att betraktas som moraliskt ansvarig
för sina handlingar.
Om och när det
kommer till att utdöma ”straff” för robotar som misskött sig uppstår ännu ett
etiskt problem: hur vi människor behandlar robotar. Om vi avslutningsvis
tillåter oss en fri fantasi om den svårförutsägbara framtiden, kan vi
föreställa oss ett scenario där en militärrobot löpt amok och begått ett
krigsbrott. Vid närmare analys av robotens minne framkommer dock att
anledningen till dess brott står att finna i robotens tidigare upplevelser,
då den vid upprepade tillfällen tvingats bevittna massakrer på människor och
robotar som den haft till uppdrag att försvara. Detta faktum betraktas av
rätten som förmildrande omständigheter. Roboten undgår därigenom lagens
hårdaste straff, permanent avstängning, och får i stället tillbringa resten
av sitt liv som robotsopare i stadsbibliotekets källare. Om den behandlingen
kan anses som etiskt korrekt, och meningsfull, får framtiden utvisa.
En omarbetad version av denna artikel finns
publicerad I Forskning & Framsteg Nr.5/6-2012.
|