Debatt

Forestill deg en verden med autonome Kalashnikover i hendene på terrorister

Bilde: Cpl. Stormy Mendez/ US Marine Corps.

Norge bør snart ta et tydelig standpunkt til bruken av autonom våpenteknologi.

I 2017 annonserte den russiske våpenprodusenten Kalashnikov at de har utviklet et helautomatisk og autonomt krigssystem basert på nevrale nettverk, klar til å lansere systemet i nær fremtid.

Kalashnikovs AK-47-rifle er allerede et av de mest brukte våpen i terrorhandlinger – med sin lave pris og langvarige kvalitet. Hvem tør forestille seg en verden med autonome Kalashnikover i hendene på terrorister?

Flere land er allerede i gang med å utvikle forløpere til komplett autonome våpen. Ikke overraskende er det USA, Kina, Sør-Korea, Israel, England og altså Russland som ligger i front.  Dette er hva som er offentlig kjent. Vi aner en utvikling som foreløpig foregår uten noen form for regulering.

Hva er autonome våpen?

Autonome våpen, populært kalt drapsroboter, er våpen eller maskiner som analyserer en situasjon og beslutter aksjon basert på analysen. I ytterste konsekvens er konklusjonen å ta liv.

Det er vanskelig å gi noen garantier for at selvstyrte maskiner som dette er i stand til å skille mellom verifiserte militære mål og ikke verifiserte mål – altså sivilister.

Fordi maskinene baserer seg på kunstig intelligens, som igjen bygger på predefinerte oppskrifter (algoritmer) og statistiske analyser, er ikke verdier som skjønn, empati og medfølelse tilstede. Maskinene vil ikke automatisk skille mellom en soldats eller et menneskes intensjoner, men agere på handlingen det gjør. Å angripe eller å overgi seg kan se likt ut.

Den kombinerte bruken av avansert teknologi kan gjøre krigsroboter til svært presise våpen, men ingen kan garantere at de ikke blir hacket eller blir brukt til feil formål. Hvordan disse problemstillingene kodes algoritmisk, finnes det ingen løsning på ennå.

Kan etikken programmeres inn?

Kan vi noensinne overlate til maskiner alene å avgjøre hvem som skal leve og hvem som skal dø? Dersom selvstyrte systemer skal tas i bruk, må etikken programmeres inn. Det må eksistere entydige svar på problemstillinger roboten kan komme til å møte på. Fortsatt diskuteres «trolley-problemet» – om det er riktig å drepe én person for å redde mange andre – verden over, uten en konkret løsning.

Genevèkonvensjonen er brakt frem som eksempel på et kodbart etisk regelsett. Dersom krigsroboter blir programmert til å etterfølge disse prinsippene, vil man kunne sikre at tortur, voldtekt, plyndring eller andre former for mishandling ikke skjer. Det finnes også fordeler med bruk av krigsroboter – de vil ikke rammes av fysiske og psykiske senskader eller etterlate seg sørgende pårørende som følge av krigshandlinger den deltar i. Sannsynligheten for å spare menneskeliv ved å bruke maskiner er stor, og disse kan benyttes til å forhindre massedrap eller andre angrep på sivile slik vi ser forekommer ofte i dag.

Dette til tross er de etiske problemstillingene totalt sett negative. Det finnes per i dag heller ikke lover og prinsipper for å håndtere implikasjoner av bruk av autonome våpen i krigsrett.

Hvem skal holdes ansvarlig for et feilaktig dødelig angrep gjort av et autonomt våpen, er det produsenten, landet angrepet ble utført i eller den som ledet operasjonen? For ofrene, det rent humanitære aspektet, finnes ikke klare juridiske retningslinjer rundt slike angrep.

Uten noen form for regulering av bruk, er det heller ingen grenser for hvor man kan ta i bruk teknologien kan tas i bruk. Hva om autonome våpen plutselig dukker opp ved grensekontroller, ved demonstrasjoner eller i det daglige politiarbeidet?

Motstand

Vi har tidligere sett massiv motstand internasjonalt mot visse typer våpen. FN har konvensjoner med forbud mot eller begrensning av spesielt skadelige konvensjonelle våpen – herunder definert splintbomber, landminer, laservåpen, brannbomber, klasebomber og antipersonellminer. I tillegg finnes konvensjonen mot utvikling, produksjon, prøvesprengning og anskaffelse av atomvåpen.  Utfordringen med disse konvensjonene er at til tross for at de er ratifisert og signert av mange land, er ikke de største våpenaktørene blant disse. Det skjer en gradvis utvanning av eksisterende konvensjoner og internasjonale avtaler når land trekker seg ut, og det skaper en ustabilitet i maktforhold mellom stormakter som kan sette igang våpenkappløp.

Det finnes dessuten mange internasjonale opprop for å forby eller regulere autonome våpen. Future of Life Institute er allerede nevnt. Human Rights Watch støtter og koordinerer et annet initiativ, Stop Killer Robots, og ønsker et totalforbud mot all utvikling og bruk av autonome våpensystemer.

Ettersom avansert teknologi tar mer og mer plass i våpenutvikling, og spesielt den type teknologi som er aktuell i selvstyrte systemer (kunstig intelligens), er det slik at de som foreløpig ligger i lengst fremme i denne utviklingen ikke er våpenselskapene, men de store teknologiselskapene – eksempelvis Google, Microsoft og Huawei. For å sikre vellykket utvikling trengs dyktige mennesker med kompetanse, og de søker seg ofte til der lønningene og anseelsen er høyest. Forsvarsbudsjetter verden over ligger godt under årlig omsetning i de største teknologiselskapene.

I tillegg er det slik at den enkelte utvikler og teknolog som har med utvikling av teknologien å gjøre, er i stand til å foreta sine egne valg basert på sin egen etikk og moral. I fjor dannet over 4000 ansatte fra Google sitt eget interne opprør mot selskapets deltagelse i et underprosjekt – Google Maven – som i samarbeid med Pentagon skulle forbedre drone-teknologi ved hjelp av kunstig intelligens.

Google, Tesla og en rekke andre selskaper og land har gjennom organisasjonen Future of Life, landet et viktig felles prinsipp – at avgjørelsen om å ta et menneskeliv aldri skal delegeres til en maskin.

Vil en internasjonal konvensjon kunne hindre fatal bruk av teknologien? Flere og flere synes å mene det. FN ved Antonio Guterres tar til orde for et forbud mot slike våpen, mens Røde Kors (ICRC) ser for seg en streng regulering snarere enn forbud – en regulering som skal sikre at minst et menneske kan intervenere når som helst i en operasjon med bruk av autonome våpen. I NATO er ny teknologi definert som en av de største truslene fremover. Samtidig står de allierte si fare for å bli forbigått av Russland og Kina i utviklingen av teknologien.

Mangler offisielt standpunkt fra Norge

Hva sier norsk forsvarspolitikk om denne type teknologi? Det norske forsvaret har ingen langsiktig plan om satsing på robotikk. Det som er sikkert for norsk forsvarsøkonomi er at det ikke er økonomisk eller samfunnsmessig bærekraftig å sløse bort dyre luftmissiler (AMRAAM) skutt fra enda dyrere fly (F-35) mot billig-droner i tusenkroners-klassen i de militære operasjoner vi deltar i. Tilsvarende vil det være mer lønnsomt å redusere investeringene i store, skreddersydde systemer og heller anskaffe mer innovative løsninger.

Nå har en gruppe akademikere, forskere og it-eksperter startet et norsk opprop mot autonome våpen – fordi vi er nødt til å forholde oss til problemet også her i Norge. Det er absolutt ikke for tidlig å ta et prinsipielt standpunkt, til tross for at teknologien ikke er ferdig utviklet og produksjonssatt ennå. Et politisk standpunkt fra nasjonen Norge er et viktig bidrag til den internasjonale mønstringen som pågår, og det haster.

Politisk kan vi også gjøre noen helt konkrete grep – eksempelvis kan vi nedfelle begrensninger for hva Statens Pensjonsfond Utland kan investere i. Oljefondet har ulike kategorier som diskvalifiserer selskap fra å inngå i investeringsporteføljen. Våpen er inkludert på generelt grunnlag, men det er fullt mulig å spesifisere nærmere type våpenteknologi. En ny rapport viser at Oljefondet kan være deleier i så mange som 400 ulike våpenselskaper, deriblant amerikanske Raytheon, som produserer blant annet autonome våpensystemer.

Slik trenger det ikke å være hvis man har et klart, politisk standpunkt til disse våpenteknologiene.

Det er på tide å modernisere et kjent afrikansk ordtak: «It takes a village to raise a child – it takes a world to raise AI.»

Bli abonnent

Da får du tilgang til alle artikler. Det tar under ett minutt.

Prøv i en måned for 1,-
Allerede abonnent? Logg inn

Fra forsiden