DEBATT

Foto: Carlquinn/Wikimedia Commons (CC BY-SA 4.0)

En kø av utfordringer for selvkjørende biler

Kunstig intelligens og autonome maskiner kommer til å utfordre oss på bred front i tiden fremover. Hvilke moralske valg ønsker vi at kunstig intelligens skal gjøre på våre vegne?

Publisert

Dette er utgangspunktet for Massachusetts Institute of Technologys (MIT) prosjekt «Moral Machine». Prosjektet ønsker å belyse kulturelle forskjeller i synet på hvem som skal ofres i en situasjon der en selvkjørende bil har mistet bremsekraften og må velge hvem eller hva den skal kjøre inn i. Problemstillingen er reell nok og vi kan måtte ta stilling til den raskere enn vi strengt tatt er forberedt på. Men denne type ekstreme situasjoner og tilhørende valg er like sjeldne som de er ekstreme.

Det er kjent at vi har lavere aksept for risiko som oppfattes som påført enn der vi selv eller kan påvirke den. Denne risikoaversjonen kommer særlig til uttrykk ved innføring av ny teknologi. I lys av det kan man spørre om det noen gang vil bli akseptert at kjøretøyet kan velge å ofre “føreren” basert på en kost/nytte-vurdering, enten denne er uttrykt i penger eller kulturelle verdier. Det betyr ikke at ikke innføringen av selvkjørende biler står ovenfor en kø av utfordringer. I denne køen finner vi tekniske så vel som juridiske og etiske problemstillinger. Og ikke minst, hva vil vi akseptere av risiko knyttet til denne teknologien?

På en vakker morgen i solfylte Florida startet Jeremy Banner på sin siste kjøretur her på jorden. Som vanlig aktiverte han Teslaens autopilotfunksjon. Ikke lenge etter dundret bilen hans inn under et vogntog som krysset veien, og tak og førerkupe ble skrellet av. Jeremy Banner, 50 år gammel og far til tre, døde på stedet. Og illustrerte dermed et av maskinlæringens paradokser. At oppgaver som er latterlig enkle for mennesker, som å skille mellom en ufarlig struktur i form av en bro over en vei og et vogntog som blokkerer veien, kan være frustrerende vanskelige for maskinsensorer. Å skille mellom katter og hunder lærer små barn lett, kunstig intelligente maskiner har slitt med denne oppgaven også. Tesla advarer riktignok om at man ikke kan slippe oppmerksomheten eller for den del rattet, selv om denne funksjonen er aktivert. Nokså forutsigbart erfarer man derimot at brukerne har et mer avslappet forhold til det. Tilfeller der førerne leser, sovner, sjekker mail og har sex, mens autopilotfunksjonen kjører, har alle nådd avisene.

Vi må leve med at dersom denne teknologien tas i bruk, vil den både brukes og misbrukes. Men hvor god skal vi kreve at denne teknologien blir før vi slipper den løs? Hvor mye risiko vil vi akseptere å bli eksponert forfra selvkjørende biler? Må teknologien bli feilfri? Eller holder det at den er bedre enn den gjennomsnittlige bilfører? Hvordan man definerer en gjennomsnittlig bilfører er selvfølgelig et annet dilemma. Som så godt som all teknologisk risiko har også denne en oppside: Dersom teknologien blir bare litt bedre enn et gjennomsnittlig menneske, kan tusener av liv spares. En selvkjørende bil blir ikke distrahert, trøtt eller får lyst til å sjekke Facebook.

Lærende maskiner er ikke programmert med alle instruksjoner den trenger for å reagere. Maskinlæring innebærer at teknologien selv utvikler regler for hvordan inntrykk skal tolkes og reageres på. Da er det heller ikke gunstig at teknologien holdes i laboratoriet og på testbaner for lenge. Det kan argumenteres for at teknologien bør slippes løs i trafikken mens den ennå er dårligere enn en gjennomsnittlig sjåfør. Man vil få en brattere læringskurve og, på lengre sikt, vil liv bli spart. Men vil dette bli akseptert? Gitt det vi vet om risikoaksept og teknologi virker det tvilsomt. Samtidig, for hver dag potensielt livreddende teknologi utsettes, vil liv gå tapt. I sannhet et dilemma. Og gitt at noen skulle lage en antatt feilfri selvkjørende teknologi, hvordan får man bevist at den faktisk er det?

Ulykker er faktisk sjeldne. Dødsulykker såpass sjeldne at for å være sikker på at selvkjørende biler har samme dødsrisiko som oss, vel, dødelige sjåfører, så måtte de kjørt ulykkesfritt i om lag 428 millioner kilometer (Kalra 2016, omregnet til norske tall). En flåte på 100 biler ville brukt om lag 10 år for å tilbakelegge den distansen om de kjørte døgnet rundt i 50 kilometer i timen. Og selv da ville vi bare vært 95 prosent sikre. Med andre ord må vi ikke bare bli teknologisk smartere og bedre til å forstå risiko knyttet til teknologien, vi må også utvikle smartere måter å kvalifisere denne teknologien på.

Veien fremover er minelagt med etiske og teknisk utfordringer. Dessverre er det også den eneste veien fremover. Å navigere den vil kreve både et etisk kompass og god risikoforståelse som kart.

Powered by Labrador CMS