Debatt

Kunstig intelligens kan forsterke problemer i stedet for å løse dem

Bilde: Pixabay

Feil bruk av kunstig intelligens betyr økt offentlig pengebruk, mer uoversiktlig byråkrati og mindre treffsikre beslutningsmodeller.

Kunstig intelligens får stadig flere bruksområder. Vi får ofte høre at det skal revolusjonere alt fra offentlig sektor til byer til vår egen helse. For eksempel vil kunstig intelligens i løpet av fem til ti år bli tatt i bruk i det norske rettsvesenet, anslår rettshistoriker, Jørn Øyrehagen Sunde, og førsteamanuensis i informatikk, Morten Goodwin.

Men hvor mye vet vi om hvordan kunstig intelligens faktisk fungerer? Hva er erfaringene fra bruken i utlandet?

I USA er kunstig intelligens tatt i bruk både av dømmende og utøvende myndigheter. For eksempel ble Eric Loomis dømt til seks års fengsel for å ha kjørt en stjålet bil og stukket av fra politiet. Straffeutmålingen ble ekstra lang fordi en kunstig intelligens beregnet at sannsynligheten for at Loomis vil begå nye forbrytelser, er svært høy.

Loomis protesterte fordi han ikke fikk innsyn i algoritmene som den kunstige intelligensen baserte seg på, men dette ble avslått fordi detaljene i disse algoritmene er forretningshemmeligheter til en privat bedrift.

Som matematikeren Cathy O’Neil skriver i boken Weapons of Math Destruction, fører myndighetenes bruk av kunstig intelligens til at flere afroamerikanere blir arrestert for småkriminalitet, som røyking av marihuana og drikking på offentlige plasser, og dømt til lengre straffer. Algoritmene får ikke direkte informasjon om etnisitet, men annen informasjon, som bostedsadresse og hvorvidt foreldre og søsken har et rulleblad, gjør den kunstige intelligensen rasistisk, ifølge O’Neil.

Artikkelen fortsetter under lenken.

Min beste lærer fikk meg til å drømme om å bli Mark Zuckerberg

Imidlertid er det ikke sikkert vi får de samme problemene i Norge som i USA. Som Goodwin skriver om hos Ytring, kan kunstig intelligens øke rettssikkerheten dersom den brukes riktig. Det virker nokså utenkelig at vi her i Norge ikke skulle få innsyn i algoritmer brukt i en rettssak, fordi myndighetene prioriterer å beskytte forretningshemmelighetene til en privat bedrift.

I historiene fra USA er den kunstige intelligensen umenneskelig korrekt, men dette forutsetter veldig gode programmere og forskere. Det viktigste vi kan lære av amerikanerne er imidlertid at dette er et verktøy som har en tendens til å forsterke problemer som allerede eksisterer i samfunnet.

Mønsterutfordringer

Mye av fremgangen innen kunstig intelligens kan tilskrives bruk av nevrale nettverk, som er maskinlæringsalgoritmer inspirert av biologisk nervevev. Som jeg skriver om i Dyp læring med Westworld, illustrerer denne HBO-serien prinsippene i nevrale nettverk svært godt. Veldig forenklet består nevrale nettverk av flere lag med algoritmer som trenes opp på store mengder data.

Et godt designet nevralt nettverk som brukes på rett måte, kan finne svært komplekse sammenhenger eller mønstre uten at vi helt forstår hvordan. Mange helt elementære spørsmål står åpne, som «Hvor mange lag bør det nevrale nettverket ha for å beskrive et gitt datasett?», «Hvor mye treningsdata er nødvendig?», «Hva er den statistiske signifikansen?» og «Hvordan kan man være sikker på at det nevrale nettverket ikke har for høy kompleksitet?»  De utilgjengelige utregningene i disse algoritmene kalles den sorte boksen.

Som Tarjei Bondvik skriver mer detaljert om i Statistisk signifikans betyr ofte ingen verdens ting,  kan det oppstå tilfeldige mønstre i et datasett, så dersom en kunstig intelligens finner en sammenheng i treningsdata, må man alltid være nøye på å sjekke om denne sammenhengen er reell. Det finnes flere metoder man kan bruke til å avsløre om en sammenheng bare er tilfeldig, for eksempel prøve ut den kunstige intelligensen på et stort nok testdatasett som er uavhengig av treningsdataene. Imidlertid kan dette være svært krevende å gjøre i praksis. For eksempel kan det være vanskelig å beregne hvor mye treningsdata og testdata man trenger for en spesifikk kunstig intelligens.

Siden det er så stor usikkerhet knyttet til kunstig intelligens, kan man spørre seg hvorfor stadig flere tar det i bruk.

Andre ganger kan en kunstig intelligens avdekke en reell sammenheng, men på feil grunnlag. For eksempel utviklet tre studenter ved University of Washington en kunstig intelligens som skulle se forskjell på hunder og ulver. Etter å ha blitt trent opp på store mengder bilder av hunder og ulver, virket det som om programmet hadde lært seg hvilke kjennetegn som skiller hunder og ulver, siden det ofte svarte riktig når det ble vist et bilde. Imidlertid viste det seg at den kunstige intelligensen kategoriserte bilder med snø som ulvebilder.

I følge ekspert på kunstig intelligens og førsteamanuensis i informasjonsteknologi, Odd Erik Gundersen, er mye av forskningen på kunstig intelligens upålitelig. Ofte lar forskningen seg ikke gjenskapes og bekreftes av andre forskere. Forklaringen kan være alt fra forskere som ikke kan statistikk til publiseringspresset i akademia.

Målet må kunne forsvare middelet

Siden det er så stor usikkerhet knyttet til kunstig intelligens, kan man spørre seg hvorfor stadig flere tar det i bruk. Innen tradisjonell statistikk setter man opp hypotesene sine i forkant av studien i stedet for å prøve utallige kombinasjoner, og denne metoden kan bidra til å gjøre vitenskapen mer troverdig, skriver Bondevik. I diskusjonen rundt Minervateksten Statistisk signifikans betyr ofte ingen verdens ting, uttrykte flere at det å analysere et datasett på mange forskjellige måter inntil man finner et statistisk signifikant resultat, er på grensen til forskningsfusk. Og faktisk kan metoder innen kunstig intelligens, som mønstergjenkjenning og maskinlæring, brukes til å jukse eller produsere meningsløse resultater. 

Imidlertid finnes det svært komplekse problemer som ikke lar seg løse med tradisjonelle forskningsmetoder. Et eksempel er genregulering. Som jeg skriver mer detaljert om i CRISPR kan revolusjonere behandlingen av kreft og genetiske sykdommer, ble det menneskelige genomet kartlagt allerede i 2003, men de fleste egenskapene våre avhenger av hvordan genene interagerer med hverandre og hvilke gener som er slått av og på. Denne genreguleringen er ekstremt kompleks, og tradisjonell forskning har gitt lite detaljkunnskap om den. Men mye tyder på at metoder fra kunstig intelligens, bioteknologi og stordata vil gi oss mye større forståelse av denne reguleringen.

Når avanserte mønstergjenkjennings- og andre kunstig intelligens-metoder anvendes på data fra mindre komplekse systemer, som trafikken i en liten eller middels stor by, er det grunn til å være mer skeptisk. Dersom man prøver ut utallige kombinasjoner og til slutt finner et statistisk signifikant resultat, er det relativ stor sannsynlighet for at det man har funnet, bare er tilfeldig.

Hvis man derimot undersøker et mindre komplekst system, som trafikken i en liten by, så finnes kanskje ingen ukjente sammenhenger av betydning.

Et alternativ til å sette opp hypoteser før man gjennomfører et forsøk, er derfor å analysere kompleksiteten til systemet man ønsker å undersøke:

Dersom man undersøker et veldig komplekst system, som genregulering, hvor man på forhånd vet at det finnes ukjente mønster og sammenhenger, er det rimelig at man prøver ut forskjellige kombinasjoner inntil man finner et statistisk signifikant resultat.

Hvis man derimot undersøker et mindre komplekst system, som trafikken i en liten by, så finnes kanskje ingen ukjente sammenhenger av betydning. Derfor bør man på forhånd redegjøre for hva som er hensikten med å bruke så avanserte metoder på dataene. 

Men å analysere kompleksiteten til et system er mye mer krevende enn å sette opp hypoteser før man gjennomfører forsøket. For at forskning på kunstig intelligens skal bli bedre i praksis, kreves høyere kompetanse blant forskerne samt mer arbeid enn ved bruk av tradisjonelle metoder, ifølge Gundersen. Imidlertid finnes det indisier for at mange går for mer lettvinte og spekulative løsninger.

Artikkelen fortsetter under lenken.

Dyp læring med Westworld

Vellykket digitalisering krever smarte mål

Smart by-initiativ kan gjøre driften av en by mer effektiv og miljøvennlig,  men dessverre slites begrepet ut av festtaler, og altfor få smart by-prosjekter gir konkrete, målbare resultater.

I Bodø skal det skal bygges ny flyplass, og dette har initiert prosjektet Ny by – Ny flyplass. Prosjektet er utvilsomt interessant. Det skal bygges en helt ny bydel på 3400 dekar med bolig- og næringsområde. Bodø kommune ønsker å tenke helt nytt og smart innen byutvikling, og vil derfor bidra med svar på spørsmål som «Hvordan ser fremtidens by ut?», «Hvordan bygger vi en nullutslippsby?», «Hvilke transportsystemer skal vi ha?», «Hvilken type hus skal vi ha?» og «Hvilken type teknologi skal vi bruke?».

I følge søknaden har kunstig intelligens allerede en sentral plass i byplanleggingen i Bodø kommune, men det står lite spesifikt om hvordan man skal sørge for at alle løsninger blir skalerbare.

I 2018 gikk Smartere transport Bodø av med hovedpremie på 50 millioner kroner i konkurransen Smartere transport i Norge. Et av målene er å samle inn data ved hjelp av teknologi som støtter intelligente trafikksystemer, slik at man kan gi et vennlig dytt til innbyggere om å benytte seg av grønn transport som bysykler.

Det er godt mulig at noen problemer i Bodø kan og bør løses med store datainnsamlinger og avansert teknologi. Men som syklist bosatt i Bodø, opplever jeg at mange utfordringer har en mye enklere løsning. For eksempel vet datteren min og jeg aldri om hele skoleveien er dekket av et tykt lag snø når vi forlater huset klokken åtte om morgenen. Må vi gå på ski, trenger vi brodder på skoene eller kan vi sykle?

Løsninger funnet med kunstig intelligens er generelt ikke skalerbare

I søknaden til Smartere transport Bodø står det: «Vi skal sørge for at alle løsninger er skalerbare slik at både større og mindre byer kan ta dem i bruk». Det at løsningene skal være skalerbare til andre steder i Norge ble også vektlagt av juryen til Smartere transport i Norge.

I følge søknaden har kunstig intelligens allerede en sentral plass i byplanleggingen i Bodø kommune, men det står lite spesifikt om hvordan man skal sørge for at alle løsninger blir skalerbare. Dette er absolutt ikke trivielt, siden løsninger funnet med kunstig intelligens generelt ikke er skalerbare.

Det betyr ikke at det er umulig, men som jeg skriver mer detaljert om i en annen artikkel, er avanserte modeller og løsninger som man finner med maskinlæring og kunstig intelligens, svært gode på spesifikke oppgaver, men ofte dårlige på generelle oppgaver.

Det kan være en god idé å spisse seg mot de største utfordringene. I stedet for å prøve å finne løsninger på alle problemer, både i Bodø og i Norge, bør Smart-Bodø ta utgangspunkt i de utfordringene det er størst behov for å løse. 

Vi bør kreve høy faglighet og målbare resultater

Eksempelet illustrerer at kunstig intelligens har potensialet til å øke pengebruk og lage overkompliserte modeller som gir mindre treffsikre løsninger enn tradisjonelle modeller. Lite treffsikre beslutningsmodeller kan igjen bidra til et mer uoversiktlig byråkrati.

Kunstig intelligens kan finne veldig treffsikre løsninger dersom den brukes riktig, men, som jeg diskuterer over, krever det både høy faglig kompetanse og mye tidsbruk, og veien til overkompliserte og lite treffsikre modeller er mye bredere.

Det offentlige bruker store ressurser på smart by-initiativ, digitalisering og forskning relatert til kunstig intelligens. Det er derfor rimelig å kreve at disse prosjektene både har høy faglighet og fører til konkrete og målbare forbedringer for samfunnet

Bli abonnent

Da får du tilgang til alle artikler. Det tar under ett minutt.

Prøv i en måned for 1,-
Allerede abonnent? Logg inn

Fra forsiden