Kunstig intelligens skaper nye moralske dilemmaer for ledere. Hvordan kan vi gjøre intelligente maskiner moralske?

KOMMENTAR: Øyvind Kvalnes om ledelse

Tenk deg en førerløs bil på vei gjennom byen, med en passasjer i forsetet. Plutselig løper fem tiåringer ut i veien foran bilen, for å fange en ball. Den rekker ikke å bremse. Bilen kan programmeres til enten å fortsette rett frem og ta livet av barna eller til å svinge til siden, ødelegge seg selv og ta livet av passasjeren. Hva bør bilen programmeres til å gjøre?

Bilprodusenter og lovgivere kan få råd fra konsekvensetikken. Den vil si at det alltid er riktig å maksimere samlet nytte for alle berørte parter. Bilen bør altså programmeres til å destruere seg selv, siden valget står mellom at passasjeren eller fem tiåringer skal overleve.

Det hører med i det etiske regnskapet at bilen blir ødelagt. Konsekvensetikken mener vi må akseptere det, så lenge det måles opp mot menneskeliv, som er uendelig mye mer verd.

Dilemmaet med førerløse biler

Dilemmaet med førerløse biler kan studeres i lys av det klassiske trikke-problemet, lansert av den britiske filosofen Philippa Foot i 1967:

En førerløs trikk er på full fart nedover skinnene. Den kommer til å kjøre over og drepe fem personer som er bundet fast til skinnene lenger nede. Du har muligheten til å redde dem ved å bruke en sporveksler til å sende trikken over på et sidespor. Der ligger det en fastbundet person, som kommer til å bli overkjørt og drept. Er det riktig av deg å bruke sporveksleren, eller skal du la være å gripe inn?

Også her er det en avveining mellom om fem eller en person skal dø. En konsekvensetiker vil hevde at det er et enkelt valg, siden det ene alternativet så tydelig maksimerer nytte. En pliktetiker vil være mer skeptisk til å gripe inn, og mene at vi er mer ansvarlige for det vi aktivt gjør, enn det vi passivt lar skje.

Prioriterer føreren

Direktør Christoph von Hugo i Mercedes-Benz har allerede uttalt (i Car and Driver, oktober 2016) at selskapet vil programmere sine biler til å prioritere passasjerene i bilen fremfor dem utenfor, hver eneste gang. Det kan være forståelig ut fra en forretningsmessig vurdering. Hvem vil vel kjøpe seg en bil som kan komme til å prioritere livene til fremmede utenfor bilen fremfor sjåføren med følge inni bilen?

En studie av folks holdninger til programmering av førerløse biler tyder på at den konsekvensetiske tenkningen står sterkt (Bonnefon, Sharif og Rahwan, 2016). Forskerne spurte 1928 personer om hvordan bilene kan bli mest mulig moralske maskiner. Flertallet svarte at bilene bør programmeres til alltid å minimere skade.

På spørsmålet om hva slags bil de selv ville vurdere å kjøpe, derimot, svarte de fleste at de ville ha en bil som prioriterer og beskytter dem selv, på bekostning av fotgjengere og andre utenforstående.

Konsekvensetisk paradoks

Dette bruker forskerne til å formulere et konsekvensetisk paradoks:

  • Førerløse biler vil trolig redusere antall ulykker og skader i trafikken. Det er i tråd med konsekvensetikken. 
  • Hver enkelt bil bør ifølge denne etikken programmeres til å minimere menneskelig skade. 
  • Hvis dette programmerings-rådet følges, så vil færre skaffe seg førerløse biler, og den ønskede reduksjonen i skader i trafikken inntreffer ikke. 
Konsekvensetikken kan derfor paradoksalt nok komme frem til at bilene bør programmeres til alltid å prioritere dem som er inni bilen foran dem som er utenfor, selv om det isolert sett er galt, ut fra den samme etikken.

Møter nye dilemmaer

Programmering av førerløse biler et bare ett av mange eksempler hvor kunstig intelligens skaper nye dilemmaer for beslutningstagere. Valgene har både juridiske, økonomiske, etiske og verdimessige dimensjoner.

Her som ellers er det trolig at den teknologiske utviklingen skjer i et raskere tempo enn den etiske refleksjonen. Plutselig dukker det opp muligheter og dilemmaer som vi ikke har tenkt over. Vi famler oss temmelig blindt frem i et moralsk minefelt.

Kan vi klare å skru opp hastigheten på etikken også, slik at vi er forberedt på utfordringene som intelligente maskiner byr på?

Referanser:

Bonnefon, J. , Sharif, A. , & Rahwan, I. (2016): The social dilemma of autonomous vehicles. Science, 352 (6293), 1573-1576.

Denne formidlingsartikkelen er publisert som kommentarartikkel om ledelse I Dagens Næringsliv 5. desember 2016. 

Si din mening:

Send gjerne dine spørsmål og kommentarer til denne artikkelen på E-post til forskning@bi.no. Bruk gjerne kommentarfeltet nedenfor.

Spørsmål til artikkelen? Andre ting? Kontakt BI Business Review

Kommentarer

Du kan også se alle nyheter her.
BI Business Review

Nyhetsbrev

Meld deg på for oppdaterte nyheter fra BI Business Review!

Meld på