Tip os log ind
To forskere fra Københavns Universitet skal de næste to år arbejde med etik i forbindelse med kunstig intelligens. (Arkivfoto)

KU vil lave etisk kodeks for kunstig intelligens

Kunstig intelligens kommer til at spille en større og større rolle. Derfor vil forskere undersøge etikken.
06. december 2018, 04.04

Da atombomben blev opfundet, kom den etiske diskussion først for alvor efter, at paddehatteskyerne over Nagasaki og Hiroshima havde ændret verdenshistorien og vist, at menneskeheden nu kunne udrydde sig selv.

Det satte verdens ledere og hele verdens befolkning i et voldsomt etisk dilemma om, hvornår - hvis nogensinde - atomvåben kunne bruges.

Kunstig intelligens buldrer frem. Det giver nye muligheder, men også nye etiske udfordringer. Derfor vil Københavns Universitet i to år arbejde med at undersøge de etiske dilemmaer, den nye teknologi fører med sig.

- Verden er allerede blevet rystet over, at kunstig intelligens er blevet brugt på meget problematiske måder, for eksempel til at manipulere politiske valg.

- Kunstig intelligens kan bruges til rigtig mange gode ting, men for at teknologien kan vinde accept i befolkningen, er man nødt til at tænke etikken ind fra starten, så folk føler sig trygge ved at lægge data til og acceptere de beslutninger, algoritmerne peger på, siger professor i bioetik ved Københavns Universitet Peter Sandøe, der er en af forskerne bag projektet.

Sammen med lektor Sune Holm skal han i to år følge arbejdet på blandt andet "SCIENCE AI Centre" på Datalogisk Institut under Københavns Universitet. Her skal de identificere etiske udfordringer.

Etiske udfordringer er der rigeligt af. Fra placering af ansvaret, hvis selvkørende biler kører galt, til stigmatisering af bestemte grupper, når teknologien bliver brugt til at udpege mulige kriminelle.

Sammen med eksperter skal de to etikere hjælpe med at udvikle et etisk kodeks inden for området. Det skal regulere forskningen og være en rettesnor for de studerende.

Det er vigtigt, hvis den nye teknologi skal bruges fuldt ud. Hvis der ikke er tillid til forskningen og teknologien, så kan den blive afvist, mener Peter Sandøe.

- Kunstig intelligens har store fordele. Eksempelvis systemer, der kan stille diagnoser hurtigt og præcist.

- Men det kan ende med, at både læger og patienter vender ryggen til mulighederne, hvis de ikke kan gennemskue systemerne.

- Vi skal være med til at sikre, at etikken fra starten bliver tænkt ind i forskningen og de produkter, den kaster af sig, siger Peter Sandøe.

/ritzau/

Ordet er dit