Kunstig intelligens (AI) gir enorme muligheter, men bringer også betydelige etiske bekymringer. 

Hvem har skylda når en datamaskin tar en uetisk beslutning, eller diskriminerer noen? Hvem er til slutt ansvarlig for at kunstig intelligens ikke gjør noe ondt?

- Under hackathonet, som ble arrangert 3. og 4. september i 2020, ble det enighet om at ingeniørene og teknologene ikke alene kan ta ansvaret for etiske feil i AI, poengterer IT-konsulent, NITO-medlem og hackathon-deltaker Rune Krøvel-Velle (bildet).Rune2.jpg

- For å løse de etiske dilemmaene til AI og andre nye teknologier trenger vi en koordinert innsats. En AI-regulering som er informert av ingeniørmiljøet og støtter innsatsen fra alle interessenter, ingeniører og ikke-ingeniører, utdyper han.

Ingeniørene roper etter flere offentlige debatter

Ut av hackathonet kom det en rapport: Addressing ethical dilemmas in AI: Listening to engineers. Her gir ingeniører uttrykk for sine bekymringer, kommer med anbefalinger og ber om en offentlig debatt om at etikken må følge med kappløpet innen kunstig intelligens.

Dette er hovedanbefalingene fra rapporten
  • Få på plass et styringsrammeverk som definerer og fordeler ansvaret for AI-etikk.
  • Samarbeid med interessenter under utviklingen av systemer.
    Utvikle og dele standarder og "best practice" for å håndtere etiske utfordringer.
  • Åpne opp for å hjelpe ingeniører med å identifisere, diskutere og håndtere etiske spørsmål.
  • Få på plass bedre teknisk dokumentasjon og sertifiseringer innen AI.
  • Pushe på for å forklare og teste AI-systemer før oppstart og gjennom hele systemets levetid.


Du kan lese hele rapporten her:

Ethical dilemmas in ai

Hackathonet ble organisert av the Association of Nordic Engineers (ANE), the Data Ethics ThinkDoTank (DataEthics.eu), the Institute of Electrical and Electronics Engineers (IEEE) og forskere fra Department of Computer Science fra Københavns Universitet.

- Hva er ditt engasjement i dette?

- Utviklinga innen IT går stadig raskere, og jeg som alle andre innen IT-området må holde meg kontinuerlig oppdatert gjennom sertifisering og kursing på ny teknologi.

- Bruken av AI gir rom for smartere, mer nøyaktige og raskere beslutninger, og det er allerede påvist at kunstig intelligens kan tilpasses forskjellige arbeidsflyter og brukerbehov.

- Men før en tar i bruk kunstig intelligens må etiske retningslinjer og en utvidet dokumentasjonspraksis på plass for å støtte gjennomsiktighet og forklarbarhet i AI-systemene som blir utviklet, forteller Krøvel-Velle. 

IT-konsulenten tror også at Norge, med sine etiske normer og verdier, kan ha et fortrinn i å få etablert gode etiske retningslinjer og rammeverk for bruk av AI.

Krøvel-Velle brenner for helsesektoren og mener mer bruk av AI i den sektoren kan skape en bedre hverdag for oss alle.

- I foreningen av AI, mellom ingeniører og leger, aner jeg betydelige forbedringer i for eksempel pasientbehandling. Se bare for deg hvordan bruken av AI-drevne algoritmer kan være med på tidlig oppdagelse av pandemier under utvikling og bane vei for bedre proaktiv beredskap.

Som ingeniør må du ta ansvar for kunstig intelligens

Hva blir så ingeniørens rolle, og hvorfor skal ingeniører bry seg om AI-etikk? Krøvel-Velle mener svaret er opplagt.

- AI-etikk og sikkerhet må være prioritert i utformingen og implementeringen av AI-systemer. Etiske retningslinjer er helt nødvendig for å unngå blant annet misbruk, dårlig design eller utilsiktede negative konsekvenser ved bruk av AI-systemer.

- I rapporten står det at ingeniører er klare til å ta ansvar for å takle etiske dilemmaer innen kunstig intelligens, men ikke kan være alene om å ta ansvar. Kan du utdype det?

- Vi trenger en koordinert innsats med AI-regulering som er informert av ingeniørmiljøet og støtter innsatsen fra alle interessenter for å løse de etiske dilemmaene til AI og andre nye teknologier. 

- Fordeling av ansvar krever riktig bruk av standarder og forskrifter, og krever en "no-blame"-kultur der det å ta ansvar ikke fører til straffende konsekvenser hvis uventede etiske spørsmål oppstår, sier Krøvel-Velle.

Han viser til at en "no-blame-tilnærming" gir muligheter for å lære av feil, og dermed utvikle beste praksis for å håndtere etiske utfordringer.

- Ansvarsrammer bør inkludere ankeinstanser og tydelig definerte beskyttelsesmekanismer for varslere, for å kunne støtte individuelle og kollektive prosesser for utfordrende uetisk praksis eller resultat. Dette er spesielt viktig når nye bekymringer viser seg ved utvidelse av implementeringen av avanserte AI-systemer.

- Vi ser at systemer med kunstig intelligens kan ta over stadig flere og mer avanserte oppgaver. Ingeniørene er sentrale i både utvikling og implementering av KI-systemer, og det er ingen tvil om at KI vil påvirke arbeidsmarkedet de kommende årene. Det er derfor spesielt viktig for oss at vi etablerer gode tverrfaglige arenaer for diskusjon av etiske dilemmaer i tilknytning til KI. Dette må til når teknologien gir oss tilnærmet ubegrensede muligheter, sier leder av NITOs Etikkomite Inger Annie Moe.