Denne nye standarden er utformet for alle som bruker eller leverer produkter eller tjenester basert på kunstig intelligens - KI, og sikrer ansvarlig utvikling og bruk av KI-systemer. Denne er verdens første standard for ledelsessystemer for kunstig intelligens, og gir verdifull veiledning i dette raskt skiftende teknologifeltet. 

Den tar for seg de unike utfordringene som KI innebærer, som etiske betraktninger, automatisk beslutningstaking, gjennomsiktighet atferdsendringer og kontinuerlig læring.

Blant annet kan vi lese at den tar for seg de unike utfordringene som KI innebærer, som etiske betraktninger, automatisk beslutningstaking, gjennomsiktighetatferdsendringer og kontinuerlig læring.

Lars Erik Jensen, prosjektleder i Standard Norge forklarer under punktet etiske betraktninger er det mange utfordringer knyttet til bruk av AI, også etiske, men det er også mange positive sider. Dette er også utganspunkt for at EU har startet arbeidet med å regulere bruken av AI systemer (AI Act – KI-forordningen, godkjent i Europa 9. desember 2023). For eksempler er en sminke app for barn hvor innsamlet informasjon (om barnet) blir solgt flere tusen ganger til andre selskaper, eller at AI eller algoritmer sorterer personer ut fra kjønn, alder, etnisitet eller legning.

- Et punkt heter automatiske beslutninger, hva er faren og fordeler på dette området?

- Algoritmer i AI blir ofte referert til som den svarte boksen. Dette betyr at det er begrenset kontroll eller ingen kontroll på hva som kommer ut i andre enden. Her viser jeg til samme eksempel som over, algoritmer sorterer personer ut fra kjønn, alder, etnisitet eller legning, i en rekrutteringsprosess, sier Jensen. Og fortsetter: - En algoritme gjør det den er programmert for og kan tidvis ha uheldige konsekvenser, selv om ikke programmeren eller systemet har dette som utgangspunkt. Poenget med maskinlæring er nettopp at maskiner lærer underveis og drar egne konklusjoner / automatiske beslutninger.

Lars Erik Jensen  sier om punktene gjennomsiktighet og atferdsendringer at det er mange farer knyttet til etisk bruk, uten at noen kan levere en uttømmende liste. Noen eksempler er apper for barn hvor innsamlet informasjon blir solgt flere hundre ganger til andre selskaper, eller at AI eller algoritmer sorterer personer ut fra kjønn, alder, etnisitet eller legning.

-  Et punkt heter kontinuerlig læring. Hva eller hvem er under kontinuerlig læring - systemer eller mennesker?

- AI er en ny teknologi som utvikler seg veldig raskt. 2023 har vist at vi har tatt kvantesprang i utviklingen av generativ AI. En viktig faktor i utviklingen av AI teknologien er at maskinene lærer seg nye oppgaver – maskinlæring - ut fra spesifikke oppdrag eller bestillinger. Eksempler her kan være kreftdiagnostikk hvor maskinene lærer seg å se på bilder og etter hvert gjenkjenner kreftsvulster. 

- Utviklingen går veldig raskt og maskinene jobber smartere og lærer mer og mer. For oss som mennesker og brukere, er det ønskelig, eller mer bestemt avgjørende, at vi forstår utviklingen både fra den gode og mindre gode siden. Det er også derfor at EU har utviklet AI Act, som på norsk kalles KI-forordningen, forklarer Jensen. 

Verktøysettet er ISO/IEC 42001
ISO/IEC 42001 gir virksomheter et verktøysett for å håndtere ansvarlig bruk av kunstig intelligens, samtidig som de oppfyller krav, reduserer risiko og forbedrer sitt omdømme.

Standard Norge er tydelig på at bruk av ISO/IEC 42001 gir mange fordeler. Blant annet at standarden gir retningslinjer for ansvarlig bruk av KI, og kan hjelpe virksomheter med å oppfylle regulatoriske krav eller retningslinjer og sikre overholdelse.

Den kan også bidra til å redusere risikoen knyttet til bruken av KI, og kan styrke omdømme og tillit hos kunder, interessenter og samfunnet generelt. Videre kan den hjelpe med effektiv styring av KI og den kan fremme innovasjon innen kunstig intelligens med trygghet, skriver Standard Norge på sin fagside.

Standard Norge peker på noen sentrale poenger som muligens bidrar til behovet for en standard er blant annet at økt bruk av KI-teknologier antas å gi samfunnsmessige utfordringer. Derfor er det nødvendig å å få på plass retningslinjer som sikrer at virksomheter håndterer disse teknologienepå en ansvarlig måte.

Det understrekes at noen KI-algoritmer opererer på en måte som ikke er transparent eller lett forklarlig. Dette kan skape bekymringer, spesielt når KI-systemer tar avgjørende beslutninger.

Siste del av artikkelen kan du lese her på ITB Aktuelt