Nasjonalt KI-tilsyn skal sørge for at EU-regler følges opp
- Det er viktig at Norge får på plass en forvaltningsstruktur for håndheving av KI-reglene, sier digitaliserings- og forvaltningsministeren.
Regjeringen har kunngjort en satsing på kunstig intelligens (KI) som skal sikre trygg og innovativ bruk av teknologien i Norge. Dette innebærer etablering av en nasjonal forvaltningsstruktur og implementering av EUs KI-forordning (AI Act).
Lovutkast for KI-regulering på trappene
Digitaliserings- og forvaltningsminister Karianne Tung har annonsert at et lovutkast vil bli sendt på høring før sommeren 2025, med sikte på ikrafttredelse sensommeren 2026.
Dette initiativet skal sikre at Norge står på lik linje med EU-landene når det gjelder regulering og utnyttelse av KI-teknologi.
Etablering av KI Norge
Som en del av satsingen opprettes KI Norge, en nasjonal arena for innovativ og ansvarlig KI.
Enheten er tenkt som et spissmiljø innen Digitaliseringsdirektoratet (Digdir) og skal fungere som pådriver, veileder og bindeledd mellom offentlige og private aktører, forskningsmiljøer og akademia.
Et verktøy i dette arbeidet er KI-sandkassen, hvor virksomheter kan eksperimentere med KI-systemer innenfor trygge rammer. Målet er å styrke konkurransekraften, spesielt for oppstartsbedrifter og små og mellomstore virksomheter.
Tilsyn og akkreditering under ny KI-forordning
Regjeringen har utpekt Nasjonal kommunikasjonsmyndighet (Nkom) som nasjonalt koordinerende KI-tilsyn. Nkom vil samarbeide med relevante sektortilsyn for å kontrollere at KI-systemer på det norske markedet er trygge og ansvarlige.
I tillegg vil Norsk akkreditering (NA) fungere som nasjonalt akkrediteringsorgan etter KI-forordningen, basert på eksisterende strukturer i norsk forvaltning.
Hovedpunkter i EUs KI-forordning
EUs KI-forordning representerer den første helhetlige reguleringen av kunstig intelligens og sikrer harmonisering på tvers av medlemsstatene. Forordningen klassifiserer KI-systemer basert på risikonivå:
• Uakseptabel risiko: KI-systemer som strider mot grunnleggende verdier og menneskerettigheter, for eksempel ved manipulasjon eller utnyttelse av sårbare grupper, ble forbudt i EU fra 2. februar 2025.
• Høy risiko: Disse systemene påvirker grunnleggende rettigheter betydelig og underlegges strenge krav for å sikre ansvarlig bruk.
• Begrenset risiko: KI-systemer med begrenset risiko må oppfylle krav til transparens for å sikre åpenhet overfor brukerne.
• Minimal risiko: De fleste KI-systemer faller inn under denne kategorien og omfattes ikke av spesifikke krav.
Forordningen legger også vekt på at KI-modeller til allmenne formål, som store generative språkmodeller, skal følge særlige krav, inkludert transparens og overholdelse av opphavsrettsregler.