Fuskeregler i en ny tidsalder – KI

- Regelverket studentene skal forholde seg til står igjen i startgropa, skriver advokat Andreas Holmsen-Ringstad og etterlyser et nasjonalt rammeverk som sikrer lik praksis for studentenes bruk av KI.

Andreas Holmsen-Ringstad (Foto: Juristforbundet / pixabay)
(Foto: Juristforbundet / pixabay)

Kunstig intelligens har for lengst blitt en naturlig del av studenthverdagen. Verktøy som ChatGPT og Copilot brukes til alt fra idéutvikling til ferdig tekstproduksjon. På kort tid har dette endret hvordan mange studenter lærer, skriver og kommuniserer. Utfordringen er at teknologien utvikler seg i rekordfart, mens regelverket studentene skal forholde seg til, fortsatt står igjen i startgropa.

Nasjonalt studieveilederseminar ved NMBU ble avholdt 21.–22. oktober. Jeg var så heldig å bli invitert til å holde et foredrag om fusk på eksamen og kunstig intelligens, under tittelen «Fuskeregler i en ny tidsalder – hva gjør vi når KI skriver oppgaven?». Leder for Felles klagenemnd, Ernst Nordtveit, deltok også og delte erfaringer fra nemnda. Aki J. Viitala, partner i Ekko advokatfirma, bidro med en interessant videopresentasjon om hvordan KI både kan brukes til å fuske – og til å avdekke fusk.

251 deltakere fulgte foredraget (Foto: NMBU)

Hvorfor bruker jeg tid på dette temaet? Utover at det engasjerer meg personlig, handler det om at Juristforbundet er opptatt av rettssikkerhetsperspektivet ved bruk av KI. Forslaget til ny lov om kunstig intelligens (KI-loven) ble nylig sendt på høring. Juristforbundet har levert sitt høringssvar, og understreker blant annet behovet for at loven skal være klar, brukervennlig og mulig å håndheve. Vi er også opptatt av studentenes rettssikkerhet.

LES OGSÅ: Høring om KI-loven: - Jurister må få tid og ressurser til å bygge teknologikompetanse i arbeidshverdagen

I min tidligere jobb representerte jeg studenter i en rekke fuskesaker, og fikk tett innblikk i hvor belastende slike saker kan være for den enkelte. Det er en betydelig påkjenning – for å si det forsiktig.

Etter å ha gått gjennom gjeldende regelverk, praksis fra Felles klagenemnd og en rekke artikler i Khrono, sitter jeg igjen med et tydelig inntrykk: Vi står overfor flere rettssikkerhetsutfordringer som må løses dersom studentenes rettigheter skal ivaretas. To forhold skiller seg særlig ut.

For det første er det i praksis svært vanskelig å trekke klare grenser mellom lovlig og ulovlig bruk av KI. Er det fusk å bruke KI til å forbedre språk og struktur? Hva om studenten ber om et forslag til disposisjon, men skriver teksten selv? Og hva skjer dersom KI har produsert en setning som også en annen student benytter – uten at noen av dem er klar over det?

For det andre gir universitets- og høyskoleloven institusjonene vide fullmakter til å fastsette egne regler for fusk, men sier lite om hvordan slike regler skal tilpasses ny teknologi. Det overlates dermed til den enkelte institusjon å definere hva som utgjør fusk, og hvordan slike saker skal behandles. Samtidig er det vesentlige forskjeller både når det gjelder hvilke ressurser hver enkelt institusjon har til dette arbeidet og ikke minst hvilken kompetanse de besitter – både på teknologi og juss.

Begge utfordringene peker etter min mening i samme retning: Vi trenger et nasjonalt rammeverk på «fuskesakene» som sikrer lik praksis for studentenes bruk av KI, en felles forståelse av hva som defineres som fusk med KI, og klare prosedyrer for hvordan disse sakene skal håndteres, herunder verktøy som er egnet for å avsløre «moderne» fusk, og som samtlige institusjoner benytter.

Vi ville aldri akseptert at to arbeidstakere i ulike deler av landet ble møtt med helt ulike tolkninger av arbeidsmiljøloven eller at rettsvirkningen ved brudd på samme lov ble avgjort utfra hvilken arbeidsgiver du jobbet for. Likevel er dette realiteten for studentene i dag – en gruppe som ofte står uten juridisk bistand. Det kan vi ikke slå oss til ro med.