KI-forordningen kort fortalt
Betydningen av nytt EU-regelverk om kunstig intelligens for høyere utdanning og forskning4. Begrenset og minimal risiko
I KI-forordningen vurderes enkelte bruksområder for kunstig intelligens å innebære begrenset og minimal risiko for skade med hensyn til helse, sikkerhet og grunnleggende rettigheter.
I dette kapitlet gir vi først en kort oversikt over bruksområder for kunstig intelligens med begrenset risiko. Deretter følger en gjennomgang av plikter som leverandører og idriftsettere av KI-systemer innen disse bruksområdene har.
Til sist omtaler vi hva som menes med KI-systemer med minimal risiko, og som ikke omfattes av reglene i KI-forordningen.
4.1 Begrenset risiko
Det er tillatt å utvikle, omsette og bruke KI-systemer innen bruksområder med begrenset risiko. Samtidig stilles det mindre strenge krav til både leverandører og idriftsettere av slike systemer sammenliknet med høyrisikosystemer.
Bruksområder for kunstig intelligens med begrenset risiko, og plikter for leverandører og idriftsettere av slike KI-systemer, reguleres i KI-forordningen artikkel 50.
Følgende KI-systemer vurderes å innebære begrenset risiko:
- KI-systemer som samhandler direkte med sluttbrukere, for eksempel chatboter som benyttes av studenter og ansatte. Her kreves det at leverandøren informerer sluttbrukerne om at de samhandler med et KI-system (med mindre det er åpenbart).
- KI-systemer som produserer syntetisk innhold (lyd, bilder, video eller tekst). Her kreves det at leverandøren merker det syntetiske innholdet som KI-systemet produserer. Merkingen skal være i et maskinlesbart format. Det stilles i tillegg enkelte andre krav til leverandører av slike systemer, blant annet at KI-systemet er robust og pålitelig.
- KI-systemer for gjenkjenning av følelser hos enkeltpersoner. Her kreves det at idriftsetteren informerer sluttbrukerne om at systemet er tatt i bruk. Idriftsetteren skal behandle personopplysninger som benyttes av KI-systemet i samsvar med kravene i personvernforordningen (GDPR). Disse pliktene gjelder også idriftsettere av KI-systemer for biometrisk kategorisering av personer.
- KI-systemer som produserer dypforfalskninger. Her kreves det at idriftsetteren informerer sluttbrukerne om at det dreier seg om dypforfalskninger.
Til slutt kreves det at idriftsettere at KI-systemer som produserer tekst for å informere offentligheten om forhold eller saker av allmenn interesse, skal informere om at teksten er kunstig produsert eller manipulert.
Leverandører og idriftsettere skal formidle informasjonen de er pålagt å gi til sluttbrukerne på en klar og tydelig måte. Informasjonen skal gis første gang sluttbrukerne samhandler med KI-systemet eller blir eksponert for KI-produsert innhold.
KI med begrenset risiko i høyere utdanning og forsking
KI-systemer med begrenset risiko i høyere utdanning og forskning, inkluderer for eksempel systemer som produserer bilder eller video av historiske hendelser eller steder (dypforfalskning).
Andre eksempler på bruk av kunstig intelligens som i henhold til forordningen innebærer begrenset risiko kan være å
- oppsummere pensumlitteratur,
- forklare faglige begreper,
- lage sammendrag av forelesningsopptak,
- utarbeide nye undervisningsopplegg,
- lage forslag til eksamensoppgaver,
- generere utkast til eller kvalitetssikre begrunnelser for karakter.
Mange av bruksområdene for kunstig intelligens som Malthe-Sørenssen-utvalget gir oversikt over i sitt notat om eksamen, sensur og karakterbegrunnelser, vil trolig innebære begrenset risiko. Se spesielt Malthe-Sørenssen 2025: 7-8.
Dersom det i vitenskapelig forskning benyttes KI-systemer som ikke er unntatt fra reglene i forordningen, kan eksempler på begrenset risiko være å
- lage oversikter over forskningslitteraturen på feltet,
- generere forskningsspørsmål/problemstillinger,
- utvikle hypoteser eller forklaringsmodeller,
- analysere innsamlede forskningsdata,
- fremstille og analysere syntetiske forskningsdata,
- simulere fagfellevurderinger.
4.2 Minimal risiko
I KI-forordningen vurderes enkelte bruksområder for kunstig intelligens å innebære minimal risiko. Dette er bruksområder hvor risikoen for helse, sikkerhet og grunnleggende rettigheter er så liten at utvikling, omsetning og bruk ikke reguleres. KI-systemer innenfor disse bruksområdene faller derfor helt utenfor virkeområdet til regelverket.
Eksempler på bruksområder med minimal risiko inkluderer blant annet kunstig intelligens som brukes til filtrering av e-post og i gaming/onlinespill. Andre eksempler er kunstig intelligens i atferdsbaserte anbefalingssystemer og som benyttes i bildefiltre eller til stavekontroll.
KI-forordningen artikkel 50 nr. 1, jf. fortalepunkt 132.
KI-forordningen artikkel 50 nr. 2, jf. fortalepunkt 133.
KI-forordningen artikkel 50 nr. 3, jf. fortalepunkt 132.
KI-forordningen artikkel 50 nr. 4, jf. fortalepunkt 134. KI-forordningen definerer dypforfalskning som KI-produsert innhold (lyd, bilder eller video) som likner virkelige personer, gjenstander, steder eller hendelser, og som feilaktig kan fremstå som autentiske og sannferdige. KI-forordningen artikkel 3 nr. 60.
KI-forordningen artikkel 50 nr. 4, jf. fortalepunkt 134.
Status i januar 2026, er at EU-kommisjonen har utarbeidet første utkast til regler om beste praksis for kravene som forordningen stiller til (i) leverandører av KI-systemer om merking av KI-generert innhold og (ii) idriftsettere av KI-systemer som genererer dypforfalskninger. Se First Draft Code of Practice on Transparency of AI-Generated Content | Shaping Europe’s digital future.