Reglerne i AI-forordningen

Europa-Parlamentet samt stats- og regeringscheferne i de 27 EU-medlemsstater i Det Europcæiske Råd blev enige om forordning (EU) 2024/1689 om harmoniserede regler for kunstig intelligens (herefter ”AI-forordningen”), som trådte i kraft den 1. august 2024 og reglerne vil herefter finde trinvist anvendelse frem mod 2027. 

AI-forordningen, som regulerer ansvarlig brug af kunstig intelligens i Europa, er den første lovgivning i verden på dette område. 

Hent den endelige udgave af AI-forordningen her.

Formålet med AI-forordningen

De nye regler for kunstig intelligens sigter mod at skabe klare rammer for dem, der udvikler, distribuerer og anvender kunstig intelligens. AI-forordningen regulerer bl.a., hvordan bestemte typer af kunstig intelligens må og ikke må benyttes. Der er derfor både fokus på muligheden for innovation samt beskyttelse af sundheden, sikkerheden og borgernes grundlæggende rettigheder.

AI-forordningen skal bidrage til at ensrette reglerne inden for EU og gøre det lettere for virksomheder og myndigheder, der anvender kun-stig intelligens-løsninger at få et overblik over reglerne. På den måde er det hensigten, at virksomheder og myndigheder bliver hjulpet til at bruge kunstig intelligens på en ansvarlig og bæredygtig måde, der beskytter sundheden, sikkerheden og borgernes grundlæggende rettigheder.

Tidslinje

AI-forordningen trådte i kraft den 1. august 2024, men reglerne heri finder trinvist anvendelse frem mod 2027.

Størstedelen af reglerne i AI-forordningen finder anvendelse fra den 2. august 2026, dog med en række undtagelser:

  • Reglerne om AI-færdigheder (artikel 4) og forbudte former for AI-praksis (artikel 5) er gældende fra den 2. februar 2025.

  • Forvaltningsreglerne og forpligtigelserne for AI-modeller til almen brug gælder fra den 2. august 2025 (kapitel III, afdeling 4, kapitel V, VII og XII samt artikel 78) med undtagelse af artikel 101 (om bøder til udbydere af AI-modeller til almen brug).

  • Reglerne for højrisiko-AI-systemer, der er klassificeret som høj-risiko, fordi de er indlejret i regulerede produkter opført i AI-forordningens bilag I (liste over EU-harmoniseringslovgivning) gælder fra den 2. august 2027.

Fokus på sikkerhed og risiko

AI-forordningen er opbygget med en såkaldt ’risikobaseret tilgang’. Det betyder, at reglerne tager afsæt i, hvor stor risiko den konkrete AI-løsning udgør for sundheden, sikkerheden og borgernes grundlæggende rettigheder.

Derfor er kravene til AI-løsningerne fastsat efter den risiko, som den enkelte AI-løsning udgør i relation til risiko for skade på sundheden, sikkerheden og borgernes grundlæggende rettigheder. 

AI-modeller til almen brug vs. AI-systemer

AI-forordningen definerer to forskellige former for AI-løsninger: 1) ”AI-modeller til almen brug” og 2) ”AI-systemer”.

  1. ”AI-modeller til almen brug”

Risikoen for ”AI-modeller til almen brug” vurderes efter AI-forordningen ud fra, om modellen er med eller uden systemisk risiko.

Det er Europa-Kommissionen, som i praksis vil føre tilsyn med overholdelsen af reglerne om ”AI-modeller til almen brug”. Der vil derfor ikke blive ført et tilsyn med reglerne herom på et nationalt niveau.

Læs mere om ”AI-modeller til almen brug” via følgende link.

   2. ”AI-systemer”

I relation til AI-systemerne opererer AI-forordningen med tre overord-nede risikokategorier.

De fleste AI-systemer, som er omfattet af AI-forordningen, har ingen eller lav risiko, og kan hjælpe med at løse mange samfundsrelaterede problemer.

Der er imidlertid også nogle AI-systemer, der udgør større risici for skade på sundheden, sikkerheden og borgernes grundlæggende rettigheder, og dette er der taget højde for i reglerne med henblik på at undgå uønskede konsekvenser.

Det skal understreges, at et AI-systems risikoniveau ikke fastlægges på baggrund af en konkret og individuel risikovurdering. AI-forordningen definerer på forhånd, hvilke betingelser der gælder for, at et AI-system falder ind under de forskellige kategorier.

De tre kategorier er:

1. Gennemsigtighedsforpligtelser (reglernes anvendelsesdato: 2. august 2026):

Visse AI-systemer skal efter AI-forordningen overholde specifikke gennemsigtighedskrav, da disse systemer kan indebære særlige risici for imitation eller vildledning.

For eksempel skal brugere, der taler eller skriver med en chatbot, gøres opmærksom på, at det er et AI-system de interagerer med. Desuden skal AI-genereret tekst, lyd- og videoindhold, herunder deepfakes, markeres som AI-genereret, når det offentliggøres med det formål at informere offentligheden om spørgsmål af offentlig interesse.

2. Højrisiko-AI-systemer (reglernes anvendelsesdato: 2. august 2026 og 2. august 2027):

Visse AI-systemer har en betydelig risiko, da de kan udgøre en alvorlig risiko for skade på sundheden, sikkerheden og borgernes grundlæggende rettigheder. Disse AI-systemer er derfor efter AI-forordningen underlagt en lang række krav, såsom detaljeret dokumentation, risikostyring, overvågning og ansvarlighed.

Højrisiko-AI-systemer er eksempelvis kunstig intelligens, der an-vendes i kritisk infrastruktur (f.eks. transport og forsyning), sikkerhedskomponenter i produkter (f.eks. anvendelse af kunstig intelligens i robotassisteret kirurgi), uddannelse (f.eks. bedømmelse af eksaminer), ansættelse (f.eks. sorteringssoftware til ansættelsesprocedurer) og væsentlige private og offentlige tjenester (f.eks. pris-fastsættelse i forbindelse med sygeforsikring).

Du kan læse mere om højrisiko-AI-systemer her.

3. Forbudte former for AI-praksis (reglernes anvendelsesdato: 2. februar 2025):

I visse situationer kan AI-systemer udgøre en klar trussel for skade mod sundheden, sikkerheden, borgernes grundlæggende rettigheder og værdighed og er derfor forbudt efter AI-forordningen. Forbudte former for AI-praksis er eksempelvis kunstig intelligens, der an-vendes til skadelig manipulation eller til følelsesgenkendelse på arbejdspladser eller uddannelsesinstitutioner.

Du kan læse mere om de forbudte former for AI-praksis her.

Det er de enkelte medlemsstater, som er forpligtiget til at føre et tilsyn med overholdelsen af reglerne vedrørende AI-systemerne.

Gælder kravene i AI-forordningen for de AI-systemer og AI-modeller til almen brug, der allerede er bragt i omsætning/ibrugtaget?

I forhold til spørgsmålet om, hvad der gælder for AI-systemer og AI-modeller til almen brug, som allerede er bragt i omsætning/ibrugtaget før reglerne herom finder anvendelse gælder følgende:

  • AI-systemer, som er komponenter i store IT-systemer, der er oprettet ved de retsakter, som fremgår af AI-forordningens bilag X (f.eks. Eurodac, Visuminformationssystemet), og som er blevet bragt i omsætning/ibrugtaget inden den 2. august 2027, skal bringes i overensstemmelse med kravene i AI-forordningen se-nest den 31. december 2030.

  • AI-forordningen finder også anvendelse på andre end de højrisiko-AI-systemer, der er nævnt i bilag X, og som er blevet bragt i omsætning/ibrugtaget inden den 2. august 2026. For at kravene i AI-forordningen finder anvendelse på disse højrisiko-AI-systemer, er det dog en betingelse, at systemerne fra den 2. august 2026 er genstand for betydelige ændringer af deres udformning.

  • Udbydere og idriftsættere af højrisiko-AI-systemer, hvor det er hensigten, at systemerne skal anvendes af offentlige myndigheder, skal i alle tilfælde sikre, at systemerne overholder kravene og forpligtigelserne i AI-forordningen senest den 2. august 2030.

  • For de AI-modeller til almen brug, som er bragt i omsætning før den 2. august 2025, skal leve op til reglerne i AI-forordningen senest den 2. august 2027.

Uanset om et AI-system er bragt i omsætning eller ibrugtaget før AI-forordningens ikrafttrædelsesdato den 1. august 2024, vil AI-systemet kunne omfattes af forbuddet i AI-forordningens artikel 5 (om de forbudte former for AI-praksis).

Aktører i AI-forordningen

AI-forordningen definerer i artikel 3 en række aktører, som er tildelt forskellige krav og forpligtigelser alt efter, hvilken rolle de har i AI-værdikæden.

Det er vigtigt at være opmærksom på, at størstedelen af forpligtigelserne for disse aktører er relateret til højrisiko-AI-systemer, og det er derfor vigtigt, at man indledningsvist får afklaret og fastlagt, hvilken risiko, der er forbundet med anvendelsen af det pågældende AI-system.

De forskellige aktører i AI-forordningen er:

”Operatører”, som er en samlebetegnelse for:

  • Udbyder
  • Idriftsætter
  • Bemyndiget repræsentant
  • Importør
  • Distributør
  • Producenter af produkter

Samt:

  • De berørte personer

Man skal også være opmærksomme på, at en operatørs rolle kan ændre sig undervejs.

En idriftsætter (dvs. en fysisk/juridisk person der anvender et AI-system) af et højrisiko-AI-system vil eksempelvis blive anset for at være en udbyder (dvs. en fysisk/juridisk person der udvikler et AI-system), hvis idriftsætteren foretager en væsentlig ændring af et højrisiko-AI-systemet efter det er bragt i omsætning eller allerede er blevet ibrugtaget.

AI-færdigheder

AI-forordningen indeholder i artikel 4 et krav om, at udbydere og idriftsættere af AI-systemer i videst muligt omfang skal sikre et tilstrækkeligt niveau af AI-færdigheder hos deres personale og andre per-soner, der er involveret i drift og anvendelse af AI-systemer på deres vegne.

Kravet om AI-færdigheder gælder for alle AI-systemer der er omfattet af AI-forordningen, uanset hvilken risikoklassificering det enkelte AI-system har.

Du kan læse mere om kravet til AI-færdigheder her.