Europa-Parlamentet samt stats- og regeringscheferne i de 27 EU-medlemsstater i Det Europcæiske Råd blev enige om forordning (EU) 2024/1689 om harmoniserede regler for kunstig intelligens (herefter ”AI-forordningen”), som trådte i kraft den 1. august 2024 og reglerne vil herefter finde trinvist anvendelse frem mod 2027.
AI-forordningen, som regulerer ansvarlig brug af kunstig intelligens i Europa, er den første lovgivning i verden på dette område.
Hent den endelige udgave af AI-forordningen her.
De nye regler for kunstig intelligens sigter mod at skabe klare rammer for dem, der udvikler, distribuerer og anvender kunstig intelligens. AI-forordningen regulerer bl.a., hvordan bestemte typer af kunstig intelligens må og ikke må benyttes. Der er derfor både fokus på muligheden for innovation samt beskyttelse af sundheden, sikkerheden og borgernes grundlæggende rettigheder.
AI-forordningen skal bidrage til at ensrette reglerne inden for EU og gøre det lettere for virksomheder og myndigheder, der anvender kun-stig intelligens-løsninger at få et overblik over reglerne. På den måde er det hensigten, at virksomheder og myndigheder bliver hjulpet til at bruge kunstig intelligens på en ansvarlig og bæredygtig måde, der beskytter sundheden, sikkerheden og borgernes grundlæggende rettigheder.
AI-forordningen trådte i kraft den 1. august 2024, men reglerne heri finder trinvist anvendelse frem mod 2027.
Størstedelen af reglerne i AI-forordningen finder anvendelse fra den 2. august 2026, dog med en række undtagelser:
AI-forordningen er opbygget med en såkaldt ’risikobaseret tilgang’. Det betyder, at reglerne tager afsæt i, hvor stor risiko den konkrete AI-løsning udgør for sundheden, sikkerheden og borgernes grundlæggende rettigheder.
Derfor er kravene til AI-løsningerne fastsat efter den risiko, som den enkelte AI-løsning udgør i relation til risiko for skade på sundheden, sikkerheden og borgernes grundlæggende rettigheder.
AI-forordningen definerer to forskellige former for AI-løsninger: 1) ”AI-modeller til almen brug” og 2) ”AI-systemer”.
Risikoen for ”AI-modeller til almen brug” vurderes efter AI-forordningen ud fra, om modellen er med eller uden systemisk risiko.
Det er Europa-Kommissionen, som i praksis vil føre tilsyn med overholdelsen af reglerne om ”AI-modeller til almen brug”. Der vil derfor ikke blive ført et tilsyn med reglerne herom på et nationalt niveau.
Læs mere om ”AI-modeller til almen brug” via følgende link.
2. ”AI-systemer”
I relation til AI-systemerne opererer AI-forordningen med tre overord-nede risikokategorier.
De fleste AI-systemer, som er omfattet af AI-forordningen, har ingen eller lav risiko, og kan hjælpe med at løse mange samfundsrelaterede problemer.
Der er imidlertid også nogle AI-systemer, der udgør større risici for skade på sundheden, sikkerheden og borgernes grundlæggende rettigheder, og dette er der taget højde for i reglerne med henblik på at undgå uønskede konsekvenser.
Det skal understreges, at et AI-systems risikoniveau ikke fastlægges på baggrund af en konkret og individuel risikovurdering. AI-forordningen definerer på forhånd, hvilke betingelser der gælder for, at et AI-system falder ind under de forskellige kategorier.
De tre kategorier er:
1. Gennemsigtighedsforpligtelser (reglernes anvendelsesdato: 2. august 2026):
Visse AI-systemer skal efter AI-forordningen overholde specifikke gennemsigtighedskrav, da disse systemer kan indebære særlige risici for imitation eller vildledning.
For eksempel skal brugere, der taler eller skriver med en chatbot, gøres opmærksom på, at det er et AI-system de interagerer med. Desuden skal AI-genereret tekst, lyd- og videoindhold, herunder deepfakes, markeres som AI-genereret, når det offentliggøres med det formål at informere offentligheden om spørgsmål af offentlig interesse.
2. Højrisiko-AI-systemer (reglernes anvendelsesdato: 2. august 2026 og 2. august 2027):
Visse AI-systemer har en betydelig risiko, da de kan udgøre en alvorlig risiko for skade på sundheden, sikkerheden og borgernes grundlæggende rettigheder. Disse AI-systemer er derfor efter AI-forordningen underlagt en lang række krav, såsom detaljeret dokumentation, risikostyring, overvågning og ansvarlighed.
Højrisiko-AI-systemer er eksempelvis kunstig intelligens, der an-vendes i kritisk infrastruktur (f.eks. transport og forsyning), sikkerhedskomponenter i produkter (f.eks. anvendelse af kunstig intelligens i robotassisteret kirurgi), uddannelse (f.eks. bedømmelse af eksaminer), ansættelse (f.eks. sorteringssoftware til ansættelsesprocedurer) og væsentlige private og offentlige tjenester (f.eks. pris-fastsættelse i forbindelse med sygeforsikring).
Du kan læse mere om højrisiko-AI-systemer her.
3. Forbudte former for AI-praksis (reglernes anvendelsesdato: 2. februar 2025):
I visse situationer kan AI-systemer udgøre en klar trussel for skade mod sundheden, sikkerheden, borgernes grundlæggende rettigheder og værdighed og er derfor forbudt efter AI-forordningen. Forbudte former for AI-praksis er eksempelvis kunstig intelligens, der an-vendes til skadelig manipulation eller til følelsesgenkendelse på arbejdspladser eller uddannelsesinstitutioner.
Du kan læse mere om de forbudte former for AI-praksis her.
Det er de enkelte medlemsstater, som er forpligtiget til at føre et tilsyn med overholdelsen af reglerne vedrørende AI-systemerne.
I forhold til spørgsmålet om, hvad der gælder for AI-systemer og AI-modeller til almen brug, som allerede er bragt i omsætning/ibrugtaget før reglerne herom finder anvendelse gælder følgende:
Uanset om et AI-system er bragt i omsætning eller ibrugtaget før AI-forordningens ikrafttrædelsesdato den 1. august 2024, vil AI-systemet kunne omfattes af forbuddet i AI-forordningens artikel 5 (om de forbudte former for AI-praksis).
AI-forordningen definerer i artikel 3 en række aktører, som er tildelt forskellige krav og forpligtigelser alt efter, hvilken rolle de har i AI-værdikæden.
Det er vigtigt at være opmærksom på, at størstedelen af forpligtigelserne for disse aktører er relateret til højrisiko-AI-systemer, og det er derfor vigtigt, at man indledningsvist får afklaret og fastlagt, hvilken risiko, der er forbundet med anvendelsen af det pågældende AI-system.
De forskellige aktører i AI-forordningen er:
”Operatører”, som er en samlebetegnelse for:
Samt:
Man skal også være opmærksomme på, at en operatørs rolle kan ændre sig undervejs.
En idriftsætter (dvs. en fysisk/juridisk person der anvender et AI-system) af et højrisiko-AI-system vil eksempelvis blive anset for at være en udbyder (dvs. en fysisk/juridisk person der udvikler et AI-system), hvis idriftsætteren foretager en væsentlig ændring af et højrisiko-AI-systemet efter det er bragt i omsætning eller allerede er blevet ibrugtaget.
AI-forordningen indeholder i artikel 4 et krav om, at udbydere og idriftsættere af AI-systemer i videst muligt omfang skal sikre et tilstrækkeligt niveau af AI-færdigheder hos deres personale og andre per-soner, der er involveret i drift og anvendelse af AI-systemer på deres vegne.
Kravet om AI-færdigheder gælder for alle AI-systemer der er omfattet af AI-forordningen, uanset hvilken risikoklassificering det enkelte AI-system har.
Du kan læse mere om kravet til AI-færdigheder her.