Reglerne i AI-forordningen

EU-landenes regler om kunstig intelligens, AI-forordningen, er den første lovgivning i verden, der regulerer brugen af kunstig intelligens.

I 2023 nåede Europa-Parlamentet og stats- og regeringscheferne i de 27 EU-medlemsstater i Det Europæiske Råd til enighed om AI-forordningen. Det er den første lovgivning på området for kunstig intelligens i verden.

Formål med forordningen

De nye regler for kunstig intelligens sigter mod at skabe klare rammer for dem, der udvikler, distribuerer og bruger kunstig intelligens. Forordningen beskriver, hvordan kunstig intelligens må og ikke må benyttes. Der er derfor både fokus på virksomheders mulighed for innovation og borgernes rettigheder.

Forordningen skal bidrage til at ensrette regler inde for EU og gøre det lettere for virksomheder, der anvender kunstig intelligens-løsninger at få et overblik over reglerne. På den måde er det hensigten at virksomheder bliver hjulpet til at bruge kunstig intelligens på en ansvarlig og bæredygtig måde, der beskytter brugernes rettigheder og sikkerhed.

Fokus på sikkerhed og risiko

De fleste AI-systemer har lav risiko og kan hjælpe med at løse mange samfundsproblemer. Der er imidlertid også nogle AI-systemer, der udgør risici, som skal håndteres for at undgå uønskede konsekvenser.

AI-forordningen er opbygget med en såkaldt ’risikobaseret tilgang’. Det betyder, at reglerne for kunstig intelligens er baseret på, hvor stor risiko systemet udgør for grundlæggende rettigheder og sikkerhed. Forordningen er således opdelt i fire risikokategorier:

  1. Minimal eller ingen risiko AI-systemer: Disse systemer er ikke underlagt særlige krav, da de anses for at være lavrisiko. Langt de fleste AI-systemer der anvendes i EU, falder ind under denne kategori. Dette er eksempelvis anbefalingssystemer i streamingplatforme, der foreslår film eller musik, autokorrektur og navigation.
  2. Begrænset risiko AI-systemer (Anvendelsesdato: 2. august 2026): Disse systemer skal overholde specifikke gennemsigtighedskrav. For eksempel skal brugere, der taler eller skriver med en chatbot, gøres opmærksom på, at det er et AI-system. Desuden skal AI-genereret tekst, lyd- og videoindhold, herunder deepfakes markeres som AI-genereret, når det offentliggøres med det formål at informere offentligheden om spørgsmål af offentlig interesse.
  3. Højrisiko AI-systemer (Anvendelsesdato: 2. august 2026): Disse systemer har væsentlig risiko og er underlagt strenge krav, såsom detaljeret dokumentation, risikostyring, overvågning og ansvarlighed. Højrisiko AI-systemer er eksempelvis AI, der anvendes i kritisk infrastruktur (fx transport og forsyning), sikkerhedskomponenter i produkter (fx anvendelse af kunstig intelligens i robotassisteret kirurgi), uddannelse (fx bedømmelse af eksaminer), ansættelse (fx sorteringssoftware til ansættelsesprocedurer) og væsentlige private og offentlige tjenester (fx prisfastsættelse ifm. sygeforsikring).
  4. Forbudte AI-systemer (Anvendelsesdato: 2. februar 2025): Disse systemer udgør en klar trussel mod sikkerhed, borgernes rettigheder eller værdighed og er derfor forbudt. Forbudte AI-systemer er eksempelvis AI, der anvendes til masseovervågning eller til automatisk at vurdere risikoen for, at personer begår kriminalitet.

Kravene gælder kun nye AI-systemer udviklet efter anvendelsesdatoen eller AI-systemer, hvor der er foretaget væsentlige ændringer.

Højrisiko

AI-færdigheder

Der i forordningen krav om, at man som organisation i videst mulig omfang sikrer et tilstrækkeligt niveau af AI-færdigheder hos deres personale og andre personer, der er involveret i drift og anvendelse af AI-systemer på deres vegne.

Mere vejledning om dette følger.

Tidslinje