EU’s regler om kunstig intelligens
EU-landenes regler om kunstig intelligens, AI-forordningen, er den første lovgivning i verden, der regulerer brugen af kunstig intelligens.
I 2023 nåede Europa-Parlamentet og stats- og regeringscheferne i de 27 EU-medlemsstater i Det europæiske Råd til enighed om forordningen. Det er den første lovgivning på området for kunstig intelligens i verden.
Formål med forordningen
De nye regler for kunstig intelligens sigter mod at skabe klare retningslinjer for dem, der udvikler, distribuerer og bruger kunstig intelligens. Loven beskriver, hvordan kunstig intelligens bør og ikke bør benyttes. Der er derfor både fokus på virksomheders mulighed for innovation og borgernes rettigheder.
Loven skal bidrage til at ensrette regler og gøre dem lettere at få overblik over for virksomheder, der udvikler kunstig intelligens-løsninger. Dette skal hjælpe virksomheder med at bruge kunstig intelligens på en ansvarlig og bæredygtig måde og beskytte brugernes rettigheder og sikkerhed. Den skal også fremme effektiv og etisk brug af kunstig intelligens både i og uden for Europa. AI-systemer skal overholde borgernes grundlæggende rettigheder og principper for sikkerhed og etik.
Med fokus på sikkerhed og risiko
De fleste AI-systemer har lav risiko og kan hjælpe med at løse mange samfundsproblemer. Der er imidlertid også nogle AI-systemer, der udgør risici, som skal håndteres for at undgå uønskede konsekvenser.
AI-forordningen er opbygget med en såkaldt ’risikobaseret tilgang’. Det betyder, at reglerne for kunstig intelligens er baseret på, hvor stor risiko systemet udgør. Forordningen er delt op i fire risikokategorier:
- Minimal eller ingen risiko AI-systemer: Disse systemer er ikke underlagt særlige krav, da de anses for at være lavrisiko. Langt de fleste AI-systemer der anvendes i EU, falder ind under denne kategori. Dette er eksempelvis anbefalingssystemer i streamingplatforme, der foreslår film eller musik, autokorrektur og navigation.
- Begrænset risiko AI-systemer: Disse systemer skal overholde specifikke gennemsigtighedskrav. For eksempel skal brugere, der taler eller skriver med en chatbot, gøres opmærksom på, at det er et AI-system. Desuden skal AI-genereret tekst, lyd- og videoindhold, herunder deepfakes markeres som AI-genereret, når det offentliggøres med det formål at informere offentligheden om spørgsmål af offentlig interesse.
- Højrisiko AI-systemer: Disse systemer har væsentlig risiko og er underlagt strenge krav, såsom detaljeret dokumentation, risikostyring, overvågning og ansvarlighed. Eksempler inkluderer AI, der anvendes i kritisk infrastruktur (fx transport og forsyning), sikkerhedskomponenter i produkter (fx anvendelse af kunstig intelligens i robotassisteret kirurgi), uddannelse (fx bedømmelse af eksaminer), ansættelse (fx sorteringssoftware til ansættelsesprocedurer) og væsentlige private og offentlige tjenester (fx prisfastsættelse ifm. sygeforsikring).
- Forbudte AI-systemer: Disse systemer udgør en klar trussel mod sikkerhed, borgernes rettigheder eller værdighed og er derfor forbudt. Eksempler inkluderer AI til masseovervågning eller til automatisk at vurdere risikoen for, at personer begår kriminalitet.