Kommissionen udsendte i august 2024 nedenstående Q&A om AI-forordningen.
EU’s AI-forordning er verdens første omfattende lovgivning om kunstig intelligens (AI). Den tilsigter at imødegå truslerne mod sundhed, sikkerhed og grundlæggende rettigheder. Forordningen beskytter ydermere demokratiet, retsstatsprincippet og miljøet.
Udbredelsen af AI-systemer har stort potentiale til at medføre samfundsmæssige fordele, økonomisk vækst og til at fremme innovation og global konkurrenceevne i EU. I visse tilfælde kan specifikke karakteristika af nogle AI-systemer give anledning til nye risici i forbindelse med brugersikkerhed, herunder fysisk sikkerhed og de grundlæggende rettigheder. Nogle kraftige AI-modeller, som anvendes i vid udstrækning, kan endvidere udgøre systemiske risici.
Disse risici fører til en lavere grad af retssikkerhed og potentielt en langsommere udbredelse af teknologier med kunstig intelligens blandt offentlige myndigheder, virksomheder og borgere grundet manglende tillid. Uanset forskellige lovgivningsmæssige tiltag fra de nationale myndigheders side, er der risiko for et fragmenteret indre marked.
Lovgivningsmæssige tiltag har været nødvendige for at imødegå udfordringerne og for at sikre et velfungerende indre marked for AI-systemer, hvor både fordele og risici håndteres på passende vis.
Den retlige ramme vil finde anvendelse på både offentlige og private aktører i og uden for EU, hvis AI-systemet bringes i omsætning på EU-markedet, eller dets anvendelse berører personer, som befinder sig i EU.
Forpligtelserne kan påvirke både udbydere (fx en udvikler af et CV-screeningsværktøj) og idriftsættere af AI-systemer (fx en bank, der køber screeningsværktøjet). Der er visse undtagelser i forordningen. Fx er forsknings-, udviklings- og prototypeaktiviteter, der finder sted, inden AI-systemer frigives på markedet, ikke omfattet af bestemmelserne. Derudover er AI-systemer, der udelukkende er designet til militære formål, forsvarsformål eller formål vedrørende den nationale sikkerhed, også undtaget, uanset hvilken type enhed, der udfører disse aktiviteter.
AI-forordningen introducerer en ensartet retlig ramme i alle EU’s medlemsstater, baseret på en fremadrettet definition af kunstig intelligens og en risikobaseret tilgang.
Uacceptabel risiko: Et meget begrænset sæt særligt skadelige anvendelser af AI, som strider med EU-retlige værdier, fordi de krænker de grundlæggende rettigheder, vil blive forbudt:
Kommissionen vil udstede retningslinjer for forbuddene før deres ikrafttræden den 2. februar 2025.
Højrisiko AI-systemer: Et begrænset antal AI-systemer har potentielt en negativ indvirkning på menneskers sikkerhed eller deres grundlæggende rettigheder (der er beskyttet i EU’s Charter om grundlæggende rettigheder), og anses derfor for at udgøre en høj risiko. Til forordningen er der knyttet bilag med en liste over højrisiko-AI-systemer. Listen kan fornyes for at bringes i overensstemmelse med udviklingen inden for anvendelsen af kunstig intelligens.
Højrisiko-AI-systemer omfatter også sikkerhedskomponenter i produkter omfattet af sektorspecifik EU-lovgivning, som altid vil blive betragtet om højrisiko, når de er underlagt en tredjeparts overensstemmelsesvurdering i henhold til den pågældende sektorlovgivning.
Andre højrisiko-AI-systemer omfatter fx AI-systemer, der vurderer, om en person kan modtage en bestemt medicinsk behandling, få et bestemt job eller låne til at købe en lejlighed. Derudover kan andre højrisiko-AI-systemer anvendes af politiet til profilering af personer eller vurdering af deres risiko for at begå en forbrydelse (medmindre det er forbudt efter artikel 5). Højrisikosystemer kan også være AI-systemer, der betjener robotter, droner eller medicinsk udstyr.
Specifik gennemsigtighedsrisiko: For at skabe tillid, er det vigtigt at sikre gennemsigtighed omkring anvendelsen af kunstig intelligens. Af den grund introducerer AI-forordningen specifikke gennemsigtighedskrav for visse AI-systemer og modeller, fx hvor der er en klar risiko for manipulation (fx gennem anvendelse af chatbots) eller deepfakes, hvor brugerne bør vide, at de interagerer med en maskine.
Minimal risiko: Størstedelen af AI-systemer kan udvikles og anvendes i henhold til den eksisterende lovgivning uden yderligere retlige forpligtelser. Udbydere af systemerne kan frivilligt vælge at anvende kravene til pålidelig kunstig intelligens og tilslutte sig til frivillige praksiskodekser.
AI-forordningen tager ydermere hensyn til systematiske risici, der kan opstå som følge af AI-modeller til almen brug, herunder store generative AI-modeller. Disse modeller kan anvendes til en række forskellige opgaver og er ved at blive grundlaget for mange AI-systemer i EU. Nogle af modellerne kan udgøre systemiske risici, hvis de er meget effektive eller udbredte. Fx kan kraftfulde modeller forårsage alvorlige uheld eller de kan misbruges til vidtgående cyberangreb. Mange individer kan blive berørt, hvis en model giver skadelige forudindtagelser på tværs af mange applikationer.
AI-forordningen har en solid metode til klassificering af kunstig intelligens som højrisiko. Dette har til formål at skabe retssikkerhed for virksomheder og andre operatører.
Risikoklassificeringen er baseret på AI-systemets tilsigtede formål, i overensstemmelse med den eksisterende EU-lovgivning om produktsikkerhed. Det betyder, at klassifikationen afhænger af den funktion, der udføres af AI-systemet samt det specifikke formål og funktionsmåder, som systemet anvendes til.
AI-systemer kan klassificeres som højrisiko i to tilfælde:
Kommissionen er ved at udarbejde retningslinjer for højrisikoklassifikation, hvilket vil blive offentliggjort forud for anvendelsesdatoen for disse regler.
Bilag III omfatter otte områder, hvor anvendelsen af kunstig intelligens kan være særligt risikabel og oplister konkrete anvendelsestilfælde for hvert område. Et AI-system klassificeres som højrisiko, hvis det er beregnet til at anvendes til et af nedenstående anvendelsestilfælde.
Eksempler er:
Inden et højrisiko-AI-system bringes i omsætning på EU-markedet eller på anden måde tages i brug, skal udbydere foretage en overensstemmelsesvurdering af systemet. Dette giver dem mulighed for at demonstrere, at deres system stemmer overens med de obligatoriske krav for pålidelig kunstig intelligens (fx data kvalitet, dokumentation og robusthed). Denne vurdering skal gentages, hvis systemet eller dets formål ændres væsentligt.
AI-systemer, der udgør sikkerhedskomponenter i produkter, der er omfattet af sektorspecifik EU-lovgivning, vil altid blive betragtet som højrisikoelementer ved overensstemmelsesvurdering af en tredjepart i henhold til den sektorspecifikke lovgivning.
Udbydere af højrisiko-AI-systemer vil også skulle indføre kvalitets- og risikostyringssystemer for at sikre, at de opfylder de nye krav, og minimerer risiciene for brugere og berørte personer, selv efter produktet er bragt i omsætning.
Udbydere af højrisiko-AI-systemer, der anvendes af offentlige myndigheder eller enheder, der handler på deres vegne, skal registreres i en offentlig EU-database, medmindre disse systemer anvendes til retshåndhævelse og migration. Sidstnævnte skal registreres i en ikke-offentlig del af database, der kun er tilgængelig for de relevante tilsynsmyndigheder.
For at sikre overholdelse gennem hele AI-systemets livscyklus vil markedsovervågningsmyndigheder udføre regelmæssige revisioner og lette overvågningen efter markedsføring og vil give udbydere mulighed for frivilligt at indberette eventuelle alvorlige hændelser eller overtrædelser af forpligtelser vedrørende grundlæggende rettighedsforpligtelser, som de får kenskab til. I særlige tilfælde kan myndighederne give dispensation for specifikke højrisiko-AI-systemer, der skal bringes i omsætning.
I tilfælde af brud, vil reguleringen give nationale myndigheder adgang til de oplysninger, der er nødvendige for at undersøge, om brugen af AI-systemet var i overensstemmelse med loven.
Gennem AI-forordningen bliver højrisiko-AI-systemer underlagt specifikke krav. Europæiske harmoniserede standarder vil spille en central rolle i implementeringen af kravene.
I maj 2023 gav Europa-Kommissionen de europæiske standardiseringsorganisationer CEN og CENELEC mandat, til at udvikle standarder for disse højrisikokrav. Dette mandat vil nu blive ændret, så det bringes i overensstemmelse med AI-forordningens endelige ordlyd.
De europæiske standardiseringsorganisationer vil have indtil udgangen af april 2025, til at udvikle og offentliggøre standarder. Kommissionen vil derefter evaluere og eventuelt godkende disse standarder, som vil blive offentliggjort i EU-tidende. Når disse standarder er offentliggjort, vil de tildele en ”formodning om overensstemmelse” til AI-systemer, der er udviklet i overensstemmelse med dem.
AI-modeller til almen brug, samt store generative AI-modeller, kan anvendes til en række forskellige opgaver. Individuelle modeller kan integreres i et stort antal AI-systemer.
Det er afgørende, at en udbyder af et AI-system, der integrerer et AI-system til almen brug, har adgang til al nødvendig information, for at sikre at systemet er sikkert og i overensstemmelse med AI-forordningen.
Derfor forpligter AI-forordningen udbydere af sådanne modeller til at videregive visse informationer til downstream system udbydere. Denne gennemsigtighed fordrer en bedre forståelse af modellerne.
Udbyderen af en model skal have indført retningslinjer for at sikre, at de respekterer de ophavsretlige regler, når de træner deres modeller.
Desuden kan nogle af disse modeller udgøre systemiske risici, fordi de er meget dygtige eller meget udbredte.
I øjeblikket anses AI-modeller til almen brug, der bliver trænet ved hjælp af en samlet computerkraft på mere end 10^25 FLOP’er, for at udgøre systemiske risici. Kommissionen kan ajourføre eller supplere denne tærskel i lyset af de teknologiske fremskridt og kan også udpege andre modeller til at udgøre systemiske risici baseret på yderligere kriterier (fx antal brugere eller modellens grad af autonomi).
Udbydere af modeller med systemiske risici er forpligtet til at vurdere og afbøde risici, indberette alvorlige hændelser, gennemføre de mest avancerede test og modelevalueringer og sørge for cybersikkerheden ved deres modeller.
Udbydere opfordres til at samarbejde med AI-kontoret og andre interessenter til at udvikle et praksiskodeks, der beskriver reglerne og dermed sikrer en sikker og ansvarlig udvikling af deres modeller. Dette kodeks bør udgøre et centralt værktøj for udbydere af AI-systemer til alment brug ift. At påvise modellens overensstemmelse.
FLOP er indikator for modelkapacitet, og den nøjagtige FLOP-tærskel kan justeres opad eller nedad af Kommissionen, fx i lyset af fermskridtene med hensyn til objektivt at måle modelkapacitet og udviklingen i den computerkraft, der er nødvendig for et givent præstationsniveau.
Modellers kapacitet over denne tærskel er endnu ikke tilstrækkeligt forstået. De kan udgøre en systemisk risiko, hvorfor det er rimeligt, at deres udbydere pålægges yderligere forpligtelser.
AI-forordningen sætter regler om gennemsigtighed for det indhold, der er produceret af generativ kunstig intelligens, for at imødegå risikoen for manipulation, vildledning og misinformation.
Udbyderne af generative AI-systemer forpligtes til at markere AI-output i et maskinlæsbart formalt og til at sikre, at de kan spores som kunstigt genereret eller manipuleret. De tekniske løsninger skal være effektive, forenelige, robuste og pålidelige i det omfang det er teknisk muligt, under hensyntagen til de særlige kendetegn og begrænsninger af forskellige typer af indhold, implementeringsomkostningerne og det generelt anerkendte tekniske niveau, som kan være afspejlet i relevante tekniske standarder.
Desuden skal idriftsættere af generative AI-systemer, der genererer eller manipulerer billede-, lyd-, eller videoindhold, der udgør deepfakes, tydeligt oplyse, at indholdet er blevet kunstigt genereret eller manipuleret. Idriftsættere af et AI-system, der genererer eller manipulerer tekst, der offentliggøres med det formålet at infomere offentligheden om spørgsmål af offentlig interesse, skal også oplyse, at teksten er blevet kunstigt genereret eller manipuleret. Denne forpligtelse finder ikke anvendelse, hvor det AI-genereret indhold har være genstand for en menneskelig gennemgang eller redaktionel kontrol eller, hvor en fysisk eller juridisk person har det redaktionelle ansvar for offentliggørelsen af indholdet.
AI-kontoret vil udstede retningslinjer for at give yderligere vejledning til udbydere og idriftsættere, om forpligtelserne i artikel 50, som vil finde anvendelse to år efter at AI-forordningen træder i kraft (2 august 2026).
AI-kontoret vil også opfordre og lette udviklingen af et praksiskodeks på EU-plan, for at strømline den effektive implementering af forpligtelserne relateret til påvisning og mærkning af kunstigt genereret eller manipuleret indhold.
AI-forordningen sætter en retlig ramme, der er modtagelig overfor nye udviklinger og den er nem og hurtig at tilpasse samt giver mulighed for hyppig evaluering.
AI-forordningen sætter resultatorienterede krav og forpligtelser, men overlader konkrete tekniske løsninger og operationalisering til branchedrevne standarder og praksiskodekser, som er fleksible, så de kan tilpasses til forskellige anvendelsestilfælde samt muliggøre nye tekniske løsninger.
Desuden kan selve lovgivningen ændres ved delegerede retsakter og gennemførelsesretsakter for fx at gennemgå listen over anvendelser af højrisikoanvendelser i bilag III.
Endeligt vil der foretages hyppige evalueringer af visse dele af AI-forordningen og i sidste ende, af hele forordningen, idet det sikres, at eventuelle behov for revision og ændringer identificeres.
Det er forbudt at bruge biometrisk fjernidentifikation i realtid på offentlige steder (dvs. ansigtsgodkendelse ved anvendelse af kameraovervågning) til retshåndhævelsesformål. Medlemsstater kan gennem lovgivning vedtage undtagelser, som tillader anvendelsen af biometrisk fjernidentifikation i realtid i følgende tilfælde:
Enhver ekstraordinær anvendelse, vil være betinget af en forudgående tilladelse fra en retlig eller uafhængig administrativ myndighed, hvis afgørelse er bindende. I hastetilfælde kan godkendelsen udstedes inden for 24 timer; hvis tilladelsen afvises, skal alle data og outputs slettes.
Forinden skal der foretages en forudgående konsekvensanalyse af de grundlæggende rettigheder, og den relevante markedsovervågningsmyndighed og databeskyttelsesmyndigheden skal underrettes herom. I hastetilfælde kan anvendelsen af systemet påbegyndes uden registrering.
Anvendelsen af AI-systemer til efterfølgende biometrisk fjernidentifikation (identifikation af personers tidligere indsamlet materiale) af personer, der efterforskes, kræver forudgående tilladelse fra en retlig myndighed eller en uafhængig administrativ myndighed, og underretning af den relevante databeskyttelses- og markedsovervågningsmyndighed.
Biometrisk identifikation kan ses i forskellige former. Biometrisk autentifikation og verifikation fx til at låse en smartphone op eller til verifikation/autentifikation, som anvendes til at kontrollere en persons identitet i forhold til vedkommendes rejsedokumenter (en-til-en sammenligning), ved krydsning af grænser, forbliver uregelret, fordi de ikke udgør en signifikant risiko til grundlæggende rettigheder.
I modsætning kan biometrisk identifikation også anvendes på afstand fx til at identificere personer i en menneskemængde, hvilket kan påvirke privatlivets fred i det offentlige rum i væsentlig grad.
Nøjagtigheden af systemer til ansigtsgodkendelse, kan påvirkes betydeligt af en lang række faktorer, som kamerakvalitet, lys, afstand, database, algoritme, og personens etnicitet, alder og køn. Det samme gælder gang- og stemmegenkendelse og andre biometriske systemer. Meget avancerede systemer bliver stadigt mere præcise, og antallet af fejl med falsk positivt resultat er derfor faldende.
Selvom en nøjagtighed på 99% generelt lyder tilfredsstillende, er det en uacceptabel risiko, når slutresultatet er, at uskyldige mennesker mistænkeliggøres. Selv en fejlprocent på 0,1 % kan have en betydelig indvirkning, når den anvendes på store populationer, f.eks. på togstationer.
Der er allerede en bedre beskyttelse af grundlæggende rettigheder og ikke-forskelsbehandling på EU-plan og i medlemsstaterne, men kompleksiteten og manglende gennemsigtighed ved visse former for kunstig intelligens (sorte bokse) udgør et problem.
En menneskecentreret tilgang til kunstig intelligens kræver, at kunstig intelligens overholder lovgivning vedrørende grundlæggende rettigheder. Ved at integrere ansvars- og gennemsigtighedskrav i udviklingen af højrisiko-AI-systemer, samt ved at forbedre håndhævelseskapaciteten kan vi sikre, at disse systemer er udformet til at overholde lovgivningen fra start. I tilfælde af overtrædelser, vil kravene give nationale myndigheder adgang til de oplysninger, der er nødvendig for at undersøge, om anvendelsen af kunstig intelligens er i overensstemmelse med EU-lovgivning.
Desuden kræver AI-forordningen at visse idriftsættere af højrisiko-AI-systemer, foretager en konsekvensanalyse vedrørende grundlæggende rettigheder.
Udbydere af højrisiko-AI-systemer skal foretage en risikovurdering samt designe systemet på en sådan måde, at truslerne mod sundhed, sikkerhed og grundlæggende rettigheder minimeres.
Visse risici for de grundlæggende rettigheder kan kun fuldt ud identificeres, når konteksten for anvendelsen af højrisiko-AI-systemer er kendt. Hvor højrisiko-AI-systemer anvendes på særligt følsomme områder med mulig fordrejning i magtforhold, er der behov for yderligere overvejelser om sådanne risici.
Idriftsættere, der er offentligretlige organer eller private operatører, der leverer offentlige tjenester samt operatører, som leverer højrisiko-AI-systemer, der udfører kreditværdighedsvurderinger eller pris- og risikovurderinger inden for livs- og sygeforsikring, skal foretage en vurdering af indvirkningen på de grundlæggende rettigheder og underrette den nationale myndighed om resultaterne.
I praksis vil mange idriftsættere også skulle iværksætte en konsekvensanalyse vedrørende databeskyttelse. For at undgå væsentligt overlap, skal konsekvensanalysen vedrørende grundlæggende rettigheder gennemføres i forbindelse med konsekvensanalysen vedrørende databeskyttelse.
Det er meget vigtigt at understrege at AI-systemer ikke skaber eller frembringer bias. Når AI-systemer udformes og anvendes korrekt, kan AI-systemer derimod bidrage til at mindske bias og eksisterende strukturel diskrimination, og dermed føre til mere retfærdige og ikkediskriminerende beslutninger (fx i forbindelse med ansættelser).
De nye obligatoriske krav til alle højrisiko-AI-systemer tjener dette formål. AI-systemer skal være teknisk robuste for at sikre, at de er egnede til formålet og ikke giver bias/partiske resultater, såsom falske positive eller negative resultater, der i uforholdsmæssig grad påvirker marginaliserede grupper, herunder dem, der er baseret på race eller etnisk oprindelse, køn, alder og andre beskyttede karakteristika.
Højrisiko-AI-systemer skal trænes og testes med datasæt, der er tilstrækkeligt repræsentative for at minimere risikoen for indbygget uretfærdig bias i modellen, og sikre, at bias kan afhjælpes gennem passende foranstaltninger til at opdage og korrigere dem.
Systemerne skal kunne spores og revideres og sikre, at der opbevares passende dokumentation, herunder de data, der bruges til at træne den algoritme, som ville være afgørende i efterfølgende undersøgelser.
Systemets overholdelse før og efter det bringes i omsætning, skal sikres gennem regelmæssig overvågning og ved, at potentielle risici håndteres omgående.
AI forordningen finder anvendelse to år efter ikrafttrædelsen, hvilket vil sige den 2. august 2026, med undtagelse af følgende specifikke bestemmelser:
Med AI-forordningen indføres et tostrenget forvaltningssystem, hvor nationale myndigheder er ansvarlige for at føre tilsyn med og håndhæve reglerne for AI-systemer, mens ansvaret for at styre AI-modeller til almen brug ligger på EU-plan.
For at sikre sammenhæng og samarbejde i hele EU, oprettes Det Europæiske Udvalg for Kunstig Intelligens (AI-udvalget), som består af repræsentanter fra medlemsstaterne, med specialiseret undergrupper for nationale tilsynsmyndigheder og andre kompetente myndigheder.
AI-kontoret, Kommissionens gennemførelsesorgan for AI-forordningen, vil yde strategisk vejledning til AI-udvalget.
AI-Forordningen indfører ydermere to rådgivende organer, som skal yde ekspertinput: Det Videnskabelige Organ og det Rådgivende Forum. Disse organer vil give værdifuld indsigt fra interessenter og forskersamfund, som danner grundlag for beslutningstagen og sikrer en afbalanceret tilgang til udvikling af kunstig intelligens.
Det Europæiske Kunstig Intelligens Udvalg består af højtstående repræsentanter fra medlemsstaterne og Den Europæiske Tilsynsførende for Databeskyttelse. Som central rådgiver yder AI-udvalget vejledning om alle spørgsmål vedrørende AI-politik, navnlig AI-regulering, innovations- og ekspertisepolitik og internationalt samarbejde om kunstig intelligens.
Udvalget for Kunstig Intelligens spiller en afgørende rolle med hensyn til en gnidningsløs, effektiv og harmoniseret gennemførsel af AI-forordningen. Udvalget vil fungere som det forum, hvor AI-reguleringsmyndighederne, dvs. AI-kontoret, de nationale myndigheder og EPDS, kan koordinere den konsekvente anvendelse af AI-forordningen.
Medlemsstaterne skal fastsætte sanktioner, der er effektive, står i et rimeligt forhold til overtrædelsen og har en afskrækkende virkning, for overtrædelse af reglerne for AI-systemer.
I forordningen fastsættes der tærskler, der skal tages i betragtning:
Kommissionen kan også håndhæve reglerne for udbydere af AI-modeller til almen brug, gennem bøder under hensyntagen til følgende tærskel:
EU institutioner, agenturer og organer bør gå forrest som et godt eksempel, hvilket er derfor reglerne og muligheden for sanktioner også gælder for dem. Det Europæiske Tilsynsførende for Databeskyttelse får beføjelser til at pålægge dem bøder, i tilfælde af manglende overholdelse.
Udarbejdelsen af det første kodeks følger en inklusiv og gennemsigtig proces. Der vil blive etableret en plenarforsamling vedrørende praksiskodekset, som skal lette den iterative udarbejdelsesproces. Forsamlingen vil bestå af alle interesserede og berettigede udbydere af AI-modeller til almen brug, udbydere i det efterfølgende led, som integrerer en AI-model til alment brug i deres AI-systemer, andre brancheorganisationer, andre interesseorganisationer såsom civilsamfundsorganisationer og sammenslutninger af rettighedshavere samt den akademiske verden og andre uafhængige eksperter.
AI-kontoret har iværksat en indkaldelse af interessetilkendegivelser med henblik på at deltage i udarbejdelsen af det første praksiskodeks. Sideløbende med denne indkaldelse af interessetilkendegivelser, iværksættes der en høring med flere interessenter, for at indsamle synspunkter og input fra alle interessenter om det første praksiskodeks. Kodekset er derfor fra start baseret på en bred vifte af perspektiver og ekspertise.
Plenarforsamlingen vil blive struktureret i fire arbejdsgrupper, for at give mulighed for målrettede drøftelser om specifikke emner, der er relevante for at præcisere forpligtelserne for udbydere af AI-modeller til almen brug og AI-modeller til almen brug med systemiske risici. Plenarforsamlingens deltagere kan frit vælge en eller flere arbejdsgrupper, som de ønsker at deltage i. Møderne afholdes udelukkende online.
AI-kontoret udpeger, hvor det er relevant, forpersoner og næstforpersoner for hver af plenarforsamlingens fire arbejdsgrupper, udvalgt blandt interesserede uafhængige eksperter. Forpersonerne sammenfatter indlæg og bemærkninger fra plenarforsamlingens deltagere med henblik på iterativt at udarbejde det første praksiskodeks.
Udbydere af AI-modeller til almen brug vil som kodeksets hovedadressater, blive inviteret til særlige workshops for at bidrage til at informere om hver iterativ redaktionsrunde ud over deres deltagelse i plenarforsamlingen.
Den endelige udgave af det første praksiskodeks vil, efter 9 måneder, blive præsenteret i et afsluttende plenarmøde, som forventes at finde sted i april samt blive offentliggjort. Det afsluttende plenarmøde giver udbyderne af AI-modeller til almen brug mulighed for at tilkendegive, om de vil overveje at anvende kodekset.
I slutningen af udarbejdelsen af praksiskodekset vil AI-kontoret og AI-udvalget vurdere, om kodekset er tilstrækkeligt samt offentliggøre deres vurdering. Efter vurderingen kan Kommissionen vælge at godkende praksiskodekset og give det almen gyldighed i Unionen, ved hjælp af gennemførelsesretsakter. Hvis praksiskodekset ikke bliver vurderet tilstrækkeligt af AI-kontoret på tidspunktet, hvorfra forordningen finder anvendelse, kan Kommissionen fastsætte generelle regler for implementeringen af relevante forpligtelser.
Udbydere af AI-modeller til almen brug kan derfor henholde sig til praksiskodekset, for at demonstrere overholdelse af de forpligtelser, der er fastsat i AI-forordningen.
I henhold til AI-forordningen bør praksiskodekset inkludere mål, foranstaltninger samt, hvor det er relevant, centrale resultatindikatorer(KPI’er).
Udbydere, der overholder kodekset, bør regelmæssigt aflægge rapporter til AI-kontoret om gennemførelsen af foranstaltninger og deres resultater, herunder målt i forhold til centrale resultatindikatorer.
Dette letter AI-kontorets håndhævelse, der understøttes af de beføjelser, som er tildelt Kommissionen efter AI-forordningen. Det omfatter muligheden for at foretage evalueringer af AI-modeller til almen brug, anmode om information og foranstaltninger fra modeludbydere og anvende sanktioner.
AI-kontoret vil, hvor det er relevant, tilskynde til og lette gennemgangen og tilpasningen af kodekset for at afspejle fremskridt inden for teknologi og den nyeste teknologi.
Når en harmoniseret standard er offentliggjort, og AI-kontoret har vurderet den som egnet til at dække de relevante forpligtelser, bør overholdelse af de Europæiske harmoniserede standarder medføre en formodning om overensstemmelse fra udbydernes side.
Udbydere af AI-modeller til almen brug bør endvidere, kunne udvise overensstemmelse gennem anvendelse af alternative passende metoder, hvis der ikke er et praksiskodeks eller harmoniserede standarder tilgængelige, eller de vælger ikke at anvende sådanne.
Formålet med forslaget om kunstig intelligens er at adressere truslerne mod sikkerheden og grundlæggende rettigheder, herunder den grundlæggende ret til et højt niveau af miljøbeskyttelse. Miljøet er også en af de udtrykkeligt nævnte og beskyttede retlige interesser.
Kommissionen anmodes, om at opfordre Europæiske standardiseringsorganisationer, til at udarbejde en standardisering på rapporterings- og dokumentationsprocesser, for at forbedre AI-systemernes ressourceydeevne, såsom reduktion af højrisiko-AI-systemers energi- og ressourceforbrug i løbet af dets livscyklus, samt energieffektiv udvikling af AI-modeller til almen brug.
Desuden anmodes Kommissionen, om senest to år efter forordningens ikrafttrædelse og efterfølgende hvert fjerde år at fremlægge, en rapport om gennemgangen af fremskridtene med udviklingen af standardiseringspublikationer, om energieffektiv udvikling af modeller til amen brug og vurdere behovet for yderligere foranstaltninger eller tiltag, herunder bindende foranstaltninger eller tiltag.
Yderligere skal udbydere af AI-modeller til almen brug, som er trænet i store datamængder og derfor har et højt energiforbrug, oplyse om energiforbruget. I tilfælde af AI-modeller til amen brug med systemiske risici, skal energieffektiviteten også vurderes.
Kommissionen har beføjelser til at udvikle passende og sammenlignelige målemetoder for disse oplysningsforpligtelser.
De lovgivningsmæssige rammer kan øge udbredelsen af kunstig intelligens på to måder. På den ene side vil øget tillid blandt brugerne øge efterspørgslen på kunstig intelligens fra virksomheder og offentlige myndigheder. På den anden side vil udbydere af kunstig intelligens, gennem øget retssikkerhed og harmoniserede regler, få adgang til et større marked med produkter, som brugere og forbrugere værdsætter og køber. Reglerne vil kun finde anvendelse, hvor de er strengt nødvendige og på en måde, der med en let forvaltningsstruktur minimerer byrden for de økonomiske strukturer.
AI-forordningen muliggør yderligere oprettelsen af AI-sandkasser og afprøvning under faktiske forhold, hvilket skaber et kontrolleret miljø for afprøvning af innovative teknologier i et begrænset tidsrum og dermed fremmer innovation i virksomheder, SMV’er og nystartede virksomheder, i overensstemmelse med AI-forordningen. Dette vil, sammen med andre foranstaltninger som de yderligere netværkscentre for ekspertise i kunstig intelligens og det offentlig-private partnerskab om kunstig intelligens, data og robotteknologi samt adgang til digital innovationskundepunkter og test- og forsøgsfaciliteter, bidrage til at skabe de rette rammebetingelser for virksomheders udvikling og anvendelse af kunstig intelligens.
Afprøvning under faktiske forhold af højrisiko-AI-systemer, kan udføres i højest 6 måneder (hvilket kan forlænges med yderligere 6 måneder). Der skal forud for afprøvning udarbejdes en plan, der forelægges markedsovervågningsmyndigheden, der skal godkende planen, og de specifikke prøvningsbetingelser med stiltiende standardgodkendelser, hvis der ikke er givet noget svar inden for 30 dage. Myndighederne skal foretage uanmeldte inspektioner af afprøvningen.
Afprøvning under faktiske forhold kan kun udføres med specifikke sikkerhedsforanstaltninger f.eks. skal brugerne af systemerne under afprøvningen under faktiske forhold, give informeret samtykke, prøvningen må ikke have nogen negativ indvirkning på dem, resultaterne skal være reversible eller kunne tilsidesættes, og data skal slettes, når afprøvningen er afsluttet. Der skal ydes særlig beskyttelse af grupper, der er sårligt sårbare fx grundet deres alder, fysiske eller mentale handicap.
AI-pagten, som blive iværksat af Kommissær Breton i maj 2023, har til formål at styrke engagementet mellem AI-kontoret og organisationerne (søjle I) og at opfordre industriens frivillige forpligtelse til at begynde at implementere AI-forordningens krav forud for den lovbestemte frist (sølje II).
Navnlig under sølje I vil deltagerne bidrage til oprettelsen af et fællesskab, hvor de deler deres erfaringer og viden. Dette omfatter workshops tilrettelagt af AI-kontoret, hvilket giver deltagerne en bedre forståelse af AI-forordningen, deres ansvarsområder og hvordan de forbereder implementeringen. Samtidig kan AI-kontoret indsamle viden om bedste praksis og om de udfordringer, som deltagerne står overfor.
Under sølje II opfordres organisationer til proaktivt at offentliggøre de processer samt den praksis, de gennemfører for at imødegå overholdelse gennem frivillige tilsagn. Tilsagn er tænkt som ”erklæringer om engagement” og vil indeholde foranstaltninger (planlagte eller igangværende), med henblik på at opfylde nogle af kravene i AI-forordningen.
Størstedelen af reglerne i AI-forordningen (fx nogle krav til højrisiko-AI-systemer), vil finde anvendelse i udgangen af en overgangsperiode (dvs. i tiden mellem ikrafttrædelsen og anvendelsesdatoen).
I denne forbindelse og inden for rammerne af AI-pagten, opfordrer AI-kontoret alle organisationer til proaktivt at imødegå og gennemføre nogle af de centrale bestemmelser i AI-forordningen med henblik på at mindske truslerne med hensyn til sundhed, sikkerhed og grundlæggende rettigheder, hurtigst som muligt.
Mere end 700 organisationer har allerede udtrykt deres interesse i at deltage i AI-pagtens initiativ efter en indkaldelse lanceret i november 2023. Det første informationsmøde blev afholdt online den 6. maj, med 300 deltagere. Den officielle tiltrædelse af de frivillige tilsagn er planlagt til efteråret 2024. Der vil være en workshop om AI-pagten i den første uge af september.
AI har konsekvenser og udfordringer, der overskrider grænser; derfor er international samarbejde vigtigt. AI-kontoret er ansvarligt for den Europæiske Unions internationale engagement på AI-området, på grundlag af AI-forordningen og den koordinerede plan for kunstig intelligens. EU søger at fremme ansvarlig forvaltning og god styring af kunstig intelligens i samarbejde med internationale partnere og i overensstemmelse med det regelbaserede multilaterale system og værdier, det opretholder.
EU forpligter sig bilateralt og multilateralt til at fremme pålidelig, menneskecentreret og etisk kunstig intelligens. Som konsekvens heraf er EU involveret i multilaterale fora, hvor kunstig intelligens drøftes – navnlig G7, G20, OECD, Europarådet, det globale partnerskab om kunstig intelligens og De Forenede Nationer – og EU har tætte bilaterale forbindelser med fx Canada, USA, Indien, Japan, Sydkorea, Singapore og Latinamerika og den Caribiske region.
Område: Kontor for digital regulering og tilsyn
E-mail: AIA@digst.dk