EUs nye regelverk: AI-act
- Michael Tonheim
- Jan 24
- 3 min read
Hvordan sikrer vi at AI brukes på en ansvarlig måte som beskytter individets rettigheter og samfunnets sikkerhet? Det er her EU’s nye regelverk, AI-act, kommer inn i bildet. Dette rammeverket stiller krav til både utviklere og brukere av AI-løsninger, og det legger til rette for en mer ansvarlig fremtid for teknologien.
I denne artikkelen ser vi nærmere på hva AI-act innebærer, hvilke krav som stilles, og hvorfor det er kritisk å være i samsvar med regelverket.

Hva er AI-act?
AI-act, eller Artificial Intelligence Act, er et nytt regelverk fra EU som skal regulere utvikling og bruk av kunstig intelligens (AI) for å sikre ansvarlighet, trygghet og respekt for grunnleggende rettigheter. AI-act introduserer et risikobasert rammeverk som setter krav til ulike typer AI-systemer avhengig av deres potensielle innvirkning på brukere og samfunn.
Krav til ulike risikonivåer
AI-act deler AI-løsninger inn i fire kategorier basert på risiko:
Forbudte AI-systemer: Dette gjelder AI som anses å utgjøre en uakseptabel risiko, slik som systemer for sosial scoring eller manipulasjon av menneskelig atferd. Disse er totalt forbudt innen EU.
Høyrisiko AI-systemer: Disse inkluderer løsninger brukt i kritiske sektorer som helsevesen, rettshåndhevelse, utdanning og kritisk infrastruktur. Leverandører må:
Dokumentere teknisk sikkerhet og pålitelighet.
Implementere risikohåndteringssystemer.
Gjennomføre jevnlig testing og revisjon.
Sikre transparens og datasikkerhet.
Begrenset risiko: AI-systemer som krever spesifikke opplysningskrav, som for eksempel chatboter, må tydelig informere brukere om at de kommuniserer med en maskin.
Minimal risiko: AI-systemer som ikke utgjør noen vesentlig risiko, som spamfiltre, vil ha minimale krav og kan brukes uten videre regulering.
Dokumentasjon for å oppfylle AI-act
Utviklere av AI-løsninger må kunne dokumentere at systemene deres oppfyller kravene i AI-act. Dette innebærer:
Risikovurdering: Identifisere hvilken risikokategori løsningen faller inn under og hvilke krav som gjelder.
Teknisk dokumentasjon: Beskrive hvordan systemet fungerer, inkludert algoritmer, dataflyt og risikohåndtering.
Overholdelsesrapporter: Utarbeide rapporter som bekrefter samsvar med regelverket.
Transparens: Tilby brukerne klar informasjon om systemets formål, begrensninger og databehandling.
CE-merking: For høyrisiko AI-systemer kreves CE-merking som bekrefter at systemet oppfyller EUs krav.
Hva skal vi som anskaffer en AI-løsning sette som krav? Hvordan vet vi at leverandøren leverer i henhold til AI-act?
Som kunde er det avgjørende å stille tydelige krav til leverandører av AI-løsninger. Her er noen viktige punkter å inkludere i kravspesifikasjonen:
Transparens: Krev at leverandøren gir detaljert informasjon om hvordan AI-løsningen fungerer, hvilke data som brukes, og hvilke beslutninger som tas av systemet.
Risikovurdering: Be om dokumentasjon som viser at leverandøren har utført en risikovurdering av AI-løsningen i henhold til AI-act.
Overholdelsesrapporter: Krev innsyn i rapporter som bekrefter at løsningen er testet og funnet i samsvar med regelverket.
Kontinuerlig oppdatering: Forsikre deg om at leverandøren har rutiner for å holde AI-løsningen oppdatert i henhold til eventuelle endringer i AI-act.
CE-merking: For høyrisiko AI-løsninger, sjekk at systemet er CE-merket som et bevis på samsvar.
For å verifisere at leverandøren faktisk leverer i henhold til AI-act, kan du:
Be om tredjepartsrevisjoner eller sertifiseringer som bekrefter samsvar.
Inkludere krav om regelmessig rapportering i kontrakten.
Bruke spesialister eller rådgivere som kan hjelpe med å evaluere leverandørens dokumentasjon og rutiner.
Konsekvenser av å ikke overholde AI-act
Å ignorere AI-act kan få alvorlige konsekvenser for både leverandører og kunder:
For leverandører:
Høye bøter, opptil 6% av selskapets globale omsetning.
Tap av tillit og markedsposisjon.
Potensiell ekskludering fra EUs markeder.
For kunder:
Bruk av ikke-kompatible AI-løsninger kan føre til juridiske problemer.
Risiko for å skade sluttbrukernes/innbyggernes rettigheter og sikkerhet.
Tap av omdømme og tillit fra brukere og partnere.
Hvordan Breem sikrer samsvar med AI-act
Hos Breem har vi god kjennskap til AI-act og fungerer som en fasilitator og veileder for å sikre at AI-løsninger utvikles og forvaltes i tråd med regelverket.
Vår tilnærming inkluderer:
Veiledning i risikokartlegging: Vi hjelper leverandører med å identifisere riktig risikokategori og forstå hvilke krav som gjelder.
Rådgivning om dokumentasjonskrav: Vi gir klare anbefalinger for hvordan teknisk og juridisk dokumentasjon skal utarbeides.
Oppdatering på regelverksendringer: Vi holder våre samarbeidspartnere oppdatert på endringer i AI-act for å sikre kontinuerlig samsvar.
Fremming av transparens: Vi legger til rette for at AI-løsninger utvikles med fokus på brukervennlighet, sikkerhet og åpenhet.
Opmerkingen