top of page

EUs nye regelverk: AI-act

  • Writer: Michael Tonheim
    Michael Tonheim
  • Jan 24
  • 3 min read

Hvordan sikrer vi at AI brukes på en ansvarlig måte som beskytter individets rettigheter og samfunnets sikkerhet? Det er her EU’s nye regelverk, AI-act, kommer inn i bildet. Dette rammeverket stiller krav til både utviklere og brukere av AI-løsninger, og det legger til rette for en mer ansvarlig fremtid for teknologien.


I denne artikkelen ser vi nærmere på hva AI-act innebærer, hvilke krav som stilles, og hvorfor det er kritisk å være i samsvar med regelverket.

Hva er AI-act?

AI-act, eller Artificial Intelligence Act, er et nytt regelverk fra EU som skal regulere utvikling og bruk av kunstig intelligens (AI) for å sikre ansvarlighet, trygghet og respekt for grunnleggende rettigheter. AI-act introduserer et risikobasert rammeverk som setter krav til ulike typer AI-systemer avhengig av deres potensielle innvirkning på brukere og samfunn.


Krav til ulike risikonivåer

AI-act deler AI-løsninger inn i fire kategorier basert på risiko:


  1. Forbudte AI-systemer: Dette gjelder AI som anses å utgjøre en uakseptabel risiko, slik som systemer for sosial scoring eller manipulasjon av menneskelig atferd. Disse er totalt forbudt innen EU.

  2. Høyrisiko AI-systemer: Disse inkluderer løsninger brukt i kritiske sektorer som helsevesen, rettshåndhevelse, utdanning og kritisk infrastruktur. Leverandører må:

    • Dokumentere teknisk sikkerhet og pålitelighet.

    • Implementere risikohåndteringssystemer.

    • Gjennomføre jevnlig testing og revisjon.

    • Sikre transparens og datasikkerhet.

  3. Begrenset risiko: AI-systemer som krever spesifikke opplysningskrav, som for eksempel chatboter, må tydelig informere brukere om at de kommuniserer med en maskin.

  4. Minimal risiko: AI-systemer som ikke utgjør noen vesentlig risiko, som spamfiltre, vil ha minimale krav og kan brukes uten videre regulering.


Dokumentasjon for å oppfylle AI-act


Utviklere av AI-løsninger må kunne dokumentere at systemene deres oppfyller kravene i AI-act. Dette innebærer:


  • Risikovurdering: Identifisere hvilken risikokategori løsningen faller inn under og hvilke krav som gjelder.

  • Teknisk dokumentasjon: Beskrive hvordan systemet fungerer, inkludert algoritmer, dataflyt og risikohåndtering.

  • Overholdelsesrapporter: Utarbeide rapporter som bekrefter samsvar med regelverket.

  • Transparens: Tilby brukerne klar informasjon om systemets formål, begrensninger og databehandling.

  • CE-merking: For høyrisiko AI-systemer kreves CE-merking som bekrefter at systemet oppfyller EUs krav.



Hva skal vi som anskaffer en AI-løsning sette som krav? Hvordan vet vi at leverandøren leverer i henhold til AI-act?


Som kunde er det avgjørende å stille tydelige krav til leverandører av AI-løsninger. Her er noen viktige punkter å inkludere i kravspesifikasjonen:


  1. Transparens: Krev at leverandøren gir detaljert informasjon om hvordan AI-løsningen fungerer, hvilke data som brukes, og hvilke beslutninger som tas av systemet.

  2. Risikovurdering: Be om dokumentasjon som viser at leverandøren har utført en risikovurdering av AI-løsningen i henhold til AI-act.

  3. Overholdelsesrapporter: Krev innsyn i rapporter som bekrefter at løsningen er testet og funnet i samsvar med regelverket.

  4. Kontinuerlig oppdatering: Forsikre deg om at leverandøren har rutiner for å holde AI-løsningen oppdatert i henhold til eventuelle endringer i AI-act.

  5. CE-merking: For høyrisiko AI-løsninger, sjekk at systemet er CE-merket som et bevis på samsvar.


For å verifisere at leverandøren faktisk leverer i henhold til AI-act, kan du:

  • Be om tredjepartsrevisjoner eller sertifiseringer som bekrefter samsvar.

  • Inkludere krav om regelmessig rapportering i kontrakten.

  • Bruke spesialister eller rådgivere som kan hjelpe med å evaluere leverandørens dokumentasjon og rutiner.

 

 

Konsekvenser av å ikke overholde AI-act

Å ignorere AI-act kan få alvorlige konsekvenser for både leverandører og kunder:


  • For leverandører:

    • Høye bøter, opptil 6% av selskapets globale omsetning.

    • Tap av tillit og markedsposisjon.

    • Potensiell ekskludering fra EUs markeder.


  • For kunder:

    • Bruk av ikke-kompatible AI-løsninger kan føre til juridiske problemer.

    • Risiko for å skade sluttbrukernes/innbyggernes rettigheter og sikkerhet.

    • Tap av omdømme og tillit fra brukere og partnere.


Hvordan Breem sikrer samsvar med AI-act

Hos Breem har vi god kjennskap til AI-act og fungerer som en fasilitator og veileder for å sikre at AI-løsninger utvikles og forvaltes i tråd med regelverket.


Vår tilnærming inkluderer:

  1. Veiledning i risikokartlegging: Vi hjelper leverandører med å identifisere riktig risikokategori og forstå hvilke krav som gjelder.

  2. Rådgivning om dokumentasjonskrav: Vi gir klare anbefalinger for hvordan teknisk og juridisk dokumentasjon skal utarbeides.

  3. Oppdatering på regelverksendringer: Vi holder våre samarbeidspartnere oppdatert på endringer i AI-act for å sikre kontinuerlig samsvar.

  4. Fremming av transparens: Vi legger til rette for at AI-løsninger utvikles med fokus på brukervennlighet, sikkerhet og åpenhet.

 
 
 

Opmerkingen


bottom of page