Alt du trenger å vite om EUs nye AI-lov

Arooj Anwar
By: Arooj Anwar | 23 januar

The EU AI Actlanseres offisielt 1. august 2024, og innebærer store endringer i hvordan kunstig intelligens reguleres i Europa. Den nye loven har som mål å balansere AI-innovasjon med sikkerhet og rettferdighet. I dette blogginnlegget går vi gjennom hva EUs AI-lov handler om, hvem den påvirker, og hva du må gjøre for å overholde den. Vi tar for oss de viktigste delene av loven, viktige tidsfrister og hva dette betyr for ulike typer organisasjoner. La oss dykke ned i det!

Hva er EUs AI-lov? 

AI-loven er det første omfattende settet med regler for kunstig intelligens i verden. Målet er å sikre at AI-systemer brukes på en ansvarlig og etisk forsvarlig måte. Ved å tilpasse AI-teknologien til grunnleggende rettigheter og sikkerhetsstandarder tar loven sikte på å fremme innovasjon, samtidig som den beskytter mennesker og minimerer risiko. I bunn og grunn handler det om å sørge for at AI kommer samfunnet til gode uten at det går på bekostning av sikkerhet eller rettferdighet.  

Hvorfor trenger vi AI-reguleringer? 

AI har kraft til å forandre bransjer og skape store fremskritt i hele Europa. Men etter hvert som AI-teknologien utvikler seg, medfører den også nye risikoer. Blant disse er potensielle trusler mot sikkerhet, personvern og til og med demokratiske verdier. Noen AI-systemer kan for eksempel skade brukernes sikkerhet eller krenke grunnleggende rettigheter hvis de ikke forvaltes på riktig måte. 

Uten klare regler kan bedrifter, myndigheter og enkeltpersoner misbruke kunstig intelligens. Hvis ulike land håndterer AI-regelverk ulikt, kan det skape uoverensstemmelser og hindre utviklingen av et enhetlig marked. 

Det er her EUs AI Act kommer inn i bildet. AI-loven tar tak i disse bekymringene ved å etablere klare regler og standarder for ulike typer AI-systemer, og sikrer at de brukes på en måte som er åpen og rettferdig.  

Hvem vil AI-loven påvirke? 

I AI-loven har ulike regler for ulike typer selskaper som er involvert i AI. Den vil påvirke et bredt spekter av organisasjoner, ikke bare de som utvikler AI-teknologi. Here’s who will be affected: 

    • Tilbydere:Selskaper som selger eller tilbyr AI-systemer eller AI-modeller for generelle formål i EU. 
    • Deployers:Selskaper som bruker AI-systemer og har base i EU. 
    • Brukere:Et hvert selskap, enten det er en leverandør eller distributør, som bruker resultatene av AI-systemer i EU . 
    • Importører og distributører:Selskaper som importerer eller distribuerer AI-systemer . 
    • Produktprodusenter:Selskaper som inkluderer AI-systemer som en del av produktene sine og selger dem under sitt eget navn eller merke. 

Det er altså ikke bare teknologiselskaper som utvikler AI. Alle selskaper som bruker AI eller resultatene av AI i EU, må følge disse reglene. Dette gjelder virksomheter i alle sektorer, enten de bruker kunstig intelligens til spesifikke formål som kredittvurderinger eller til generelle formål som rekruttering. 

Og husk at det ikke spiller noen rolle om et selskap er basert i eller utenfor EU. Hvis AI-systemene eller resultatene deres brukes i EU, må de overholde loven. 

Hva er de fire risikokategoriene i AI-loven? 

I AI-loven deles AI-systemer inn i fire risikonivåer, hvert med ulike regler. Hva du må gjøre for å overholde reglene, avhenger av hvilket risikonivå AI-systemet ditt befinner seg på. Her er en rask guide som hjelper deg med å forstå disse nivåene: 

    1. Uakseptabel risiko
      Disse AI-systemene er forbudt fordi de kan være til alvorlig skade for menneskers sikkerhet og rettigheter. This includes: 

      Social scoring: AI-systemer som rangerer mennesker basert på atferden deres, for eksempel Kinas sosiale kredittsystem, som påvirker tilgangen deres til tjenester og muligheter. 

      Farlige AI-leker: AI-drevne leker som utgjør en sikkerhetsrisiko, for eksempel smarte dukker som tar opp samtaler og skaper bekymring for personvernet. 

      Emotional manipulation: AI-systemer som utnytter emosjonelle sårbarheter, for eksempel apper for mental helse som kan manipulere brukernes emosjonelle problemer for å holde dem avhengige av appen. 

      Ansiktsgjenkjenning i sanntid: AI brukes av politiet til ansiktsgjenkjenning i sanntid i det offentlige rom, noe som er forbudt unntatt i svært sjeldne situasjoner. 

    2. Høy risiko
      Denne kategorien omfatter AI-systemer som brukes på kritiske områder der feil kan få betydelige konsekvenser. Examples are: 

      Helsevesen: AI-systemer som diagnostiserer sykdommer eller bistår i medisinske prosedyrer, på grunn av deres potensielle innvirkning på pasientens helse. 

      Finans: Kunstig intelligens som brukes til å ta beslutninger om lån eller andre finansielle tjenester, der feil kan få alvorlige økonomiske konsekvenser. 

      Lovhåndhevelse: AI som brukes til profilering eller overvåking, noe som kan påvirke personvernet og borgernes rettigheter. 

      Utdanning og arbeid: AI-systemer som påvirker tilgangen til utdanning, opplæring eller jobbmuligheter, og som påvirker enkeltpersoners yrkes- og utdanningsfremtid. 

      Høyrisikosystemer må oppfylle strenge krav, inkludert grundige risikovurderinger, data av høy kvalitet, detaljert dokumentasjon og menneskelig tilsyn. Disse systemene skal overvåkes nøye for å sikre at de er trygge og rettferdige. 

  • Begrenset risiko 
    AI-systemer her, som chatbots, utgjør ikke noen stor risiko, men må likevel være transparente. Hvis du for eksempel chatter med en AI, bør det tydelig fremgå at det ikke er en ekte person. Dette bidrar til å bygge tillit og holde ting klart og tydelig.

    Fun fact: I et av blogginnleggene våre ba vi ChatGPT om å skrive en phishing-e-post, og det gjorde den!Dette viser at selv veldesignet AI utilsiktet kan brukes på risikable måter, noe som understreker behovet for bedre kontroller og etiske retningslinjer. 

  • Minimal eller ingen risiko 
    Dette er AI-systemer med lav risiko, som spamfiltre eller videospill. De har svært få regler, men det er likevel lurt å holde et øye med dem for å unngå potensielle problemer. Most everyday AI systems fall into this category. 

For å finne ut hvor du faller inn under AI-loven, må du begynne med å se på hvordan din AI brukes og hvilke risikoer den kan utgjøre. Hvis den er involvert i kritiske områder som helsevesen eller finans, er den sannsynligvis høyrisiko, mens hverdagsverktøy som chatbots kan ha begrenset risiko. Sørg for å gå gjennom AI Act's detaljerte retningslinjer for å forstå de spesifikke kriteriene for hver kategori. Det er også lurt å gjennomføre en risikovurdering for å vurdere hvordan AI-systemet ditt kan påvirke sikkerheten eller folks rettigheter.  

Sentrale tidsfrister for AI-loven 

Den 1. august 2024 har vi lagt bak oss, og AI-loven har offisielt trådt i kraft. Here’s what’s coming up next: 

Tidlig 2025: Forbudene mot uakseptable AI-systemer vil begynne å gjelde. Det betyr at visse høyrisiko-anvendelser av kunstig intelligens vil bli forbudt, slik at kun trygg og etisk teknologi blir tatt i bruk. 

Mai 2025: Nye retningslinjer for generelle AI-modeller vil bli innført. Disse retningslinjene vil bidra til å sikre at AI-verktøy som brukes på tvers av ulike sektorer, oppfyller de nødvendige standardene. 

August 2025: Reglene for generelle AI-modeller vil bli obligatoriske. Innen denne datoen vil det være påkrevd å overholde disse nye retningslinjene fullt ut. 

August 2026: Forpliktelser for høyrisikokategorier og spesifikke AI-kategorier vil tre i kraft. Hvis din AI faller inn under disse kategoriene, må du sørge for at du er klar til å oppfylle de nye kravene. 

August 2027: Fullt samsvar vil være påkrevd for AI-systemer som er innebygd i regulerte produkter. Da vil lovens bestemmelser få full innvirkning på et bredt spekter av AI-applikasjoner. 

Hvordan AI-loven vil påvirke ulike typer organisasjoner  

EUs AI-lov vil påvirke mange ulike typer organisasjoner. Den vil være spesielt viktig for de som er tungt involvert i AI eller jobber i høyrisikoområder. For å hjelpe deg med å gjøre deg klar for disse endringene, ser vi her på hvilke grupper som vil bli påvirket: 

    • Techselskapersom Google, Amazon og Meta (Facebook) er avhengige av AI for ulike tjenester, for eksempel chatbots og ansiktsgjenkjenning. De må sørge for at AI-systemene deres er nøyaktige, transparente og trygge, noe som vil kreve betydelige justeringer. 
    • Bransjer som helsevesen, finans og rettshåndhevelse bruker kunstig intelligens til å fatte viktige beslutninger, som å godkjenne lån eller diagnostisere medisinske tilstander. Disse sektorene vil møte strenge krav på grunn av den høye risikoen ved AI-systemene deres, noe som krever grundig testing, dokumentasjon og løpende overvåking. 
    • Små og mellomstore bedrifter (SMB-er) vil også bli berørt. Selv om bøtene kan bli lavere, kan kostnadene for å overholde regelverket bli betydelige. Nystartede selskaper uten egne juridiske eller compliance-team kan slite med de nye kravene, og kan bli nødt til å ansette flere medarbeidere eller konsulenter. 

Hva kan gå galt? 

Noen selskaper er spesielt sårbare under det nye regelverket: 

    • Amazon og Google kanfå utfordringer med ansiktsgjenkjennings- og overvåkningsteknologiene sine, som har blitt kritisert for å være skjeve. De kan bli nødt til å revidere eller stanse disse teknologiene i Europa hvis de ikke er i tråd med de nye standardene. 
    • Meta (Facebook), som er kjent for sine AI-drevne algoritmer for annonser og innholdsmoderering, kan bli ilagt betydelige bøter hvis systemene forårsaker skade eller sprer skadelig innhold uten tilstrekkelig åpenhet og kontroll. 
    • Clearview AI, et selskapkjent for sin kontroversielle ansiktsgjenkjenningsteknologi, kan bli utestengt fra å operere i EU med mindre det endrer sin datapraksis.

Er AI-loven fremtidsrettet? 

Ja, AI-loven er utformet med tanke på fremtiden. I stedet for å låse fast spesifikke tekniske detaljer, fokuserer den på å sette brede mål for sikkerhet og rettferdighet. På denne måten kan den tilpasses etter hvert som ny teknologi og nye metoder dukker opp. Loven åpner for oppdateringer gjennom delegerte rettsakter, så hvis det dukker opp nye høyrisikoanvendelser av KI, kan de legges til i regelverket. I tillegg vil det bli gjennomført regelmessige evalueringer for å holde loven relevant og effektiv. Det europeiske AI-kontoret vil føre tilsyn med alt, og sørge for at reglene er oppdaterte og fortsetter å støtte etisk AI-utvikling. 

Forbereder seg på endringene som kommer 

Lanseringen av EUs AI Act markerer et viktig skritt i retning av å sikre at AI-teknologi brukes på en ansvarlig og etisk forsvarlig måte. Som vi har utforsket, innfører loven klare retningslinjer og standarder for å bidra til å håndtere risikoen forbundet med AI, og balansere innovasjon med sikkerhet og rettferdighet. 

For mange av dere betyr dette at dere må forstå hvor AI-systemene deres passer inn i de nye kategoriene, enten de anses som uakseptable, høyrisiko, begrenset eller minimal risiko. Å vite hvor du står er nøkkelen til å navigere i samsvar og få mest mulig ut av disse forskriftene. 

Se kurset vårt om AI-verktøy for å lære om viktige forholdsregler og beste praksis for sikker bruk av populære AI-verktøy som ChatGPT, Microsoft Copilot og Gemini, slik at du kan utnytte potensialet deres og samtidig minimere risikoen. 

Mens vår ekspertise er innen cybersikkerhetsbevissthet og phishing-trening, , oppfordrer vi deg til å omfavne disse nye reglene som en mulighet til å øke åpenheten og tilliten til din AI-praksis. Hvis du trenger hjelp til å bygge en bevissthetskultur og beredskap, er vi her for å hjelpe deg med opplæringsløsninger som styrker det overordnede sikkerhetsrammeverket.