EU:n tekoälysäädös on tulossa – milloin, miksi ja mitä?

Kuva: JJ Ying / Unsplash

Kuva: JJ Ying / Unsplash

Missä vaiheessa säädös on tällä hetkellä? 

EU on työstänyt tekoälyasetusta vuodesta 2021 lähtien.  Lainsäädäntöprosessin keskeinen vaihe, kolmikantaneuvottelut eli trilogit neuvoston, parlamentin ja komission välillä käytiin syksyllä 2023 erityisen tiukalla aikataululla, sillä lähestyvät europarlamenttivaalit ovat luoneet painetta ratkaisujen aikaansaamiselle.  

8. joulukuuta 2023 parlamentti ja neuvosto saivat aikaan poliittisen sovun tulevan säädöksen sisällöstä. Tällä hetkellä lopullista säädöstekstiä odotetaan julkaistavaksi EU:n virallisessa lehdessä alkuvuoden aikana. Säädöksen julkaisemisen jälkeen alkaa kahden vuoden mittainen siirtymäaika, jonka jälkeen asetus viimeistään alkaa velvoittamaan toimijoita. On mahdollista, että jotkin velvollisuudet tulevat sovellettaviksi jo ennen sitä.

Tekoälysäädöksen virallinen sanamuoto tullaan julkaisemaan alkuvuodesta virallisessa lehdessä. 

Tekoälysäädöksen tavoitteet ja soveltaminen 

Säädöksen tavoitteena on mahdollistaa tekoälyyn liittyvä innovaatio sekä samalla suojella perusoikeuksia, demokratian toteutumista, oikeusvaltioperiaatetta, turvallisuutta ja yksityisyyttä. Säädöksen soveltamisala on laaja: se soveltuisi myös EU-alueen ulkopuolella oleviin toimijoihin, mikäli heidän tekoälytuotteensa on käytössä tai saatettu markkinoille EU:n alueella. 

Säädöksen noudattamisen valvontaa varten perustetaan EU AI Office, ja jäsenvaltiot valitsevat omat kansalliset valvontaviranomaisensa samankaltaisesti kuin tietosuoja-asetuksen osalta. Säädöksen rikkomuksista voitaisiin antaa sakkoja, jotka voisivat olla jopa 7 prosenttia toimijan vuosittaisesta liikevaihdosta. 

Säädöksen mukainen tekoälyn määritelmä ja luokittelu 

Tekoälyn nopea kehittymistahti on antanut EU:lle painetta päätöksentekoon, mutta toisaalta myös lisännyt haastetta käsitteiden määrittelyyn.  Käsitteet on määriteltävä riittävän tarkasti, mutta niiden on annettava tilaa myös teknologian nopealle kehittymiselle. 

Säädöksessä omaksuttava tekoälyn määritelmä perustuu OECD:n ehdotukseen, joka perustuu ajatukseen tekoälystä sille syötettävän tiedon pohjalta päätelmiä, ennustuksia, sisältöjä, suosituksia tai muita ulostuloja tekevänä konepohjaisena järjestelmänä. Tämän lisäksi erikseen määritellään perustamalli ja yleistekoälymalli. 

Säädöksessä tekoälyä säännellään riskiperusteisesti.

Riskien luokittelu 

Riski, jota ei voida hyväksyä 
  • Lähtökohtaisesti kielletty, lainvalvontaan liittyviä poikkeuksia 
  • Selkeä uhka turvallisuudelle, toimeentulolle tai oikeuksille 
  • Esim. Sosiaalinen pisteytys, manipulointi tekoälyllä 
Suuri riski 
  • Luokitellaan tarkemmin yksilön oikeuksiin kohdistuvien uhkien osalta 
  • Tiukat velvoitteet, tuotekohtaista lainsäädäntöä 
  • Esim. Tekoäly tuoteturvallisuusdirektiivin alle kuuluvissa tuotteissa, kriittisillä infrastruktuuriin, oikeusjärjestelmään ja koulutukseen liittyvillä aloilla käytettävät järjestelmät 
Yleiskäyttöinen ja generatiivinen tekoäly  
  • Läpinäkyvyysvelvoitteita, keskiössä käyttäjän tietoisuus siitä, että käytetään tekoälyjärjestelmää 
  • Järjestelmän kehittäminen laittoman sisällön tuottamisen estäen 
  • Yhteenvedot tekijänoikeuksin suojatusta koulutusdatasta 
  • Esim. Chatbotit, generatiivinen tekoäly, yleistekoäly ja perustamallit 
Rajallinen riski 
  • Läpinäkyvyysvelvoitteita 
  • Esim. Kuvaa ja tai muuta sisältöä luovat tekoälyjärjestelmät 

Mitä seuraavaksi? 

Vaikka säädöksellä on kahden vuoden siirtymäaika, sen vaatimiin toimintakulttuuriin ja dokumentaatioon tehtäviin muutoksiin on varattava aikaa. Toimijoiden kannattaakin joka tapauksessa tutustua säädöksen sisältöön huolellisesti, kun se julkaistaan. Erityisesti tulee osata tunnistaa, millaisia tekoälytyökaluja on käytössä ja tulossa käyttöön ja mihin riskikategoriaan ne kuuluvat. Tämä työ voidaan dokumentoida osaksi tekoälystrategiaa. 

Marika Nieminen 


HH Partners hoitaa laaja-alaisesti erilaisia tekoälyyn liittyviä toimeksiantoja: selvitämme asiakkaillemme tekoälysäädöstä koskevien erityiskysymyksiä sekä  avustamme tekoälystrategian ja muun eettistä tekoälyn käyttämistä koskevan dokumentaation laatimisessa. 


Kirjoittaja:  

Legal Trainee Marika Nieminen avustaa HH Partnersilla juristejamme, tehtävänään erityisesti tiedon hakeminen ja alustava analysointi.  Maisterintutkielmaansa informaatio-oikeudellisesta aiheesta kirjoittava Marika opiskelee oikeustieteen lisäksi informaatioverkostot-koulutusohjelmassa Aalto-yliopistossa, ja on laaja-alaisesti kiinnostunut teknologian ja juridiikan rajapinnasta.