EU:n tekoälyasetus hyväksytty – organisaatioiden aika arvioida teknologioiden hyödyntämisen riskejä

tekoäly vastuullisuus tekoälysäädös

Euroopan unioni on hyväksynyt maailman ensimmäisen yleisen tekoälysäädöksen, kun Euroopan parlamentin ja neuvoston tekoälyasetus julkaistiin EU:n virallisessa lehdessä 12.7.2024 ja säädös tuli voimaan 1.8.2024. Kyseessä on maailmanlaajuisesti ensimmäinen säädös, jolla pyritään luomaan yhdenmukaiset säännöt tekoälyn käytölle. Onkin mahdollista, että EU:n uudella sääntelykehikolla on merkittävä vaikutus muiden maiden ja markkina-alueiden kehittäessä omia ratkaisujaan jatkuvasti kehittyvän alan sääntelyyn.

Asetuksen sisältö

Asetuksen julkilausuttuna tavoitteena on tehostaa sisämarkkinoiden toimintaa ja tukea tekoälyyn liittyvää innovointia sekä edistää tekoälyn käyttöönottoa huomioiden kuitenkin samalla perusoikeuksien suojelun, demokratian ja oikeusvaltioperiaatteen toteutumisen ja tekoälyn käytön turvallisuuden ja yksityisyyden kaltaiset intressit sekä suojamekanismit tekoälyjärjestelmien haitallisten vaikutusten varalle.

Asetuksella on tarkoitus luoda tekoälyjärjestelmien markkinoille saattamiselle ja käytölle EU-alueella yhtenäiset säännöt, joita sovelletaan kaikkiin tekoälyjärjestelmien tarjoajiin ja hyödyntäjiin riippumatta siitä, ovatko ne sijoittautuneet sisämarkkina-alueelle vai johonkin kolmanteen maahan. Asetuksen säännöt koskevat siten myös EU-alueen ulkopuolisia toimijoita, jotka maahantuovat, saattavat markkinoille tai jakelevat tekoälyjärjestelmiä EU-alueella. Asetukseen kuuluu olennaisena osana tekoälyjärjestelmien riskiluokitus, jossa suuremman riskin tekoälyjärjestelmiksi katsottaviin ratkaisuihin kohdistetaan enemmän ja tiukempaa sääntelyä. Tietyt tekoälyjärjestelmien sovellutukset, kuten mm. luonnollisten henkilöiden ja suojattujen ihmisryhmien kognitiivisen manipuloinnin sekä sosiaalisen luokittelun ja pisteytyksen, asetus määrittää täysin kielletyiksi niihin liittyvän ei-hyväksyttävän riskin perusteella. Myös biometrisiä etätunnistusjärjestelmiä koskien jäsenvaltioille sallitaan rajoitettuja poikkeuksia lainvalvontatarkoituksia varten tehokkaiden oikeusturvatakeiden edellytyksellä. Toisaalta tiettyihin, vain rajallisen riskin tekoälyjärjestelmiin kohdistetaan vain kevyttä sääntelyä kuten avoimuus- ja läpinäkyvyysvelvoitteita.

Tekoälyasetuksen voimaantulo ja soveltaminen

Säädös ei tule heti kaikilta osin sovellettavaksi, vaan se otetaan käyttöön asteittain. Kokonaisuudessaan asetus tulee sovellettavaksi 24 kuukauden kuluttua voimaantulosta, mutta tietyiltä osin sen soveltaminen alkaa jo aikaisemmin. Tekoälyjärjestelmien eri riskiluokkia koskevat säännöt tulevat voimaan eri aikoihin.  Ei-hyväksyttävissä olevan riskin tekoälyjärjestelmien kieltoa aletaan soveltaa jo kuuden kuukauden kuluttua asetuksen voimaantulosta. Yleiskäyttöisiä tekoälyjärjestelmiä, kuten keskustelubotteja, kuvantunnistusjärjestelmiä ja muita yleiskäyttöisiä tekoälymalleja, sekä sääntelyjärjestelmään liittyvää hallintoa, kuten perustettavaa Euroopan tekoälyneuvostoa, koskevia sääntöjä sovelletaan puolestaan 12 kuukauden kuluttua asetuksen voimaantulosta. Vaikka asetus tuleekin pääosiltaan sovellettavaksi viimeistään 24 kuukauden kuluttua lain voimaan tulemisesta, tiettyihin suuren riskin tekoälyjärjestelmiin liittyviä sääntöjä sovelletaan kuitenkin vasta 36 kuukauden kuluttua lain voimaan tulemisesta.

Mitä seuraavaksi?

Koska tekoälyasetus tulee sovellettavaksi asteittain, alan toimijoiden ja tekoälyjärjestelmien hyödyntäjien on syytä tunnistaa, mihin riskiluokkaan heidän käyttämänsä ja kehittämänsä tekoälyjärjestelmät kuuluvat. Erityisesti huomiota on syytä kiinnittää siihen, että yleiskäyttöisiä tekoälyjärjestelmiä koskevien sääntöjen soveltaminen alkaa jo vuoden kuluttua asetuksen voimaantulosta eli aikaisemmin kuin asetuksen laajempi soveltaminen. Toisaalta tiettyjen suuren riskin tekoälyratkaisujen osalta sopeutumisaikaa on enemmän, sillä säännökset tulevat sovellettaviksi vasta kolmen vuoden kuluttua. Voimaantulevan sääntelyn oikea-aikaiseksi noudattamiseksi onkin syytä perehtyä huolella säädöstekstissä esiteltyihin riskiluokkiin ja niiden määrittelyyn sekä arvioida ja dokumentoida määriteltyjen riskien soveltumista omaan toimintaan.

Sanni Saru

Artikkeli on tekoälyn vastuulliseen käyttöön keskittyvän artikkelisarjamme neljäs osa.


Kirjoittaja:

Lakimiesharjoittelija Sanni Saru avustaa HH Partnersilla juristejamme, tehtävänään erityisesti oikeudellinen tiedonhaku ja analysointi. Maisterivaiheen opintoja suorittava Sanni on kiinnostunut laaja-alaisesti erilaisista immateriaalioikeuteen liittyvistä kysymyksistä.