Takaisin blogiin

Tekoälyjärjestelmän perusoikeusvaikutusten arviointi

Viranomaisilla, julkista hallintotehtävää hoitavilla yksityisillä sekä tietyillä välttämättömiä yksityisiä palveluja tarjoavilla tahoilla tulee tekoälysäädöksen nojalla olemaan erityinen velvollisuus. Kun viranomainen tai mainitut yksityiset ottavat käyttöön suuririskisen tekoälyjärjestelmän, tulee niiden tehdä ns. “perusoikeusvaikutusten arviointi” (artikla 27). 

Perusoikeudet muodostavat laajan kokonaisuuden

Euroopan unionin perusoikeuskirjalla suojellaan perusoikeuksia, joita ihmisillä on Euroopan unionissa. Perusoikeuskirjassa oikeudet on jaoteltu seuraaviin osa-alueisiin, jotka jokainen ovat sisällöltään vielä alla lueteltuja esimerkkejä laajempia.

  • I luku: ihmisarvo (mm. oikeus elämään ja henkilökohtaiseen koskemattomuuteen sekä kidutuksen, orjuuden ja pakkotyön kielto)
  • II luku: vapaudet (mm. oikeus vapauteen ja turvallisuuteen, yksityiselämän kunnioittaminen, henkilötietojen suoja, sananvapaus ja elinkeinovapaus)
  • III luku: tasa-arvo (mm. yhdenvertaisuus lain edessä ja syrjintäkielto)
  • IV luku: yhteisvastuu (mm. oikeudet työelämässä, ympäristönsuojelu ja kuluttajansuoja)
  • V luku: kansalaisten oikeudet (mm. äänioikeus ja vaalikelpoisuus, oikeus hyvään hallintoon ja liikkumis- ja oleskeluvapaus)
  • VI luku: lainkäyttö (mm. oikeus tehokkaisiin oikeussuojakeinoihin ja puolueettomaan tuomioistuimeen).

Näihin oikeuksiin liittyvä perusoikeusvaikutusten arviointi on tehtävä ennen suuririskisen tekoälyjärjestelmän käyttöönottoa ja päivitettävä tarvittaessa. Velvoite koskee viranomaisia sekä tiettyjä yksityisiä tahoja. Käyttöönottaja voi tukeutua arviointia tehdessään tarjoajan tekemään arvioon. Vastuu arvioinnista kuuluu kuitenkin käyttöönottajalle. Arviointi edellyttää riittävää ymmärrystä järjestelmän teknisistä ratkaisuista. Tarjoajan tiedonanto- ja avoimuusvelvoitteet muodostavatkin pohjan, jonka varassa käyttöönottaja voi perusoikeuvaikutuksia arvioida. 

Perusoikeusvaikutusten arvionnin osa-alueet

Varsinainen arvio koostuu säädöksen mukaan seuraavista osasista:

  • Suuririskisen tekoälyjärjestelmän käytön kuvaaminen
  • Niiden henkilöiden ja ryhmien tunnistaminen, joihin järjestelmä todennäköisesti vaikuttaa
  • Näihin henkilöihiin ja ryhmiin liittyvien perusoikeusriskien tunnistaminen
  • Ennakollisen valvonnan ja erityisesti lakisääteisen luonnollisen henkilön suorittaman valvonnan kuvaaminen ja
  • Riskien toteutumista seuraavien korjaavien toimien kuvaus.

Vaikutustenarvioinnin tavoitteena on, että “käyttöönottaja tunnistaa niiden yksilöiden tai henkilöryhmien oikeuksiin kohdistuvat erityiset riskit, joihin vaikutukset todennäköisesti kohdistuvat, ja määrittää toimenpiteet, jotka on toteutettava tällaisten riskien toteutuessa” (johdanto-osa 96). Yhtenä keskeisenä keinona riskien hallitsemiseksi mainitaan säädöksessä mahdollisten valitusten käsittely ja muutoksenhakumenettelyt. Käyttöönottajan on myös esitettävä asianomaiselle markkinavalvontaviranomaiselle vaikutustenarvionnin tulokset. 

Itse tekoälysäädös ohjaa vain vaikutustenarvionnin prosessissa ja siinäkin kevyesti. Riskillä tarkoitetaan säädöksen mukaan “haitan esiintymisen todennäköisyyden ja haitan vakavuuden yhdistelmää” (artikla 3). Avoimeksi jää, millaisia riskejä säädöksen mukaiseen tekoälyjärjestelmään voi sisältyä. Vastaavasti avoimeksi jää, mitä on pidettävä riittävänä ennakollisena riskienhallinnan keinona.

Euroopan tekoälytoimisto tulee laatimaan kyselylomakemallin, jonka on tarkoitus helpottaa sidosryhmien kuulemista ja siten vaikutustenarviointia. Sen ohella säännöksen soveltaminen tulee kuitenkin vaatimaan tarkkaa pohdintaa.  Mallia voi saada myös tietosuojan vaikutustenarvioinnista, josta GDPR:n myötä on jo kokemusta ja johon tekoälysäädöksessäkin viitataan. Lisäksi lainvalmistelijoille on laadittu kansallisesti ohjeita lain perus- ja ihmisoikeuksien vaikutusten arviointiin ja tätäkin työtä voi hyödyntää ainakin taustamateriaalina uusia vaikutusarviointivelvoitteita täyttäessä.

Ennakollista ja jälkikäteistä oikeusturvaa

Hallinto-oikeudellisesti riskienhallinnassa on kyse toisaalta ennakollisesta oikeusturvasta – huolellisella suunnittelulla voidaan etukäteen suojata yksityisen oikeuksia ja etuja. Toisaalta myös jälkikäteisen oikeusturva tarve korostuu, eikä syyttä. Sen piiristä tehokkaimpia ovat erilaiset korjaus-, valitus- ja oikaisumenettelyt, jotka mahdollistavat esimerkiksi päätöksen muuttamisen (Mäenpää 2025). Tältä osin riskienhallinnan suunnittelun ongelmaksi voi muodostua se, ettei viranomainen voi esimerkiksi yrityksen asiakaspalveluun rinnastuvalla tavalla ketterästi ja itsenäisesti suunnitella jälkikäteisen oikeusturvan takaavia toimintatapoja. Valitustiet perustuvat lakiin ja niiden (nopea) muuttaminen voi olla hankalaa. 

Ilmiö nousi esiin, kun joitain vuosia sitten kansallisesti säädettiin EU:n tietosuoja-asetuksen mukaista menettelyä hallintoasioiden automaattiseksi ratkaisemiseksi. Esimerkiksi hallinto- tai kunnallisvalitus hallinto-oikeuteen eivät täytä mainitun sääntelyn vaatimusta siitä, että ratkaisu on voitava saattaa alkuperäisen päätöksen tehneen viranomaisen käsiteltäväksi. Nykyisellään tämä rajoittaa automaattisen päätöksenteon käytön mahdollisuuksia kuntakentällä.

Ihmiskeskeisen teknologian epämääräisyys

Yleisemmin teknologian hyödyntämistä koskevaa punnintaa vaikeuttaa myös se tosiasia, etteivät kaikki vaikutukset useinkaan ole linjassa keskenään. Esimerkiksi kuvitteellinen tuomioistuinlaitoksen työtä tehostava tekoälyjärjestelmä voisi purkaa ruuhkia ja edistää oikeuksiin pääsyä (access to justice). Samalla saattaisi kuitenkin olla, että järjestelmän tunnistettaisiin myös kasvattavan yksittäisessä tapauksessa virheen mahdollisuutta (oikeudenmukainen oikeudenkäynti). 

Teknologisten ratkaisujen tuomat hyödyt ja edut eivät muutoinkaan välttämättä jakaannu tasaisesti kaikille, vaikka tekoälysäädöksen johdanto-osassa kauniisti todetaankin, että “Tekoälyn ennakkoehtona olisi oltava teknologian ihmiskeskeisyys. Ihmisten olisi voitava käyttää sitä välineenä, jonka perimmäisenä tavoitteena on lisätä heidän hyvinvointiaan.” (kohta 6)

Näitäkin seikkoja on hyvä pohtia, kun suunnittelee tekoälyjärjestelmän käyttöönottoa. Pohdinnan ei kuitenkaan tarvitse tarkoittaa täydellistä pysähtymistä. Sen sijaan on hyvä lähteä liikkeelle rajatuista kokeiluista, joissa sekä teknologia että juridiikka on huomioitu ja laajentaa tekoälyn hyödyntämistä asteittain. 

Tekoälysäädös astuu voimaan portaittain ja suuririskisiä tekoälyjärjestelmiä koskevien velvoitteiden soveltaminen alkaa elokuussa 2026. Käyttöönottajan on kuitenkin hyvä ajoissa tutustua tulevan sääntelyn tuomiin velvoitteisiin. Toimistomme juristit neuvovat laajasti tekoälyjuridiikkaan liittyvissä kysymyksissä.