Tekoälysäädös pyrkii edistämään vastuullista ja turvallista tekoälyn käyttöä
EU:n tuoreen tekoälysäädöksen, AI Actin, tarkoituksena on varmistaa, että markkinoille tuotavat ja käyttöönotettavat tekoälyjärjestelmät eivät vaaranna ihmisten terveyttä, turvallisuutta tai perusoikeuksia. Mutta ketä asetus velvoittaa ja miten tekoälyjärjestelmän riskejä määritellään?
EU:n tekoälysäädös (EU) 2024/1689 (European Artificial Intelligence Act, AI Act) astui voimaan 1.8.2024 ja sitä sovelletaan siirtymäajan jälkeen 2.8.2026 alkaen.
Asetuksen mukaan tekoälyjärjestelmällä tarkoitetaan konepohjaista järjestelmää, joka on suunniteltu toimimaan käyttöönoton jälkeen vaihtelevilla autonomian tasoilla ja jossa voi ilmetä mukautuvuutta. Tekoälyjärjestelmä päättelee vastaanottamastaan syötteestä, miten tuottaa tuotoksia, kuten ennusteita, sisältöä, suosituksia tai päätöksiä.
Asetus sääntelee tekoälyjärjestelmiä niiden aiheuttamien riskien perusteella. Erittäin haitalliset tekoälyn käyttötavat ovat kiellettyjä ja tietyille korkeariskiseksi luokiteltaville tekoälyjärjestelmille on asetettu tiukennettuja vaatimuksia.
Keitä asetus velvoittaa?
Tekoälysäädöstä sovelletaan EU:ssa markkinoille saatettaviin ja EU:ssa käyttöönotettaviin tekoälyjärjestelmiin sekä tekoälyjärjestelmien tarjoajiin, käyttöönottajiin, valmistajiin, maahantuojiin sekä jakelijoihin. Säädöstä sovelletaan lisäksi yleiskäyttöisten tekoälymallien tarjoajiin.
Asetuksen soveltamisalaan eivät kuulu sen tekoälymääritelmän ulkopuolelle jäävät yksinkertaiset ohjelmistot ja ihmisen asettamia sääntöjä suoraviivaisesti seuraavat päätöksentekojärjestelmät.
Asetuksen soveltamisalan ulkopuolelle jäävät myös tutkimus- ja kehitysvaiheessa olevat järjestelmät ja mallit sekä järjestelmät, jotka on tarkoitettu yksinomaan sotilaalliseen, puolustukselliseen tai kansallisen turvallisuuden käyttöön.
Miten tekoälyjärjestelmän riskit määritellään?
Tekoälysäädös sääntelee tekoälyjärjestelmiä niiden aiheuttamien riskien perusteella. Riskiperusteisen lähestymistavan tarkoituksena on varmistaa, että tekoäly on luotettavaa ja eettisesti hyväksyttävää. Asetus tunnistaa neljä riskiluokkaa.
1. Riski, jota ei voida hyväksyä
Tekoälyjärjestelmät voivat aiheuttaa uhkaa ihmisille esimerkiksi, jos järjestelmän käyttötarkoituksena on vääristää ihmisten käyttäytymistä tai hyödyntää henkilöryhmän haavoittuvuuksia (art. 5). Tällaisten järjestelmien riskiä ei voida hyväksyä, minkä vuoksi niiden markkinoille saattaminen, käyttöönotto tai käyttö on kiellettyä.
2. Suuri riski
Tekoälyjärjestelmät, jotka vaikuttavat kielteisesti turvallisuuteen tai perusoikeuksiin, luokitellaan suuririskisiksi tekoälyjärjestelmiksi (luku III, liite III). Suuririskisiksi luokiteltuihin tekoälyjärjestelmiin kuuluu tekoälyteknologia, jota käytetään esimerkiksi kriittisissä infrastruktuurissa sekä tuotteiden turvakomponentteina, ja joka voi aiheuttaa suuren riskin luonnollisten henkilöiden terveydelle ja turvallisuudelle tai perusoikeuksille.
Suuririskisiä tekoälyjärjestelmiä koskee erityissäännöt ja -velvoitteet. Suuririskisten tekoälyjärjestelmien riskejä on arvioitava niiden koko järjestelmän elinkaaren ajan, niin ennen markkinoille saattamista kuin markkinoille saattamisen jälkeenkin. Tekoälyjärjestelmät on suunniteltava siten, että ihminen voi valvoa niiden käyttöä. Suuririskisistä tekoälyjärjestelmistä on annettava selkeät ja riittävät tiedot käyttöönottajille. Lisäksi tekoälyjärjestelmistä on saatava lokitietoja sekä annettava ja säilytettävä teknistä dokumentaatiota.
3. Rajoitettu riski
Tekoälysäädöksen yksi keskeisimpiä vaatimuksia on tekoälyjärjestelmien avoimuus ja läpinäkyvyys. Rajoitetun riskin tekoälyjärjestelmiin liittyy manipulaation tai harhaanjohtamisen. (art. 50). Tähän kategoriaan kuuluvien tekoälyjärjestelmien on oltava läpinäkyviä, eli ihmisten on oltava tietoisia vuorovaikutuksestaan tekoälyn kanssa. Esimerkiksi chatbotit luokitellaan rajoitetun riskin piiriin.
4. Vähäinen riski
Alin riskitaso on vähäisen riskin tekoälyjärjestelmät. Tähän kategoriaan kuuluvat kaikki muut tekoälyjärjestelmät, jotka eivät kuulu muihin riskikategorioihin, kuten roskapostisuodattimet.
Tekoälyn innovointia ja kehittämistä tuetaan kansallisesti
Jäsenvaltioiden viranomaisten tulee nyt perustaa tekoälyjärjestelmille testiympäristöt, joilla helpotetaan innovatiivisten tekoälyjärjestelmien kehittämistä ja testausta todellisissa olosuhteissa viranomaisvalvonnassa, ennen kuin nämä järjestelmät saatetaan markkinoille tai otetaan muulla tavoin käyttöön. Testiympäristöjen tarkoituksena on saattaa innovoijat, etenkin pk- sekä startup -yritykset, ja viranomaiset yhteen valvotussa ympäristössä yhteistyön edistämiseksi. Pk-yrityksille on annettava ensisijainen pääsy tekoälyn sääntelyn testiympäristöön, mikäli ne täyttävät kelpoisuusvaatimukset, rajoittamatta muiden yritysten pääsyä testiympäristöön.
Tekoälysäädös ja muu keskeinen ICT-lainsäädäntö sekä sen keskeiset vaatimukset lakiasiantuntijoiden tekemine huomioineen sisältyvät Linnunmaa Lexin ESG legal compliance -palveluun. Palvelustamme saat aina ajantasaisen tiedon organisaatiotasi koskettavista lainsäädännön vaatimuksista ja niiden muutoksista. Kokonaisuuden saat käyttöösi ottamalla yhteyttä myyntitiimiimme: myynti@linnunmaalex.fi.
Milla Martin
Lakiasiantuntija
+358 44 736 6633
milla.martin(at)linnunmaalex.fi