Jukka Lång

Hypetyksestä konkretiaan: te­ko­ä­ly­rat­kai­su­jen vastuullinen hyödyntäminen

15.04.2025 13:05

Tekoälyn käytössä otetaan parhaillaan isoja askelia. Mitä velvoitteita syntyy, kun liiketoiminnassa halutaan hyödyntää tekoälyä? Miten ne määritellään? Kun valmiita ohjeita ei välttämättä ole, tarvitaan sääntelyn tulkintaa. ”Kaikki edellytykset edetä tekoälyn käyttöönotossa konkretiaan ovat jo olemassa”, sanoo Jukka Lång, asianajaja ja Head of Innovation Powerhouse asianajotoimisto Dittmar & Indreniukselta.

Tekoälyä valjastetaan käyttöön – otetaanko riskit huomioon?

Yhä uudet liiketoimintasektorit innovoivat tekoälyratkaisuja toimintansa tueksi ja uudistamiseksi. Tekoälyavusteinen tiedon analysointi tehostaa jo palveluita, ehkäisee virheitä ja väärinkäytöksiä sekä automatisoi toimintoja ja päätöksentekoa. Usein tekoäly on myös sisällöntuotannon tuki tai vuorovaikutuksen apuri.

Kun hyödynnämme tekoälyä, tulosten kriittinen tarkastelu ja validointi on tarpeen. ”Käytön riskit kumpuavat tekoälyn luonteesta: se on kielimalliin perustuva apuäly, ei aitoa älykkyyttä”, Lång muistuttaa. Tekoäly voi loukata oikeuksia – esimerkkinä syrjivät algoritmit – tai hallusinoida tuotoksiinsa virheitä. Luottamuksellisten aineistojen vuotaminen on aito riski, jos aineistoja annetaan tekoälyn käyttöön. ”Jokaisen käyttötapauksen riskit ovat yksilölliset – riskinarvioinnissa on lähdettävä liikkeelle siitä, mikä on tekoälyn käytön toiminnallinen tavoite: mitä sillä halutaan saada aikaan.”

Sääntely-ympäristö kehittyy – vanhaa ja uutta tulkitaan rinnakkain

Tekoälyratkaisujen hallittua käyttöönottoa tuetaan myös lainsäädännön keinoin. Jo olemassa olevan sääntelyn rinnalle on saatu EU:n tekoälysäädös, joka tuli voimaan viime elokuussa ja jota aletaan soveltaa asteittain tulevien vuosien aikana. Suomessa hallituksen esitys liittyen tekoälyjärjestelmien valvontaan ja siihen liittyvien lakien muuttamiseen arvioidaan esiteltävän juuri nyt, huhtikuussa 2025.

Tekoälyn sääntely on uutta tuoteturvallisuussääntelyä”, Lång toteaa.

”Tekoälysäädöksen tärkeänä tavoitteena on taata, että tekoälyjärjestelmät ovat turvallisia ja tukevat perusoikeuksien toteutumista; että tekoäly on läpinäkyvää, jäljitettävissä olevaa, syrjimätöntä ja ympäristöystävällistä. Toisaalta halutaan mahdollistaa tekoälyyn liittyvä innovaatio.”

Tekoälysäädöksessä korostuu riskiperusteinen lähestymistapa: säädös keskittyy korkean riskitason tekoälyjärjestelmiin, joille asetetaan muita tiukempia vaatimuksia ja valvontatoimenpiteitä. Vaatimukset voivat liittyä esimerkiksi viranomaisyhteistyöhön järjestelmien valvonnassa, riskeistä informointiin tai järjestelmien ohjeiden mukaiseen käyttöön ja niiden syötetietojen laadunvalvontaan.

Tekoälysäädös ei kuitenkaan yksin ohjaa tekoälyjärjestelmien suunnittelua ja käyttöä. ”Meillä on paljon olemassa olevaa sääntelyä, joka muodostaa tekoälyn hyödyntämisen sääntely-ympäristön yhdessä uuden tekoälysäädöksen kanssa”, Lång muistuttaa. On otettava huomioon mm. tietosuojaa, datan käyttöä, immateriaalioikeuksia, kyberturvallisuutta ja liikesalaisuuksien suojaa koskeva sääntely, kuten myös yrityksen ydintehtävään liittyvä sektorikohtainen sääntely ja yleiset eettiset periaatteet. ”Kehikko on olemassa: sitä on vain osattava tulkita ja hyödyntää.”

Yritysten niin sanottujen tukitoimintojen osaajien – kuten compliance- ja lakiasiantuntijat – rooli onkin kriittinen tekoälyjärjestelmiä kehitettäessä ja jalkautettaessa. He ovat tekoälytransformaation todellinen etujoukko.”

Tekoälyjuridiikka on liiketoimintalähtöistä juridiikkaa. Lähtökohtana on aito käyttötapaus: mitä toimintaa ja millaisin toteutuksin on suunnitteilla? Lainsäädäntö määrittelee toimintaan liittyvät velvoitteet ja vastuut, joiden pohjalta voidaan määrittää toiminnan riskikategoria – ja lopulta siihen kohdistuvat vaatimukset ja valvonta, jotta lain kirjain toteutuu. ”Muu sääntely voi tietyssä käyttötapauksessa olla tekoälysäädöstä merkityksellisempää. On keskeistä ymmärtää, mikä lainsäädäntö on kulloinkin olennaista”, Lång korostaa.

Tekoälyn käytön hallinta – ymmärrä vaikutukset, valitse toimintatavat

Sääntelyn noudattaminen konkretisoituu prosessuaalisina vaatimuksina. Toiminnan riskikategorian mukaiset velvoitteet ja vastuut on huomioitava mm. tekoälyn käytön ohjeistuksessa, valvonnassa ja tietojen säilytyksessä. Huolellinen dokumentaatio, osallisten koulutus ja relevanttien osaajien vastuuttaminen velvoitteiden toteutumisesta tukevat käyttöönottoa.

”Tekoälyjärjestelmien käyttöönotossa ollaan uuden äärellä, eikä valmiita ohjeita ja tulkintaa välttämättä ole. On muistettava, että yrityksen oman toimintaympäristön sääntely määrittää edelleen tekemistä – nyt vain tekoälysääntelyn rinnalla.”

Tarvitaanko yrityksiin uusia asiantuntijoita, asiaan vihkiytyneitä tekoälyjuristeja? Ei, on Långin vastaus.

Yritysten tämänhetkiseen osaamiseen omaan toimintakenttäänsä liittyvistä velvoitteista on kuitenkin hyvä tuoda mukaan uusi, tekoälysäädöksen tuottama näkökulma.

On olennaista kysyä, mikä toiminnassa muuttuu, kun tekoälyä otetaan käyttöön. Millaiset vaikutukset muutoksella on erityisesti ihmisiin? Joissakin tapauksissa toiminnan käytäntöihin tarvitaan muutoksia tekoälyn käyttöönoton myötä – toisinaan taas juridisesta näkökulmasta tarkastellen mikään olennainen ei muutu, ja nykykäytännöt voidaan säilyttää. Käyttötapaus- ja riskinarviointi ratkaisevat pelin.

***

Jukka Lång käsitteli tekoälyratkaisujen käyttöönottoon liittyviä vastuullisuuskysymyksiä Breakfast with Alma Insights -tapahtumassa Alma-talolla 8.4.2025.

Aiheeseen liittyvää