Meikä on jo sen ikäinen, että voin ylpeänä kertoa käyneeni katsomassa alkuperäisen Terminator-elokuvan Helsingissä sen Suomen ensi-iltaviikolla helmikuussa 1985 nykyisen Kinopalatsin paikalla sijanneessa Formiassa. Pallo on pyörähtänyt noista ajoista monta kertaa. Kukaan ei enää voi mainostaa tupakkamerkkiä antamalla leffateatterille sen nimen, eikä kukaan enää pidä vain fantasiana, että kaduilla voisi hiippailla kahdella jalalla liikkuva, kamerasilmillään kasvojen tunnistukseen kykenevä, itsenäisesti toimiva ja päätöksiä tekevä tappajarobotti, jossa on korkealle kehittynyt tekoäly.
Noin. Nyt on saatu se iänikuinen ja Terminaattori-kortti pelattua pois pöydältä ja voimme keskustella tekoälystä asiallisesti ja realistisesti (vaikka aika monet Terminaattorin ominaisuudet ovat jo nyt tai pian teknologisesti mahdollisia... mutta ei siitä sen enempää).
Olen koettanut viime kesästä alkaen hahmottaa jotain olennaista siitä, mitä järjestelmien ja erityisesti tekoälyjärjestelmien eettisyydellä tarkoitetaan. Onneksi olen kohdannut useita asiantuntijoita sekä tutkijoita ja saanut heiltä korvaamatonta apua asian ymmärtämiseksi.
Tekoälyä on kaikkialla. Ei vain autoissa ja Facebookissa vaan sitä pohditaan Hesarin pääkirjoituksia myöten, ja aivan vastikään valtioneuvoston julkaisuna ilmestyi usean tutkijan raportti Tekoäly viranomaistoiminnassa - eettiset kysymykset ja yhteiskunnallinen hyväksyttävyys. Vastaava raportti tuli Tanskassa hallinnon tilaamana lokakuussa. EU ehti julkaisemaan luonnosvaiheessa olevan dataetiikan ohjeiston samaan aikaan ja VM:ssä on ohjattu AuroraAI-tekoälyohjelman kokeiluversion tuottamista.
Paksu pinkka tuota ja muuta todistusaineistoa osoittaa, että olemme kulkemassa niin yhteiskuntana kuin hallintona maailmaan, jossa järjestelmät oppivat ympäristöstään, tekevät päätöksiä ihmisten asioissa, kykenevät autonomiseen toimintaan kuten asiakaspalveluun ja jopa koodaamaan toisia järjestelmiä.
Järjestelmät alkavat siis vaikuttaa ihmisiltä, mutta eivät ole sitä. Kone on kone, ja kone osaa ja tekee sitä, mitä ihmisen kirjoittama algoritmi sen laittaa tekemään. Ja juuri tämän takia meidän on nyt mietittävä tekoälyn etiikkaa, sen oikeaa ja väärää, koska tekoälyn algoritmit ovat ihmisen tuottamia, omien arvojemme peilikuvia. Mitään muuta etiikkaa kuin ihmisen etiikka ei ole.
Tekoälyetiikan nousu juuri nyt isoksi puheenaiheeksi johtuu useasta tekijästä:
- Teknologia mahdollistaa koneellisen päätöksenteon paitsi lukuihin ja vakiomuuttujiin perustuvassa laskennassa (esim. veroehdotus), myös luonnollisen kielen tekstissä ja jopa puheessa olevaan tietoon perustuen. Emme vielä käytä tätä mahdollisuutta ainakaan hallinnossa, mutta teknisesti voisimme ainakin kokeiluna. Kone osaa siis käsitellä merkityksiä ja se osaa tuottaa päätöksiä niistä itsenäisesti.
- Tekoälyjärjestelmät yhdistettynä erilaisiin antureihin voivat yhtä hyvin auttaa meitä hoitamaan ja parantamaan sairauksia ajoissa kuin toteuttamaan valittuihin väestöryhmiin ja yksilöihin kohdistuvaa sortoa ja väkivaltaa. Tekoäly voi olla työväline, kykenevä hyvään ja pahaan, mutta kokonaan eri mittakaavassa kuin vasara tai saha.
- Vaalivaikuttaminen, tietovuodot, Brexit ja Trump ovat saaneet meidät ymmärtämään, että meidän seuraamisemme, analysointimme ja manipulointimme huomaamattamme on todellisuutta, joka ei olisi mahdollista ilman tekoälyn kykyä käsitellä valtavia datamassoja.
- Tekoälyn kyky tehdä paitsi rutiininomaisia töitä, myös hyvin vaativia ja erikoistuneita tehtäviä kuten kliinistä diagnostiikkaa ja jopa lainsäädäntöä, muodostavat paradigmaattisen muutoksen paitsi työmarkkinoille ja koulutukselle, myös koko työn käsitteelle ja tässä kulttuurissa siihen sitoutuville arjen rakentamisen ja yksilöidentiteetin kysymyksille. Tämän heijastusvaikutuksia sopii miettiä.
Listaa voisi jatkaa, mutta se on turhaa. Noista esimerkeistä käy ilmi, että tekoälyn myötä kohtaamme painavat kysymykset yksilön oikeudesta omaan elämäänsä, hallinnon mahdollisuudesta antaa päätöksentekoa enemmän koneille, siitä kenen etujen vuoksi työskentelemme ja kehitämme asioita ja siitä, kuka viime kädessä on vastuussa, kun järjestelmistä seuraa hyvää tai pahaa. Olemme, sanoisi vanha viidakon sanonta, perimmäisten kysymysten äärellä.
VRK lähestyy nyt muutostaan Digi- ja väestötietovirastoksi ja muutosvaiheet ovat oivia hetkiä päivittää arvoja ja omaksua uusia. Käynnissä oleva data- ja tekoälyeettinen keskustelu meillä ja muualla on jatkunut jo niin kauan, että siinä on muodostunut suoranainen asialista, jonka puitteissa kukin organisaatio voi ja sen tuleekin tarkastella omaa toimintaansa. Suoranainen lainmukaisuus on toki varmistettava; perustuslakiin törmäilyjä on nähty viime aikoina kiusaksi asti – ei lisää, kiitos – ja sen lisäksi on huomioitava pinkka perus- ja ihmisoikeuksia koskevia lakeja ja asetuksia.
Lait perustuvat eettisille periaatteille mutta ne eivät ole periaatteita vaan niiden soveltamista tietyssä kehikossa. Niinpä etiikkaa on pohdittava tarkoin joka kerran erikseen, kun suunnitellaan uutta tietojärjestelmää ja sen päälle tehtävää palvelua. Lainmukainenkin palvelu tai järjestelmä voi olla epäeettinen, kuiluja syventävä ja epäreilu, etenkin kun digimaailmassa sääntely raahautuu yleensä kaukana todellisuuden perässä.
Kun lainmukaisuus on ensin varmistettu, on syytä käsitellä ja sisäistää huolella nämä asiat, eräänlainen AI-etiikan Top 10 -hittilista:
- VASTUU. Olemme kaikki samaa mieltä siitä, että kone/järjestelmä ei voi olla vastuussa, vaan lopulta aina ihminen. Mutta kuka ihminen: järjestelmän suunnittelija, toimittaja, hallinnoija, omistaja vai jopa loppukäyttäjä? Vai kaikki vuorollaan? Miten määritellään vastuukysymysten ratkaisumallit ja sanktiot?
- LÄPINÄKYVYYS. Ymmärtääkö loppukäyttäjä edes perustasolla, miten järjestelmä toimii, mitä tietoja se käyttää, miten se muodostaa käyttäjän saaman palvelun ja/tai tiedot ja minne käyttäjä voi olla yhteydessä ongelmatilanteiden tai suoranaisten koettujen haittojen yhteydessä? Vai jääkö käyttäjä ”seinän taakse” sokeasti luottamaan siihen, että kyllä tämä varmaan toimii reilusti ja oikein?
- YHDENVERTAISUUS. Palveleeko järjestelmänne vain hyvin digitoituneita, valtakieltä puhuvia perusterveitä henkilöitä, joilla pyyhkii muutenkin jo kohtalaisen hyvin? Oletteko puhuneet vähemmistö- ja erityisryhmien kanssa, kun palvelua suunniteltiin ja rakennettiin? Ei kai palvelu syvennä kuiluja sen sijaan että täyttäisi niitä?
- SYRJIMÄTTÖMYYS. Onko datan ja algoritmien mahdolliset väärät painotukset, vinoumat ja suoranainen manipulointi tutkittu ja poistettu? Onko varmistettu, että järjestelmä ei suosi eikä syrji sukupuolen, iän, etnisyyden, kielen, sukupuolisen suuntautumisen, uskonnon etc perusteella ketään eikä mitään ryhmää?
- IHMISEN ITSEMÄÄRÄÄMISOIKEUS. Järjestelmä ei saa syrjäyttää eikä loukata ihmisen oikeutta päättää omasta elämästään. Se ei saa arvottaa ihmisten elämänvalintoja eikä pyrkiä vaikuttamaan ihmisten käyttäytymiseen ilman heidän nimenomaista ilmaistua suostumustaan.
- YKSITYISYYDENSUOJA. Järjestelmä ei saa tehdä yksilöstä seurantaa, kerätä hänestä tietoa eikä muulla tavoin tunkeutua ihmisen yksityisyyden alueelle ilman hänen nimenomaista ilmaistua suostumustaan.
- TIEDON HALLINTA. Ovatko järjestelmissä käytettävän datan lähteet tiedossa? Onko data sisäisesti eheää ja käyttökelpoista?
- TEKOÄLYN AUTONOMISUUS. Oletteko tietoisen, arvoihin perustuvan analyysin perusteella asettaneet rajat sille, missä määrin kone voi toimia itse ja missä asioissa? Onko teillä selvä toimintatapa ja säännöt tilanteisiin, joissa noita rajoja on syytä tarkistaa?
- KESTÄVYYS. Järjestelmän on siedettävä toimintaympäristössä tapahtuvia muutoksia ilman että se muuttuu epävakaaksi ja epäluotettavaksi.
- TURVALLISUUS. Järjestelmän on täytettävä erittäin korkean tietoturvallisuuden vaatimukset. Sitä on auditoitava säännöllisesti ja systemaattisesti ja vaatimuksia päivitettävä ajantasaisesti.
Ja jo ennen kuin pohditte noita, käsitelkää keskuudessanne avoimesti ja tyhjentävästi, miksi rakennatte tekoälyä, kenen hyödyksi, kenen ehdoilla ja millaiseen isompaan päämäärään, ts. millaista maailmaa sillä oletatte rakentavanne ja millainen ihmiskuva teillä on kaiken taustalla.
Ennen kuin nuo ovat teillä kirkkaina ja kirjattuina, älkää tehkö mitään koska, kuten vanha viidakon sanonta tietää sanoa, ”kerran karkuun päässyttä algoritmia ei enää saa kiinni edes Mustanaamio”.