6.3 Tekoäly — tulevaisuutemme terminaattori?

Data. Tuon käsitteen sisäistämiseen meni minulta vuosia, sillä en kyennyt ymmärtämään, mitä data on. Luulin sen tarkoittavan jotain todella spesifioitua, ”tärkeää” ja huippusalaista informaatiota, kun siitä niin kohistiin. Todellisuudessa se on kuitenkin pelkkää informaatiomassaa, jonka tärkeyden määrittää sitä tutkiva taho. Mutta onko tämä taho ihminen vai ovatko Terminator-elokuvien karut tulevaisuuden näkymät käyneet toteen?

Mikä siinä datassa mättää?

Helsingin yliopiston uutisessa Indrė Žliobaitė valottaa datan merkitystä algoritmien tekemissä päätöksissä. Jotta tekoälyn päätöksenteko ei perustu mahdollisesti syrjiville tekijöille, on dataan sisällytettävä mahdollisimman laaja joukko arkaluontoisiakin tekijöitä. Näin voidaan aloittaa prosessi, jossa algoritmille opetetaan tietyt arvot pukemalla ne matemaattisiksi säännöiksi. Mikäli dataa karsitaan etukäteen, voi algoritmi poimia epäsuotuisia säännönmukaisuuksia esimerkiksi sanavalinnoista, jolloin sen virhearviointien korjaaminen käy aikaa vievästä mahdottomaksi.

Asiasta kirjoittaa myös ylitarkastaja Tiina Valonen yhdenvertaisuusvaltuutetun verkkosivuilla. Valonen painottaa ihmisen vastuuta tekoälyn toiminnan monitoroinnissa ja testauksessa, jotta yhdenvertaisuuslaissa (ja tiettyjen tekijöiden osalta tasa-arvolaissa) määriteltyä ja kiellettyä syrjintää ei algoritmien päätöksenteossa tapahdu. Näin voimme myös ehkäistä kaikukammioiden ja filtterikuplien syntyä: mikäli tekoälyn toimia ei valvota ja korjata, se voi pitkällä aikavälillä vaikuttaa tietyille ihmisille näytettyyn sisältöön ja vahvistaa ryhmien sisäisiä käsityksiä yhteiskunnasta ja muista ihmisryhmistä laajemmin.

Kontekstilla on väliä

Ylen artikkelissa Barona Technologies Oy:n teknologiapäällikkö Kirsi Louhelainen korostaa tekoälyn asemaa päätöksentekoa tukevana tekijänä, työkaluna rekrytoinnin ammattilaisille. Tästä voimme tehdä johtopäätöksen, että tekoälyn ei tule korvata ihmisten päätöksentekoa, vaan enemmänkin helpottaa kokonaiskuvan hahmottamista. Näiden asiantuntijoiden puheista on silti nostettava eräs tärkeä seikka: rekrytointiprosesseista puhuttaessa on otollisempaa karsia datasta henkilötietoja, jottei tekoäly huomioi näitä tekijöitä ollenkaan. Prosessin luonteellakin on siis merkitystä.

Tekoäly ei itsessään ole pahis

Toiseen Ylen uutiseen haastateltu signaalinkäsittelyn professori Joni Kämäräinen kuuluttaa koneoppimiseen ja yksityisyydensuojaan liittyvien eettisten periaatteiden perään, mutta myöntää, ettei kilpailulle perustuvassa markkinataloudessa mitään saa ilmaiseksi. Hyödyt yhtäällä voivat johtaa kustannuksiin toisaalla. EU:n GDPR (general data protection regulation) on askel oikeaan suuntaan, mutta siitä huolimatta villi kortti. Se kun tarjoaa vähemmän konkretiaa kuin olisi tarpeen eikä huomioi sitä faktaa, että tekoälyt saattavat tallentaa dataa muodoissa, joita ei ole määritelty lainsäädännössä.

Kuten tohtori Žliobaitėn pohjustuksestakin voimme päätellä, täydellisen objektiivista päätöksentekomekanismia ei voi olla olemassa, koska data peilaa aina yhteiskuntamme epätäydellistä todellisuutta. Tekoälyn toimivuus on tässä mielessä riippuvainen ihmisen valvonnasta ja ohjauksesta. Skynet terminaattoreineen odottakoon siis vielä jokusen vuosikymmenen.

Lähteet:

Kommentit