Kenen vastuulla on datatalouden vastuullisuus?

EU:ssa halutaan luoda uusi vastuullisen datatalouden malli, joka perustuu eurooppalaiseen arvopohjaan ja avaa mahdollisuuksia myös pienille yrityksille. Mutta pysyykö Eurooppa Kiinan ja USA:n nopeasti kehittyvän datatalouden vauhdissa?

Talous ja yhteiskunta
14.11.2018

Datataloudessa tärkein tuotannontekijä on tieto, ja useimmiten kyse on henkilö- tai asiakastiedosta. Datatalouden jättiläiset kuten Amazon, Google, Alibaba ja Baidu tahkoavat datan hyödyntämisellä arvoa ja uutta liiketoimintaa.

Rinnan datatalouden kasvun kanssa kasvaa huoli sen mahdollisista riskeistä.

Miten yksityiset ihmiset voisivat hallita omaa dataansa? Kuka takaa, että suuret kansainväliset yritykset eivät käytä väärin keräämiään tietoja? Entä kuka huolehtii tekoälyn eettisestä käytöstä?

USA ja Kiina hallitsevat

The Economist -lehden mukaan maailman 200 suurimman digiyrityksen joukossa on vain kahdeksan eurooppalaista yritystä. Erityisesti verkkokauppa, sosiaalinen media ja pilvipalvelut ovat tukevasti amerikkalaisten ja kiinalaisten yritysten käsissä.

Euroopan jääminen jälkeen kehityksessä huolettaa monia. Miten käy, jos kansainväliset suuryritykset pitävät bisneksen itsellään ja määrittävät samalla pelisäännöt, joiden mukaan toimitaan?

EU:n digitaalisen talouden komissaari Mariya Gabriel on jo ilmaissut huolensa siitä, että ei-eurooppalaiset suuryritykset tekevät käytännössä internetin käyttöä koskevat tärkeät päätökset.

Gabrielin mielestä EU:n tavoitteena tulee olla dynaaminen, turvallinen, arvopohjainen ja yhteenliitetty digitaalinen Eurooppa. Mitään näistä Eurooppa ei vielä ole. Vaikka euroalue on yhtenäinen talousalue, data pysyy kansallisten rajojen sisäpuolella. Nyt se pitää saada liikkeelle. Samaan aikaan täytyy pitää huolta siitä, että dataa käytetään turvallisesti ja vastuullisesti.

SITRA etsii ihmisläheisen datatalouden malleja

Nykyisessä datataloudessa yksilö joutuu luopumaan oikeuksistaan itseään koskevaan dataan. Tiedot jäävät niitä keräävän yrityksen omaisuudeksi.

Kun data on keskittynyt muutamalle suuryritykselle, sen jakaminen ja hyödyntäminen on vaikeaa eivätkä ihmiset voi päättää oman henkilökohtaisen datansa käytöstä.

SITRA:n käynnistämässä IHAN-hankkeessa tutkitaan vaihtoehtoista toimintatapaa, jossa yksilö määrittelee itse, mihin palveluihin ja millaisilla ehdoilla hänen tietojaan käytetään.

Yksilön antaman suostumuksen valtuuttamana tietoja voidaan välittää palveluntarjoajalta toisella. Päämääränä on sujuva data portability eli tiedon liikkuvuus.

– Iso tavoite on hyödyntää eurooppalaista regulaatiota sekä eurooppalaista arvopohjaa ja luoda kokonaan uusi vastuullisen datatalouden malli, joka avaa myös pienille yrityksille uusia mahdollisuuksia. Luomme Euroopan kattavat pelisäännöt ja ratkaisut ihmislähtöiseen datan vaihtoon, kertoo hankkeen projektijohtaja Jaana Sinipuro.

Jos asiat etenevät niin kuin Sinipuro toivoo, datanvaihdon uudet käytännöt ja mallit luodaan ensin Suomessa ja levitetään sen jälkeen muihin EU-maihin.

”Aivan aluksi tiedonvaihdolle luodaan pelisäännöt. Myös kuluttajien, yritysten ja julkisorganisaatioiden asenteita tutkitaan.”

– Olemme verranneet hanketta ympäristöraportointiin. Aikoinaan ympäristöasioilla tehtiin paljon viherpesua. Kun tietoisuus ympäristövaikutuksista lähti kasvamaan, yritykset joutuivat ottamaan ympäristöraportoinnin osaksi omaa päivittäistä toimintaansa. Toivomme, että myös reilusta ja läpinäkyvästä datan käytöstä tulisi osa yritysvastuuta.

Sääntelyn avulla vai markkinavetoisesti?

Datatalouden nousuun kytkeytyy läheisesti tekoälyn nopea kehitys. Tutkimuskeskus Gartner ennustaa, että tekoälyn luoman liiketoiminnan arvo kasvaa maailmanlaajuisesti viiteen biljoonaan dollariin vuoteen 2025 mennessä.

Myös tekoälyn vastuullisen käytön periaatteet puhuttavat. Teknologiateollisuuden Tekoälykiihdyttämön vetäjä Antti Poikola kertoo syyn:

– Tekoälyä voi soveltaa hyvin moneen asiaan, ja sovellukset voidaan ottaa käyttöön hyvin laajasti. Silloin myös tekoälyn tekemien virheiden ja huonojen ratkaisujen vaikutukset voivat olla hyvin laajoja.

Suomessa ja Euroopassa tekoälykeskustelun valtavirrassa on kaksi aihetta.

– Ensimmäinen on pelko siitä, että USA ja Kiina menevät eteenpäin niin nopeasti, että Eurooppa jää jälkeen. Toisessa keskustelussa tekoäly nähdään uhkana, jonka avulla voi tehdä ennalta arvaamattomia asioita. Jotta näin ei kävisi, tekoälyllä pitää olla eettinen koodisto. Tämä keskustelu keskittyy siihen, mihin pitäisi kehittää standardeja, mitä asioita pitäisi reguloida ja minkä osan kehityksestä voi antaa mennä eteenpäin markkinavetoisesti, Poikola sanoo.

Eurooppalaisen regulaation malli on yleensä perustunut siihen, että ensin luodaan normi ja sitten sen toteutumista valvotaan.

Mallin toteuttamisella on haasteensa, kun puhutaan nopeasti kehittyvästä datataloudesta.

– Regulaatio on aina hidasta, huomauttaa Poikola.

– Tietosuoja-asetuksesta (GDPR) alettiin keskustella vakavissaan vuonna 2009. Komissio teki aiheesta esityksen vuonna 2012, joka tuli voimaan vuonna 2016. Siirtymäaika päättyi vuonna 2018. Kaikkiaan GDPR:n käyttöönotto kesti kymmenen vuotta. Miettikääpä, miten paljon tekoäly menee eteenpäin kymmenessä vuodessa.

Tekoälylle pitää asettaa rajat

Tekoälyn etiikka oli vahvasti esillä myös AI Forum 2018 -ministerikonferenssissa, jota Suomi isännöi lokakuussa.

– Konferenssi kuvasti eurooppalaista keskustelua. Regulaatiokeskustelu on täällä voimakkaampaa kuin muualla maailmassa. Euroopassa halutaan pitää kiinni esimerkiksi tietosuojasta ja eurooppalaisesta arvopohjasta, Poikola tiivistää.

Rajojen asettaminen tekoälylle ei ole aivan yksinkertaista.

– Tekoäly oppii luovasti datan perusteella, mikä on paras tapa toimia. Tästä syystä tekoälyllä pitää olla riittävästi vapauksia. Silloin se voi tehdä sellaisia luovia ratkaisuja, joita ihminen ei tekisi. Osa niistä voi olla todella hyviä.

– Toisaalta tekoälylle pitää asettaa rajat, joiden yli se ei saa mennä. Jos ei määritellä mikä on kiellettyä, AI voi tehdä luovia, mutta hyvin vaarallisia päätöksiä. Mutta jos tietää omat preferenssinsä, ne voi ohjelmoida tekoälylle ohjeiksi ja rajoiksi. Näiden rajojen sisällä koneelle kannattaa kuitenkin antaa mahdollisuus löytää parhaita mahdollisia ratkaisuja, Poikola kertoo.

AI Forumiin osallistunut Francesca Rossi, AI Ethics Global Leader, IBM Research luottaa siihen, että AI voi oppia tekemään eettisiä päätöksiä.

– Jo nyt musiikkipalvelujen käyttäjät voivat antaa tietoa millaisia sisältöjä he eivät halua ottaa vastaan. Silloin tekoäly tekee johtopäätöksiä siitä, millaisia sääntöjä pitää noudattaa. Samalla periaatteella voidaan opettaa AI suosittelemaan sopivaa lääkeannosta niin, että hoito parantaa taudin mahdollisimman nopeasti, mutta ei heikennä potilaan elämän laatua.

Standardeja tekeillä

Maailman suurin teknologia-alan standardointijärjestö IEEE kehittää tekoälyn eettisiä sertifikaatteja. Hankkeen puheenjohtajaksi on nimitetty Saidot.ai:n toimitusjohtaja ja Suomen tekoälyohjelman etiikkatyöryhmän puheenjohtaja Meeri Haataja. Hanke tähtää läpinäkyvään tekoälyn eettisen sertifiointiprosessin luomiseen.

Myös suuret datayhtiöt kehittävät tekoälylle eettisiä periaatteita. Amazon, Google, Facebook, Microsoft ja IBM perustivat vuonna 2016 yhteenliittymän nimeltä Partnership on Artificial Intelligence. Sen tarkoitus on edistää tekoälyn tutkimusta, mutta myös luoda tekoälyn soveltamiselle sääntöjä ja standardeja.

Francesca Rossin mielestä tekoälyn normien luomista ei saa jättää yritysten tekoälytutkijoiden tehtäväksi. Tarvitaan laaja kirjo näkemyksiä eri puolilta.

EU:ssa tekoälyn tulevaisuutta pohtii jo korkean tason asiantuntijaryhmä, jota johtaa Pekka Ala-Pietilä. Suomessa eduskunta saa vielä tänä syksynä luettavakseen selonteon, jossa pohditaan tekoälyn sääntelyä.

Euroopan suuri tavoite

Miten tekoälyä käytetään, on tietenkin tärkeä kysymys. Mutta aivan yhtä tärkeää on kysyä mihin tekoälyä käytetään.

AI Forum 2018-kongressin ainoa ei-eurooppalainen puhuja, kiinalaisen Tencent-yhtiön CXO David Wallerstein korosti keskustelussa, että eurooppalaisten pitää tosissaan miettiä, miten tekoälyä voidaan soveltaa todellisten maailmanlaajuisten ongelmien ratkaisemiseen.

Wallersteinin mielestä Euroopan tärkein päämäärä tekoälyn kehitystyössä on varmistaa, että planeetan kaikilla asukkailla on riittävästi energiaa, ruokaa ja vettä.

– Parantakaa ensin omien kansalaistenne elämänlaatua. Kokeilkaa, älkääkä miettikö viittä vuotta regulatorisia prosesseja. Sen jälkeen teistä voi mahdollisesti tulla globaaleja johtajia tekoälyssä. Tämä on minun suositukseni Euroopalle.

Yksin energiantuotannossa on valtavasti tilaisuuksia.

– Lämpövoimaloiden hyötysuhdetta voi helposti nostaa 20 prosenttia tekoälyn avulla. Tämä on erityinen mahdollisuus Suomelle, koska Suomi tunnetaan maailmanlaajuisesti energiatehokkuudesta.

Omissa projektissaan Tencent on huomannut, että tekoälysovelluksilla on valtavat mahdollisuudet myös maanviljelyksessä ja kasvihuoneviljelyssä.

– Näissä sovelluksissa tekoäly voittaa kirkkaasti parhaat ihmisten luomat käytännöt, koska se voi käsitellä valtavia määriä dataa ja optimoida sen jälkeen ruuan tuotantoa hyvin tarkasti.

Lue lisää
Venäjänkauppa – todellisuus eroaa mielikuvista

Venäjänkauppa – todellisuus eroaa mielikuvista

Venäjänkaupasta on vallalla monia vääriä käsityksiä. Millainen venäjänkaupan tilanne oikeasti on? Entä mitä Venäjällä tapahtuneita muutoksia suomalaisyritysten täytyy ottaa huomioon?

Minne katoavat miljoonat romuautot - ajoneuvojen kiertotaloudessa paljon parantamisen varaa

Minne katoavat miljoonat romuautot - ajoneuvojen kiertotaloudessa paljon parantamisen varaa

Euroopassa hukkuu joka vuosi yli neljä miljoonaa ajoneuvoa. Se on paitsi iso ympäristöongelma myös eurojen haaskausta. Valtioiden välillä on kuitenkin isoja eroja. Nyt asiaan etsitään EU-tason...

Onnellisuuden suunnittelua

Onnellisuuden suunnittelua

Arkkitehtuuri on monin eri tavoin sidoksissa onnellisuuteen. Voidaanko rakennettua ympäristöä suunnitella onnellisuuden lähtökohdasta?

Tuoreimmat

OP sosiaalisessa mediassa