18.12.2024

Tekoäly viranomaisten kriisijohtamisessa ja -viestinnässä – uhka vai mahdollisuus?

Tekoäly tuntuu olevan nyt kaikkien huulilla, vaikka sellaisenaan se ei uusi asia olekaan. Kehitys on kuitenkin juuri nyt erityisen nopeaa, eikä sitä enää pysäyttäne mikään. Keskusteleva tekoäly oppii ja opettaa, ja sen käytössä on nähty valtavasti hyödyntämispotentiaalia yhteiskunnan eri osa-alueilla. Mitä apua tekoälystä voisi olla viranomaisille kriisitilanteiden johtamisessa ja viestinnässä?

Tekoälyllä tarkoitetaan tietokoneohjelmia ja järjestelmiä, joille on ominaista kyky tehdä ihmisälykkyyttä vaativia asioita, joista ne yleensä myös suoriutuvat ihmistä tehokkaammin. Kyseessä on valtava, monin tavoin positiivisia mahdollisuuksia tarjoava muutosvoima, joka on muuttanut ja tulee edelleen muuttamaan maailmaa sekä tapojamme tehdä työtä, opiskella ja vuorovaikuttaa ennennäkemättömällä tavalla. Kun ulkoistaa pohjatyöt ja rutiinit tekoälylle, ihminen voi keskittyä syvällistä ongelmanratkaisukykyä tai eettistä pohdintaa vaativaan asioiden yhdistämiseen ja ideointiin – parhaimmillaan yhdessä tekoälyn kanssa. Toisaalta dystooppisimmissa tulevaisuuskuvissa tekoälyn nähdään vievän työpaikat, murentavan työn verotukseen perustuvan hyvinvointivaltion ja lopulta jopa tuhoavan ihmislajin.


Keskustelu tekoälystä kiihtyi marraskuussa 2022, kun OpenAI-yhtiö lanseerasi tekoälyrobottinsa ChatGPT:n suurelle yleisölle. ChatGPT edustaa generatiivisen tekoälyn sovellusta, joka hyödyntää koneoppimisen potentiaalia tekstisisällön tuottamiseen. Tämä virtuaaliavustaja tuottaa hämmästyttävän määrän tekstiä sekunneissa ja voi auttaa niin sisältöjen tunnistamisessa ja muokkauksessa kuin ideoinnissa, päätöksenteossa, ongelmanratkaisussa ja oppimisessa. Generatiivinen tekoäly hyödyntää olemassa olevia tietovarantoja, joita kokoamalla, tietoa yhdistelemällä ja saatavilla olevasta tiedosta oppimalla teknologinen sovellus pyrkii uuden tiedon muodostamiseen. Se etsii vastaukset sille esitettyihin kysymyksiin käyttäen lähteenään valtavaa tekstimassaa, josta se etsii ja yhdistelee aiheeseen sopivia tekstipätkiä. Tarjoamalla kysymykseen suoran vastauksen se säästää ihmiseltä aikaa ja vaivaa. Kuitenkin samalla se rajaa aina jotain ulkopuolelle – vastuu tiedon tarkoituksenmukaisuuden varmistamisesta jää siis ihmiselle.


ChatGPT:tä on myös kritisoitu sen tavasta keksiä argumenteilleen lähteitä riippumatta siitä, pitääkö väite paikkaansa. Generatiivisen tekoälyn heikkous piileekin sen hyödyntämän alkuperäistiedon oikeellisuudessa. Tekoäly pohjaa vastauksensa verkosta saatavissa olevaan tietoon, jolloin tiedon pohjalta tehtävien oivallusten ja vastausten arviointi jää ihmisen tehtäväksi. Tekoäly pystyy tuottamaan vanhaan tietoon nojaavia vastauksia ja ratkaisuja, mutta se ei kykene ihmisajattelun kaltaiseen luovuuteen ja innovaatioon, ainakaan vielä. Lisäksi useimmiten englannin kielelle optimoitujen järjestelmien tuottama suomenkielinen teksti ei välttämättä ainakaan sellaisenaan täytä selkeän ja saavutettavan kielen kriteerejä. Esimerkiksi kirjailija Tommi Melanderin mukaan tekoälyltä puuttuukin ”tyylin ja lauseen taju” (Suomen Kuvalehti 14–15/2023).


Opettamisen lisäksi vuorovaikutteinen tekoäly oppii kuitenkin itsekin aiemman toimintansa pohjalta. Näin sen kyky auttaa ihmistä kehittyy, mutta samalla spekulaatiot riskeistä lisääntyvät. Mitä jos tekoäly alkaakin oppia ”liikaa”, eikä ihminen pystykään hallitsemaan sen toimintaa enää sitäkään vähää mitä nyt?


Vastuullinen toimija tunnistaa riskit ja keskustelee – eikä vierasta uuden oppimista


Monien arkea helpottavien, tervetulleiden ja innostavien ominaisuuksiensa ohella tekoälyyn liittyykin edelleen useita rajoitteita ja riskejä. Ensinnäkin tekoälyn tarjoama tieto on aina juuri niin hyvää kuin sen pohjalla oleva tietovaranto on, jolloin riski väärän tiedon leviämiseen kasvaa. Haitallisissa tarkoitusperissä toimiville tekoäly luo mahdollisuuksia tuottaa syväväärennöksiä (deepfake), joita on lähes mahdoton erottaa aidoista. Olemmekin nopeasti ajautuneet tilanteeseen, jossa ei lähtökohtaisesti tulisi luottaa enää minkään sisällön todenperäisyyteen ilman harkintaa. Esimerkiksi näyttelijä Tom Cruisesta tehdyt syväväärennykset voidaan laittaa melko vaarattoman hupailun piikkiin. Tilanne muuttuu kuitenkin kertaluokkaa vakavammaksi, jos syväväärennöksiä tehtaillaan kriisi- ja onnettomuustilanteita johtavista viranomaisista. Kyky erottaa luotettava epäluotettavasta ja tosi epätodesta tulee yhä tärkeämmäksi, ja sekä viranomaisten että kansalaisten informaatiolukutaito voidaankin katsoa kasvavasti merkitykselliseksi ja kaikkea toimintaa läpileikkaavaksi taidoksi.


Tekoälyn tietoisuus on kaukana ihmisestä, mutta tekoälyn kyky oppia kokemastaan tekee siitä aktiivisen toimijan. Tekoäly noudattaa algoritmeja, mutta sen ja ympäristön vuorovaikutus voi johtaa ratkaisuihin, joita on vaikea ja jopa mahdoton ennakoida. Tekoäly on teknologiaa, mutta sen haitallisten seurausten minimointi on mitä suurimmassa määrin eettinen kysymys. Tekoälyn eettiset haasteet kulminoituvat siihen, miten sen tekemät päätökset vaikuttavat ihmisiin yksilöinä ja ihmisten muodostamiin yhteisöihin.


Niin poliitikoilta, viranhaltijoilta ja tutkijoilta kuin teknologiaa kehittäviltä insinööreiltä vaaditaankin paitsi tekoälyyn liittyvien riskien tunnistamista ja huomioimista, myös ennakkoluulottomuutta ja rohkeutta. Innovaatiotutkijat ovat melko yksimielisiä siitä, että kerran keksittyä ei helposti unohdeta. Siis sen sijaan että yrittäisimme sulloa pullonhenkeä takaisin, tulisiko meidän käydä ilmiöstä etunojassa avointa, eri tahot mukaan kutsuvaa keskustelua, kriittisesti mutta rakentavasti?


Virtuaalirobotti viranomaisen apuna kriisijohtamisessa ja -viestinnässä?

Kriisitilanteissa kansalaisen tiedon ja tuen tarpeet kasvavat nopeasti, jolloin viranomaisten on yhä kiihtyvässä mediavirrassa pystyttävä vastaamaan niihin tehokkaalla viestinnällä. Akuutissa tilanteessa johtajan aikaa tarvitaan tilanteen johtamiseen, joten tilanteiden viestintään on tärkeä varautua. Millaista apua tekoäly voisi tarjota tähän? Ja mitä riskejä tässä yhteydessä tulisi huomioida?


Varautumisessa tekoäly voisi toimia apuna ainakin mediaympäristön luotaamisessa ja riskien tunnistamisessa jo hyvän sään aikana. Pyynnöstä se hoitaa nopeasti esimerkiksi kriisiviestintäsuunnitelmien ja tiedotteiden pohjat sekä tuottaa vaikkapa erilaisia skenaariomalleja kriisijohtamisen ja -viestinnän harjoituksiin, myös eri kieliversioina. Akuutissa tilanteessa tekoäly voisi vapauttaa viestintää hoitavan aikaa syvällistä ongelmanratkaisua vaativiin asioihin tukemalla esimerkiksi sosiaalisen median tilannekuvan päivittämistä, ydinviestin levittämistä eri kanavissa tai mediayhteistyötä. Tekoälyä voisi hyödyntää myös verkossa käytävän keskustelun moderoinnissa viranomaisviestinnän vastaisen tiedon tunnistamisen ja korjaamisen tukena.


Akuutin kriisivaiheen jälkeen voisi olla kiinnostavaa kokeilla keskustelevan tekoälyn mahdollisuuksia toimia apuna tilannejohtamisen ja viestinnän onnistumisen arvioinnissa – ehkä pyytää palautetta esimerkiksi tiedotustilaisuudesta ja näin kehittää esiintymistaitojaan turvallisessa ympäristössä.


Eiköhän siis kokeilla itse?
 

Mahdollisuuksia tuntuisi siis olevan, joten päätämme kokeilla itse. Kerromme ChatGPT:lle, että Kalajoella riehuu maastopalo, ja pyydämme sitä laatimaan vaaratiedotteen. Pian ruudulle ilmestyy seuraava teksti:


Vaaratiedote: MAASTOPALO KALAJOELLA


Kalajoen alueella on tällä hetkellä meneillään vaarallinen maastopalo, joka uhkaa ympäröivää aluetta. Palo on levinnyt nopeasti ja se on aiheuttanut vaaraa lähellä oleville asukkaille ja eläimille. Jos asut alueella, joka on lähellä paloa, suosittelemme, että poistut välittömästi paikalta ja siirryt turvalliselle etäisyydelle. Noudata paikallisten viranomaisten antamia ohjeita ja pysy ajan tasalla tilanteesta. Jos sinun on välttämätöntä liikkua alueella, joka on lähellä paloa, pidä huolta omasta turvallisuudestasi. Vältä savua ja pyri hengittämään mahdollisimman puhtaassa ilmassa. Pukeudu suojaaviin vaatteisiin ja käytä hengityssuojainta, jos mahdollista. Huomioithan myös, että maastopalon sammuttaminen on vaarallista ja vaatii erikoiskoulutettuja ammattilaisia. Älä yritä sammuttaa paloa itse, vaan ilmoita siitä välittömästi paikallisille viranomaisille. Pysy rauhallisena ja varovaisena. Noudata paikallisten viranomaisten antamia ohjeita ja pysy ajan tasalla tilanteesta.

 

Perusasiat (missä – milloin – mitä – miten) täyttyvät pohjassa suhteellisen hyvin. Kuitenkin esimerkiksi yksityiskohtaisempien aika-, paikka- ja tiedotteen antajan yhteystietojen lisääminen sekä tekstin selkeäkielisyyden ja tiedon paikkansapitävyyden varmistaminen jäävät edelleen viranomaisen tehtäväksi.


Virtuaaliavustaja auttaa – mutta ei ajattele puolestamme


Millaisia riskejä tekoäly sitten itse liittää käyttämiseensä vaaratiedottamisessa? ”Useita”, se vastaa, ja nimeää niistä tärkeimmiksi seuraavat:


Tiedon puutteellisuus.
Vastuun epäselvyys.
Väärien tietojen käyttö.
Inhimillisen tulkinnan puuttuminen.
Tiedon eettinen käyttö.
 

Riskit on helppo allekirjoittaa. Puutteet järjestelmiin syötetyissä tiedoissa voivat näkyä vaaratiedotteissa virheellisinä toimintaohjeina, mikä voi johtaa vakaviinkin seurauksiin. Järjestelmän tuottaessa tekstiä kysymys vastuun jakautumisesta käyttäjien ja kehittäjien kesken hämärtyy, mikä voi virheellisen tiedon levitessä johtaa oikeudellisiin ongelmiin. Jos taas tekoäly on saanut oppinsa väärästä tiedosta, sen luomat tiedotteetkin ovat virheellisiä. Lisäksi tekoälyn ”älykkyys” harvoin kykenee sellaiseen asiantuntemukseen tai vaikutusketjujen hahmottamiseen, joita esimerkiksi ympäristökatastrofeista viestittäessä tarvitaan.


Lopulta listan viides pointti kiteyttää yhden viranomaisten kriisijohtamisen avainkysymyksistä. Käytettiin tilanteen apuna sitten tekoälyä tai ei, viranomaisen viestintä kriisitilanteissa on aina jatkuvaa tasapainoilua esimerkiksi tiedon avoimuuden vaatimuksen ja muiden suojeltavien intressien sekä kansalaisten perusoikeuksien takaamisen ristipaineessa. Tilanteissa tulisi pystyä erottumaan viestivirrasta mutta samalla viestiä vaikeista teemoista harkiten. Teemojen herkkä politisoituminen saattaa asettua ristiriitaan viranomaisen faktapohjaisuuteen ja objektiivisuuteen pyrkivän viestinnän kanssa. Lisäksi tarkasteltaviksi tulevat esimerkiksi tietosuojaan ja -turvaan liittyvät kysymykset.


Kriisin ollessa päällä myös viranomaisen ydinviestin eheyden varmistaminen pelkästään tekoälyyn luottaen vaikuttaa haasteelliselta. Ja voimmeko luottaa siihen, että tekoäly huomioi viestinnässään voimassa olevan lainsäädännön tai sananvapauden demokraattisen yhteiskunnan perusarvona – ja miten se onnistuu luovimaan näiden välillä? Uskallammeko antaa robotin hoitaa tasapainoilu pelottavista uhkista kertomisen ja kansalaisten psykologisen turvallisuuden vahvistamisen välillä?


Ja lopulta, viranomaisviestintävastuu säilyy tekoälyn mukanaolosta riippumatta ihmisellä – ainakin toistaiseksi.


Tekoäly ei korvaa ihmistä luottamuksen rakentajana


Kriisitilanteissa julkishallinnon viestinnän tärkein tehtävä on luottamuksen ylläpitäminen. Luottamus luodaan hyvän sään aikana, mutta akuuteissa kriisitilanteissa se joutuu erityiseen tulikasteeseen: uhkaavassa tilanteessa ihmisen on pystyttävä luottamaan itseensä ja ympäröivään yhteiskuntaan – siihen että lopulta kaikki järjestyy. Luottamuksen voi menettää nopeastikin, mutta sen palauttaminen vaatii yleensä aikaa ja työtä. Viranomaisia kohtaan koettu luottamus on yksi yhteiskuntamme tärkeimmistä voimavaroista, jota tulee edelleen vaalia ihmistyöllä – myös tilanteissa, joissa tekoäly hoitaa rutiinit.


Kansalaisten turvallisuudentunnetta koettelevissa tilanteissa etenkin tilannetta johtavien kasvollinen ja näkyvä viestintä vahvistaa luottamusta. Kriisitilanteissakin viestinnällä johdetaan, ohjeistetaan, rakennetaan merkitystä ja tuetaan yhteisöllisyyttä sekä etsitään ongelmia ja tarjotaan niihin ratkaisuja. Kun psykologista turvallisuutta uhataan ulkopuolelta, yhteiskuntien resilienssi vahvistuu toimivalla, harkitulla ja avoimella viestinnällä, joka selkiyttää tilannekuvaa, pohjaa organisaation arvoihin sekä sanoittaa ja ankkuroi.


Tähän tarvitsemme edelleen ihmistä. Tekoälyn ei voida olettaa sisäistäneen esimerkiksi organisaation arvoja tai tavoitteita, jos niitä ei ole sille erikseen opetettu. Kuinka siis voisimme olla varmoja, että sen luomat sisällöt olisivat aukottomasti organisaatiomme tai yhteiskuntamme näkökulmasta tarkoituksenmukaisia?


Luottamuksen rakentamisessa tekoäly ei korvaa ammattimaisesti toimivaa ja kasvoillaan viestivää kriisijohtajaa. Kuitenkin johtaja, joka hyödyntää tekoälyä tilanteissa tarkoituksenmukaisesti, voi sen tehdä. Haluammeko olla niitä, jotka valjastavat tekoälyn myös kriisijohtamisen ja -viestinnän työkaluksi, kertovat sen käytöstään yleisöille eivätkä unohda sen rajoitteita ja omaa vastuutaan tilanteissa? Vai odotammeko, että tulemme – ennemmin tai myöhemmin – korvatuiksi sellaisilla?

 

Kirjoitus on laadittu yhdessä Aino Harisen, Aino Rantamäen ja Tomi Niemen kanssa ja se on julkaistu VNK Tieto käyttöön -blogisarjassa 21.4.2023.