Hyppää sisältöön

Syväväärennökset mullistivat mediaympäristömme – miten säilytämme luottamuksen?

Jos käytät sosiaalista mediaa, olet hyvin suurella todennäköisyydellä törmännyt tekoälyllä tuotettuihin syväväärennöksiin eli deep fake -sisältöihin. Syväväärennöksissä tekoäly jäljittelee aitoja henkilöitä tai tilanteita niin tarkasti, että niitä on vaikea erottaa aidoista.

 

Kuvassa SaavutaÄly-hankkeen logo ja kumppanien logot. SaavutaÄly-blogisarjaa julkaistaan Tekoälyosaaminen järjestöjen tukena muutoksessa -hankkeessa.

Jos käytät sosiaalista mediaa, olet hyvin suurella todennäköisyydellä törmännyt tekoälyllä tuotettuihin syväväärennöksiin eli deep fake -sisältöihin. Syväväärennöksissä tekoäly jäljittelee aitoja henkilöitä tai tilanteita niin tarkasti, että niitä on vaikea erottaa aidoista. Esimerkiksi videoilla voidaan saada tunnetut henkilöt näyttämään ja kuulostamaan siltä kuin he sanoisivat tai tekisivät asioita, joita he eivät todellisuudessa ole koskaan tehneet.

Teknologian nopea kehitys näkyy selvästi syväväärennösten laadussa: vielä muutama vuosi sitten deep fake -videot olivat kömpelöitä ja helposti tunnistettavia, mutta nykyään ne ovat hätkähdyttävän aidon näköisiä ja kuuloisia. Tämä kehitys herättää tärkeitä yhteiskunnallisia kysymyksiä: Miten syväväärennösten yleistyminen vaikuttaa ihmisten väliseen luottamukseen? Mitä tapahtuu demokratialle, jos nähdyn todenmukaisuutta joutuu jatkuvasti epäilemään? Pitäisikö deep fake -sisältöjen tuottaminen ja jakaminen kieltää kokonaan?

Harmittomasta huumorista yhteiskunnalliseen vaikuttamiseen

Osa syväväärennöksistä on harmittomia ja helppo tunnistaa tekoälyllä laadituiksi, kuten esimerkiksi tämä video, jossa Kekkonen ottaa kantaa tekoälyllä luotuihin videoihin.

Huolestuttavampia ovat sen sijaan tarkoituksellisesti ihmisten harhaanjohtamiseksi laaditut syväväärennökset. Esimerkiksi Ukrainan sodan yhteydessä on esiintynyt laajalti informaatiovaikuttamista, eli levitetty propagandaa – tai modernimmalla termillä disinformaatiota. Yksi viime vuosien tunnetuimmista esimerkeistä on Joe Bidenin ääntä jäljittelevä tekoäly, joka soitti ihmisille alkuvuonna 2024 ja kehotti heitä olemaan äänestämättä esivaaleissa. Tekaistuja sisältöjä käytetään myös esimerkiksi kiusaamiseen ja huijaamiseen.

Myös selkeästi huumoriksi tunnistettavia väärennöksiä käytetään harhaanjohtamistarkoituksessa. Vaikka katsoja tunnistaisi esimerkiksi parodiavideon feikiksi, se voi silti vaikuttaa tunteisiin ja asenteisiin. Tällainen epäsuora vaikuttaminen eroaakin merkittävästi viestinnän vanhasta lääkeruiskumallista, jossa ajateltiin viestin vastaanottajan nielevän sanoman sellaisenaan. Huumoriväärennösten kohdalla vaikutus on hienovaraisempi: ne voivat muokata asenteita vähitellen ja heijastua myöhemmin jopa äänestyspäätöksiin.

Kuvassa näkyvät tekstin kirjoittajat Suvi Tuominen ja Gyan Dookie (ylärivi) sekä SaavutaÄly-hankkeen harjoittelijat Valtteri Vatula ja Analyn Wagas-Hyvönen (alarivi). Kuvaa on muokattu tekoälytyökaluilla. Kuvassa tekstin kirjoittajat Suvi Tuominen ja Gyan Dookie (ylärivi) sekä SaavutaÄly-hankkeen harjoittelijat Valtteri Vatula ja Analyn Wagas-Hyvönen (alarivi). Kuvaa on muokattu tekoälytyökaluilla. Blogitekstin aihetta eli deepfakea käsiteltiin hankkeen opintopiirissä, jossa kaikki kuvassa näkyvät olivat läsnä. Opintopiiri toimi innoittajana tälle tekstille.

Tekoälyllä luodut sisällöt vaativat perinteistä medialukutaitoa

Tekoälyllä tuotettujen sisältöjen määrä lisääntyy huimaa vauhtia, sillä sisältöjen luomiseen käytettävät kuvan- ja videonmuokkausohjelmat ovat nykyään todella helppoja käyttää. Kuka tahansa pystyy tekemään feikkivideoita älypuhelimellaan. Toisaalta merkittävä muutos on myös se, miten helposti tekoälyllä tuotetut sisällöt lähtevät leviämään, kun niitä jaetaan eteenpäin sosiaalisessa mediassa ja nostetaan näkyviin algoritmien toimesta.

Tekoälyllä luotujen sisältöjen laatu on parantunut huimasti lyhyessä ajassa. Esimerkiksi tekoälyn luoma ja puhuma suomi ei enää kuulosta töksähtelevältä, kuten vielä jokin aika sitten. Syväväärennöksiä ei voi käytännössä enää erottaa aidoista videoista tutkailemalla niiden jälkeä.

Tärkeintä onkin pysähtyä miettimään sisällön kontekstia. Vanha hyvä medialukutaito-osaaminen nousee oleelliseksi myös syväväärennöksiä arvioitaessa: Miksi tämä video on julkaistu juuri nyt? Kuka sen on jakanut ja mikä on ollut hänen tarkoitusperänsä? Löytyykö sama sisältö luotettavista medialähteistä?

Säilyykö luottamus toisiin ihmisiin?

Syväväärennökset herättävät perustavanlaatuisen huolen: miten voimme enää luottaa mihinkään (sosiaalisessa) mediassa näkemäämme tai kuulemaamme? Vaikka video olisikin aito, sitä voi olla vaikea uskoa ja myös todistaa aidoksi. Entä miten käy luottamuksen toisiin ihmisiin ja siten myös yhteisöllisyyden, jos oletuksena on, että epäilemme kaikkea ja kaikkia?

Yksilöiden kriittisen medialukutaidon lisääminen ei yksin riitä ratkaisuksi syväväärennösten kanssa taisteluun. Viestinnässä kun on aina kolme osapuolta: lähettäjä, kanava ja vastaanottaja. Tarvitaankin ennen kaikkea vastuunottoa sisällöntuottajilta sekä läpinäkyvyyttä tekoälyteknologioiden kehittämiseen ja käyttöön. Deep fake -teknologioiden kehittäjien tulisi sitoutua eettisiin periaatteisiin ja sisällöntuottajien tulisi merkitä selkeästi, kun kyseessä on tekoälyllä tuotettu sisältö. Sosiaalisen median alustojen tulisi ottaa vahvempaa vastuuta tekoälyllä laadittujen sisältöjen merkitsemisestä ja mahdollisesta poistamisesta.

Tarvitsemme lisäksi vahvempaa yhteiskunnallista sääntelyä ja yhteisiä pelisääntöjä tekoälyn käytölle. EU:ssa on jo otettu askelia tähän suuntaan, mutta kansallisella tasolla tarvitaan lisää toimia.

Toisaalta syväväärennökset eivät ole varsinainen ongelma, vaan se on jossakin syvemmällä. Yliopistotutkija Minna Aslama Horowitz huomauttaa, että esimerkiksi yhteiskunnassa yleistynyt polarisaatio näkyy disinformaation levittämisen taustalla. Joten myöskään ratkaisut disinformaation leviämisen estämiseen eivät voi olla pelkästään teknisiä tai lainsäädännöllisiä.

Vaikka syväväärennökset haastavat luottamustamme digitaaliseen sisältöön, meillä on monia keinoja vastata tähän haasteeseen. Jokainen voi osallistua esimerkiksi tukemalla laadukasta journalismia, jakamalla vain faktapohjaista sisältöä, opettelemalla syväväärennösten tunnistamista, raportoimalla harhaanjohtavaa sisältöä some-alustoille sekä vaatimalla päättäjiltä toimia tekoälyn vastuullisen käytön edistämiseksi.

Syväväärennösten haaste ratkeaa vain yhteistyöllä: tarvitsemme sekä yksilöiden kriittistä medialukutaitoa että yhteiskunnan laajuisia toimia teknologiayritysten ja lainsäätäjien taholta.

Lue myös: Järjestöt tekoälyn äärellä: Varovaista innostusta ja vastuullista kehittämistä – Humak

Kirjoittajat

Suvi Tuominen ja Gyan Dookie työskentelevät asiantuntijoina SaavutaÄly-hankkeessa, joka on osarahoitettu Euroopan sosiaalirahastosta. Kirjoituksen rakenteen ja otsikoiden ideoinnissa käytettiin apuna Claude 3.5 Sonnet -tekoälyä.