Journalistisia sisältöjä pitäisi antaa tai myydä tekoälypalveluiden käyttöön. Tämä on yksi vastatoimista, joita Mediapoolin helmikuussa julkaisema kartoitus ehdottaa informaatiovaikuttamisen torjumiseksi.
Generatiivinen tekoäly on altis manipulaatiolle, koska se arvioi todennäköisyyttä – ei sitä, mikä on totta. Vihamielinen toimija voi pyrkiä saastuttamaan väärällä tiedolla aineiston, jota yhtiöt käyttävät kielimallien kouluttamiseen tai tekoälyn antamiin vastauksiin.
”Luulen, ettei ole muuta vaihtoehtoa kuin heittää tutkittua suomalaista tietoa ja medioiden tietoa tekoälylle. Tässä pätee vanha juttu, että jos emme kerro itse omaa tarinaamme, joku muu kertoo sen kyllä”, Ilkka-Pohjalaisen päätoimittaja Markku Mantila sanoi Suomen Lehdistön haastattelussa.
Ajatus on yhtä aikaa täysin looginen ja aivan älytön. Kyllä, suomalaisille tekee uutisia ja tuottaa ajankohtaista luotettavaa tietoa lähinnä suomalainen media. Mutta ei, informaatiovaikuttamista ei pidä torjua ”heittämällä” ammattilaisten työn hedelmät tekoäly-yhtiöiden hyödynnettäviksi.
Ei, vaikka kyse on kansallisesta turvallisuudesta.
Osa mediayhtiöistä on lähtenyt tekoäly-yhtiöiden kelkkaan. Maailmalla esimerkiksi AP, Financial Times ja MTV:n nykyinen omistaja Schibsted ovat sopineet yhteistyöstä. The New York Times puolestaan haastoi Open AI:n oikeuteen sisältöjensä luvattomasta käytöstä, mutta teki sopimuksen Amazonin kanssa.
Suomessa moni mediayhtiö kieltää botteja keräämästä tietoja sivuiltaan. Näin ohjeistaa tekemään myös tekijänoikeusjärjestö Kopiosto.
Suomen Lehdistön viime keväänä julkaisema testi kertoi, että suomalaisten uutisvälineiden sisällöt näkyivät tekoälyn antamissa vastauksissa siksi vaihtelevasti. Esimerkiksi Yle sallii AI-haut, Sanoma ei.
Periaatteessa myös suomalaiset kustantajat voisivat antaa uutissisältöjään hyödynnettäväksi tekoälyn vastauksissa, kunhan hinnasta vain sovitaan. Aiemmat kokemukset globaalien alustayhtiöiden kanssa neuvottelemisesta eivät tosin anna kovin hyvää ennustetta menestykselle.
Lisäksi näyttää siltä, ettei tekoäly-yhtiöitä edes juuri kiinnosta, antavatko niiden tuotteet oikeita vastauksia. Ei edes, vaikka väärät vastaukset vaarantaisivat ihmisten terveyden.
Jollain tapaa väärä tai jopa vaarallinen tieto pitäisi kuitenkin tekoälyn vastauksista syrjäyttää. Euroopan parlamentin mielestä tavan pitäisi olla tekijöille reilu. Se toivoi maaliskuussa, että komissio toimisi uutismedian aseman turvaamiseksi. Tekoäly-yhtiöiden pitäisi maksaa korvaus siitä, jos ne hyödyntävät uutissisältöjä laajasti ja varastavat kävijät uutissivustoilta.
Parlamentin kannanotto oli kuitenkin vain suositus, ei sitovaa sääntelyä. Sellaista etenkin tekijät tarvitsisivat selkänojakseen pian. Jos kustantajien on vaikea saada kohtuullisia korvauksia isoilta yhtiöitä, ovat media-alan työntekijät kahta hankalammassa tilanteessa.
Samaan aikaan päättäjiltä pitäisi löytyä rohkeutta puuttua siihen, miten tekoäly-yhtiöt toimivat. Ne pitäisi olla mahdollista velvoittaa kantamaan vastuu omien tuotteidensa antamista vastauksista. Jos ne eivät toimi näin, sillä pitäisi myös olla seurauksia. EU:n vuonna 2024 voimaan tullut tekoälyasetus on hyvä ensiaskel säätelylle.
Tekoälystä puhutaan liian usein kuin henkiolentona, jonka virheitä tai oikkuja ihmisten pitää vain koettaa korjata tai sietää. Se on kuitenkin alusta loppuun ihmisten tekemä ja ainakin toistaiseksi vielä täysin ihmisten hallinnassa.
Jos tekoäly-yhtiöt ovat luoneet vaarallisen työkalun, ei voi olla journalistien isänmaallinen velvollisuus korjata sitä, ainakaan ilman kohtuullista korvausta.

Uusimmassa lehdessä
- Ylen Kajaanin kutistunut toimitus seuraa koko Kainuuta. Seurasimme päivän, miten väki riittää deskiin, Oulujärven jäälle ja Suomussalmelle pitkän ajomatkan päähän.
- Ministeriö lupaa suitsia työttömyyskorvausten selvitysbyrokratiaa
- Milloin verkossa roihuava rasismi kelpaa juttuaiheeksi?
- Kulturtidskrifter slåss om krympande anslag – Astra har näsan över vattenytan