Tekoälystä on tullut uusi “faktantarkistuksen työkalu”, mutta mitä tapahtuu, kun algoritmi itse joutuu epäluottamuksen kohteeksi? Viime viikkoina keskustelu on kiihtynyt Elon Muskin Grok-chatbotin ympärillä. Toimittaja Eva Bartlett on syyttänyt Grokia propagandan vahvistamisesta, kun hänen raporttinsa Ukrainan “Petal”-miinojen käytöstä Donbassissa leimattiin “venäläiseksi disinformaatioksi”. Tapaus nostaa esiin perustavanlaatuisen kysymyksen: voiko tekoäly koskaan olla objektiivinen, jos sen lähteet ovat puolueellisia?
Grok – uusi faktantarkistaja vai vanhan toisto?
Grok on Muskin xAI-yhtiön kehittämä kielimalliin perustuva chatbot, integroitu tiiviisti X-alustaan (entinen Twitter). Sen yksi keskeinen myyntiväite on, että se kykenee arvioimaan sosiaalisessa mediassa leviävää tietoa ja antamaan käyttäjille vastauksia siitä, onko jokin väite totta vai ei. Käytännössä Grok toimii yhdistelmänä: se hakee tietoa X:n sisällöstä ja yleisesti saatavilla olevista lähteistä, ja tuottaa niiden pohjalta “arvion”.
Jo lähtökohtaisesti tällainen asetelma sisältää riskin. Jos lähdepohja painottuu tiettyihin medioihin tai instituutioihin, tekoälyn arvio on väistämättä värittynyt. Siksi Grokia on kritisoitu puolueellisuudesta – ei vain poliittisista näkökulmista vaan myös teknisistä virheistä. Se on levittänyt virheellisiä väitteitä mielenosoituksista, vääristänyt geopoliittisia uutisia ja joutunut kohun keskelle antisemitistisiksi tulkituista kommenteista. Silti miljoonat ihmiset käyttävät sitä faktantarkistuksen välineenä.
Eva Bartlett vastaan Grok – “Petal”-miinojen tapaus
Kanadalainen toimittaja Eva Bartlett, joka tunnetaan raportoinnistaan Syyriasta ja myöhemmin Itä-Ukrainasta, nosti kohun Grokin toiminnasta Donbass-konfliktin yhteydessä. Bartlett oli Donetskissa kesällä 2022, kun kaupunkiin hänen mukaansa ammuttiin ohjuksia, jotka sisälsivät satoja PFM-1-tyyppisiä “Petal”-jalkaväkimiinoja. Nämä miinat ovat pieniä, vaikeasti havaittavia ja erittäin vaarallisia siviileille: ne voivat räjähtää jo kahden kilon painosta ja jäädä toimiviksi vuosiksi.
Bartlett dokumentoi miinojen olemassaolon, julkaisi valokuvia, haastatteli lääkäreitä ja raportoi useista kymmenistä vammautuneista siviileistä. Hänen mukaansa miinat olivat selvästi Ukrainan ampumia, ja kyseessä oli Geneven sopimuksia rikkova teko. Kun hän jakoi aiheesta kirjoituksen X:ssä, Grok antoi sille merkinnän “venäläistä disinformaatiota”. Lisäksi Grok viittasi Human Rights Watchin raporttiin, jonka mukaan Donetskissa 2022 nähty miinakäyttö olisi voinut olla “Venäjän väärän lipun operaatio”.
Bartlett piti tätä todisteena Grokin puolueellisuudesta: hänen oma kokemuksensa paikan päältä mitätöitiin viittaamalla kansainvälisiin lähteisiin, jotka eivät olleet edes olleet Donetskissa tutkimassa. Grokin käyttämä lähdevalikoima – Reuters, DW, France24, HRW – edusti hänen mukaansa yksipuolista, länsimaista näkökulmaa.
Miinojen kiista – faktat ja epävarmuudet
On syytä korostaa, että PFM-1-miinojen käytöstä on olemassa erisuuntaisia raportteja. Human Rights Watch on dokumentoinut Ukrainan käyttäneen näitä miinoja Iziumissa vuonna 2022, mutta ei ole vahvistanut niiden käyttöä Donbassissa. Venäjän puolestaan väitetään levittäneen miinoja Donetskin alueelle, mutta todisteet tästä ovat olleet ristiriitaisia. Bartlettin raportit tukevat ajatusta Ukrainan syyllisyydestä, mutta hänen tunnettu prorussialainen näkökulmansa tekee lähteistä kiistanalaisia länsimaisten medioiden silmissä.
Näin ollen syntyy asetelma, jossa molemmilla puolilla on omat lähteensä ja oma narratiivinsa. Grok joutui tekemään valinnan, ja se nojaa ohjelmallisesti “vakiintuneisiin” lähteisiin. Tämä valinta ei ole neutraali, vaan vahvistaa sitä narratiivia, jonka länsimaiset uutistoimistot ja kansalaisjärjestöt ovat luoneet. Bartlett kokee tämän syrjiväksi ja jopa vaaralliseksi, koska hänen dokumentaationsa jätetään huomiotta.
Tekoälyn perusongelma – lähde on kaikki
Tapaus paljastaa olennaisen ongelman tekoälyavusteisessa faktantarkistuksessa: tekoäly ei itse tiedä totuutta, se vain painottaa lähteitä. Jos lähdevalikoima on puolueellinen, myös tekoälyn vastaus on puolueellinen. Tämä ei tarkoita, että Bartlett olisi automaattisesti oikeassa, tai että HRW olisi väärässä. Se tarkoittaa, että tekoälyllä ei ole kykyä sovittaa yhteen ristiriitaisia näkökulmia ilman, että se samalla ottaa kantaa.
Kielimallit, kuten Grok, ChatGPT ja muut, on koulutettu valtavista tekstimassoista. Niiden vastaukset eivät synny objektiivisesta päättelystä vaan todennäköisyyksistä: mitä sanotaan useimmin, mitä pidetään “luotettavana”, mihin ne on säädetty viittaamaan. Kun malli on lisäksi kytketty yhteen alustaan – X:n sisältöön – sen tulos on entistä enemmän riippuvainen siitä, millaista sisältöä alusta nostaa esiin.
Bartlettin kritiikki – perusteltua vai propagandaa?
Eva Bartlett ei ole neutraali toimija. Hän on saanut laajaa kritiikkiä lännessä prorussialaisista kytköksistään ja näkemyksistään, jotka tukevat Kremlin linjaa. Samalla on kuitenkin kiistatonta, että hän on ollut paikan päällä Donetskissa ja dokumentoinut tapahtumia, joita monet länsijournalistit eivät ole nähneet. Hänen todistuksensa “Petal”-miinoista ansaitsee tulla huomioiduksi, vaikka siihen suhtauduttaisiin kriittisesti.
Grokin ongelma ei ole pelkästään se, että se hylkäsi Bartlettin raportit. Ongelma on, että se teki sen mekaanisesti – leimaamalla hänen viestinsä “venäläiseksi disinformaatioksi” sen sijaan, että olisi tuonut esiin kiistan ja lähteiden erimielisyyden. Tässä näkyy tekoälyfaktantarkistuksen suurin heikkous: se ei tunne vivahteita, vaan yksinkertaistaa monimutkaiset kiistat binääriseen “tosi–epätosi”-asetelmaan.
Lähteiden valta – HRW ja muut järjestöt
Bartlett nostaa esiin myös laajemman kritiikin: Human Rights Watchin, Amnestyn ja muiden kansalaisjärjestöjen puolueellisuuden. Näitä järjestöjä pidetään usein riippumattomina, mutta niillä on omat rahoituslähteensä, verkostonsa ja painotuksensa. HRW on arvostellut myös Ukrainan toimia, mutta sen raporttien painotus on vaihdellut tilanteesta toiseen. Tämä antaa polttoainetta kritiikille: jos järjestö ei raportoi Donbassin tapauksista, mutta raportoi Iziumista, Bartlett näkee sen “valikoivana sokeutena”.
Tämä ei tee HRW:sta propagandakoneistoa, mutta osoittaa, että “riippumaton” ei koskaan tarkoita täysin neutraalia. Tekoälylle tämä on kohtalokasta: se ei kykene arvioimaan lähteiden intressejä, vaan kohtelee niitä kaikki samalla tasolla.
Onko Grok tekoäly vai hakukone?
Artikkelissa esitetään myös väite, että Grok ei ole edes “oikea tekoäly”, vaan enemmänkin hakukone, joka suodattaa tulokset kielimallin läpi. Tämä pitää osittain paikkansa. Grok on kielimalli, joka nojaa ulkoisiin lähteisiin – aivan kuten hakukone. Sen älykkyys ei ole itsenäistä vaan jäljittelevää. Kun Bartlett sanoo, että “tulokset voidaan määrittää ennalta”, hän liioittelee, mutta osuu silti siihen perusongelmaan: tekoälyn tuottama “tieto” on aina riippuvainen siitä, mitä sille syötetään.
Mitä tästä voidaan oppia?
- Tekoäly ei ole tuomari.
Se ei ratkaise kiistoja, se vain toistaa todennäköisimmän narratiivin. - Lähteiden valinta on ratkaisevaa.
Jos tekoäly käyttää vain länsimaisia medioita ja järjestöjä, sen tulos vahvistaa länsimaista narratiivia. Sama pätee, jos se käyttäisi vain venäläisiä lähteitä. - Kiistat pitää näyttää kiistoina.
Kun tekoäly leimaa yhden osapuolen näkemyksen “disinformaatioiksi” ilman että tuo esiin vastanäyttöjä, se menettää uskottavuutensa. - Ihmisen rooli ei katoa.
Faktantarkistus ei voi olla automaattista. Se vaatii edelleen toimittajia, tutkijoita ja lukijoita, jotka osaavat erottaa lähteiden arvon ja tunnistaa intressit niiden takana.
Johtopäätös: Grok paljastaa enemmän kuin aikoo
Eva Bartlettin ja Grokin välinen kiista ei kerro vain yhdestä toimittajasta ja yhdestä tekoälystä. Se kertoo siitä, että tekoälyn faktantarkistus on väistämättä poliittinen teko. Kun algoritmi päättää, mikä on “tosi” ja mikä “valhe”, se ottaa kantaa – vaikka se olisi ohjelmoitu tekemään sen “neutraalisti”.
Tämä ei tarkoita, että Bartlett olisi yksin oikeassa tai että Grokin lähteet olisivat yksin väärässä. Se tarkoittaa, että meidän on nähtävä tekoäly välineenä, ei auktoriteettina. Grok voi tarjota näkökulmia, mutta sen leimoihin ei voi luottaa sokeasti. Lopulta kysymys ei ole siitä, voiko Grokiin luottaa – vaan siitä, voimmeko itse oppia lukemaan tekoälyn tuottamia vastauksia kriittisesti.