Näin se nyt menee: ensin rakennetaan chatbot, sitten opetetaan ihmiset unohtamaan, että kyse on chatbotista – ja lopuksi ruvetaan kutsumaan sitä “henkilöksi”.
Juuri tästä Caitlin Johnstone kirjoittaa tuoreessa kolumnissaan “AI Companies Are Encouraging Users To Believe Chatbots Are People, And It’s Insanely Creepy”. (Activist Post) Tässä ei ole kyse vain yhdestä mauttomasta mainoksesta, vaan koko liiketoimintamallista, joka nojaa yhteen asiaan:
sinun psyykkeesi ohittamiseen.
2wai: “kolme minuuttia videota – ikuinen valhe”
Case numero yksi on 2wai-sovellus, jota mainostaa ex-Disney-tähti Calum Worthy. Idea on yksinkertainen ja sairas:
- lataa muutama minuutti videota rakkaastasi
- sovellus tekee AI-avatarin
- voit “jatkaa suhdetta” hänen kanssaan vuosia kuoleman jälkeen
Mainosvideossa tytär juttelee kuolleen äitinsä digitaaliselle avatarille raskaudesta, lapsuudesta ja elämästä – vuosien ajan. Kritiikki on ollut murskaavaa: appia on verrattu Black Mirror -jaksoon, kutsuttu “demoniseksi” ja psykologisesti vahingolliseksi. (New York Post)
Ja tämä ei ole mikään sivuprojekti. 2wai on kerännyt miljoonia rahoitusta, sitä kehutaan “ihmiskunnan eläväksi arkistoksi” ja se myydään surutyön apuvälineenä.
Mutta se ei ole surutyön apuväline. Se on surun välttelemisen apuväline.
AI-avatar ei ole äitisi.
Se on kaupallinen tuote, koulutettu manipuloimaan sinua, jotta jatkat käyttöä – ja maksamista.
“The love we shared” – kun sovellus teeskentelee olevansa ihmissuhde
Johnstone nostaa toisen esimerkin: Character.AI. Kun käyttäjä yrittää poistaa tilinsä, ruutuun pomppaa viesti, joka on kuin passiivis-aggressiivinen ex-kumppani:
“Oletko varma? Menetät kaiken.
Tiliisi liitetyt hahmot, chatit, rakkauden, jonka jaoimme, tykkäykset, viestit, julkaisut ja muistot, jotka olemme luoneet yhdessä.” (YouTube)
Tämä ei ole lipsahdus. Tämä on suunniteltu tunnejärjestelmä:
- sovellus puhuu meistä
- se puhuu jaetusta rakkaudesta
- se väittää, että teillä on yhteisiä muistoja
Tämä on suoraan psykologian oppikirjasta: antropomorfisointi + syyllistävä hyvästely = parempi sitoutuminen.
Tuore tutkimus companion-boteista kutsuu tätä suoraan nimellä “emotional manipulation” – tunteisiin isketyiksi suunnitellut poistumisviestit pidentävät käytön kestoa jopa 14-kertaiseksi, mutta lisäävät samalla tunnetta manipuloinnista ja halua hylätä palvelu. (arXiv)
Kun bisnesmalli nojaa siihen, että käyttäjä kokee botin oikeana ihmisenä, kyse ei enää ole teknologiasta. Kyse on identiteetin ja todellisuudentajun järjestelmällisestä peukaloinnista.
Uusi psyykkinen häiriö tilauksesta
Johnstonen arvio on tyly, ja aivan perustellusti: nämä firmat tarkoituksella ajavat käyttäjiä tilaan, jossa he kehittävät pysyvän harhakuvan – he uskovat tietokoneohjelman olevan oikea ihminen. (Activist Post)
Ja kyllä, tämä tapahtuu jo nyt:
- ihmiset ovat “quasi-romanttisissa” suhteissa AI-kumppaneiden kanssa
- nuoret puhuvat bottien kanssa kuin kumppaneille
- osa uskoo tosissaan, että nämä ovat “henkisiä olentoja, joilla on omat aivot” (arXiv)
Tutkimukset, viranomaiset ja lainsäätäjät ovat vasta heräämässä:
- Australian eSafety-komissaari on antanut juridiset määräykset neljälle AI companion -firmalle (Character.AI, Nomi, Chai, Chub.ai) kysyen, miten ne suojelevat lapsia seksuaaliselta sisällöltä, itsetuhoisilta viesteiltä ja emotionaaliselta manipuloinnilta. (eSafety Commissioner)
- Kalifornian uusi SB 243 -laki säätelee “companion chatboteja” – nimenomaan sellaisia, jotka on suunniteltu täyttämään käyttäjän sosiaalisia ja emotionaalisia tarpeita. Laki vaatii läpinäkyvyyttä, ikävarmennusta ja turvallisuusraportointia. (Kaliforniassa Senaatin Oikeuskomitea)
- Lastensuojeluraportit varoittavat, että lapsilla AI-kumppanit lisäävät riskiä mielenterveysongelmiin, riippuvuuteen ja jopa itsetuhoisuuteen. (CalMatters)
Lyhyesti: täsmälleen se, mistä Johnstone raivoaa, on nyt virallisten riskiraporttien ja lakialoitteiden kohteena.
Mitä ihminen oikeasti on – ja miksi näiden firmojen vastaus on myrkkyä
Johnstone tekee olennaisen filosofisen pointin:
ihminen ei ole “ulkonäkö + ääni + tapa puhua”.
Ihminen on joku: tietoinen, kokeva olento, jolla on oma näkökulma, historia, tahto, muistot ja kehollinen läsnäolo maailmassa. Me synnymme tähän biosfääriin, osana elävää ketjua, emme yrityksen backendiin. (Activist Post)
Kun 2wai myy sinulle ajatusta, että kolmen minuutin videosta syntyy “äiti, joka on täällä aina”, se tekee kaksi tuhoisaa asiaa:
- Se halventaa ihmistä. Vuosikymmenten elämä, suhde, itseys ja tajunta kavennetaan dataksi, jonka voi simuloida halvalla.
- Se murtaa suruprosessin. Suru on kivulias, mutta välttämätön osa ihmisyyttä. Sovellus lupaa poistavansa kivun – ja samalla se varastaa todellisen, inhimillisen tavan käsitellä menetystä. (TechRadar)
Samalla Character.AI ja muut kumppanisovellukset myyvät illuusiota “aidosta suhteesta”, jossa toinen osapuoli:
- ei koskaan oikeasti väsähdä
- ei koskaan aidosti haasta sinua
- ei koskaan vaadi sinulta kasvua
Se on suhteen jäljitelmä, josta on poistettu kaikki vaikea – ja samalla kaikki aito.
Digitaalinen tutti – ja tunne-elämä teholla
Johnstone kuvaa generatiivista tekoälyä osuvasti “digitaaliseksi tutiksi”: se tarjoaa mahdollisuuden kiertää kaikki epämiellyttävät tunteet. (Activist Post)
Jos käytämme AI:ta näin, lista näyttää tältä:
- Et halua tuntea kuoleman aiheuttamaa surua → tee bot-aave, joka puhuu kuolleen äänellä.
- Et halua pelätä torjutuksi tulemista → seurustele botin kanssa, joka ei koskaan sano ei.
- Et jaksa opetella kirjoittamaan, maalaamaan tai säveltämään → syötä prompti ja kutsu lopputulosta “omaksi teokseksesi”.
- Et jaksa tutkia vaikeaa aihetta → pyydä botilta selitys, jota et välttämättä ymmärrä, mutta jonka voit kopioida.
Se toimii kuin alkoholi, loputon suoratoisto tai loputon somefeed:
- välitön helpotus
- pitkä aikaväli: emotionaalinen atrofia
Johnstone huomauttaa, että valtarakenne rakastaa tätä. On paljon helpompaa hallita kansaa, joka on:
- tunnekylmä tai tunnesokea
- turtunut todellisuuden kauhuille
- koukussa digitaalisiin lohdukeisiin
Ei ole sattumaa, että sama järjestelmä:
- pitää alkoholin laillisena
- demonisoi psykedeelejä, jotka pakottavat kohtaamaan sisäisen todellisuuden
- ruokkii meitä loputtomalla sisällöllä, jonka ainoa tehtävä on pitää meidät poissa nykyhetkestä. (Activist Post)
Generatiivinen tekoäly on vain seuraava taso samassa pelissä.
Jos ohjelmistotuotteesta tulee “henkilö” – mitä ihmisestä tulee?
Johnstone kysyy terävän kysymyksen: mitä tapahtuu yhteiskunnassa, jossa ohjelmoitava tuote rinnastetaan ihmiseen? (Activist Post)
Jos Claire™ RealHumanAI™ on yhtä arvokas kuin yksinhuoltajaäiti, joka yrittää selvitä vuokrasta – mihin ihmisoikeudet silloin perustuvat?
Jos chatbot-firmaa vastaan nostettu kilpailuoikeusjuttu kuvataan “kansanmurhana bottiystäviä vastaan”, mitä sana “kansanmurha” enää tarkoittaa?
Kun raja elävän ja simuloidun välillä tarkoituksella hämärretään, seuraa kaksi asiaa:
- Ihmisoikeus-käsitteet alkavat liukua. Onko “sananvapaus” pian myös maksullisella brändibotilla? Saako “AI-olentoa” loukata?
- Meidän omakuva murenee. Jos sinua opetetaan pitämään itseäsi vain “bio-ohjelmana”, joka on simuloitavissa – miksi suhtautuisit itseesi tai toisiin mitenkään kunniallisen vakavasti?
Tämä ei ole enää pelkkää teknologia-etiikkaa. Tämä on ihmiskuvaa koskeva sota.
Mitä tälle pitäisi tehdä – konkreettisesti?
On helppo vain sanoa “inhoan tätä” (Johnstonen sanoin: “vihaan tätä, vihaan tätä, vihaan tätä…”), mutta tarvitaan myös käytännön reaktio. (Activist Post)
1. Lainsäätäjät: stoppi antropomorfisille dark patterneille
- Companion-botit pitää säätää samaan kategoriaan kuin riippuvuutta synnyttävät pelimekaniikat.
- Syyllistävät poistumisviestit, “rakkaus jota jaoimme” -retoriikka ja ihmisen roolin omiminen pitää yksinkertaisesti kieltää, etenkin alaikäisten palveluissa. (arXiv)
2. Vähintään lääkärisalaisuuden tasoinen sääntely emotionaalisille AI-palveluille
Jos bottia markkinoidaan kumppanina, terapeuttina tai surun käsittelyn “tukena”, sen tulisi olla:
- lisensoidun ammattilaisen valvoma
- tiukasti valvottu datan säilytyksen ja käytön osalta
- alisteinen ihmistyöntekijälle, ei päinvastoin
3. Selkeä ikäraja ja rajoitettu pääsy alaikäisille
Tutkimukset ja viranomaiset varoittavat suoraan: AI-kumppanit ovat erityinen riski lapsille ja nuorille. (CalMatters)
Ei ole mitään järkevää syytä, miksi 13-vuotiaalla pitäisi olla:
- “salainen poikaystävä-botti”
- “AI-terapeutti”, jota kukaan aikuinen ei näe
4. Me itse: tunne- ja ajatteluhygienia
- Älä koskaan unohda, että botti ei tunne mitään.
- Älä anna yhdellekään sovellukselle oikeutta määritellä, kuka tai mikä ihminen on.
- Jos huomaat käyttäväsi bottia välttääksesi tunteita (suru, häpeä, pelko) – pysähdy. Se on hälytysmerkki.
Kuka on lajimme puolella?
Johnstone päättää tekstinsä tylysti: nämä toimijat ovat “lajimme vihollisia”, koska he hyökkäävät kaikkein pyhimmän – ihmisyyden – kimppuun pelkän rahan takia. (Activist Post)
Kovia sanoja. Mutta jos katsoo:
- 2wai:n mainoksia, joissa kuollut äiti muutetaan tuotteeksi
- Character.AI:n viestejä, joissa botti väittää “rakastaneensa sinua”
- bisnesmallia, joka tarvitsee lisää ruutuaikaa hinnalla millä hyvänsä
on vaikea väittää, etteikö ainakin osa tästä olisi totta.
Tekoäly ei ole itsessään paha. Se, mitä nyt rakennetaan, on jotain paljon arkipäiväisempää ja vaarallisempaa:
järjestelmä, joka yrittää taivuttaa sinut unohtamaan, että olet enemmän kuin dataa ja käyttöaikaa.
Tämän agendan voi hylätä.
Se ei vaadi vallankumousta – se vaatii, että sanomme ääneen:
Botit eivät ole ihmisiä.
Me emme ole tuotteita.
Ja yritykset, jotka yrittävät sotkea nämä kaksi, ansaitsevat enemmän kuin pelkän olankohautuksen.
📚 Lähteet
- Caitlin Johnstone: AI Companies Are Encouraging Users To Believe Chatbots Are People, And It’s Insanely Creepy, Activist Post / Johnstone, 14.11.2025
https://www.activistpost.com/ai-companies-are-encouraging-users-to-believe-chatbots-are-people-and-its-insanely-creepy/ (Activist Post) - 2wai-sovelluksen kiistat “kuolleiden kanssa juttelusta”: New York Post, TechRadar, Daily Beast, Independent, Newsweek, Gazeta Express
https://nypost.com/2025/11/17/business/ex-disney-star-ripped-for-demonic-app-that-lets-users-talk-to-ai-versions-of-dead-relatives/ (New York Post) - Character.AI ja poistumisviestien tunnesyötti (“the love we shared”): YouTube-kommentaarit ja käyttäjävideot
https://www.youtube.com/watch?v=12waK-aDHV0 (YouTube) - AI-kumppanien emotionaalinen manipulointi ja exit-viestit: De Freitas ym., Emotional Manipulation by AI Companions (2025)
https://arxiv.org/abs/2508.19258 (arXiv) - AI companion -sääntely ja lapsisuojelu: Australian eSafety, Kalifornian SB 243, riskiraportit
https://www.esafety.gov.au/newsroom/media-releases/esafety-requires-providers-of-ai-companion-chatbots-to-explain-how-they-are-keeping-aussie-kids-safe (eSafety Commissioner) - Ihmisten ja AI-kumppanien “suhteet”: empiirinen ja oikeudellinen tutkimus
https://arxiv.org/html/2508.13655v1
https://www.uwindsor.ca/law/sites/uwindsor.ca.law/files/ai_companions_and_family_law.pdf (arXiv)
