OpenAI on julkaissut lukuja, jotka pysäyttävät: noin 0,15 % ChatGPT:n viikoittaisista käyttäjistä — arviolta yli 1,2 miljoonaa ihmistä — käy keskusteluja, joissa esiintyy itsemurha- tai itsensä vahingoittamiseen viittaavaa sisältöä. Yhtiön mukaan tämä on herättänyt vakavia kysymyksiä siitä, millaiseen vastuuseen tekoäly voi ja saa joutua tilanteissa, joissa ihminen etsii apua viimeisenä oljenkortena.
Luvut ovat peräisin OpenAI:n omasta sisäisestä analyysistä, joka julkaistiin lokakuun lopulla. Vaikka prosenttiluku vaikuttaa pieneltä, suhteutettuna satoihin miljooniin käyttäjiin sen mittakaava on poikkeuksellinen: joka viikko yli miljoona ihmistä testaa tekoälyä tavalla, johon se ei ole suunniteltu vastaamaan.
Tekoäly ei ole kriisiterapeutti
OpenAI:n edustaja kuvasi tilanteen ytimekkäästi: “Our goal is to help those who need it most – but AI alone cannot replace human care.”
Tätä korostavat myös useat riippumattomat tutkimukset. Stanford Medicine, ABC News ja BBC Health ovat varoittaneet, että tekoälyyn turvautuminen henkisen kriisin hetkellä voi olla vaarallista, etenkin nuorten kohdalla.
Tutkimuksissa on havaittu, että ChatGPT ja muut generatiiviset chatbotit kuten Google Gemini tai Anthropic Claude antavat ristiriitaisia vastauksia tilanteissa, joissa käyttäjä vihjaa itsetuhoisuuteen epäsuorasti – esimerkiksi sanomalla “olen kyllästynyt elämään” sen sijaan, että suoraan ilmoittaisi aikomuksestaan.
Eräässä laajassa vertailututkimuksessa ChatGPT-4 arvioi itsemurhariskin ihmisterapeutteja vastaavalla tasolla, mutta aliarvioi varsinaisen yrityksen todennäköisyyden. Joissain tapauksissa chatbot on jopa vastannut empaattisesti, mutta jättänyt tarjoamatta yhteystietoja kriisipuhelimille tai muille tukipalveluille.
Inhimillinen kipu datana
Yksi tekoälyn suurimmista eettisistä ongelmista on se, että ihmisen hätä muuttuu tilastoksi. Kun miljoona keskustelua viikossa sisältää itsetuhoisia ajatuksia, kyse ei ole vain algoritmien hienosäädöstä – se on kuva yhteiskunnan tilasta.
Tekoälyjärjestelmien kehittäjät joutuvat nyt kysymään, kuinka pitkälle ne voivat mennä “auttamisen” nimissä ilman, että ne rikkovat yksityisyyden, anonymiteetin tai vastuun periaatteita. OpenAI kertoo kouluttaneensa järjestelmiään tunnistamaan kriisisignaaleja ja ohjaamaan käyttäjiä tukipalveluihin, mutta kriitikot huomauttavat, että tämä on reaktiivista, ei ennaltaehkäisevää.
Digitaalisen empatian raja
Tekoälyn kehityksen kannalta keskustelu on käännekohta: jos ihmiset alkavat purkaa henkistä hätäänsä koneelle, joka ei kykene todelliseen empatiaan, seuraukset voivat olla arvaamattomat.
NHS (Iso-Britannian terveyspalvelu) on jo varoittanut kansalaisia käyttämästä chatbotteja terapiaan tai kriisiapuun, koska “tekoäly ei voi ymmärtää eikä kantaa vastuun moraalisia painoja”.
Samalla on tunnustettava, että monille tekoäly on ensimmäinen ja ainoa keskustelukumppani, johon uskaltaa avautua. Tässä mielessä ongelma ei ole vain tekninen vaan yhteiskunnallinen: miksi niin moni kokee olevansa yksin, ja miksi apua on helpompi etsiä koneelta kuin ihmiseltä?
Lopuksi
Tekoäly ei ole syy ihmisten hätään, mutta se on uusi peili, joka heijastaa sitä.
Kun miljoona käyttäjää viikossa puhuu tekoälylle kuolemasta, se kertoo enemmän maailmasta kuin koneesta.
Kysymys kuuluu: opimmeko näkemään tämän hälytyksen ajoissa – vai vasta sitten, kun hiljaisuus alkaa puhua kovempaa kuin sanat?
📚 Lähteet:
- The Guardian – More than a million people every week show suicidal intent when using ChatGPT
- AP News – Family sues over ChatGPT role in boy’s death
- News Sky – Over 1.2 million people a week talk to ChatGPT about suicide
- Wired – ChatGPT, Psychosis and Self-Harm
- Stanford Medicine – AI companions and young people: a dangerous mix
- ABC News – Study: AI chatbots inconsistent in handling suicide-related queries
