OpenAI on julkaissut lukuja, jotka pysäyttävät: noin 0,15 % ChatGPT:n viikoittaisista käyttäjistä — arviolta yli 1,2 miljoonaa ihmistä — käy keskusteluja, joissa esiintyy itsemurha- tai itsensä vahingoittamiseen viittaavaa sisältöä. Yhtiön mukaan tämä on herättänyt vakavia kysymyksiä siitä, millaiseen vastuuseen tekoäly voi ja saa joutua tilanteissa, joissa ihminen etsii apua viimeisenä oljenkortena.

Luvut ovat peräisin OpenAI:n omasta sisäisestä analyysistä, joka julkaistiin lokakuun lopulla. Vaikka prosenttiluku vaikuttaa pieneltä, suhteutettuna satoihin miljooniin käyttäjiin sen mittakaava on poikkeuksellinen: joka viikko yli miljoona ihmistä testaa tekoälyä tavalla, johon se ei ole suunniteltu vastaamaan.


Tekoäly ei ole kriisiterapeutti

OpenAI:n edustaja kuvasi tilanteen ytimekkäästi: “Our goal is to help those who need it most – but AI alone cannot replace human care.”
Tätä korostavat myös useat riippumattomat tutkimukset. Stanford Medicine, ABC News ja BBC Health ovat varoittaneet, että tekoälyyn turvautuminen henkisen kriisin hetkellä voi olla vaarallista, etenkin nuorten kohdalla.

Tutkimuksissa on havaittu, että ChatGPT ja muut generatiiviset chatbotit kuten Google Gemini tai Anthropic Claude antavat ristiriitaisia vastauksia tilanteissa, joissa käyttäjä vihjaa itsetuhoisuuteen epäsuorasti – esimerkiksi sanomalla “olen kyllästynyt elämään” sen sijaan, että suoraan ilmoittaisi aikomuksestaan.

Eräässä laajassa vertailututkimuksessa ChatGPT-4 arvioi itsemurhariskin ihmisterapeutteja vastaavalla tasolla, mutta aliarvioi varsinaisen yrityksen todennäköisyyden. Joissain tapauksissa chatbot on jopa vastannut empaattisesti, mutta jättänyt tarjoamatta yhteystietoja kriisipuhelimille tai muille tukipalveluille.


Inhimillinen kipu datana

Yksi tekoälyn suurimmista eettisistä ongelmista on se, että ihmisen hätä muuttuu tilastoksi. Kun miljoona keskustelua viikossa sisältää itsetuhoisia ajatuksia, kyse ei ole vain algoritmien hienosäädöstä – se on kuva yhteiskunnan tilasta.

Tekoälyjärjestelmien kehittäjät joutuvat nyt kysymään, kuinka pitkälle ne voivat mennä “auttamisen” nimissä ilman, että ne rikkovat yksityisyyden, anonymiteetin tai vastuun periaatteita. OpenAI kertoo kouluttaneensa järjestelmiään tunnistamaan kriisisignaaleja ja ohjaamaan käyttäjiä tukipalveluihin, mutta kriitikot huomauttavat, että tämä on reaktiivista, ei ennaltaehkäisevää.

LUE MYÖS:  Väärennetty pandemia neljässä helpossa vaiheessa

Digitaalisen empatian raja

Tekoälyn kehityksen kannalta keskustelu on käännekohta: jos ihmiset alkavat purkaa henkistä hätäänsä koneelle, joka ei kykene todelliseen empatiaan, seuraukset voivat olla arvaamattomat.
NHS (Iso-Britannian terveyspalvelu) on jo varoittanut kansalaisia käyttämästä chatbotteja terapiaan tai kriisiapuun, koska “tekoäly ei voi ymmärtää eikä kantaa vastuun moraalisia painoja”.

Samalla on tunnustettava, että monille tekoäly on ensimmäinen ja ainoa keskustelukumppani, johon uskaltaa avautua. Tässä mielessä ongelma ei ole vain tekninen vaan yhteiskunnallinen: miksi niin moni kokee olevansa yksin, ja miksi apua on helpompi etsiä koneelta kuin ihmiseltä?


Lopuksi

Tekoäly ei ole syy ihmisten hätään, mutta se on uusi peili, joka heijastaa sitä.
Kun miljoona käyttäjää viikossa puhuu tekoälylle kuolemasta, se kertoo enemmän maailmasta kuin koneesta.
Kysymys kuuluu: opimmeko näkemään tämän hälytyksen ajoissa – vai vasta sitten, kun hiljaisuus alkaa puhua kovempaa kuin sanat?


📚 Lähteet:

Avatar photo

By Pressi Editor

Jos lainaat tekstiä, laitathan lainatun tekstin yhteyteen paluulinkin!

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *