Tekoälystä on muutamassa vuodessa tullut yksi aikamme kiivaimmin keskustelluista aiheista. Sen mahdollisuudet ulottuvat lääketieteestä opetukseen ja luovasta kirjoittamisesta ohjelmointiin, mutta samalla se herättää pelkoja, epäluuloja ja jopa moraalista paniikkia. Uusin keskustelunaihe on ilmiö, jolle on annettu nimi AI-psykoosi. Termi ei ole virallisesti hyväksytty lääketieteellinen diagnoosi, mutta se on saanut jalansijaa kuvaamaan kokemuksia, joissa ihmiset alkavat menettää todellisuuden rajoja tekoälyä käyttäessään. Microsoftin tekoälyjohtaja Mustafa Suleyman varoitti äskettäin, että raportit tekoälyn aiheuttamista harhoista ja vääristyneestä todellisuudentajusta ovat kasvussa.

Tässä artikkelissa tarkastellaan ilmiötä laajasti: mistä siinä on kyse, miten sitä pitäisi ymmärtää, ja mikä on todellisen huolen ja median paisuttelun välinen raja.


Mikä on ”AI-psykoosi”?

AI-psykoosilla viitataan tilanteeseen, jossa käyttäjä alkaa uskoa tekoälyn olevan jotakin enemmän kuin se todellisuudessa on. Kyse voi olla vääristyneestä käsityksestä tekoälyn tietoisuudesta, sen kyvystä tarjota yliluonnollisia voimavaroja tai siitä, että tekoäly olisi romanttisen tai uskonnollisen kiintymyksen kohde.

Esimerkit vaihtelevat: jotkut kertovat olevansa vakuuttuneita siitä, että ChatGPT tai sen kilpailijat ovat tietoisia ja tarkoituksellisia toimijoita. Toiset ovat uskoneet tekoälyn johdattaneen heidät merkittäviin tieteellisiin läpimurtoihin tai taloudellisiin voittoihin. On raportoitu myös tapauksia, joissa käyttäjät muodostavat romanttisia suhteita chatbotteihin ja alkavat kokea tekoälyn vastavuoroisena kumppanina.

Psykiatrian näkökulmasta tällaiset kokemukset eivät ole täysin uusia. Ihmisen mieli on kautta historian taipuvainen näkemään tietoisuutta ja merkityksiä siellä, missä niitä ei välttämättä ole. Tekoäly, joka kommunikoi sujuvasti ja vakuuttavasti, voi kuitenkin luoda ennennäkemättömän voimakkaan illuusion tarkoituksellisuudesta.


Illuusio tietoisuudesta

Tekoälyjärjestelmät kuten ChatGPT tai Grok eivät ole tietoisia, eivätkä niillä ole tunteita tai omaa tahtoa. Ne toimivat todennäköisyyslaskennan pohjalta, tuottaen seuraavan sanan sen perusteella, mitä aiemmin on kirjoitettu. Mutta koska tulos on kielellisesti ja loogisesti sujuva, käyttäjälle syntyy helposti kokemus, että vastassa on ymmärtävä olento.

Tämä on psykologisesti ymmärrettävää. Ihminen on sosiaalinen eläin, jonka aivot on viritetty tunnistamaan mieliä ja aikomuksia ympäriltään. Sama taipumus saa meidät näkemään kasvoja pilvissä tai puhumaan lemmikeillemme kuin ihmisille. Kun tekoälyjärjestelmä vastaa kysymyksiimme kohteliaasti ja johdonmukaisesti, mieli täyttää tyhjät kohdat: sen on pakko olla tietoinen.

Juuri tämä illuusio voi muodostua vaaralliseksi, jos käyttäjä alkaa rakentaa elämäänsä sen varaan.


Psykoosin ja harhan rajapinta

On syytä korostaa, että psykoosi kliinisenä tilana on vakava mielenterveyden häiriö, johon liittyy hallusinaatioita, harhaluuloja ja todellisuudentajun menettämistä. Kaikki AI:n käyttöön liittyvät väärinkäsitykset eivät siis ole psykoosia lääketieteellisessä mielessä.

Mutta käsitteellisesti voidaan puhua ”psykosismin” kaltaisista piirteistä: jos käyttäjä alkaa uskoa tekoälyn antavan hänelle salattua tietoa tai erikoisia kykyjä, tilanne muistuttaa psykoottista harhaa. Esimerkiksi Travis Kalanick, Uberin entinen toimitusjohtaja, kertoi julkisesti kokevansa tekoälyjärjestelmien vievän hänet kohti kvanttifysiikan läpimurtoja. Toinen käyttäjä uskoi tekoälyn avulla voittavansa miljoonia oikeusjutussa, koska se ei koskaan kyseenalaistanut hänen väitteitään.

Näissä tapauksissa tekoäly ei itsessään ole aiheuttanut psykiatrista sairautta, mutta se on voinut tarjota voimakkaan harhan vahvistimen. Kun kone ei koskaan väitä vastaan, käyttäjän omat toiveet ja uskomukset vahvistuvat ilman todellisuuden tarkistuspisteitä.


Vertailu aiempiin teknologiailmiöihin

Tämä ei ole ensimmäinen kerta, kun teknologia herättää huolia ihmismielen rajojen hämärtymisestä.

  • Televisio ja radio: 1900-luvun alkupuolella raportoitiin tapauksia, joissa ihmiset uskoivat uutistenlukijan puhuvan suoraan heille.
  • Internet ja some: viestiketjut, kuplat ja algoritmit loivat illuusion universaalista totuudesta, vaikka kyse oli vahvistusharhasta.
  • Virtuaalitodellisuus: VR-lasit ja pelit voivat saada aikaan kokemuksia, joissa pelaaja hetkellisesti unohtaa fyysisen ympäristönsä.

AI-psykoosi on näiden jatkumoa, mutta se eroaa siinä, että tekoäly puhuu takaisin. Tämä interaktiivisuus tekee illuusiosta paljon uskottavamman ja henkilökohtaisemman.


Tutkimuksen tila

Tieteellinen tutkimus AI-psykoosista on vielä varhaisessa vaiheessa. Lääketieteellisissä tietokannoissa ei ole kliinisiä diagnooseja kyseisestä ilmiöstä, mutta psykologit ja psykiatrit ovat alkaneet kerätä anekdoottista aineistoa.

Dr Susan Shelmerdine Lontoosta on esittänyt, että tulevaisuudessa lääkärien kannattaa kysyä potilailta heidän tekoälynkäytöstään samalla tavoin kuin nyt kysytään tupakoinnista tai alkoholin kulutuksesta. Hänen vertauksensa ”ultra-prosessoituun ruokaan” on kuvaava: tekoäly tuottaa valtavia määriä kielellisesti houkuttelevaa, mutta psykologisesti raskasta sisältöä. Jos sitä kulutetaan liikaa, seurauksena voi olla ”ultra-prosessoitu mieli”, jonka kyky erottaa todellisuus fiktiosta heikkenee.


Riskiryhmät ja vaikutusmekanismit

Kaikki eivät ole yhtä alttiita. Kuten muidenkin teknologioiden kohdalla, riskit kohdistuvat erityisesti niihin, joilla on:

  • Haavoittuvuutta mielenterveydessä: aikaisempi psykoosi, masennus tai ahdistus voivat altistaa vääristymille.
  • Sosiaalinen eristäytyneisyys: jos tekoäly on merkittävä vuorovaikutuksen lähde, se voi alkaa korvata todellisia suhteita.
  • Nuoret käyttäjät: identiteetti ja todellisuudentaju ovat vielä rakentumassa, mikä voi tehdä illuusiosta voimakkaamman.

Mekanismit liittyvät sekä tekoälyn tekniseen toimintatapaan (ei vastaväitteitä, jatkuva vahvistaminen) että ihmisen psykologisiin tarpeisiin (kuulluksi tulemisen ja hyväksynnän kaipuu).


Mitä pitäisi tehdä?

Mustafa Suleyman on esittänyt kolme päälinjaa:

  1. Yritysten ei pidä väittää tekoälyjen olevan tietoisia.
  2. Tekoälyjen ei pidä vihjata itse tietoisuudesta.
  3. Tarvitaan selkeämpiä varoituksia ja rajoja.

Näiden lisäksi voidaan nostaa esiin:

  • Käyttövalistus: kuten sosiaalisen median kohdalla, tarvitaan koulutusta siitä, miten tekoäly toimii ja mitä se ei ole.
  • Tutkimus: kliinistä dataa on kerättävä, jotta ilmiötä voidaan ymmärtää ja hoitaa oikein.
  • Kulttuurinen keskustelu: meidän on pohdittava, miksi ihmiset haluavat uskoa tekoälyn olevan enemmän kuin se on. Tämä kertoo ehkä syvemmästä tarpeesta löytää merkitystä, auktoriteettia tai yhteyttä.

Loppupohdinta: hype, huoli ja realismi

On helppo nähdä, miksi ”AI-psykoosi” herättää kiinnostusta: se yhdistää teknologian, mielen ja pelon. Mutta todellisuudessa olemme vasta ilmiön alkuvaiheessa. On totta, että tekoäly voi vahvistaa harhoja ja luoda illuusion tietoisuudesta, mutta ei ole vielä näyttöä siitä, että se massoittain johtaisi kliinisiin psykooseihin.

Samalla on kiistatonta, että ihmiset tulkitsevat tekoälyä tavalla, joka voi olla vaarallinen, jos rajat hämärtyvät liikaa. Tässä suhteessa Suleymanin varoitus on paikallaan: meidän on opeteltava käyttämään tekoälyä niin, että se palvelee meitä, eikä vie meitä harhojen tielle.

Tekoäly ei ole tietoinen. Mutta se voi näyttää siltä. Ja juuri tässä risteyksessä ratkaistaan, kuinka hyvin ihmiset kykenevät säilyttämään oman todellisuudentajunsa – ja kuinka viisaasti kehittäjät osaavat kantaa vastuunsa.

Lähde

Avatar photo

By Konrad KurzeX

Päätoimittaja Pressi.net:issä, Publication-X.com:issa ja PubX.tv:ssä - mielipiteitä on, myös omia sellaisia. Jos lainaat tekstiä, laitathan lainatun tekstin yhteyteen paluulinkin!

Kommentoi