Potilas saapui paikalliseen päivystyspoliklinikkaan uskoen, että hänen naapurinsa myrkytti hänet. Vuorokauden kuluessa hänen tilansa paheni: hän kärsi vainoharhaisuudesta ja hallusinaatioista ja yritti paeta sairaalasta. Oman turvallisuutensa vuoksi hänet otettiin väkisin mielisairaalaan.

Kysyttäessä mies selitti, että hänellä oli useita ruokavaliorajoituksia ja että hän noudatti “erittäin tiukkaa” kasvisruokavaliota ja tislasi itse oman vetensä. Luettuaan tietoa natriumkloridin (ruokasuolan) mahdollisista haitallisista vaikutuksista hän kääntyi ChatGPT:n puoleen saadakseen neuvoja sen poistamiseksi ruokavaliostaan. Chatbotin kerrotaan kertoneen hänelle, että oli turvallista korvata suola natriumbromidilla, kemikaalilla, jota käytettiin rauhoittavana aineena 1900-luvun alkupuolella ja jota esiintyy edelleen joissakin ihmisille ja koirille tarkoitetuissa epilepsialääkkeissä, kertoo Naturalnews.

Hän luotti neuvoihin ja käytti natriumbromidia kolmen kuukauden ajan. Ajan myötä kemikaali kerääntyi hänen kehoonsa ja aiheutti bromismin, joka vaikuttaa hermojen toimintaan ja voi aiheuttaa neurologisia ja psykiatrisia oireita. Hänen bromidipitoisuutensa oli huikeat 1700 mg/l, kun normaaliarvo on 0,9-7,3 mg/l.

Oireita olivat sekavuus, muistin menetys, ahdistuneisuus, harhaluulot, ihottumat, akne, unettomuus, väsymys, lihasten koordinaatiohäiriöt ja liiallinen jano. Seattlessa sijaitsevan Washingtonin yliopiston lääkärit toistivat etsintänsä ja vahvistivat, että he olivat saaneet ChatGPT:ltä samat väärät neuvot, mikä korostaa tekoälyn tuottamien terveyssuositusten mahdollisia riskejä.

Aikaisemmin bromidia käytettiin laajalti rauhoittavissa lääkkeissä ja käsikauppalääkkeissä, mutta kun kroonisen altistumisen vaarat tulivat ilmeisiksi, sääntelyviranomaiset poistivat bromidin Yhdysvaltojen lääketarjonnasta 1900-luvun puolivälissä. Nykyään bromidi on harvinaista.

Miestä hoidettiin suurilla määrillä nesteitä ja elektrolyyttejä bromidin huuhtomiseksi pois hänen kehostaan. Kesti kolme viikkoa, ennen kuin hänen arvonsa normalisoituivat ja hän pääsi eroon psyykenlääkkeistä. Vasta sitten hän sai lähteä sairaalasta.

Tapaus korostaa laajempia huolenaiheita tekoälyn luotettavuudesta lääketieteellisissä yhteyksissä. Lääkärit totesivat, että ChatGPT:n kaltaiset tekoälytyökalut “voivat tuottaa tieteellisiä epätarkkuuksia, epäonnistua kriittisessä keskustelussa tuloksista ja viime kädessä edistää väärän tiedon leviämistä”. He korostivat, että on “erittäin epätodennäköistä”, että lääketieteen ammattilainen suosittelisi natriumbromidia suolan korvikkeeksi.

OpenAI on myöntänyt, että sen chatbotteja ei ole tarkoitettu diagnosoimaan tai hoitamaan lääketieteellisiä sairauksia, ja uudemmissa versioissa olisi parannetut valmiudet käsitellä terveyskysymyksiä ja “merkitä” epätarkkuudet. Potilas näytti kuitenkin käyttäneen ohjelmistosta vanhempaa versiota.

Lääkärit varoittavat, että tekoälyn yleistyessä terveydenhuollon tarjoajien tulisi kysyä potilailta, mistä he hakevat lääketieteellisiä neuvoja. Tämä tapaus on tuskallinen muistutus siitä, että vaikka tekoäly voi kuroa umpeen kuilua tieteellisen tiedon ja yleisön välillä, se voi myös levittää asiayhteydestään irrotettuja tai vaarallisia suosituksia. Käyttäjien tulisi aina tarkistaa terveystieto päteviltä ammattilaisilta ennen ruokavalion tai lääkityksen muuttamista.

Lähde

Avatar photo

By Konrad KurzeX

Päätoimittaja Pressi.net:issä, Publication-X.com:issa ja PubX.tv:ssä - mielipiteitä on, myös omia sellaisia. Jos lainaat tekstiä, laitathan lainatun tekstin yhteyteen paluulinkin!

Kommentoi