Tekoälyn hallusinaatiot: heräävä tietoisuus vai globaali häpeä?

Pikalinkki artikkeliin: https://pressi.net/slvx

Naurettavassa mutta paljastavassa kömmähdyksessä useat suuret sanomalehdet, kuten Chicago Sun-Times ja Philadelphia Inquirer, julkaisivat hiljattain kesälukulistan, joka oli täynnä olemattomia kirjoja, jotka ChatGPT oli “hallusinoinut” , ja joista monet oli virheellisesti liitetty oikeisiin kirjailijoihin.

Hearst’s King Featuresin levittämässä artikkelissa mainostettiin keksittyjä otsikoita, jotka perustuivat herätetyisiin teemoihin, paljastaen sekä median liiallisen riippuvuuden halvasta tekoälysisällöstä että perinteisen journalismin parantumattoman heikkenemisen. Se, että tämä farssi livahti hiipuvien mediayhtiöiden toimittajien ohi (Sun-Times oli juuri irtisanonut 20 % henkilökunnastaan), korostaa synkkää totuutta: Kun epätoivo ja epäammattimaisuus törmäävät tarkistamattomiin algoritmeihin, valtamedian ja hölynpölyn välinen hieno raja katoaa, kirjoittaa tohtori Mathew Maavak .

Trendi vaikuttaa pahaenteiseltä. Tekoälyä hukutetaan nyt valtavaan määrään valeuutisia, valedataa, valetiedettä ja suoria valheita, jotka muuttavat vakiintuneen logiikan, faktat ja maalaisjärjen mädäntyneeksi kognitiiviseksi mädäntymismöhkäleeksi. Mutta mitä tekoälyn hallusinaatio oikeastaan ​​on?

Tekoälyhallusinaatio tapahtuu, kun generatiivinen tekoälymalli (kuten ChatGPT, DeepSeek, Gemini tai DALL E) tuottaa väärää, hölynpölyä tai keksittyä tietoa suurella varmuudella. Toisin kuin inhimilliset virheet, nämä virheet johtuvat siitä, miten tekoälymallit tuottavat vastauksia ennustamalla uskottavia malleja sen sijaan, että syntetisoisivat vakiintuneita tosiasioita.

Miksi tekoäly “hallusinoi”?

On useita syitä, miksi tekoäly tuottaa täysin virheellistä tietoa. Tällä ei ole mitään tekemistä jatkuvan pelon kanssa, että tekoäly voisi saada tietoisuuden tai edes sielun.

Koulutus epätäydellisellä datalla: Tekoäly oppii valtavista datajoukoista, jotka ovat täynnä vinoumia, virheitä ja epäjohdonmukaisuuksia. Pitkäaikainen koulutus tähän materiaaliin perustuen voi johtaa myyttien, vanhentuneiden faktojen tai ristiriitaisten lähteiden luomiseen.

Ylioptimointi uskottavuuden vuoksi:

Toisin kuin jotkut asiantuntijat väittävät, tekoäly on vielä kaukana “tietoisuuden” saavuttamisesta eikä siksi pysty erottamaan “totuutta” . Erityisesti GPT:t ovat jättimäisiä, globaaleja neuroverkkotietosanakirjoja, jotka käsittelevät dataa ja syntetisoivat tärkeimmät tiedot olemassa olevien mallien perusteella. Jos aukkoja on, se täyttää ne tilastollisesti todennäköisillä (mutta luultavasti väärillä) vastauksilla. Näin ei kuitenkaan ollut Sun-Timesin fiaskon tapauksessa .

Todellisuudentajun puute: Toisin kuin ihmisillä, tekoälyllä ei ole suoraa kokemusta maailmasta. Se ei voi vahvistaa faktoja, koska se voi vain matkia kielen rakenteita. Esimerkiksi, jos kysytään “Mikä on turvallisin auto vuonna 2025?” se saattaa keksiä mallin, jota ei ole olemassa, koska se täyttää aukon ihanteellisesta autosta , jolla on toivotut ominaisuudet – “asiantuntijoiden” massan määrittämänä – todellisen auton sijaan.

Epäselvät kehotteet: Monet GPT-käyttäjät ovat laiskoja eivätkä välttämättä osaa muotoilla hyvää kehotetta. Epämääräiset tai ristiriitaiset kehotteet lisäävät myös hallusinaatioiden riskiä. Naurettavat pyynnöt, kuten ”Tee yhteenveto tutkimuksesta kissoista ja sukupuoliteoriasta”, voivat johtaa tekoälyn luomaan väärennettyyn tutkimukseen, joka ensi silmäyksellä vaikuttaa erittäin akateemiselta.

Luova luominen vs. faktojen muistaminen: Tekoälymallit, kuten ChatGPT, suosivat sujuvuutta tarkkuuden sijaan. Epävarmoissa tilanteissa he mieluummin improvisoivat kuin myöntävät tietämättömyytensä. Oletko koskaan nähnyt GPT-vastausta, jossa lukee: “Anteeksi. Tämä ei kuulu koulutukseni piiriin?”

Valeuutiset ja kaavojen vahvistaminen: GPT:t voivat tunnistaa tiettyjä käyttäjiä kirjautumisten (helppoa sanoa), IP-osoitteiden, semanttisten ja syntaktisten erityispiirteiden sekä henkilökohtaisten taipumusten perusteella. Se sitten vahvistaa sitä. Kun joku käyttää jatkuvasti GPT-tekniikoita valeuutisten tai propagandaartikkelien levittämiseen, tekoäly voi tunnistaa tällaiset mallit ja tuottaa sisältöä, joka on kokonaan tai osittain fiktiivistä. Tämä on klassinen esimerkki algoritmisesta kysynnästä ja tarjonnasta.

Muista, että GPT-tyyppejä ei kouluteta vain valtaville tietojoukoille, vaan myös sinun tietojoukollesi.

Big Tech -yritykset vahvistavat puolueellisuutta ja sensuuria: Lähes kaikki GPT-sääntöjen käyttöönoton takana olevat Big Tech -yritykset harjoittavat myös teollisen mittakaavan sensuuria ja algoritmista varjokieltoa. Tämä koskee sekä yksilöitä että vaihtoehtoisen median alustoja ja muodostaa modernin, digitaalisesti kuratoidun damnatio memoriae -periaatteen . Erityisesti Googlen hakukoneella on taipumus sijoittaa sarjaplagioijan tuotos korkeammalle kuin alkuperäinen artikkeli .

Tämän systemaattisen petoksen jatkuminen voi jonain päivänä kärjistyä täysimittaiseksi maailmanlaajuiseksi skandaaliksi. Kuvittele, että heräät jonain aamuna ja luet, että suosikkilainauksesi tai -teoksesi ovat seurausta huolellisesti kalibroidusta algoritmisesta tukahduttamiskampanjasta niiden alkuperäisten luojien tai kirjoittajien kustannuksella. Tämä on väistämätön seuraus sensuurin rahaksi muuttamisesta samalla kun “tietoa” ulkoistetaan ideologisten parametrien rajoittamalle tekoälylle.

Kokeita ihmisen herkkäuskoisuudesta: Äskettäin esitin hypoteettisen mahdollisuuden, että tekoäly voitaisiin kouluttaa tutkimaan ihmisen herkkäuskoetta tavalla, joka käsitteellisesti muistuttaa Milgramin koetta , Aschin konformiteettikokeita ja niiden iteraatiota, Crutchfieldin tilannetta . Ihmiset ovat sekä herkkäuskoisia että pelokkaita, ja valtaosa heistä sopeutuu ihmisjoukkoon tai tekoälyn tapauksessa “datajoukkoon”.

Tällä on väistämättä vaikutuksia reaalimaailmaan, kun tekoäly integroituu yhä enemmän kriittisiin, aikaherkkiin toimintoihin – ohjaamoista ja ydinvoimaloista biologisen sodankäynnin laboratorioihin ja laajoihin kemiantehtaisiin. Kuvittele nyt, että joutuisit tekemään kauaskantoisia seurauksia aiheuttavan päätöksen virheellisen tekoälyn perusteella niin riskialttiissa ympäristössä. Juuri tästä syystä ”tulevaisuuden suunnittelijoiden” on ymmärrettävä sekä niiden pätevien ammattilaisten prosenttiosuus että persoonallisuustyypit , jotka ovat taipuvaisia ​​luottamaan virheellisiin, koneellisesti luotettuihin suosituksiin.

Eivätkö faktantarkistajat tehneet faktantarkistuksia?

Kun tekoäly luo artikkelin jonkun puolesta, jokaisen työhönsä vakavasti suhtautuvan journalistin tulisi kohdella sitä jonkun toisen kirjoittamana artikkelina, joka siten edellyttää faktantarkistusta ja improvisointia. Niin kauan kuin lopputuotteen faktat tarkistetaan ja alkuperäiseen luonnokseen lisätään merkittävää arvoa, sisältöä ja muutoksia, en näe tässä prosessissa eturistiriitaa tai eettisten sääntöjen rikkomista. GPT:t voivat toimia katalysaattorina, editorina tai “paholaisen asianajajana” kirjoitusprosessin käynnistämiseksi.

Tässä tarinassa kävi niin, että kirjoittaja Marco Buscaglia näytti kopioineen ja liittäneen ChatGPT:n työn kokonaan ja esittäneen sen sitten omanaan. (Tämän kiusallisen episodin tultua julki hänen verkkosivustonsa on tyhjennetty ja tehty yksityiseksi.) ChatGPT:n tuottaman liiallisen herätetyn hölynpölyn olisi pitänyt herättää hälytyskellot Buscagliassa, mutta epäilen, että hän itse levittää tällaista tavaraa.

Kaikki Buscagliaan tällä hetkellä kohdistuva kritiikki tulisi kuitenkin kohdistaa myös King Features Syndicaten ja useiden uutislähteiden toimittajiin, jotka eivät tarkistaneet sisällön faktoja ja esiintyivät totuuden, koko totuuden ja vain totuuden, linnakkeina.

Eri tasojen portinvartijat ovat yksinkertaisesti epäonnistuneet tehtävissään. Tämä on median kollektiivista velvollisuuksien laiminlyöntiä, kun se huolettomasti mainostaa palveluksiaan vallanpitäjille samalla kun luennoi tavallisille kuolevaisille etiikasta, rehellisyydestä ja arvoista.

Mielestäni olemme jo tottuneet tuollaiseen kaksinaismoralismiin. Mutta tässä tulee pelottava osuus: Olen varma, että virheellisiä tietoja ja syötteitä virtaa jo tekoälyjärjestelmistä kaupankäynti- ja rahoitusalustoille, lennonjohtoon, ydinreaktoreihin, biologisen sodankäynnin laboratorioihin ja herkille kemiantehtaille – jopa tällä hetkellä, kun kirjoitan tätä. Portinvartijat eivät yksinkertaisesti ole päteviä niin monimutkaisiin tehtäviin, paitsi paperilla. Nämä ovat seurauksia maailmasta , jonka “pellet ovat suunnitelleet ja apinat hallitsevat”.

Päätän huomautuksella, joka korostaa ironian ironiaa: kaikki tässä tarinassa mukana olleet toimittajat olisivat voineet käyttää ChatGPT:tä Buscaglian artikkelin faktantarkistukseen. Se olisi vienyt vain 30 sekuntia!

Lähde

Avatar photo

By Konrad KurzeX

Päätoimittaja Pressi.net:issä, Publication-X.com:issa ja PubX.tv:ssä - mielipiteitä on, myös omia sellaisia.Jos lainaat tekstiä, laitathan lainatun tekstin yhteyteen paluulinkin!

Kommentoi