Tekoälystä (AI) on tullut aikamme pyhä lehmä: sitä pitää ihailla, siihen pitää sijoittaa, ja siitä pitää puhua kuin se olisi väistämätön evoluution seuraava askel. Mutta entä jos koko kertomus on nurin päin? Entä jos AI ei ole “uusi äly” vaan kallis peili, joka heijastaa menneisyyttä — ja jonka ympärille rakennetaan sekä kupla että kontrolli?

Tämän ajatuksen esittää kärjekkäästi kirjailija Robert Gore tuoreessa tekstissään, jossa hän kutsuu AI:ta suoraan “huijaukseksi” ja väittää, että ihmisen älyn (HI) ydin on juuri se osa, jota kone ei tavoita: uuden synnyttäminen. (The Burning Platform)

Tausta: mitä väitetään — ja miksi se puree juuri nyt

Goren perusväite on yksinkertainen: AI on rakennettu oletukselle, että ihmisen äly on kuin dataprosessori, joka ottaa syötteen ja tuottaa tulosteen. Sillä oletuksella voi tehdä vaikuttavia temppuja: pelata pelejä, luokitella kuvia, kirjoittaa raporttipohjia, löytää kaavoja massadatasta. Mutta HI:n kiinnostavin osa ei ole “syötteestä ulos” – vaan se, että ihminen kysyy, epäilee, keksii, testaa, muuttaa mieltään, keksii uudelleen. (The Burning Platform)

Kärki osuu tähän hetkeen, koska yrityksissä ja julkisessa hallinnossa alkaa näkyä sama ilmiö: pilotit pyörivät, demot näyttävät hyviltä, mutta arvo ei materialisoidu — tai se tulee vasta, kun koko organisaatio menee leikkauspöydälle.

Näyttö: “helppo demota, vaikea hyödyttää”

1) Yritysten AI-pilotit kompuroivat

Useat lähteet viittaavat MIT/NANDA-raporttiin, jonka mukaan valtaosa yritysten genAI-piloteista ei tuota mitattavaa taloudellista hyötyä. Fortune tiivisti löydöksen raflaavasti “95% epäonnistuu” -otsikolla. (Fortune)

Samaan aikaan S&P Global Market Intelligence raportoi, että niiden kyselyssä “useimmat” AI-aloitteet ennen tuotantoon pääsyä hylkäävien yritysten osuus nousi 17 prosentista 42 prosenttiin, ja että keskimäärin 46% projekteista kuopataan POC→tuotanto -välissä. (S&P Global)

2) “Pilotoi helposti — arvo on vaikeaa”

McKinsey muotoilee saman corporate-kielellä: genAI:n pilotoiminen on helppoa, mutta arvon luominen on vaikeaa, koska se vaatii merkittäviä muutoksia työn tekemisen tapoihin. (McKinsey & Company)

Tämä on käytännössä vastaisku sille myyntilauseelle, jolla AI usein myydään: “säästää työtä”. Monessa paikassa se ei poista työtä — se siirtää sen piiloon. Lopputulos näyttää viimeistellyltä, mutta jonkun täytyy tarkistaa, oikaista, verifioida, sovittaa prosessiin ja kantaa vastuu.

3) “AI-slop” ja hallusinaatiot eivät ole sivuseikka

Internet-kulttuuri on jo ehtinyt nimetä ilmiön: “AI slop” – massatuotettu, geneerinen, joskus virheellinen sisältö, joka näyttää paperilla hyvältä mutta on sisältönä roskaa. Termiä on käsitelty laajasti myös valtamedian puolella. (Business Insider)

Goren pointti (ja monen arjen kokemus) on, että jos “automaation” tuotos vaatii jatkuvaa ihmiskorjausta, niin kyse ei ole työn katoamisesta vaan työn naamioinnista.

LUE MYÖS:  Milloin Joulupukista tuli ekosoturi?

Tekninen kipupiste: kun malli alkaa syödä itseään

Yksi tekstisi mielenkiintoisimmista kohdista liittyy “mallin romahtamiseen” (model collapse): jos generatiivisia malleja koulutetaan yhä enemmän mallien omalla tuotoksella, data “saastuu”, harvinaiset piirteet katoavat ja lopputulos valuu kohti keskinkertaista keskiarvoa.

Tämä ei ole pelkkä some-meemi. Nature julkaisi tutkimuksen, jossa model collapse kuvataan nimenomaan generatiivisten mallien degeneratiiviseksi prosessiksi, kun recursively generated data alkaa vallata koulutusjakaumaa. (Nature)

Tässä on ironia: sama hypekone, joka täyttää verkon AI-sisällöllä, voi pitkällä aikavälillä heikentää sitä raakaainevarantoa, josta mallit elävät.

Väite, joka erottaa ihmisen ja koneen: “AI vastaa, mutta ei kysy”

Gore tiivistää eron provosoivasti: AI voi vastata käytännössä loputtomiin kysymyksiin, mutta se ei itse ole autonominen kysymysgeneraattori. (The Burning Platform)
Tämä on filosofinen väite, mutta se kytkeytyy myös tieteelliseen keskusteluun siitä, mitä mallinnamme, kun mallinnamme “älyä”.

Teppo Felin ja Matthias Holweg argumentoivat Strategy Science -julkaisussaan, että pelkkä tilastollinen ennustaminen ei ole sama asia kuin kausaalinen päättely ja teoreettinen ajattelu — se osa, jolla ihmiset rikkovat konsensuksen ja löytävät uutta. (INFORMS Publications Online)

Tämä antaa painoa yhdelle Goren terävimmistä pointeista: jos päätöksenteko alkaa nojata “konsensusta” heijastavaan koneeseen, tuloksena voi olla tehokas keskinkertaisuuden moottori — järjestelmä, joka vahvistaa sitä mikä toistuu useimmin, ei sitä mikä on totta tai läpimurto.

Miksi AI:ta työnnetään läpi kuin sotaa?

Tässä kohtaa alkuperäinen teksti ottaa askeleen kovempaan suuntaan: “kun agenda ei ole looginen, etsi piilomotiivi.” Se liittää AI-hypen samaan jatkumoon kuin pandemiapolitiikan ja ilmastopolitiikan “malliusko”. Tätä osuutta kannattaa lukea varauksella — ei siksi, että valvontariskiä ei olisi, vaan siksi, että retoriikka sekoittaa helposti todennettavan ja oletetun.

Mutta yksi osa on konkreettinen ja tämän hetken politiikkaa: Yhdysvalloissa AI-infrastruktuurista ja sääntelystä on tulossa valtapolitiikkaa.

  • “Stargate”-niminen jättihanke (OpenAI/Oracle/SoftBank) on Reutersin mukaan $500 miljardin datakeskus- ja infraprojekti, joka tähtää useiden gigawattien kapasiteettiin. (Reuters)
  • AP ja Politico raportoivat “Genesis Mission” -aloitteesta, jossa liittovaltio haluaa integroida AI:n laajasti tieteeseen ja virastojen datakoneistoon (DOE ja kansalliset laboratoriot keskiössä). (AP News)
  • Lisäksi on raportoitu toimeenpanolinjasta, jossa liittovaltio pyrkii aktiivisesti suitsimaan osavaltioiden AI-sääntelyä. (The Atlantic)

Tässä kohtaa “piiloagenda” ei edes tarvitse salaliittoa: kun kyse on satojen miljardien infrastruktuurista, datasta ja energian käytöstä, se on väistämättä valtaa. Ja valta haluaa vakioida itsensä.

Mitä tästä seuraa: kaksi erilaista romahdusta

  1. Kuplaromahdus (talous)
    Jos valtava capex, hype ja “lupaus tuottavuusihmeestä” eivät muutu läpinäkyväksi arvoksi, markkina korjaa kertomuksen. S&P:n hylkäysluvut ja MIT:n pilottiongelmat ovat varoitusmerkkejä, eivät vielä tuomio. (Kyber turvallisuus syöksy)
  2. Kognitiivinen romahdus (ihminen)
    Pidemmällä aikavälillä isompi riski ei ole “AI tappaa työt”, vaan “AI tappaa tarkkaavaisuuden”: ulkoistamme kysymisen, epäilyn ja ensimmäisen luonnoksen tuskan. Lopulta emme huomaa, milloin kone alkaa syöttää meille keskinkertaisuuden defaultia — ja me hyväksymme sen, koska se näyttää siistiltä.
LUE MYÖS:  Kongressiedustaja Luna kuvailee uskottavia raportteja 'ulottuvuuksienvälisistä olennoista', silminnäkijät väittävät 'liikkumista ajan ja avaruuden ulkopuolella'

Se on se kohta, jossa “AI slop” muuttuu kulttuurista infrastruktuuriksi.

Verdict: AI ei ole hölynpölyä — hype on

AI:lla on oikea käyttönsä: se on tehokas tilastollinen kone, joka voi auttaa tiedon läpikäynnissä, luokittelussa, luonnostelussa ja optimoinnissa. Mutta se ei ole automaattinen innovaatio- tai totuuskone, eikä se ole maaginen työvoimakorvaaja ilman organisaation kivuliasta muodonmuutosta. (McKinsey & Company)

Goren teksti on paikoin pamfletti, mutta se osuu hermoon: kun AI:sta puhutaan kuin ihmismielen seuraajasta, keskustelu karkaa todellisuudesta. Ja kun siihen yhdistetään poliittinen halu keskittää dataa, infrastruktuuria ja sääntelyä, “tekoälyprojekti” alkaa näyttää yhä vähemmän teknologialta ja yhä enemmän valtahankkeelta.

Ja siinä kohtaa paras vastalause ei ole “pelkää AI:ta” — vaan: älä ulkoista ajattelua.


📊 Mitä luvut oikeasti tarkoittavat?

  • $500 miljardia (Stargate) ei ole “yksi tuote” vaan monivuotinen infrarakentamisen lupaus: datakeskuksia, sähköliityntöjä, jäähdytystä, sirutoimituksia ja rahoitusjärjestelyjä. Kun Reuters kirjoittaa gigawateista, puhutaan käytännössä uuden teollisen mittaluokan sähkönkuluttajista. (Reuters)
  • “95% piloteista ei tuota ROI:ta” ei tarkoita, että AI olisi hyödytön — vaan että yritysmuutos on pullonkaula. Työkalu voidaan “ottaa käyttöön” viikossa, mutta prosessin uudelleenrakennus kestää kuukausia tai vuosia. (Harvard Business Review)
  • 42% yrityksistä kuoppaamassa suurimman osan AI-aloitteistaan on signaali siitä, että hype ja tuotanto ovat eri maailmoissa: POC on helppo, tuotantotaso on kallis ja riskinen. (S&P Global)

📚 Lähteet

  • Robert Gore / The Burning Platform: “AI is a Crock” (13.12.2025). (The Burning Platform)
  • Straight Line Logic (julkaisulistaus ja konteksti). (STRAIGHT LINE LOGIC)
  • MIT/NANDA-löydöksen käsittely: Fortune + HBR. (Fortune)
  • S&P Global Market Intelligence: AI-projektien hylkäysluvut (17% → 42%, 46% POC-scrap). (S&P Global)
  • McKinsey: “Piloting gen AI is easy, but creating value is hard.” (McKinsey & Company)
  • Model collapse (Nature + taustapaperi). (Nature)
  • “AI slop” -ilmiö (Guardian + Business Insider). (The Guardian)
  • Stargate-infraprojekti (Reuters + The Verge). (Reuters)
  • Genesis Mission (AP + Politico). (AP News)
  • Osavaltioiden AI-sääntelyn preemptio-keskustelu (The Atlantic + Tech Policy Press). (The Atlantic)
  • Felin & Holweg (Strategy Science): “Theory Is All You Need”. (INFORMS Publications Online)
Avatar photo

By Pressi Editor

Jos lainaat tekstiä, laitathan lainatun tekstin yhteyteen paluulinkin!

Kommentoi