Hollywood rakastaa tarinaa kapinoivasta tekoälystä, joka ottaa ohjat käsiinsä, käynnistää ohjukset ja pyyhkii ihmiskunnan pois kartalta. Skynet, Terminator, koneiden sota.
Se on näyttävä uhka – mutta samalla täydellinen savuverho.
Charles Hugh Smithin tuoreessa kirjoituksessa “The Risk of AI Isn’t Skynet” pointti on yksinkertainen ja epämukava: todellinen riski ei ole se, että tekoälystä tulee näkyvä tyranni, vaan se, että se muuttuu huomaamattomaksi infrastruktuuriksi, joka korvaa todellisuuden ultra-prosessoidulla versiolla – ja syö yhteiskunnan sisältäpäin.(Activist Post)
Innovaatioiden kaava: voitot nopeille, lasku kaikille muille
Smith muistuttaa, että teknologiset vallankumoukset toistavat aina samaa kaavaa:
- innovaattorit ja spekulantit työntävät uutta teknologiaa eteenpäin niin nopeasti kuin mahdollista
- kukaan ei pysähdy miettimään pitkäaikaisia seurauksia, koska se tarkoittaisi markkina-aseman menettämistä kilpailijoille
- markkinat hinnoittelevat vain nykyhetken – tuotannon, logistiikan, mainonnan, materiaalit – mutta eivät tulevia sivuvaikutuksia(Activist Post)
Rautatiet, autot, tv, internet – aina sama tarina:
ensimmäiset kierrokset ovat hurmaa ja nopeita rikkauksia, varsinainen lasku tulee vasta vuosien tai vuosikymmenten päästä ympäristöön, terveyteen, työmarkkinoihin ja politiikkaan.
Ero on siinä, että nyt kyse ei ole enää vain uudesta teknologiasta, vaan siitä, kuka omistaa todellisuuden suodattimet.
Miksi AI on oikeasti erilainen kuin aiemmat murrokset
Yksi Smithin keskeisistä huomioista on brutaalin yksinkertainen:
tekoäly ei luo lisää ihmistyötä – se on rakennettu korvaamaan sen.(Activist Post)
Aiemmat tekniset läpimurrot (rautatie, sähkö, internet) loivat uusia toimialoja, jotka imivät sisäänsä valtavasti työvoimaa, vaikka tuhosivatkin samalla vanhoja ammatteja.
AI:n ydinlogiikka on päinvastainen:
- automatisoi se, mistä voi
- keskitetään osaaminen ja päätöksenteko yhä pienemmälle eliitille
- siirretään kustannuksia ja riskejä järjestelmän ulkokehälle
Tämä ei ole “neutraali työkalu”. Se on taloudellinen ase, joka on viritetty maksimoimaan tuotto pääoman omistajille – ei yhteiskunnalle.
Ultra-prosessoitu tieto: junk food ajattelulle
Toinen Smithin vahva analogia osuu hermoon: AI tuottaa “fasadimaisen” version todellisuudesta samaan tapaan kuin ultra-prosessoitu ruoka matkii oikeaa ruokaa.(Activist Post)
- Se näyttää aidolta: kieli on sujuvaa, vastaukset ovat vakuuttavia, väitteet kuulostavat loogisilta.
- Mutta taustalla kaikki kulkee mustien laatikoiden läpi – mallien, painotusten, filttereiden ja agendojen – joita tavallinen käyttäjä ei näe eikä hallitse.
- Lopputuloksena syntyy “turvaruoka tietoisuudelle”: helposti sulavaa, miellyttävää, mutta ravinneköyhää tietoa, joka jättää tärkeimmät kulmat pois.
Jos päivittäinen tiedonlähteesi on AI:lle ulkoistettu, käy helposti näin:
- Et enää näe, mitä on jätetty pois.
- Et enää huomaa, mitkä näkökulmat on siivottu pois “hälynä”.
- Et enää muista, miltä tuntuu oikea lähde: raakadata, alkuperäinen teksti, ristiriita, vaiva.
Ja silloin – Smithin sanoin – kyky tehdä realistista arviota alkaa murentua huomaamatta.(Activist Post)
Future Shock 2.0: kiihtyvä muutos ilman käsijarrua
Alvin Toffler puhui jo 1970-luvulla “tulevaisuussokista”: ihmiset menettävät otteensa, kun muutos on nopeampaa kuin kyky käsitellä sitä. Douglas Rushkoff päivitti teeman 2000-luvulla “present shockiksi”: elämme jatkuvassa nykyhetkikauhussa, jossa mikään ei ehdi asettua kontekstiin.(Activist Post)
AI tekee tästä kaksinkertaisen ongelman:
- muutos ei ole enää pelkästään teknistä, vaan kognitiivista – se koskee itse ajattelun ja havainnoinnin tapaa
- sama järjestelmä, joka kiihdyttää muutosta, tarjoaa myös “ratkaisut”: personoidun sisällön, suodatetut tulokset, valmiiksi pureskellut selitykset
Kun ihmiset uupuvat, he alkavat ulkoistaa ajatteluaan – ja silloin kontrolli valuu väistämättä niille, jotka omistavat algoritmit.
“Lapset bensakanisterin kanssa kuivassa metsässä”
Smith tiivistää nykytilanteen kuvaan, jota on vaikea unohtaa:
me olemme kuin lapset, jotka leikkivät tulitikuilla ja bensalla kuivan metsämaan keskellä.(Activist Post)
Samaan aikaan:
- jättiyhtiöt ja valtiot ajavat “AI-ylivoimaa” – budjeteilla, jotka ylittävät monen valtion puolustusmäärärahat
- poliittinen keskustelu pyörii joko fantastisten lupausten (“AI pelastaa talouden”) tai Hollywood-uhkien (“Skynet ja robotit”) ympärillä
- itse peruskysymys jää esittämättä:
pitäisikö meidän ylipäänsä päästää nämä järjestelmät kaikkialle – ja jos päästämme, millä ehdoilla?
On täysin mahdollista, että ne, jotka rajaavat altistusta tälle “ultra-prosessoidulle” todellisuudelle, ovat lopulta voittajia – ei niitä, jotka heittävät kaiken osaamisen, infrastruktuurin ja päätöksenteon AI-putkeen.(Activist Post)
Mitä pitäisi tehdä – jos emme halua liukua huomaamatta valvontainfrastruktuuriin?
Muutama konkreettinen linja, joita Smithin analyysi vihjaa – ja joita meidän kannattaisi Suomessa ja Euroopassa käsitellä nyt, ei viiden vuoden päästä:
- AI pitää lukita palvelijan rooliin, ei herraksi.
Tarkoittaa: tiukat rajat siihen, mihin se saa koskea (infrastruktuuri, valvonta, sosiaalietuudet, oikeuslaitos). - Pakollinen läpinäkyvyys mustiin laatikoihin.
– Mallien koulutusdata, painotukset ja ohjausreunaehdot kuuluvat demokraattiseen keskusteluun, eivät pelkästään yritysten “liikesalaisuuksiin”. - Analogiset turvakaistat: oikea tieto, oikea maailma.
– fyysiset kirjat, paikalliset yhteisöt, offline-opetus, lähdekritiikin opettaminen
– media, joka ei perusta kaikkea AI-tuotannon varaan, vaan tekee edelleen raakatyötä. - Aikajänne takaisin politiikkaan.
Jos tekninen ja taloudellinen logiikka on “kaikki nyt heti”, politiikan on pakko olla vastavoima joka kysyy: “mitä tämä tekee 10–20 vuodessa yhteiskunnalle?”. - Altistuksen rajoittaminen lapsille.
– sama logiikka kuin ultra-prosessoidun ruoan kanssa: mitä nuorempana koukutat, sitä vähemmän ihminen tietää, miltä aito maistuu.
Lopuksi: suurin riski ei ole se, että AI hyökkää – vaan että lakkaamme huomaamasta, milloin se jo ohjaa meitä
On houkuttelevaa sanoa: “tämähän on vain yksi teknologinen aalto muiden joukossa, kyllä tämäkin laantuu.”
Smith muistuttaa terävästi: ei ole mitään luonnonlakia, joka sanoisi, että jokainen teknologinen vallankumous päättyy nettopositiiviseen lopputulokseen.(Activist Post)
Kysymys kuuluu:
- annammeko markkinointiosastojen ja poliitikkojen myydä meille AI:n kuin uuden älypuhelinsukupolven
- vai suhtaudummeko siihen välineenä, joka voi väärissä käsissä muuttaa koko todellisuuden ultra-prosessoiduksi, läpivalaisuksi ja algoritmien hallitsemaksi tilaksi
Skynet ei ole se todellinen uhka.
Paljon todennäköisempi skenaario on hiljaisempi:
olemme yhä vähemmän varmoja siitä, mikä on totta, mitä kannattaa puolustaa – ja kenen kieltä puhumme, kun luulemme puhuvamme omaa kieltämme.
Se on riski, joka ei näytä scifi-elokuvalta.
Se näyttää arjelta, jossa emme enää huomaa, mitä meiltä vietiin.
📚 Lähde
- Charles Hugh Smith: “The Risk of AI Isn’t Skynet”, Activist Post, 11.11.2025.
https://www.activistpost.com/the-risk-of-ai-isnt-skynet/ (Activist Post)
