Sano “muikku” valvontakoneistolle

Se alkoi yksinkertaisella kehotuksella: ”Tee minusta Studio Ghiblin hahmo.” Muutama napautus, nopea lataus, ja muutamassa sekunnissa kasvosi oli kuvattu uudelleen: kasteiset silmät, pehmeästi valaistu ja pudotettu Spirited Away -elokuvan kaltaiseen unenomaiseen maisemaan.

Ei kestänyt kauaa, kun internet teki sen, mitä se osaa parhaiten: tulvii aikajanoille. TikTok muuttui karuselliksi anime-avatareista, jotka pyörivät lumotuissa metsissä. Instagram muuttui pastellimaisten muotokuvien paraatiksi; pikkulapset leijuivat nokihiutaleiden keskellä, pariskunnat kulkivat kelluvissa kaupungeissa. Muutamassa päivässä OpenAI:n uusin päivitys kuvien luontityökaluunsa, joka oli integroitu suoraan ChatGPT:n GPT-4o-malliin, oli saanut aikaan täysimittaisen esteettisen liikkeen.

Tulokset? Omituisia. Koukuttava. Kiistatta viehättävä.

Animoitu kohtaus, jossa joukko pukumiehiä, jotka viittaavat turvamiehiin, näyttävät suojelevilta ja valppailta Amerikan lipun edessä, ja yksi mies nostaa nyrkkiä.

Näiden tekoälyn luomien satujen lumo peittää kuitenkin alleen hiljaisemman, piikikkäämmän todellisuuden, joka kertoo luovuuden ja suostumuksen hämärtyvistä rajoista generatiivisen tekoälyn aikakaudella.

Trendin laukaisi OpenAI:n kuvien luontityökalu, joka on nyt kaikkien saatavilla, joilla on ChatGPT-tili. Toisin kuin aiemmat versiot, jotka edellyttivät tilauksia tai kolmannen osapuolen sovellusten käyttöä, tämä versio on kitkaton. Ei latauksia. Ei maksuja. Vain yksinkertainen kehotus ja kuva.

Ja tappava ominaisuus: Kyky jäljitellä Studio Ghiblin rehevää, fantastista tyyliä; japanilainen animaatiostudio tunnetaan klassikoista kuten Naapurini Totoro, Prinsessa Mononoke ja Howlin liikkuva linna.

Yhtäkkiä tekoälyssä oli kyse esteettisestä eskapismista. Ghibli-suodatin tarjosi uudenlaisen digitaalisen identiteetin, joka oli täynnä nostalgiaa, lämpöä ja ihmettelyä.

Kuten eräs TikTok-käyttäjä totesi kuvan yläpuolella, jossa hänen tekoälyllä muunnettu taaperonsa hyppii niityllä: ”Minusta tuntuu kuin olisin juuri astunut Miyazakin elokuvaan.” Video sai yli 2 miljoonaa katselukertaa.

Tuo kollektiivinen iloisen itsetyylittelyn aalto tuntui lyhyen hetken ajan siltä, että internet toimii parhaimmillaan – luovuus demokratisoituu, työkalut ovat massojen käsissä, taikaa syntyy klikkauksella.

Mutta sadussa unohtui mainita yksi yksityiskohta, joka menee OpenAI:n ulkopuolelle ja puhuu tekoälykuvien valvontamaailmasta yleensä.

Näkymätön kauppa
Jotta voit muuttaa kasvosi satuhahmoksi, sinun on luovuttava jostakin: valokuvastasi. Ja kun kuva on ladattu, siitä tulee dataa – polttoainetta koneelle.

OpenAI on tehnyt asian selväksi: jos et nimenomaisesti kieltäydy, syötteesi voidaan säilyttää ja sitä voidaan käyttää sen tekoälymallien tulevien versioiden parantamiseen. Tämä ei koske vain kehotustasi (”Tee minusta Ghibli-hahmo”) vaan myös kuvaa, jonka latasit sen toteuttamiseksi.

Jos käyttäjät eivät nimenomaisesti kieltäydy, heidän lähettämänsä sisältö voidaan säilyttää ja sitä voidaan käyttää jatkokoulutukseen, yhtiö huomauttaa.

Tämä ei ole ainutlaatuista OpenAI:lle. Useimmat suuret tekoälyn kehittäjät – Metasta Googleen ja Midjourneyyn – käyttävät jonkinlaista käyttäjätietoa malliensa tarkentamiseen. Mutta tämän virustrendin yhteydessä, jossa miljoonat ihmiset syöttävät henkilökohtaisia valokuvia järjestelmään hetkellisen ilon vuoksi, mittakaava tuntuu erilaiselta.

On eri asia suostua tietojen keräämiseen abstraktisti. On eri asia tehdä niin tietämättään jahdatessaan esteettistä huumaa.

Opt-out-vaihtoehto on olemassa, mutta se on piilotettu sovelluksen ”Data Controls” -valikkoon. Sitä ei kuitenkaan mainosteta näkyvästi. Useimmat käyttäjät, joita lupaus välittömästä visuaalisesta mielihyvästä houkuttelee, harvoin ajattelevat kaivaa pienellä painettuun tekstiin tutustumista. He haluavat vain taikaa. He eivät kysy, mistä taikasauva saa voimansa.

Pilapiirroskuva kolmesta miehestä, jotka istuvat juhlallisessa huoneessa; vasemmalla yksi mies vihreässä asussa ja kädet ristissä, ja oikealla kaksi miestä sinisissä puvuissa ja punaisissa solmioissa keskustelemassa.

Fantasia ja palautesilmukka
Mitä enemmän ruokimme näitä järjestelmiä, sitä älykkäämmiksi ja tyylikkäämmiksi ne muuttuvat. Käyttäjien valokuvilla koulutetut tekoälymallit oppivat hienovaraisuuksia: miten valo kiertyy poskien ympärille, miten ilo elävöittää pikkulapsen kasvoja ja miten melankolia esitetään ylisuurissa anime-silmissä.

Ghibli-muotokuvasi ei katoa digitaaliseen eetteriin. Siitä tulee osa palautesilmukkaa, joka muokkaa seuraavan sukupolven malleja.

Ja tämä kaikki tapahtuu niin, että ei ole kovinkaan avointa, minne nämä kuvat menevät, kuinka kauan niitä säilytetään tai millaisia tulevia malleja ne saattavat antaa.

Kyse on muustakin kuin yksityisyyden suojasta. Se on kulttuurinen kysymys. Olemme siirtymässä vaiheeseen, jossa taidetta ja identiteettiä rakentavat yhdessä koneet, jotka oppivat meiltä kysymättä meiltä lupaa.

Implisiittinen suostumus ja hallinnan illuusio
Erityisen huolestuttavaa on se, miten OpenAI:n kaltaiset alustat nojaavat vahvasti implisiittiseen suostumukseen. Lataa kuva? Olet hyväksynyt ehdot riippumatta siitä, oletko lukenut ne vai et. Olkaamme rehellisiä: harva käyttäjä pysähtyy kesken selauksen lukemaan tietosuojakäytäntöä.

Tapahtuma tuntuu harmittomalta, jopa oudolta. Ghibli-tyylisen avatarin pehmeän hehkun takana on kuitenkin paljon kylmempi todellisuus: kuva saattaa nyt olla osa kaupallista dataputkea. Se opettaa miljardien dollarien tekoälymallia simuloimaan paremmin tunteita, valoa ja ihmisten ilmeitä.

Kyse ei ole vain sinun kuvastasi. Se on mahdollisesti lapsesi kuva. Tai kenen tahansa muun, jonka lataat.

Vanhemmat, joita sama ihastus houkuttelee kuin kaikkia muitakin, ovat ladanneet tyyliteltyjä muotokuvia taaperoista, joista on tullut animesankareita – viattomia, suloisia ja jaettavia. Mutta elleivät he aktiivisesti kieltäydy siitä, myös nämä kuvat voivat päätyä harjoitustietokantoihin. Toisin kuin aikuiset, alaikäiset eivät voi antaa suostumustaan – edes implisiittisesti.

Monet vanhemmat tietävät, millaisia riskejä liittyy kuvien lataamiseen Big Tech -alustoille, kuten Instagramiin ja Facebookiin, mutta harvempi tietää, millaisia riskejä liittyy kuvien lataamiseen tekoälyalustoille. Vaikka yleisö ei voi nähdä kuvia, se ei tarkoita, etteikö Big Tech -datakone voisi nähdä niitä.

Missä tahansa muussa yhteydessä tämä herättäisi vakavia hälytyksiä. Mutta tekoälyn maailmassa nämä huolet katoavat usein uutuuden kirkkaan sumun alle. Tällöin estetiikka häiritsee infrastruktuuria.

OpenAI:n tietosuojakäytäntö on suhteellisen selkeä, jos tietää, mistä etsiä ja mitä etsiä. Yhtiö kertoo, miten se käsittelee henkilötietoja, kun käyttäjät ovat vuorovaikutuksessa ChatGPT:n, DALL-E:n ja muiden kuvatyökalujen kaltaisten palvelujen kanssa.

Tässä ovat keskeiset asiat:
Tiedonkeruu on oletusarvoisesti päällä

OpenAI kerää monenlaista tietoa käyttäjän vuorovaikutuksesta. Tähän sisältyvät kirjoittamasi kehotukset, lataamasi kuvat ja tuottamasi tulokset. Tämä kaikki on osa sitä, mitä yhtiö kutsuu ”käyttötiedoiksi”, jotka auttavat parantamaan järjestelmän suorituskykyä.

Käyttäjäsisältöä voidaan käyttää koulutukseen

Ellei käyttäjä aktiivisesti estä tietojen jakamista sovelluksen ”Data Controls” -asetuksissa, OpenAI pidättää oikeuden sisällyttää kyseisen sisällön tulevien mallien kouluttamiseen käytettäviin tietokokonaisuuksiin. Tämä koskee myös Ghibli-versioituja selfieitäsi.

Säilytysaika? Määrittelemätön

Yritys ei määrittele, kuinka kauan se säilyttää näitä tietoja. Käytetty kieli – ”niin kauan kuin on tarpeen” – jättää paljon tulkinnanvaraa. Toiminnalliset tarpeet. Koulutussyklit. Turvallisuusauditoinnit. Kaikki nämä voisivat teoriassa oikeuttaa määräämättömän ajan säilytyksen.

Ihmisten suorittama arviointi on mukana

Sen lisäksi, että tietosi syötetään algoritmeihin, oikeat ihmiset saattavat myös tarkistaa ne. OpenAI:n mukaan inhimilliset alihankkijat tai työntekijät voivat arvioida osan sisällöstä parantaakseen järjestelmän käyttäytymistä ja varmistaakseen, että tuotokset täyttävät turvallisuusstandardit.

Tämä ei ole alalla harvinaista. Mutta jälleen kerran liian monet käyttäjät olettavat olevansa vuorovaikutuksessa koneen kanssa. He eivät ymmärrä, että kehote, kuva tai jopa huonosti muotoiltu pyyntö voi päätyä ihmisen arvioitavaksi.

Tietoinen suostumus on kyseenalainen

Oikeudellisessa mielessä OpenAI on hoitanut asiansa. Tietoja on julkistettu. Opt-out-työkaluja on olemassa. Nämä toimenpiteet eivät kuitenkaan juurikaan auta ratkaisemaan perustavanlaatuisempaa ongelmaa: käyttäjät eivät tiedä, mihin he suostuvat.

Tämä oletus, että kuva on ohimenevä, on sisäänrakennettu tuotekokemukseen. Sinä lataat kuvan, työkalu luo sen, ja kuva palautetaan. Modaalista varoitusta ei tule. Ei nimenomaista lupapyyntöä. Ei kieltä, joka viittaisi siihen, että kuvasi saattaa nyt olla GPT:n tulevassa versiossa käytettävässä harjoituskorpuksessa. Käytäntö on kyllä olemassa, mutta se on piilotettu linkkien, selausten ja jargonin taakse.

Ja vaikka OpenAI väittääkin, että käyttäjät voivat kieltäytyä siitä ”Data Controls” -valvontatoiminnon avulla, on silti täysin yksilön vastuulla löytää kyseinen asetus, ymmärtää sen vaikutukset ja ryhtyä toimiin.

Valokuvat sisältävät erittäin henkilökohtaisia tietoja
Selfieitä on helppo pitää rentoina. Otamme niitä jatkuvasti, jaamme niitä vapaasti ja mietimme harvoin, mitä ne paljastavat. Tietojen näkökulmasta katsottuna kasvokuvat kuuluvat kuitenkin arkaluonteisimpiin tietoihin, joita ihminen voi jakaa.

Toisin kuin teksti, valokuvat – etenkin laadukkaat – voivat olla:

  • Käytetään yksilöiden tunnistamiseen biometristen tunnistustekniikoiden avulla.
  • manipuloida synteettisiksi kuviksi, kuten väärennöksiksi, joita ei useinkaan voi erottaa aidoista kuvista.
  • Ristiintaulukointi ulkoisten tietojen kanssa, esimerkiksi sosiaalisesta mediasta tai aiemmista tietomurroista, henkilöllisyyden tai käyttäytymisen määrittämiseksi.

Nämä huolenaiheet moninkertaistuvat, kun käyttäjät lataavat kuvia muista ihmisistä kuin itsestään – erityisesti lapsista. Ystävä juhlissa. Pikkulapsi anime-suodattimella. Ghibli-sävyihin tyylitelty perhekuva. Kukaan näistä henkilöistä ei ole antanut suostumustaan, mutta heidän tietonsa voivat silti päätyä koulutukseen.

Tässä on kasvava eettinen jännite: mitä elävämmäksi tekoäly muuttuu, sitä arvokkaampia nämä henkilökohtaiset kuvat ovat, eivät taideteoksina vaan polttoaineena.

Väärinkäytön tai tietomurron mahdollisuus
Vaikka ottaisimme OpenAI:n sanaansa ja olettaisimme, että se soveltaa tiukkoja tietoturvaprotokollia, mikään henkilötietoja tallentava järjestelmä ei ole immuuni riskeille.

Riski voi olla monenlainen:

  • Sisäinen väärinkäyttö työntekijöiden tai alihankkijoiden toimesta, joilla on pääsy koulutustietoihin.
  • arkaluonteisen sisällön vahingossa tapahtuva paljastuminen järjestelmäpäivitysten tai tuotteiden käyttöönoton aikana.
  • Ulkoiset tietoturvaloukkaukset, joiden kohteena ovat arvokkaisiin tietovarastoihin kohdistuvat pahansuovat toimijat.
  • Tulevaisuudessa tapahtuvat politiikan muutokset, jotka laajentavat sitä, miten tallennettuja tietoja voidaan käyttää tai jakaa.

Jokaista näistä skenaarioista tekee entistä huolestuttavammaksi se, että käyttäjät eivät useinkaan tajua luovuttaneensa mitään. Tietoon perustuvan suostumuksen puuttuminen tekee lieventämisestä lähes mahdotonta. Jos et tiedä, että olet alttiina, miten osaisit suojautua?

Ja kun tiedot on kerran luovutettu, niiden jakamista ei voi enää perua.

Maailmassa, jossa tekoälytyökalut muokkaavat nopeasti sitä, miten luomme, jaamme ja käsittelemme omaa kuvamme, ei enää riitä, että valokuvan lataamista pidetään ohimenevänä vuorovaikutuksena. Tuo kuva – kasvosi, ilmeesi, kontekstisi – on dataa. Väärissä käsissä tai väärässä järjestelmässä siitä tulee pysyvä osa paljon laajempaa digitaalista infrastruktuuria.

Lähde