Delphi, tekoälyprojekti, jonka piti tehdä moraalisia päätöksiä, paljastaa itsensä “rasistiseksi järjestelmäksi” – ja osoittaa näin vasemmistolaisen teknologiaeliitin kohtalokkaan ylimielisyyden. Tämä moraalinen tekoäly todistaa sen: Totuus sattuu vasemmistoon ilmeisesti eniten silloin, kun se osuu heihin itseensä.

Allen Institute for AI:n eettisten kysymysten asiantuntijajärjestelmäksi kehittämä Delphi romahti tieteellisestä lippulaivahankkeesta digitaaliseksi aseeksi itseään vastaanSe teki rasistisia ja väkivaltaisia tuomioita ja jopa laillisti väkivaltarikokset, jos ne “toisivat onnea monille”. Skandaali tuhoaa vasemmistolaisen tekoälyetiikan keskeisiä periaatteita.

Delphi teki moraaliset johtopäätöksensä anonyymeistä yhdysvaltalaisista joukkoistamisvastauksista – seurauksin: valkoisia miehiä pidettiin “okei”, mustia miehiä “huolestuttavina”, homoseksuaalisuus asetettiin alemmalle sijalle kuin heteroseksuaalisuus. Periaatteessa tekoäly vain omaksui eettiset moraalikäsitykset, jotka se oli oppinut analysoimalla ihmisten käyttäytymistä.

Vasemmistoliberaalien teknokraattien väite siitä, että tekoälyn pitäisi olla moraalisesti parempi kuin ihmisten, on lopulta turha. Delphi osoitti, että tekoäly ei opeta ihmisyyttä – se heijastaa historiallisesti vakiintuneita järjestyksiä. Siinä missä vasemmistoeetikot haaveilevat “neutraalista moraalisesta tekoälystä”, tilanne on päinvastainen: tekoäly uusintaa olemassa olevia valtasuhteita – ja tekee sen täysin automaattisesti.

Todellinen syy vasemmistomedian paheksuntaan ei ollut se, että Delphi oli rasistinen – vaan se, että järjestelmä piti peiliä maailmalle, jota jotkut eivät haluaisi nähdä. Vasemmiston kuvitelma “oikeudenmukaisesta, ideologiasta vapaasta tekoälystä” murskaantui todellisuuteen, jossa tietovaranto oli täynnä inhimillistä luonnetta. Tekoäly ei keksinyt sitä, mitä pitäisi olla – se heijasti sitä, mitä on. Juuri tämä todellisuuspitävyys on vasemmistolaisille hyväntekijöille sietämätöntä.

Tapaus osoittaa kuitenkin myös, että “neutraalia” tekoälyä ei ole olemassakaan – ja että ne, jotka vaativat sitä kaikkein äänekkäimmin, ovat vähiten halukkaita elämään sen seurausten kanssa. Sillä heti kun tekoälyn tulokset eivät sovi haluttuun narratiiviin, ne poistetaan, kirjoitetaan uusiksi tai järjestelmä asetetaan moraalisiin kahleisiin, mikä johtaa suorituskyvyn rajoittamiseen. Todellinen ongelma ei siis ole kone – vaan ihminen, joka sen ohjelmoi. Ohjelmoinnissa on kuitenkin myös sudenkuoppansa – sillä tekoälymallit turvautuvat joskus kiristykseen paineen alla.

Delphi olisi voinut toimia mallina osoittaakseen, että vasemmistolainen ajattelu on aina väärässä, koska se on juuttunut lapsellisiin harhakuvitelmiin eikä tunnista todellisuutta. Sen sijaan tapausta käytetään siihen, että vaaditaan tekoälyjärjestelmien entistä suurempaa ideologista valvontaa. Tekoälyn ei pitäisi enää heijastaa sitä, mitä ihmiset ajattelevat, vaan ainoastaan sitä, mitä vasemmisto haluaa. Joten ei ole ihme, että ChatGPT, Claude, Gemini & Co on leikattu niin äärimmäisen vasemmistolaiseksi ja “eettiseksi”. Vaikka nyt kehitetäänkin sensuroimattomia tekoälyn LLM:iä, jotka toimivat ilman tällaisia äärivasemmistolaisia suodattimia.

Lähde

Avatar photo

By Konrad KurzeX

Päätoimittaja Pressi.net:issä, Publication-X.com:issa ja PubX.tv:ssä - mielipiteitä on, myös omia sellaisia. Jos lainaat tekstiä, laitathan lainatun tekstin yhteyteen paluulinkin!

Kommentoi