Kesäkuussa 2025, uusi virkaanastunut paavi Leo ilmoitti tukevansa Vatikaanin vuonna 2020 antamaa Rooman tekoälyetiikkaa koskevaa Rome Call for AI Ethics -asiakirjaa. Asiakirja sai tukea vuonna 2023 islamin ja juutalaisuuden edustajilta. Heinäkuussa 2024 myös 20 eri alueen edustajat allekirjoittivat sen.
Antaako tämä asiakirja, kuuden suojaavan periaatteensa avulla, meidän juosta onnellisesti kohti tekoälytulevaisuutta?
Valmiina tai ei, tässä mennään AI.gov.
ChatGPT:n ilmestymisestä vuonna 2023 lähtien, ilmaus ”tekoälyn etiikka” on täplittänyt otsikoita, antaen meille valheellisen kuvan siitä, että pätevät asiantuntijat työskentelevät kysymyksen parissa. Tuona kohtalokkaana vuonna, miljoonat internetin käyttäjät testasivat generatiivista tekoälyä (eli suurta kielimallia eli LLM:ää, engl. Large Language Model) ensimmäistä kertaa, ja monet olivat kauhuissaan siitä, miten uusi ja parannettu chatbot pystyi matkimaan ihmisen käyttäytymistä, ja jotkut (hypen yllyttäminä) alkoivat huolestua siitä, että tekoäly voisi pian jotenkin ottaa sivilisaation hallinnan.
Ihmiset alkoivat pyytää tekoälyn varustamista suojakaiteilla, jotta se ei toimisi epäeettisesti.
Useimmat etiikkaa koskevat keskustelut on muotoiltu toivottoman epämääräisin termein, kuten tarpeella tavoitella ”yhteistä hyvää” ja säilyttää ”ihmisarvo”. Samoin Rome Call for AI Ethics on täynnä oikkuja. Vaikka se ehdottaa ”kehystä” ”ihmiskunnan ja ympäristön hyväksi”, se itse asiassa vaatii ”asiantuntijaluokan” tehostamaan maailman väestön hallintaa käyttäen tekoälyä työkaluna tähän. Työskentely kohti ”yhteistä hyvää” on ollut diktaattoreiden käyttämä peitetarina kautta historian.
Kaikkia instituutioita, jopa uskontoja, johtavat ihmiset, ja joskus ihmiset vain tekevät asioita väärin. En kritisoi katolilaisuutta itseään, kun huomautan, että Rome Call viitekehyksessä luetelluista kuudesta tavoitteesta kolme on mahdottomia, kaksi on ei-toivottuja ja yksi perustuu valheeseen.
1. Läpinäkyvyys. Vatikaani vaatii tekoälytyökaluja, jotka paljastavat ”päätösten tekemisessä käytettyjen algoritmien taustalla olevan logiikan”. LLM:t eivät kuitenkaan käytä logiikkaa tai edes algoritmeja, eivät samalla tavalla kuin ohjelmistot. LLM:t ovat pohjimmiltaan tekstin ennustamisen koneita, jotka jäljittelevät ihmispuheen ääntä. Vaikka useimmiten jäljitelmä kuulostaa järkevältä, joskus se ei ole. Tekoälyn logiikan läpinäkyvyys on mahdotonta, koska sitä ei ole olemassa. LLM:t korostavat niiden järjestelmien virheitä, joihin ne perustuvat, eli ”syväoppivia” neuroverkkoja, joiden solmut painottuvat (harhautuvat) niiden kouluttamien mallien mukaan. Lisää tästä alla kohdassa #4.
2. Sisällyttäminen. Vatikaani väittää, että haluamme varmistaa, että kaikki saavat yhtä hyvän (tai huonon) koulutuksen tekoälytyökalujen avulla. He mainitsevat ”yhtäkään lasta ei jätetä jälkeen” -politiikan esimerkkinä, jota kannattaa seurata. Tässä Vatikaani ei lue tilannetta, koska useimmat ihmiset ovat tietoisia siitä, että tällaiset ohjelmat Yhdysvalloissa johtivat nopeasti standardoituihin opetussuunnitelmiin ja opettajien kohteluun koulutettuina apinoina, mikä aiheutti massiivisen laskun Yhdysvaltain koululaisten suorituksissa. Niin kutsuttu ”inkluusio” johtaa kaikkien standardien alentamiseen ja kaikkien mukauttamiseen.
3. Vastuu. Ryhmä, jonka Vatikaani olettaa olevan vastuussa siitä, mikä on ”eettistä” kaikille, koostuu ”poliittisista päätöksentekijöistä, YK-järjestelmän virastoista ja muista hallitustenvälisistä järjestöistä, tutkijoista, akateemisesta maailmasta ja kansalaisjärjestöjen edustajista”. Ei ole toivottavaa, tietenkään, tehdä niin kutsutusta eliittiryhmästä ”vastuullista” kaikkien muiden puolesta tehtävistä valinnoista, varsinkin kun heitä ei tavalliseen tapaan pidetä vastuullisina, jos heidän päätöksensä aiheuttavat sanoinkuvaamatonta vahinkoa. Tämä ei ole ”vastuuta” lainkaan. Oikea sana on ”kontrolli”.
4. Puolueettomuus. Neuroverkkojen tekoäly on luonteeltaan puolueellinen. LLM:t stereotypisoivat steroideilla. (Katso artikkelini ”AI, Stereotyping on Steroids and Alan Turing’s Biological Turn”.) Minkä tahansa neuroverkon tuotos perustuu niin sanottujen ”piilotettujen kerrosten” vinoumiin. Esimerkiksi, neuroverkko voisi luokitella yksilön todennäköiseksi rikoksesta epäillyksi joidenkin mielivaltaisten henkilöä koskevien tietojen perusteella, kuten sen perusteella, onko hän valmistunut yliopistosta, asunut isänsä kanssa tai katsonut tiettyä Netflix-sarjaa. Puolueettomuus on mahdotonta saavuttaa millään neuroverkolla tai generatiivisella tekoälyllä.
5. Luotettavuus. LLM:t eivät ole tarkkoja, luotettavia tai totuudenmukaisia. Ne voivat olla, mutta ne eivät ole luonteeltaan ehdottoman tarkkoja. Todellista luotettavuutta on mahdotonta saavuttaa tekoälyn avulla, toisin kuin laskimen. Ihmiset saattavat ajatella, että kaikki tieto voidaan ohjelmoida laskukoneeseen samalla tavalla kuin aritmetiikka, mutta näin ei ole.
6. Turvallisuus ja yksityisyys. Verkossa ei tällä hetkellä ole turvallisuutta tai yksityisyyttä. Kun Vatikaani sanoo, että turvallisuutta ja yksityisyyttä voidaan suojata tekoälytyökaluilla, he joko eivät kerro totuutta tai he hallusinoivat. Ehkä joku LLM kirjoitti Rome Call -asiakirjan. Tekoälyteknologian tavoitteena on Täydellinen tiedon hallinta™. Ainoa tapa suojella yksilöiden yksityisyyttä (ja siten turvallisuutta) on kohdella yksityisyyttä perustuslaillisena perusoikeutena. Katso artikkelini How to Escape the Panopticon.
”EETTINEN” TARKOITTAA SUOSTUMUKSEN ANTAMISTA
Vaikka se ei päässytkään tekoälyetiikan kuuteen periaatteeseen, on olemassa yksi tavoittelemisen arvoinen tavoite, joka mainitaan Vatikaanin Rome Call -julkaisussa: ”Jokaisen ihmisen on oltava tietoinen, milloin hän on vuorovaikutuksessa koneen kanssa.” Asianmukainen nimeäminen on ensimmäinen askel kohti täysin tietoisen suostumuksen periaatetta.
Paavi Leo toisti paavi Franciscuksen erehtymättömän mielipiteen, jonka mukaan tekoäly on oikeudenmukainen työkalu, ei toimija. Tekoäly ei ole tietoinen tai kirjaimellisesti älykäs. Se ei tee päätöksiä sinänsä. Koska se on vain työkalu, mahdollisia haittoja voidaan hallita sen käyttötavalla. Koska teknologia on suhteellisen uutta, lapset tulisi sulkea pois kokeesta. Älypuhelinten käytön salliminen lapsille on jo osoittautunut tuhoisaksi. Puhelimet ja lisää tekoälyä on varmasti pahempaa.
Lapset eivät voi antaa suostumustaan.
Uusi paavi on myös aivan oikeutetusti ”huolissaan lapsista ja nuorista sekä tekoälyn käytön mahdollisista seurauksista heidän älylliseen ja neurologiseen kehitykseensä. Nuoriamme on autettava, eikä heitä saa estää, heidän matkallaan kohti kypsyyttä ja todellista vastuuta.”
Olen samaa mieltä.
Tässä ovat minun eettiset viitekehykset tekoälylle:
1. Mitään dataa ei saa käyttää tekoälyn kouluttamiseen ilman datan tuottaneen henkilön tai sen henkilön, josta data on tallennettu, täyttä tietoon perustuvaa suostumusta.
2. Käyttäjällä on oltava täysi hallinta algoritmista, joka suodattaa hänen verkossa näkemänsä.
3. Käyttäjällä on vastuu päättää, mikä sisältö on luotettavaa.
4. Käyttäjällä on täysi määräysvalta siihen, kuka voi nähdä hänen sisältöään.
5. Lasten ei pitäisi päästä internetiin tai muihin digitaalisiin ohjelmiin esteettä. Alaikäiset saattavat tarvita erityispuhelimia.
6. Vanhempien tai huoltajien on päätettävä, mitä ohjelmia heidän lapsensa voivat nähdä tai käyttää ja kenen kanssa he voivat kommunikoida. Vierailla ei pitäisi olla pääsyä lasten luokse yksityisiä keskusteluja varten.
Eettiset ohjeeni tappaisivat tekoäly-yritysten liikevoitot – ja edellyttäisivät useimpien valtion ohjelmien lopettamista nykyisessä muodossaan. Tekoäly-yritysten olisi koulutettava kaikki oikeustieteen maisterinsa uudelleen julkisten tietojen käyttöön tai maksettava ja saatava vapautuksia kaikilta, joiden tietoja ne käyttivät. Kaikki henkilöllisyyteen linkitetyt kansalaisten tietoprofiilit olisi tuhottava, mukaan lukien kaikki ne tiedostot, joihin DOGE on törmännyt ja lähettänyt Palantirille.
Hallituksen olisi lopetettava kaikki ohjelmat ja käytännöt, jotka edellyttävät kansalaisilta mahdollisesti arkaluonteisten tietojen paljastamista. Hallituksen olisi löydettävä tapoja palvella ihmisiä loukkaamatta heidän yksityisyyttään ja asettamatta heitä vaaraan.
TEKOÄLY, KAIKKINÄKEVÄ NUDGE-TUUPPAAJA
Tekoälyn kehitys on matkalla kohti täysin tietoon perustuvan suostumuksen poistamista. Sitä käytetään juuri siihen tarkoitukseen, että ihmiset suostuisivat tulemaan tuupatuiksi mukaan konsensukseen. Sitä käytetään antamaan ihmisille vapauden illuusio, kuten videopelaajille, joille esitetään erilaisia vaihtoehtoja erilaisten juonikuvioiden luomiseen, mutta todellisuudessa polkuja on rajallinen määrä ja ne kaikki johtavat samaan aitaukseen.
Isä Paolo Benanti, paavi Franciscuksen teknologiaetiikan neuvonantaja, on äskettäin ottanut kantaa tekoälyn tuuppaamiseen. Epäilen, että Benanti on saattanut olla yksi Rome call -asiakirjan kirjoittajista, joten voi olla tärkeää tietää, mitä hän ajattelee tästä asiasta. Hän on oikeassa huomauttaessaan [korostus lisätty],
…yksi ihmisarvon ydinelementeistä on kyky itse määrittää elämänpolkumme. Mielestäni se on ydinelementti esimerkiksi itsenäisyysjulistuksessa…
Siinä suunnassa meillä voi olla ongelma … Joka kerta, kun suoratoistopalvelu ehdottaa, mitä voit katsoa seuraavaksi … tuo ihmisten ja koneiden välinen vuorovaikutus voi tuottaa käyttäytymistä… joka voi häiritä elämänlaatuamme ja onnellisuuden tavoitteluamme. Tämä on jotain, josta on keskusteltava.
…Siksi meidän on kysyttävä itseltämme: tarvitsemmeko tähän liittyen jotain kognitiivisen oikeuden kaltaista? Että olet suhteessa koneeseen, jolla on taipumus vaikuttaa käyttäytymiseesi.
Mutta tunnistettuaan ongelman selvästi, Benanti väittää sitten turhaan, että vaikka huono tuuppaus on huonoa, hyvä tuuppaus on hyvää.
Tuuppaus ei ole suostumusta. Se on ihan pikkuruisen pakottamista.
Benanti jatkaa,
Sitten voit hyväksyä sen [hyvä tuuppaus]: ”Minulla on diabetes, tarvitsen jotain, joka auttaa minua pysymään insuliinissa. Mennään.” Sama asia tapahtuu älykellon kanssa, kun sinun on suljettava soinnit. Kone painostaa sinua terveelliseen käyttäytymiseen, ja me hyväksymme sen…
Jos meillä on oikeus ”kykyyn itse määrittää elämänpolkumme”, se tarkoittaa, että meidän pitäisi olla paremmin tietoisia eri vaihtoehdoista sen sijaan, että meille näytetään vain muutamia ja meitä tönäistään kohti yhtä niistä.
Benanti jatkaa,
Kun olet 65-vuotias, käytät todennäköisesti kolmea eri lääkettä päivässä. Kun saavutat 68–70-vuotta, sinulla on todennäköisesti yksi krooninen sairaus. Krooniset sairaudet riippuvat siitä, kuinka hyvin pysyt hoidossa. Ajattele keskustelua insuliinista ja diabeteksesta. Jos unohdat ottaa lääkkeesi, elämänlaatusi heikkenee merkittävästi. Kuvittele käyttäväsi tätä järjestelmää auttaaksesi ihmisiä pysymään hoidossaan. Onko se huono asia? Ei tietenkään. Tai ajattele sen käyttöä työpaikalla työturvallisuuden parantamiseksi. Onko se huono asia? Ei, ei tietenkään.
Ja siinä se on. Vatikaanin tekoälyn eettisen neuvonantajan neuvo on: tee niin kuin asiantuntijat sanovat. Älä kyseenalaista sitä väistämätöntä tarvetta käyttää kolmea eri lääkettä 65-vuotiaana. Älä kyseenalaista, mikä aiheutti kroonisen sairauden, jonka kehitit 68. tai 70. ikävuoteen mennessä. Älä mieti, olisitko terveempi ilman ”hoitoasi”.
Onko ”huonoa” tuupata ihmisiä tekemään oikein? Kyllä, jos se lannistaa heitä ajattelemasta itse.
TIETOON PERUSTUVAN SUOSTUMUKSEN PYYTÄMINEN ILMAN TIETOJEN ANTAMISTA ON PETOS
Tällä hetkellä liian monet tekoälyetiikan asiantuntijat tavoittelevat uber-suunnitelmaa, joka pakotetaan kaikille. Tämä on tulemista eettiseen kysymykseen eläimen väärästä päästä. Etiikan ytimessä on yksilön valinta sekä vapaan ja täysin tietoon perustuvan suostumuksen opinkappale.
Nürnbergin oikeudenkäyntien jälkeen, aloimme soveltaa tätä opinkappaletta suojellaksemme tieteellisen tutkimuksen kohteita. Valitettavasti, kuten joku asiaan perehtynyt on havainnut, sääntelyä on viime aikoina vesitetty paljon esimerkiksi ”nopeutettujen tarkistusmenettelyjen liikakäytöllä tietyntyyppisissä tutkimuksissa, joihin liittyy vain ’minimaalinen’ riski, ja pienissä muutoksissa aiemmin hyväksytyssä tutkimuksessa”. Tämä antaa aiemman tutkimuksen vielä paljastamattomille ongelmille mahdollisuuden levitä vapaasti uuteen tutkimukseen.
Yhdysvaltain terveys- ja ihmispalveluministeriö (HHS – US Department of Health and Human Service) esittää tietoon perustuvan suostumuksen säännöt Common Rule -säännöstössään, joka minusta tuntuu olevan täynnä reikiä. Siinä ei täsmennetä ”riskien” määrittämisen menettelyjä. Siinä mainitaan hölynpölyä mahdollisuudesta luopua suostumuksesta, jos siitä on ”yleistä hyötyä”.
Siinä ei täsmennetä seurauksia tutkijoille, jotka joko eivät täysin ilmoita riskeistä, tai jotka eivät pyri tutkimaan mahdollisia riskejä. Joissakin tapauksissa, voi olla mahdotonta tiedottaa tutkimuksen kohteille täysin, jos kokeen mahdolliset vaarat ovat tuntemattomia. Siinä ei mainita tarvetta tiedottaa tutkittaville siitä, mitä keinoja heillä on käytettävissään, jos heille aiheutuu vahinkoa.
Valitettavasti, tietoon perustuvasta suostumuksesta on tullut pelkkä muodollisuus, jolla suojellaan tutkimuslaitosta vastuulta. Tämä sääntö oli voimassa Covid-19 rokotteen käyttöönoton aikana. Suostumuslomakkeen allekirjoittaminen toimii nyt enemmänkin oikeuksista luopumisena. Samoin ”täydellinen” tiedottaminen tarkoittaa nyt tärkeiden tietojen täyttämistä suurella määrällä lakikieltä, mikä johtaa useiden sivujen mikrokokoiseen fonttiin.
Kuinka katkeran ironista onkaan, kun meitä suojelemaan suunniteltu työkalu on aseistettu meitä vastaan.
SUURI TEKOÄLYKOE VÄESTÖLLÄ
Yhteiskunta on jo altistunut algoritmeille, tekoälykeskusteluboteille ja syväväärennöksille, jotka ovat vain jalostettuja versioita markkinointi- ja propagandatekniikoista, joita on käytetty ihmisten manipulointiin ihmiskunnan alusta asti. Mutta emme vielä ymmärrä uuden teknologian mahdollisia lisähaittoja, jotka saattavat ylikuormittaa luonnollista kykyämme erottaa totuus valheista.
Olemme kaikki globaalin kokeen kohteita.
Näin ollen, yleisön on voitava jättäytyä pois, kieltäytyä antamasta suostumustaan osallistua tähän kokeeseen. Vanhempien on varmasti voitava hallita, mihin ohjelmiin, peleihin ja sovelluksiin heidän lapsillaan on pääsy. Vaatia kaikilta internet-tunnusta, jossa on ikätodistus, ei ole tapa suojella lapsia. ”Lasten suojeleminen” on jälleen yksi autoritaarien peitetarina, jolla he pyrkivät poistamaan yksityisyyden verkossa kokonaan. (Katso Libre Solutions internet-tunnukseen liittyvästä kysymyksestä.)
Olin häiriintynyt, mutta en yllättynyt nähdessäni Robloxin, lapsille tarkoitetun videopelin, listattuna AI.gov-sivustolla yhtenä kasvatuksellisten tekoälyohjelmien tarjoajana. Vuonna 2024, kuten NBC raportoi, aikuinen nainen nimeltä Tara Alexis Sykes käytti Robloxia kertoakseen sijaiskodissa olevalle 10-vuotiaalle tytölle, kuinka tappaa kotona oleva vauva. Tyttö yritti kahdesti, ja vauva loukkaantui vakavasti.
Kuten SFGate raportoi, Robloxia vastaan on nostettu useita oikeusjuttuja, koska se on toiminut pedofiilien keinona groomata pieniä lapsia ja saada heitä tapaamaan henkilökohtaisesti heidät raiskatakseen.
Älä luota siihen, että hallitus, asiantuntijat tai uskonnolliset johtajat suojelevat lapsiasi. Se on sinun vastuullasi. Mikään uusi kehys ei voi suojella lastasi samalla tavalla kuin sinä.
Yleisesti ottaen, eettiset viitekehykset antavat niitä asettaville instituutioille uskottavan ulospääsyn, tekosyyn sanoa: ”Noudatimme vakio-ohjeita, joten emme ole vastuussa haitoista.” Kuvittele, jos jokaisella alustalla, pelillä tai ohjelmalla olisi lyhyt varoitus siitä, että kyseinen tuote tai palvelu saattaa liittyä neurologisiin haittoihin, jotka johtavat psykoosiin, masennukseen tai aggressioon, tai se voi helpottaa petoksia tai seksuaalista pahoinpitelyä.
Mitään tällä alustalla olevista tiedoista ei ole varmennettu ja monet alustan toimijoista saattavat olla chatbotteja, jotka levittävät virheellistä tietoa, tai saattavat olla saalistajia. Kaikki tällä alustalla tekemäsi tallennetaan mahdollista tulevaa käyttöä varten sinua vastaan, etkä tällä hetkellä voi hallita tilannetta, koska yhteiskunta on jo pitkällä dystopian tiellä. Ei sovi alle 18-vuotiaille, ja neurologiset haitat voivat olla merkittävä riski parikymppisille – ajanjaksolla, jonka aikana tapahtuu ratkaiseva aivojen kehitys.
Nimeäminen on ensimmäinen askel kohti tekoälyn etiikkaa.
Artikkelin on kirjoittanut VN Alexander ja se on julkaistu OffGuardian sivuilla 7.8.2025 sekä luvalla suomennettu ja julkaistu Rakkausplaneetan sivuilla.
Alkuperäisen artikkelin löydät täältä:
off-guardian.org: We Don’t Need a New Framework for AI Ethics


