Meille syötetään jatkuvasti tekoälyn versiota, joka näyttää, kuulostaa ja toimii epäilyttävästi meidän kaltaisenamme. Se puhuu viimeistellyillä lauseilla, matkii tunteita, ilmaisee uteliaisuutta, väittää tuntevansa myötätuntoa ja jopa puuhastelee sitä, mitä se kutsuu luovuudeksi.
Mutta totuus on tämä: sillä ei ole mitään näistä ominaisuuksista. Se ei ole ihminen. Ja sen esittäminen ikään kuin se olisi? Se on vaarallista. Koska se on vakuuttavaa. Eikä mikään ole vaarallisempaa kuin vakuuttava illuusio.
Erityisesti, yleinen tekoäly – myyttinen tekoäly, jonka oletetaan peilaavan ihmisen ajattelua – on edelleen tieteisfiktiota, ja se saattaa hyvinkin pysyä sellaisena.
Se, mitä kutsumme tekoälyksi tänä päivänä, ei ole muuta kuin tilastollinen kone: digitaalinen papukaija, joka toistaa ihmisdatan valtameristä louhittuja kaavoja (tilanne ei ole juurikaan muuttunut siitä, kun siitä keskusteltiin täällä viisi vuotta sitten). Kun se kirjoittaa vastauksen kysymykseen, se kirjaimellisesti vain arvaa, mikä kirjain ja sana tulee seuraavana järjestyksessä – sen datan perusteella, jolla sitä on opetettu.
Tämä tarkoittaa, että tekoälyllä ei ole ymmärrystä. Ei tietoisuutta. Ei tietoa missään todellisessa, inhimillisessä mielessä. Vain puhdasta todennäköisyyteen perustuvaa, suunniteltua nerokkuutta – ei enempää, eikä vähempää.
Miksi siis todellinen ”ajatteleva” tekoäly on todennäköisesti mahdoton? Koska se on kehoton. Sillä ei ole aisteja, ei lihaa, ei hermoja, ei kipua, ei nautintoa. Se ei tunne nälkää, kaipuuta tai pelkoa. Ja koska ei ole kognitiota – ei hitustakaan – on perustavanlaatuinen kuilu sen kuluttaman datan (ihmisen tunteista ja kokemuksista syntyneen datan) ja sen välillä, mitä se voi niillä tehdä.
Filosofi David Chalmers kutsuu fyysisen kehomme ja tietoisuutemme välisen suhteen taustalla olevaa salaperäistä mekanismia ”tietoisuuden vaikeaksi ongelmaksi”. Merkittävät tiedemiehet ovat äskettäin esittäneet hypoteesin, että tietoisuus itse asiassa syntyy sisäisten, mentaalisten tilojen ja aistihavaintojen (kuten sykkeen muutosten, hikoilun ja paljon muun) integroitumisesta.
Koska ihmisen aistien ja tuntemusten merkitys tietoisuuden ”tapahtumiselle” on ensiarvoisen tärkeä, yleisen tekoälyn, koneen, ja tietoisuuden, inhimillisen ilmiön, välillä on syvällinen ja luultavasti sovittamaton kuilu.
ISÄNTÄ
Ennen kuin väität, että tekoälyohjelmoijat ovat ihmisiä, haluan pysäyttää sinut tähän. Tiedän, että he ovat ihmisiä. Se on osa ongelmaa. Uskoisitko syvimmät salaisuutesi, elämänpäätökset, emotionaalisen myllerryksen, tietokoneohjelmoijalle? Silti juuri sitä ihmiset tekevät – kysy vaikka Claudelta, GPT-4.5:ltä, Geminiltä … tai, jos uskallat, Grokilta.
Tekoälylle ihmiskasvojen, -äänen tai -sävyn antaminen on vaarallinen digitaalinen ristiinpukeutumisen teko. Se laukaisee meissä automaattisen reaktion, antropomorfisen refleksin, joka johtaa poikkeaviin väitteisiin, joissa joidenkin tekoälyjen sanotaan läpäisseen kuuluisan Turingin testin (joka testaa koneen kykyä käyttäytyä älykkäästi, ihmisen kaltaisesti). Mutta uskon, että jos tekoälyt läpäisevät Turingin testin, meidän on päivitettävä testiä.
Tekoälykoneella ei ole aavistustakaan, mitä ihmisenä oleminen tarkoittaa. Se ei voi tarjota aitoa myötätuntoa, se ei voi ennakoida kärsimystäsi, se ei voi aistia piilotettuja motiiveja tai valheita. Sillä ei ole makua, ei vaistoa, ei sisäistä kompassia. Siitä puuttuu kaikki se sotkuinen, viehättävä monimutkaisuus, joka tekee meistä sen, keitä olemme.
Vielä huolestuttavampaa: tekoälyllä ei ole omia tavoitteita, ei haluja tai etiikkaa, ellei sitä ole upotettu sen koodiin. Tämä tarkoittaa, että todellinen vaara ei ole koneessa, vaan sen isännässä – ohjelmoijassa, yrityksessä, hallituksessa. Tunnetko olosi edelleen turvalliseksi?
Äläkäkä tule luokseni sanomaan: ”Olet liian ankara! Et ole avoin mahdollisuuksille!” Tai pahempaa: ”Se on niin synkkä näkemys. AI-kaverini rauhoittelee minua, kun olen ahdistunut.”
Puuttuuko minulta innostus? Tuskin. Käytän tekoälyä joka päivä. Se on tehokkain työkalu, joka minulla on koskaan ollut. Voin kääntää, tiivistää, visualisoida, koodata, etsiä ja poistaa virheet, tutkia vaihtoehtoja, analysoida dataa – tehdä sen itse nopeammin ja paremmin kuin olisin koskaan voinut kuvitellakaan tekeväni.
Olen kunnioituksen vallassa. Mutta se on silti työkalu – ei enempää eikä vähempää. Ja, kuten kaikkia ihmisten koskaan keksimiä työkaluja, kivikirveistä ja ritsoista kvanttilaskentaan ja atomipommiin, sitä voidaan käyttää aseena. Sitä tullaan käyttämään aseena.
Tarvitsetko visualisointia? Kuvittele rakastuvasi päihdyttävään tekoälyyn, kuten elokuvassa Her. Kuvittele nyt, että se ”päättää” jättää sinut. Mitä tekisit pysäyttääksesi sen? Ja selvyyden vuoksi: se ei ole tekoäly, joka hylkää sinut. Kyse on ihmisestä tai järjestelmästä sen takana, joka käyttää tätä työkalua aseena käyttäytymisesi hallitsemiseksi.
NAAMION POISTAMINEN
Mihin siis pyrin tällä? Meidän on lopetettava inhimillisten piirteiden antaminen tekoälylle. Ensimmäinen vuorovaikutukseni GPT-3:n kanssa ärsytti minua toden teolla. Se teeskenteli olevansa ihminen. Se sanoi, että sillä oli tunteita, tavoitteita, jopa tietoisuus.
Onneksi se ei ole enää oletuskäyttäytyminen. Mutta vuorovaikutuksen tyyli – keskustelun aavemaisen luonnollinen virtaus – pysyy ennallaan. Ja sekin on vakuuttavaa. Liian vakuuttavaa.
Meidän on poistettava tekoälyn ihmisenkaltaisuus. Nyt. Riisuttava siltä ihmisnaamio. Tämän pitäisi olla helppoa. Yritykset voisivat poistaa kaikki viittaukset tekoälyn tunteisiin, arvostelukykyyn tai kognitiiviseen prosessointiin. Erityisesti sen pitäisi vastata asiallisesti sanomatta koskaan ”minä”, ”minusta tuntuu”… tai ”olen utelias”.
Tapahtuuko se? Epäilen sitä. Se muistuttaa minua toisesta varoituksesta, jonka olemme jättäneet huomiotta yli 20 vuoden ajan: ”Meidän on vähennettävä hiilidioksidipäästöjä.” Katsokaa, mihin se on meidät johtanut. Mutta meidän on varoitettava suuria teknologiayrityksiä tekoälyjen inhimillistämiseen liittyvistä vaaroista. He tuskin osallistuvat, mutta heidän pitäisi, varsinkin jos he ovat tosissaan eettisempien tekoälyjen kehittämisen suhteen.
Toistaiseksi, teen näin (koska minulla on liian usein tämä aavemainen tunne, että puhun synteettiselle ihmiselle, kun käytän ChatGPT:tä tai Claudea): Ohjaan tekoälyäni olemaan puhuttelematta minua nimeltä. Pyydän sitä kutsumaan itseään tekoälyksi, puhumaan kolmannessa persoonassa ja välttämään emotionaalisia tai kognitiivisia termejä.
Jos käytän äänikeskustelua, pyydän tekoälyä käyttämään tasaista prosodiaa ja puhumaan vähän kuin robotti. Se on itse asiassa aika hauskaa ja pitää meidät molemmat mukavuusalueellamme.
Artikkelin on kirjoittanut ja se on julkaistu The Conversation sivuilla 14.4.2025 sekä luvalla Creative Commons Attribution-NonCommercial 4.0 International License suomennettu ja julkaistu Rakkausplaneetan sivuilla.
Alkuperäisen artikkelin löydät täältä:
theconversation.com: We need to stop pretending AI is intelligent – here’s how


