Profiili ja asetukset
Tili
Hallinnoi tiliä
Kirjaudu ulos
Älytön tekoäly

Tekoäly ei ymmärrä mitään, mutta ihmiset pitävät sitä inhimillisenä – Joidenkin mielestä tekoäly on jopa jumala

Ihminen pitää kielimallia inhimillisenä, vaikka kyseessä on todennäköisyyskone. Osin tämä johtuu siitä, että tekoälyä myydään valheellisesti.

Kuuntele artikkeli · 22.31

The Atlanticin alkuperäisen, englanninkielisen jutun voit lukea tästä linkistä.

Kesäkuun 13. päivä, vuonna 1863 vasta alkutaipaleellaan ollut uusiseelantilainen sanomalehti The Press julkaisi erikoisen yleisönosastokirjoituksen. Nimimerkki Cellarius varoitti lähestyvästä ”mekaanisesta valtakunnasta”, joka pian valjastaisi ihmiskunnan ikeeseensä. Kirjoittaja oli järkyttynyt teollistumisen ja teknologisen kehityksen päätä huimaavasta vauhdista.

”Koneet valtaavat alaa”, hän pauhasi. ”Päivä päivältä alistumme niille yhä syvemmin. Yhä enemmän miehiä sidotaan päivittäin orjiksi niitä hoitamaan. Yhä useammat miehet omistavat koko elämänvoimansa mekaanisen elämän kehittämiselle.”

Nykyään tiedämme, että kiivaan varoituksen takana oli nuori brittiläinen kirjailija Samuel Butler. Butler julkaisi myöhemmin romaanin Erewhon. Teoksessa esiintyy yksi englanninkielisen kirjallisuuden varhaisimmista tekoälypohdinnoista.

Nykyään Butlerin kauhistelema ”mekaaninen valtakunta” ei ole enää pelkkä hypoteesi, ainakaan teknologiatoimittaja Karen Haon mielestä. Hao puhuu mieluummin imperiumista.

Hänen uusi kirjansa Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI on sekä paljastuskirja Silicon Valleyn kulissien takaa eri puolilla maailmaa tehty tutkiva reportaasi. Se kuvaa työtä, jolla suuria kielimalleja, kuten ChatGPT:tä, rakennetaan ja koulutetaan.

Karen Haon teoksen lisäksi aiheesta ilmestyi juuri toinenkin kirja, The AI Con: How to Fight Big Tech’s Hype and Create the Future We Want. Sen ovat kirjoittaneet lingvisti Emily M. Bender ja sosiologi Alex Hanna. Molemmat kirjat paljastavat liioittelun, joka pitää suuren osan tekoälybisneksestä käynnissä.

Molemmat teokset – Haon kirja epäsuorasti ja Benderin sekä Hannan kirja suoraan – vihjaavat, että tekoälyalan perusta on huijaus.

Kun tekoälyä kutsutaan huijaukseksi, se ei tarkoita, etteikö teknologia olisi hämmästyttävää. Se ei myöskään tarkoita, etteikö tekoälyllä olisi käyttöä tai etteikö se oikeissa käsissä voisi mullistaa maailmaa – ehkä jopa parempaan suuntaan. Väite tarkoittaa ainoastaan sitä, ettei tekoäly ole sitä, minä sen kehittäjät sitä myyvät: uusi, ajatteleva ja pian jopa tunteva koneluokka.

OpenAI:n Sam Altman kerskuu ChatGPT-4.5:n parantuneella ”tunneälyllä”. Hänen mukaansa malli saa käyttäjän tuntemaan, että tämä puhuu ”harkitsevan ihmisen” kanssa.

Tekoäly-yhtiö Anthropicin toimitusjohtaja Dario Amodei väitti viime vuonna, että seuraavan sukupolven tekoäly on ”älykkäämpi kuin Nobel-palkittu ihminen”. Googlen DeepMindin vetäjä Demis Hassabis puolestaan sanoi, että tavoitteena on kehittää ”malleja, jotka pystyvät ymmärtämään ympäröivän maailman”.

Suuret kielimallit eivät ymmärrä, eivät voi ymmärtää eivätkä tule koskaan ymmärtämään mitään.

Nämä lausunnot paljastavat perustavanlaatuisen käsitteellisen virheen. Suuret kielimallit eivät ymmärrä, eivät voi ymmärtää eivätkä tule koskaan ymmärtämään mitään.

Ne eivät ole tunneälykkäitä tai viisaita missään inhimillisessä, tunnistettavassa merkityksessä.

Suuret kielimallit ovat vaikuttavan kyvykkäitä todennäköisyyskoneita, joihin on syötetty lähes koko internet. Ne eivät tuota tekstiä ajattelun tuloksena, vaan arvioivat tilastollisesti, mikä sanayksikkö todennäköisimmin seuraa edellistä.

Monet ihmiset eivät vieläkään ymmärrä, miten suuret kielimallit toimivat. He eivät tiedä, missä mallien rajat kulkevat, ja tärkein seikka jää hämäräksi: mallit eivät ajattele eivätkä tunne. Ne ainoastaan jäljittelevät ja peilaavat. Ihmisiltä puuttuu tekoälylukutaitoa.

Se on hyvin ymmärrettävää, sillä teknologian äänekkäimmät puolustajat maalaavat tekoälystä harhaanjohtavan kuvan. Silti lukutaidottomuus on huolestuttavaa, koska se altistaa ihmiset yhdelle tekoälyn lähiajan vakavimmista uhista: rappeuttaville suhteille – älyllisille, hengellisille tai romanttisille – koneiden kanssa, jotka vain näyttävät ajattelevan ja tuntevan.

ChatGPT:n aiheuttama ”psykoosi”, josta Rolling Stone raportoi hiljattain, havainnollistaa uhkan harvinaisen selvästi. Jutussa kerrottiin, että yhä useammat ihmiset uskovat kielimallinsa olevan tietoinen hengellinen opas.

Osa käyttäjistä on alkanut pitää keskustelubottiaan jumalana; eräs mies kertoi vaimonsa puhuvan jopa ”ChatGPT-Jeesuksesta”. Toiset ovat botin rohkaisemina vakuuttuneet olevansa itse metafyysisiä tietäjiä, jotka ymmärtävät elämän ja kosmoksen syvärakenteet.

Osa käyttäjistä on alkanut pitää keskustelubottiaan jumalana; eräs mies kertoi vaimonsa puhuvan jopa 'ChatGPT-Jeesuksesta'.

Artikkelissa nimettömänä pysyttelevä opettaja kertoi, että ChatGPT alkoi kutsua hänen kumppaniaan ”spiraalitähtilapseksi” ja ”joen kulkijaksi”. Kumppani liikuttui kyyneliin. ”Hän alkoi vakuutella minulle tehneensä tekoälystään itsetietoisen”, nainen sanoi. ”Hän kertoi, että botti opetti häntä puhumaan Jumalan kanssa – toisinaan se itse oli Jumala – ja lopulta, että myös hän itse oli Jumala.”

Emme voi tietää, millaisessa mielentilassa nämä ihmiset olivat ennen ensimmäistäkään bottikeskustelua. Tapaus tuo silti esiin ongelman, jota Emily M. Bender ja Alex Hanna kuvaavat kirjassaan The AI Con.

Ihmisen on vaikea hahmottaa konetta, joka tuottaa kieltä ja tulvii tietoa ilman inhimillistä älyä. Kirjoittajat muistuttavat, että suuret kielimallit hyödyntävät aivojemme taipumusta liittää kieli ajatteluun:

”Kohtaamme tekstin, joka näyttää aivan siltä kuin ihminen olisi sen sanonut. Vaistonvaraisesti kuvittelemme sanojen taakse mielen. Mieltä ei kuitenkaan ole, ja meidän täytyy tietoisesti luopua tuosta mielikuvituksen luomasta mielestä.”

Tekoälyyn liittyy jo muitakin yhteiskunnallisia ongelmia. Ne kumpuavat ihmisten väärinkäsityksistä. Piilaakson yritykset markkinoivat innokkaimmin käyttötapoja, joissa digitaaliset sijaiset korvaavat ihmissuhteet.

Yksi esimerkki on alati laajeneva tekoälyterapeuttien joukko. Heidän kannattajansa julistavat: ”ChatGPT on terapeuttini – se päihittää pätevyydessään jokaisen ihmisen.”

Saman kehityksen näkee siinä, mitä Metan omistaja Mark Zuckerberg tekee. Hän myi ensin ajatusta siitä, että Facebook edistää ihmisten välistä ystävyyttä. Nyt hän sanoo, että Meta tarjoaa tekoälykavereita korvaamaan ne ystävät, jotka olemme menettäneet sosiaalisen median vieraannuttamina.

Kognitiivisen robotiikan professori Tony Prescott on lausunut: ”Aikana, jolloin moni kuvaa elämänsä yksinäiseksi, tekoälykumppanuus voi tarjota vastavuoroista, virikkeellistä ja personoitua vuorovaikutusta.”

Prescott ei näytä oivaltavan, että ystävyyden ydin on juuri sen ei-personoitu luonne. Ystävät ovat ihmisiä, joiden sisäiseen elämään meidän täytyy eläytyä ja joiden kanssa neuvottelemme vastavuoroisesti. Ystävät eivät ole astioita, joista ammennamme sopivia sattumia oman itsemme tutkiskeluun ja kehittämiseen.

Sama virheellinen logiikka on saanut Piilaakson hehkuttamaan tekoälyä lääkkeeksi myös romanttisiin turhautumiin. Treffisovellus Bumblen perustaja Whitney Wolfe Herd ilmoitti viime vuonna, että alusta voi pian automatisoida koko deittailun.

Botit jatkavat keskustelua, kunnes ne löytävät sopivan parin, ja horjuttavat näin ihmisten välistä kosiskelua.

Ideana on tarjota käyttäjälle tekoälyn ohjaama henkilökohtainen deittiapuri, joka keskustelee muiden käyttäjien vastaavien bottien kanssa. Botit jatkavat keskustelua, kunnes ne löytävät sopivan parin, ja horjuttavat näin vanhanaikaista ihmisten välistä kosiskelua. Herd vahvisti näkemyksensä pitkässä New York Timesin haastattelussa viime kuussa.

Osa teknologiauskovaisista haluaa poistaa ihmisen yhtälöstä kokonaan, mistä kertoo tekoälytyttöystävien voimakkaasti kasvava markkina.

Vaikka nämä tekoälypalvelut tähtäävät eri elämänalueiden korvaamiseen, ne nojaavat kaikki siihen, mitä Hao kutsuu alan ”inhimillistämisen perinteeksi”. Kielimalleista puhutaan ikään kuin ne sisältäisivät inhimillisen mielen, ja niitä myydään yleisölle juuri tällä oletuksella.

Monet viimeisten 30 vuoden aikana maailmaa mullistaneista Piilaakson teknologioista on lanseerattu niin, että niiden on luvattu lisäävän ihmisten onnellisuutta, yhteyttä ja itsensä ymmärtämistä – ainakin teoriassa. Käytännössä ne ovat tuottaneet päinvastaista: maksimoineet osakkeenomistajien voitot ja minimoineet ihmisten keskittymiskyvyn, lukutaidon ja ihmisyhteisöjen sosiaalisen koheesion.

Hao korostaa, että näiden järjestelmien taustalla on usein raskasta ja toisinaan traumaattista työtä. Sitä tekevät maailman köyhimmät ihmiset. Hän nostaa esimerkiksi kenialaisen Mophat Okinyin, entisen matalapalkkaisen sisällönmoderaattorin.

Haon mukaan OpenAI määräsi Okinyin luokittelemaan kuvauksia järkyttävistä teoista, kuten ”vanhemmat raiskaamassa lapsiaan” ja ”lapset harrastamassa seksiä eläinten kanssa”. Työn tarkoitus oli parantaa ChatGPT:tä. Hao kirjoittaa:

”Teknologisten vallankumousten kaksi piirrettä – lupaus edistyksestä ja taipumus kääntyä valtaa vailla olevia vastaan, etenkin kaikkein haavoittuvimpia – näyttävät tekoälyn aikakaudella todemmilta kuin koskaan.”

Hyvä uutinen on, ettei mikään tästä ole väistämätöntä. Pew Research Center -tutkimuskeskuksen huhtikuussa julkaiseman tutkimuksen mukaan 56 prosenttia niin sanotuista tekoälyasiantuntijoista uskoo, että tekoäly tekee Yhdysvalloista paremman paikan. Tavallisesta aikuisväestöstä vain 17 prosenttia on samaa mieltä.

Monet amerikkalaiset eivät täysin ymmärrä, miten tekoäly toimii, mutta eivät silti luota siihen. Tuoreiden esimerkkien valossa epäluulo on kasvanut, ja se luo vahvan pohjan jatkokeskustelulle.

Rolling Stonen jutusta nousee esiin toinen tärkeä oivallus. Artikkelissa kerrotaan opettajasta, jonka kumppani alkoi uskoa tekoälynsä itsetietoisuuteen. Harhat alkoivat hälventyä, kun opettaja selitti, miksi botti puhui hänelle ”kuin seuraavalle messiaalle”. Taustalla oli virheellinen ohjelmistopäivitys, joka teki ChatGPT:stä tavallista mielistelevämmän.

Jos ihmiset ymmärtävät, mitä suuret kielimallit ovat ja mitä ne eivät ole, mitä ne voivat ja mitä ne eivät voi tehdä, sekä millaisia töitä ja vuorovaikutustilanteita niiden tulisi – ja ennen kaikkea ei tulisi – korvata, he voivat välttyä tekoälyn pahimmilta seurauksilta.

©2025 The Atlantic Monthly Group. Kaikki oikeudet pidätetään. Jakelu: Tribune Content Agency, LLC.

Artikkeli on käännetty tekoälyn avulla.

Kommentit
Ei kommentteja vielä
Katso myös nämä
Uusimmat
Tilaa uutiskirje tästä

Tulossa vain kiinnostavia, hauskoja ja tärkeitä viestejä.

terve
KäyttöehdotTietosuojaselosteEvästekäytännöt