Tekoäly ei ymmärrä mitään, mutta ihmiset pitävät sitä inhimillisenä – Joidenkin mielestä tekoäly on jopa jumala
Ihminen pitää kielimallia inhimillisenä, vaikka kyseessä on todennäköisyyskone. Osin tämä johtuu siitä, että tekoälyä myydään valheellisesti.
The Atlanticin alkuperäisen, englanninkielisen jutun voit lukea tästä linkistä.
Kesäkuun 13. päivä, vuonna 1863 vasta alkutaipaleellaan ollut uusiseelantilainen sanomalehti The Press julkaisi erikoisen yleisönosastokirjoituksen. Nimimerkki Cellarius varoitti lähestyvästä ”mekaanisesta valtakunnasta”, joka pian valjastaisi ihmiskunnan ikeeseensä. Kirjoittaja oli järkyttynyt teollistumisen ja teknologisen kehityksen päätä huimaavasta vauhdista.
”Koneet valtaavat alaa”, hän pauhasi. ”Päivä päivältä alistumme niille yhä syvemmin. Yhä enemmän miehiä sidotaan päivittäin orjiksi niitä hoitamaan. Yhä useammat miehet omistavat koko elämänvoimansa mekaanisen elämän kehittämiselle.”
Nykyään tiedämme, että kiivaan varoituksen takana oli nuori brittiläinen kirjailija Samuel Butler. Butler julkaisi myöhemmin romaanin Erewhon. Teoksessa esiintyy yksi englanninkielisen kirjallisuuden varhaisimmista tekoälypohdinnoista.
Nykyään Butlerin kauhistelema ”mekaaninen valtakunta” ei ole enää pelkkä hypoteesi, ainakaan teknologiatoimittaja Karen Haon mielestä. Hao puhuu mieluummin imperiumista.
Hänen uusi kirjansa Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI on sekä paljastuskirja Silicon Valleyn kulissien takaa eri puolilla maailmaa tehty tutkiva reportaasi. Se kuvaa työtä, jolla suuria kielimalleja, kuten ChatGPT:tä, rakennetaan ja koulutetaan.
Karen Haon teoksen lisäksi aiheesta ilmestyi juuri toinenkin kirja, The AI Con: How to Fight Big Tech’s Hype and Create the Future We Want. Sen ovat kirjoittaneet lingvisti Emily M. Bender ja sosiologi Alex Hanna. Molemmat kirjat paljastavat liioittelun, joka pitää suuren osan tekoälybisneksestä käynnissä.
Molemmat teokset – Haon kirja epäsuorasti ja Benderin sekä Hannan kirja suoraan – vihjaavat, että tekoälyalan perusta on huijaus.
