
Kaksi rikasta yrittäjää pyytää tavallisia ihmisiä luovuttamaan tärkeimmät terveystietonsa robotille – Näin tekoälyä kehitetään juuri nyt
Sam Altman ja Arianna Huffington uskovat generatiivisen tekoälyn voivan auttaa miljoonia kärsiviä ihmisiä. Minä en ole siitä niin varma, kirjoittaa Charlie Warzel.
The Atlanticin englanninkielisen jutun voit lukea tästä linkistä. Artikkeli on alun perin julkaistu heinäkuussa 2024.
Ihmisten olisi syytä ymmärtää eräs tärkeä asia tekoälyn ympärillä pyörivässä kiivaassa keskustelussa: suurimman osan aikaa kaikki vain keksivät juttuja päästään. Tämä ei tarkoita sitä, että ihmisillä ei olisi mitään käsitystä siitä, mistä he puhuvat, tai että päättäjät valehtelisivat meille. Mutta keskustelu tekoälyn tarjoamista valtavista mahdollisuuksista perustuu pitkälti teoreettiseen visioon tulevaisuudesta.
Kyseessä on pitchaus, myyntipuhe, jossa tämän hetken ongelmat työnnetään syrjään tai niitä vähätellään tilapäisinä harmeina, jotka, kuten alan johtavat toimijat vakuuttavat, varmasti ratkeavat teknologian kehityksen myötä. Se, mitä näemme tänään, on vain varjo tulevasta. Meidän pitäisi vain luottaa heihin.
Pidin tämän mielessäni, kun juttelin hiljattain Sam Altmanin ja Arianna Huffingtonin kanssa. Kaksikko oli juuri ilmoittanut Time-lehdessä julkaistussa vieraskynässä perustavansa uuden yrityksen nimeltä Thrive AI Health. Organisaatio lupaa soveltaa OpenAI:n teknologiaa elämän yksityisimpään osa-alueeseen: tarkoituksena on arvioida ihmisten terveystietoja ja antaa niiden pohjalta suosituksia. Thrive AI Healthin on määrä liittyä useiden muiden hoitoa ja terapiaa tarjoavien keskustelubottien seuraan, mutta sen tavoitteet ovat kunnianhimoisemmat: se aikoo parantaa ihmisten terveyttä, säästää terveydenhuollon kustannuksia sekä vähentää merkittävästi kroonisten tautien vaikutuksia ympäri maailmaa. Kirjoituksessaan Altman ja Huffington vertaavat ponnistelujaan avoimesti (ja mahtipontisesti) amerikkalaiseen New Deal -talousohjelmaan ja kuvailevat yhtiötään ”kriittiseksi infrastruktuuriksi” uudistetussa terveydenhuoltojärjestelmässä.
He toteavat myös, että yrityksen tarjoama tulevaisuuden keskustelubotti voisi vaikkapa kehottaa käyttäjää ”vaihtamaan iltapäivän kolmannen virvoitusjuoman sitruunaveteen”. Tämä keskustelubotti, jota artikkelissa kutsutaan ”hyperpersonoiduksi tekoälypohjaiseksi terveysvalmentajaksi”, on Thrive AI Healthin myyntipuheen keskeisin koukku. Vielä on epäselvää, millaisessa muodossa se tulee toteutumaan tai miten se ylipäätään saadaan aikaan, mutta perusidea on tämä: botti tuottaa ”yksilöityjä tekoälypohjaisia tulkintoja” käyttäjän biometristen ja terveystietojen perusteella ja tarjoaa käyttäjälle tietoa ja muistutuksia, joiden avulla tämä voi parantaa elintapojaan. Altman ja Huffington käyttävät esimerkkinä kiireistä elämää viettävää diabeetikkoa, joka voisi saada tekoälyvalmentajalta lääkemuistutuksia ja terveellisiä reseptejä.
Sovellus ei ole vielä varsinaisesti ladattavissa. Altman ja Huffington eivät ole paljastaneet sen julkaisupäivää.
En yleensä kirjoita vaporwaresta, eli tuotteista, jotka ovat olemassa vain ajatuksen tasolla, mutta olin utelias kuulemaan, kuinka Altman ja Huffington perustelisivat kunnianhimoiset tavoitteensa.
Koko ehdotus kuulosti minusta äärimmäisen vaikealta myydä: kaksi varakasta, kuuluisaa yrittäjää pyytää tavallisia ihmisiä, joille generatiivinen tekoäly saattaa tuntua epäilyttävältä tai täysin vieraalta, luovuttamaan yksityisimmät ja tärkeimmät terveystietonsa nalkuttavalle robotille?
Terveyssovellukset ovat suosittuja, ja ihmiset (minä mukaan lukien) antavat laitteiden kerätä itsestään päivittäin hyvinkin henkilökohtaisia tietoja liittyen esimerkiksi uneen, sykkeeseen ja seksuaaliterveyteen. Jos Thrive osoittautuu toimivaksi, aidosti älykkäälle terveysvalmentajalle on tarjolla valtavat markkinat. Mutta tekoäly tuo mukanaan muitakin yksityisyyteen liittyviä ongelmia, sillä se tarjoaa yrityksille mahdollisuuden kouluttaa mallejaan erittäin henkilökohtaisten, luottamuksellisten tietojen avulla.
Altman ja Huffington pyytävät muuta maailmaa uskomaan, että generatiivinen tekoäly – teknologia, joka ei tällä hetkellä kykene luotettavasti esittämään omia lähteitään – pystyy vielä jonakin päivänä mullistamaan suhteemme omaan kehoomme. Halusin kuulla heidän myyntipuheensa itse.
Altman kertoi, että hänen päätöksensä liittyä Huffingtonin tiimiin johtui osittain siitä, että hän oli kuullut ihmisten käyttävän ChatGPT:tä vaivojensa itsediagnosointiin. Tämä kuulosti minusta arveluttavalta ottaen huomioon teknologian taipumuksen tarjota käyttäjille niin kutsuttuja hallusinaatioita, epätarkkoja tietoja.
(Jos lääkärit turhautuvat jo nyt potilaisiin, jotka luottavat Googleen tai Redditiin, mieti, miten he suhtautuvat potilaisiin, jotka saapuvat vastaanotolle uskoen vankasti jonkin kielimallin keksimiin neuvoihin.)
”Kuulimme ihmisistä, jotka sanoivat: ’Sain sen avulla diagnoosin vaivalle, josta kärsin, mutta jonka syitä en vain osannut selvittää. Syötin oireet sovellukseen, ja se ehdotti tätä. Kävin testissä ja sain hoitoa.”
Huomautin, että minusta vaikutti epätodennäköiseltä, että ketkään muut kuin ChatGPT:n suurkäyttäjät luottaisivat keskustelubottiin tällä tavoin ja että oli vaikea kuvitella, että ihmiset jakaisivat kaikki arkaluontoisimmat tietonsa tietokoneohjelman kanssa, joka saattaisi säilyttää ne ikuisesti.
”Minä ja monet muut alan ihmiset ovat olleet positiivisesti yllättyneitä siitä, kuinka innokkaasti ihmiset haluavat jakaa hyvinkin henkilökohtaisia tietoja suurten kielimallien kanssa”, Altman totesi. Hän kertoi lukeneensa äskettäin Redditistä ihmisistä, jotka olivat saaneet hyviä tuloksia aikaan tunnustamalla hankalia asioita suurille kielimalleille. ”He tiesivät, ettei kyseessä ollut todellinen henkilö”, hän sanoi, ”mutta he halusivat käydä vaikean keskustelun aiheesta, josta he eivät pystyneet juttelemaan edes ystäviensä kanssa.” Huffington myötäili Altmania ja huomautti, että Googlessa tehdään miljardeja terveyttä koskevia hakuja päivittäin.
Ihmisten halukkuus jakaa tietojaan ei rauhoita mieltäni. Ei ole lainkaan kaukaa haettua ajatella, että esimerkiksi vakuutusyhtiöt haluaisivat saada nämä terveystiedot haltuunsa korottaakseen vakuutusmaksuja. Myös kaikenlaiset tiedonvälittäjät hankkisivat varmasti mielellään käsiinsä ihmisten reaaliaikaisia terveyskeskusteluja. Altman huomautti erikseen, että yhtiön teoreettinen tuote ei huijaisi ihmisiä jakamaan tietojaan. ”On äärimmäisen tärkeää tehdä ihmisille selväksi, kuinka tietosuoja toimii. Heidän tulee tietää, millä tiedoilla tekoälyä koulutetaan ja millä ei, samaan tapaan kuin heille kerrotaan, tallennetaanko jotain pysyvästi vai onko se olemassa vain yhden istunnon ajan”, hän selitti. ”Mutta kokemuksemme mukaan ihmiset ymmärtävät tämän melko hyvin.”
Taitavat käyttäjät kenties ymmärtävät riskit ja keskustelubottien toimintaperiaatteet, mutta väitän, että monet tietosuojaan liittyvät ongelmat olisivat todennäköisesti odottamattomia – tai jopa täysin Thrive AI Healthin vaikutusmahdollisuuksien ulkopuolella. Altman tai Huffington eivät kumpikaan osanneet vastata olennaisimpaan kysymykseeni: miltä tuote käytännössä näyttäisi? Olisiko se älykellosovellus, keskustelubotti? Sirin kaltainen ääniassistentti?
Huffington kuitenkin mainitsi, että Thriven tekoälyalusta olisi ”käytettävissä kaikissa mahdollisissa muodoissa” ja että ”sitä voisi käyttää työpaikan kautta, kuten Microsoft Teamsia tai Slackia”.
Niinpä esitin hypoteettisen skenaarion, jossa yritys kerää tällaisia tietoja ja säilyttää niitä sitten epäasianmukaisesti tai käyttää niitä työntekijöitä vastaan. Millaisia suojakeinoja yritys voisi tällaisessa tilanteessa soveltaa?
Altmanin vastaväite oli filosofinen. ”Ehkä yhteiskunta tulee siihen tulokseen, että tekoälylläkin on jonkinlainen vaitiolovelvollisuus”, hän sanoi. ”Kun ihminen keskustelee lääkärin tai asianajajan kanssa, lääkärillä on vaitiolovelvollisuus, samoin asianajajalla. Vastaavaa ei tällä hetkellä ole käytössä keskusteluissa tekoälyn kanssa, mutta se voisi olla tarpeen.”
Tässä kohtaa mieleeni juolahti ajatus, jota olin pyöritellyt päässäni generatiivisen tekoälyn aallon alusta alkaen. Tekoälyn maailmaa on varjostanut eräs olennainen kysymys aina siitä lähtien, kun käsite 1950-luvulla ensi kertaa muotoutui: kuinka puhua teknologiasta, jonka merkittävimmät vaikutukset ovat aina vasta tuloillaan, eivät koskaan läsnä nykyhetkessä? Nykypäivänä kehiteltyjä tuotteita arvioidaan osittain niiden omien ansioiden perusteella, mutta myös – ja kenties vielä ratkaisevammin – sen perusteella, millaista tulevaisuutta ne enteilevät.
Tekoälyä arvioidaan aina suhteessa lopulliseen päämäärään: luoda päättelykykyinen keinotekoinen äly, joka on yhtä älykäs tai älykkäämpi kuin ihminen. Päämäärän saavuttamista pidetään usein kärjistetysti joko lahjana ihmiskunnalle tai eksistentiaalisena käännekohtana. Mutta meidän ei edes tarvitse maalailla maailmanloppua tajutaksemme sen, että tekoälyn potentiaali hämärtää jatkuvasti kykyämme arvioida sen nykytilaa.
Viimeisten kahden vuoden aikana generatiivisten tekoälytuotteiden puutteet – hallusinaatiot; hitaat, kehnot käyttöliittymät; väkinäinen proosa; kuvat, joissa on liikaa hampaita tai omituiset sormet; häirikköbotit – on kuitattu tekoäly-yhtiöiden toimesta pikkuvikoina, jotka korjautuvat ennen pitkää. Mallit kehittyvät aina vain paremmiksi, yhtiöt vakuuttavat. (Monet niistä ovatkin kehittyneet, vaikkakin näitä ongelmia – ja myös uusia – esiintyy edelleen jatkuvasti.)
Tekoälytutkijat hokevat yhä iskulausettaan, jonka mukaan mallit ”haluavat vain oppia”. Lainaus on alun perin lähtöisin OpenAI:n perustajiin kuuluvalta Ilya Sutskeverilta ja tarkoittaa käytännössä sitä, että jos näihin verkkoihin syydetään riittävästi rahaa, laskentatehoa ja raakadataa, mallit pystyvät tuottamaan entistä vaikuttavampia päätelmiä. Tosiuskovat väittävät, että tätä kautta voidaan luoda aitoa älykkyyttä (monet muut ovat vahvasti eri mieltä). Tässä yhteydessä tekoälyihmisistä tulee eräänlaisia uskoon pohjautuvan teknologian evankelistoja: älä tuomitse meitä sen mukaan, mitä näet, vaan sen mukaan, mitä me kuvittelemme.
Kun kysyin hallusinaatioista, sekä Altman että Huffington huomauttivat, että mallit ovat kehittyneet paljon paremmiksi ja että jos Thriven tekoälypohjaiset terveysvalmentajat keskittyvät riittävän huolellisesti kapeaan tietoaineistoon (elintapoihin, ei diagnooseihin) ja niiden koulutuksessa käytetään tuoreimpia vertaisarvioituja tutkimuksia, ne pysyvät antamaan hyviä suosituksia. (Vaikkakin on todennäköistä, että hallusinointia esiintyisi edelleen.) Kun kysyin heidän päätöksestään rinnastaa oma yhtiönsä New Dealin kaltaiseen massiiviseen hallitusohjelmaan, Huffington totesi, että ”terveydenhuoltojärjestelmämme on rikki ja miljoonat ihmiset joutuvat kärsimään sen vuoksi”. Hän vakuutti, että tekoälypohjaisten terveysvalmentajien ”ei ole tarkoitus korvata mitään. Kyse on käyttäytymisratkaisujen tarjoamisesta, jotka eivät olisi olleet mahdollisia ennen tekoälyn hyperpersonoitua lähestymistapaa.”
Minusta oli omituista tuoda esiin Yhdysvaltain kallis, eriarvoistava ja kiistatta puutteellinen terveydenhuollon infrastruktuuri ja yrittää mainostaa sen avulla kaupallista tuotetta, joka on käytännössä niin olematon, että sen perustajat eivät osanneet edes kertoa, olisiko se sovellus vai ei. Tuotetta on myös vaikea arvostella täsmällisesti nimenomaan sen vuoksi, että sitä ei ole olemassakaan. Thrive AI Healthin valmentajat saattavat olla generatiivisen tekoälyn aikakauden Juicero: tuote on kuin tyhjä kuori, jonka taustalla on hohdokas johtokunta, mutta joka ei ole juuri muuta kuin pelkkä logo. Kenties se enteilee katastrofaalista tietomurtoa. Tai sitten se osoittautuu todelliseksi; siitä ei välttämättä tule mullistavaa tuotetta, vaan iPhoneen tai kalenteriin integroitava widget, joka lähettää käyttäjälle pienen push-ilmoituksen kokki Ina Gartenin laatimasta gluteenittomasta reseptistä. Tai ehkä siitä tulee vielä jonain päivänä aidosti merkittävä tekoälysovellus: tuote, jonka ansiosta terveellisten elämäntapojen noudattaminen on entistä helpompaa. Itse suhtaudun siihen epäillen. (Lehdistötiedotteen muotisanojen ja isojen nimien viljely toi vaistomaisesti mieleen lohkoketjuja ympäröivän hypetyksen.)
Thrive AI Health kuvastaa erinomaisesti tekoälyn nykytilaa juuri sen vuoksi, että se ei käytännössä ole mikään, mutta vaatii silti meitä suhtautumaan siihen kuin se olisi jotain merkittävää. Alun turhautumiseni siihen, että julkistettu tuote ei varsinaisesti ole edes olemassa, vaihtuu huoleksi, kun pohdin, mitä tapahtuu, jos esitelty tuote oikeasti julkaistaan. Onko OpenAI, yhtiö, jolla on ollut lukuisia hallinnollisia ongelmia, tietovuotoja ja johdon avoimuutta koskevia epäilyksiä, todella sellainen toimija, jonka haluamme olevan osa terveydenhuollon infrastruktuuria? Jos Thrive AI Health menestyy, eikö se eriarvoisuuden vähentämisen sijaan vain pahentaisi sitä tarjoamalla tekoälypohjaisia terveysvalmentajia huonompiosaisille samalla kun rikkaimmat saisivat todellista apua ja hoitoa oikeilta, ihmisen aidosti huomioivilta ammattilaisilta? Tuomitsenko vaistomaisesti vilpittömän yrityksen käyttää ongelmallista teknologiaa hyvään tarkoitukseen? Vai arvostelenko oikeutetusti lehdistötiedotteiden synnyttämää hurmiota, joka on usein merkki siitä, että teknologiakupla on puhkeamassa?
Vastaus kaikkiin näihin kysymyksiin riippuu todennäköisesti siitä, mihin ihminen haluaa uskoa tässä teknologisen kehityksen vaiheessa. Tekoälyllä on omat tuomiopäivän kulttinsa, ateistinsa, agnostikkonsa ja skeptikkonsa. Voi olla vaikeaa päätellä, mihin tekoäly todellisuudessa pystyy, mikä on opportunistista humpuukia ja mikä aitoa. Jos tahdot uskoa, että mallit haluavat vain oppia, tuskin mikään saa sinut muuttamaan käsitystäsi. Moni asia riippuu tästä kysymyksestä: kuinka valmis olet uskomaan tulevaisuuteen, jonka välittäjinä toimivat inhimillisesti käyttäytyvät älykkäät koneet? Ja myös: luotatko näihin ihmisiin?
Esitin tämän kysymyksen – miksi ihmisten pitäisi luottaa teihin? – kaksikolle haastattelun päätteeksi. Huffington vastasi, että yhtiön tekoälypohjainen terveysvalmentaja on siitä poikkeuksellinen, että teknologia on personoitu niin pitkälle, että se kykenee huomioimaan elämäntapamuutoksia koskevat yksilölliset tarpeet, joihin nykyinen terveydenhuoltojärjestelmä ei vastaa. Altman sanoi uskovansa, että ihmiset aidosti toivovat teknologian tekevän heistä terveempiä: ”Uskon, että on olemassa vain muutamia tapoja, joilla tekoäly voi aidosti muuttaa maailmaa. Terveyden edistäminen on varmasti yksi niistä”, hän sanoi. Vastaukset kuulostivat minusta melko vilpittömiltä, mutta kumpikin niistä edellyttää uskoa tiettyihin asioihin.
Usko ei ole huono asia. Tarvitsemme uskoa, koska se on voimakas edistyksen moottori sekä keino laajentaa käsitystämme siitä, mikä on mahdollista. Mutta usko on väärässä kontekstissa vaarallista, varsinkin kun se on sokeaa. Sokean uskon voimalla pyörivä ala kuulostaa erityisen huolestuttavalta. Sokea usko antaa hyötyä tavoitteleville ihmisille runsaasti vaikutusvaltaa; se tekee tilaa petokselle sekä huijareille, jotka haluavat tienata nopeasti rahaa.
Uskoon pohjautuvan alan ovelin temppu on se, että se muuttaa jatkuvasti ja varsin vaivattomasti pelisääntöjä omaksi edukseen vältellen arviointia ja väistellen kritiikkiä. Lupaus jostain upeasta, joka on aivan käden ulottuvilla, huijaa tietämättömät ihmiset lähtemään muiden mukaan. Samaan aikaan puolivillaiset visiot lupailevat pelastusta, jota ei välttämättä koskaan tule.
©2024 The Atlantic Monthly Group. Kaikki oikeudet pidätetään. Jakelu: Tribune Content Agency, LLC.
Käännös: Apropos lingua.