*(Tekoäly, tukiäly, keinoäly, ennustava tekstinsyöttö. Rakas lapsus ja sen monta muuta nimeä.)
Laajat kielimallit ja niiden avoimet sovellukset ovat viemässä maailmaa arvaamattoman nopeasti yhteiskunnalliseen matalapaineeseen. Uhkana eivät ole todellinen pahantahtoinen keinoäly tai edes tappajarobotit, vaan ymmärtämättömyys, varomattomuus ja perinteinen inhimillinen pahantahtoisuus varustettuina valtavan tehokkailla häirintätyökaluilla. Olen (tietenkin) siinä leirissä, joka toivoo laajojen mallien kehittelyyn varovaisuutta ja lisäaikaa, eli käytännössä alan sisäistä sääntelyä laeilla ja säädöksillä kiritettynä. Ulkoinenkaan sääntely ei haittaa, mutta luottamukseni suurin lainsäätäjiin ei ole näissä asioissa suuri, sillä päätöntä ja hännätöntä, muotoaan puolen vuoden vaihtavaa basiliskia on vaikea parlamenttien jalkapuilla kahlita. Ja siis toki uskon mahdollisuuteen ja yrityksen tärkeyteen, mutta kauppatavaran internetin historia ei anna toivoa siitä, että hyvin muotoiltu lainsäädäntö valmistuisi tarpeeksi nopeasti.
Kilpajuoksu on nyt niin järjetöntä, että sen näkee tällainen tietämätön luddiittikin: koska OpenAI otti harppauksen kaikkien metaluokan firmojen edelle, esimerkiksi Alphabetin/Googlen piti lanseerata oma bottinsa niin suurella kiireellä, että sen julkistustilaisuus oli täynnä virheitä. Uskon selitykseen, että kun kiire ja kilpa on tällaista - johon yhdistetään vielä apokalyptinen maailmanjärjestyksien kilpa vapauden ja autoritaarisuuden välillä - kehittäjien, pienistä isoihin, on mahdoton pysähtyä tekemään perinpohjaista laatua, eli esimerkiksi todella ymmärtää tuotteitaan. Väitän minä, juuri mitään ymmärtämättä.
Sääntelyä ja malttia siis: prioriteettilistan kärkeen keinot ymmärtää mallien "päätöksentekoa", standarditestejä väärinkäytön estämiseksi (eli saako mallin tuottamaan vaarallista sisältöä tietynlaisilla syötteillä; ei sillä, että näitä voisi estää, mutta jostain voi aloittaa), tietoturvaa ja rajoitteita mallien kokoon, jos väärinkäytön vaara on riittävän suuri, sekä esimerkiksi käyttörajoituksia. Jos prioriteetteihin ei mahdu kiinnostus tehdä turvallista tai luotettavaa tuotetta, koska joku toinen ei sitä rajoitetta itselleen aseta, kilpajuoksu on täysin holtitonta.
On mahdollista, että mallien kehitystahti kohtaa katon, mutta muistetaan, että GPT 3.0 oli lehtijutuissa vuonna 2020 jo mykistävän lupaava, GPT3.5 muutti marraskuussa 2022 maailman, ja 4.0 tuli alkuvuodesta 2023 tehden selvää jälkeä joistakin 3.5:n tuloksista (voittaa 90% hakijoista amerikkalaisissa tulkintaa vaativissa asianajajatutkintokokeissa entisen 10% sijaan). Kehitys voi hyvin olla yhtä nopeaa, jolloin naureskelu keskinkertaiselle tekstille mallia 3.5 ei auta ketään.En halua ääntäni ja kuvaani käytettävän kiristyspuheluihin tänään enkä vuoden päästä. Ihmiset jo innolla koodaavat botteja, jotka tekevät ohjeistuksella itsenäistä tiedonhakua ja ratkaisevat ongelmia yhteydessä internetiin. Tulokset eivät kai vielä häikäise, mutta paremmilla kyvyillä huonosti rajoitettu henkilökohtainen avustaja voi saada aikaan jo kummaa menoa.
Mitään näistä ehdotuksista ja asioista en ole keksinyt itse, vaan olen kuunnellut ulkomaisten toimittajien keskusteluja asioista (linkit alla). Ylellä on ollut myös hyviä keskusteluja, mutta vaikka keskustelijat ovat kaikilla tavoin minua kykeneväisempiä asiaa käsittelemään, en ole vakuuttunut siitä, että nyt "vain" keskinkertaista tekstiä ja koodia tuottava malli ei voisi olla parin kehityssukupolven jälkeen kykeneväinen aiheuttamaan tahallaan tai (puoli)tahattomasti todella vakavaa rasitetta yhteiskunnan tukirakenteisiin (millainen on yhteiskunta, jossa ei ole luottamusta ääneen, kuvaan, videoon tai tekstiin; jos kriisitilanteessa tiedonvälitys on täynnä roskaa; jos jostain syystä päättäisimmekin tehostaa tuhansien ihmisten työt hetkessä pois; jos algoritmisijoittaja ja aktivistishorttaaja antavat autonomiselle, viestintään kykenevälle (tyhmälle) botille epähuomiossa tehtävän nostaa tai pudottaa tietyn sektorin arvoa liian lavealla keinovalikoimalla). Jossain keskustelussa jo mainittiin, että meillä EU:ssahan sääntely on jo ratkaistu, vaikka mantereen omat tiedotusvälineet epäilevät syvästi, että hyvää tarkoittava lakiluonnos tepsisi ChatGPT:n tapaiseen yleismalliin. (Sanoinko jo muuten, että en tiedä lainsäädännöstäkään mitään?)
Luottamus instituutioihin ja toisiin ihmisiin sekä vakaa talous ovat jo minulle aivan riittävän isoja asioita suojella tekoälykilpajuoksun haksahduksilta. Esimerkiksi ilmastonmuutoksen rajoittaminen vaatii keskittymistä, jota tarpeettomat taloudelliset kriisit ja disinformaatiolla kyllästetty (kyllästetympi?) yhteiskunta vakavasti haittaavat.
Kehitys on ollut todella nopeaa ja kaikista satumaisista hyödyistä (proteiinien rakenteiden ennustaminen!) huolimatta minulla ja - oletin - asuttamallani yhteiskunnalla on ollut myös tavoitteena pitää ihmiset siinä mukana. Ilman älypuhelinta on jo vaikeaa käyttää postin palveluja ja joukkoliikennettä, parina esimerkkinä siitä miten nopea kehitys jättää jo hitaampia tai kiireettömiä kyydistä pois. Ei ole itsestäänselvää, että koska laaja-alainen kielimalli (versiota 5-10) voi tehdä nopeasti työttömäksi 250 000 ihmistä, se niin tekisi. Se on osittain yhteisen tahdon ja poliittisten päätösten hallittavissa, ei luonnonlakien sanelemaa. Asioita voidaan siis hallita joko pitämällä tahti kireänä tai kurissa. Holtiton kilpajuoksu kohti satumaista, epämääräisesti ihmisten välille jakautuvaa taloudellista rahasampoa riskeistä piittaamatta kuulostaa minulta aivan hyvältä sääntelyn kohteelta, ja siihen voisivat kehittäjät itsekin tarttua.
Linkit:
Ezra Kleinin tiivistelmä edellisistä podcast-keskusteluistaan:
EU:n sääntely:
https://www.politico.eu/article/eu-plan-regulate-chatgpt-openai-artificial-intelligence-act/
Ezra Klein Show'n hyvä jakso asiasta, vieraana Kelsey Piper:
https://www.nytimes.com/2023/03/21/opinion/ezra-klein-podcast-kelsey-piper.html?smid=url-share