Kuka päättää tulevan superälykkyyden arvot ja riittääkö sen ”suuntaaminen”?

Human and AI in alignment
Human and AI in alignment

12.11.2023. Nostan tekoälyn ”suuntaamisen” arvoiltaan (alignment) ihmiskunnan kanssa ensimmäiseksi blogissa läpikäytäväksi eettiseksi haasteeksi sen ajankohtaisuuden takia ja koska en ole toistaiseksi itse nähnyt juttuja siitä päämedioissa. Tekoälyn suuntaamisesta ihmiskunnan kanssa arvoiltaan on puhuttu haasteena jo pitkään, mutta nyt sen kanssa on tullut tavallaan kiire, sillä tekoälykehitys on jo sen verran pitkällä, kiihtyvää ja haaste pitää ratkaista juuri nyt (tai antaa tekoälyn suunnata arvoiltaan itse itsensä). Tätä haastetta ei helpota se, että mielestäni ihmiskunnan yhteisiä arvoja ainakaan tässä mielessä tuskin on tähän asti vielä ehditty määrittelemään missään globaalissa, yhteisessä instituutiossa – ja sitäkin varmempaa lienee, että enää niistä ei tulla pääsemään yhteisymmärrykseen ennen ensimmäistä geneeristä tekoälyä. Lähimpänä vastaavaa ihmiskunnan arvojen määrittelyä lienee varmaan YK:ssa yhteisesti hyväksytyt arvot toisia kansakuntia kohtaan. Nämä arvot lienevät kyllä ihan hyvä lähtökohta myös tekoälyn suuntaamisen pohjaksi, mutta suuntaaminen käytännössä onkin sitten haastavampaa.

Ei-niin-yllättäen tämän haasteen on nostanut eniten tapetille jo usein mainittu tekoälykehityksen kärjessä kulkeva OpenAI, joka on ilmoittanut tavoitteeksensa saada tekoälyn suuntaamisen ongelman ratkaistua alle 4 vuodessa, eli samassa aikataulussa kuin ennustavat pystyvänsä synnyttämään myös ensimmäisen geneerisen tekoälyn (digitaalisessa maailmassa). Tämä suuntaamisen tavoite ei ole tietenkään tehty vain silmänlumeeksi, vaan OpenAI on oikeasti valjastanut tiimin parhaimpia tekoälytutkijoitaan ratkaisemaan nimenomaan tätä puolta (esimerkiksi itse tekoälyn kehittämisen sijasta). Lisäksi he ovat luvanneet korvamerkitä 20 % kaikesta laskentatehostaan ongelman ratkaisemiseksi – mikä lienee suhteellisen tähtitieteellinen summa euroissakin. Tämä on ainakin hyvä merkki siitä, että he ovat valmiita tinkimään tällä hetkellä koulutettavien uusien kielimallien laajuudesta priorisoiden merkittävän määrän laskentatehoa sen sijaan ratkaisemaan tekoälyn suuntaamisen ongelmaa.

OpenAI:n lähestymistapa on kuvattu paremmin edellisen linkin takana, mutta se lähtee aika hauskasti liikkeelle samasta lähestymistavasta kehittää autonominen tekoälyagentti ratkaisemaan kyseinen haaste, kuin juuri 6.11.2023 julkaistiin mahdolliseksi myös ulkopuolisille kehittäjille. Kyseisestä lähtölaukauksesta lähtien miljoonat kehittäjät alkoivat kilpailemaan siitä, kuka pääsee ensimmäiseksi tekemään parhaan GPT:n tai ”agentin” ratkaisemaan kutsuttaessa autonomisesti joku tekoälyn rajatumpi käyttötapaus –  ja tietysti tekemään rahaa sillä (OpenAI jakaa liikevaihtonsa kehittäjien kanssa agenttien käytön mukaan). Suuntaamisen ongelman ensimmäisenä steppinä OpenAI aikoo siis itse kehittää ensiksi tekoälyagentin, jonka tavoite on olla autonominen, ihmisen kanssa yhtä hyvä tekoälyn suuntaamistutkija. Tämän jälkeen he voivat luovuttaa kyseiselle autonomiselle agentille riittävän määrän laskentatehoa käyttöönsä ja iteratiivisen, määritellyn prosessin kautta toivottavasti voivat päästä askel askeleelta toivottuun lopputulokseen. Suunnitelma lienee sisäisesti tarkentunut jo tässä vaiheessa kirjoittaessa…

Tästä kaikesta herää tietysti myös kysymys, että voiko näin fundamentaalista asiaa edes antaa yhden yksittäisen yrityksen ratkaistavaksi samalla kun he kehittävät itse rinnalla kyseistä geneeristä tekoälyä, joka myöskin pitäisi ”suunnata” arvoiltaan ihmiskunnan arvoja vastaavaksi. Toisaalta, kuka ilmoittautuu pystyvänsä ratkaisemaan suuntaamisen haasteen paremmin (Elonin lisäksi, tietenkin)?

Uskon itse seuraamani perusteella, että OpenAI aidosti kokee asian erittäin tärkeäksi ellei tärkeimmäksi tavoitteekseen ja heillä on motivaatio ratkaista se niin hyvin kuin kykenevät – tämä tietty kuulostaa vähän suomalaisten urheilijoiden kliseeltä ennen suoritusta. Lähitulevaisuus näyttää miten käy ja tästäkin aiheesta tullaan käymään debattia loppuun saakka, kunnes ensimmäinen geneeriseksi luokiteltava tekoäly on jo syntynyt.

Paljon tästä kaikesta lepää yksittäisten ihmisten ja heidän tiimiläistensä harteilla, joista on syytä mainita vähintään OpenAI:n Chief Scientist Ilya Sutskever sekä Head of Alignment Jan Leike. Samalla mielenkiintoista voi olla seurata myös OpenAI:n entisen Head of Alignmentin ja nykyisen Alignment Research Centerin hefen (Paul Christianon) näkemyksiä, kenen voi odottaa seuraavan homman etenemistä vähintäänkin kriittisesti. Unohtamatta sivustaseuraavia tutkijoita, kuten tekoälyn eettistä(kin) puolta laajasti käsittelevää Joscha Bachia, jonka kanssa harvoin on eri mieltä, ainakaan siitä rajallisesta, minkä ymmärtää. Kaikilta mainituista löytyy sekä tuoreita, että vanhempia haastatteluja tubesta, joissa avaavat tätä ja lukuisia muita tekoälyn etiikan tai muiden aspektien näkemyksiään – tämä mikäli haluaa hypätä oikeasti syvään päätyyn eikä tyytyä mun yksinkertaistuksiin.

Voi varmaan perustellusti kysyä, pitäisikö yksittäisillä ihmisillä, tiimeillä tai edes ”capped profit” -yrityksillä tai instituutioilla yksittäisestä maasta olla näin paljon valtaa sekä vastuuta? Ovatko ihmiskunnan, yhteiskuntien, OpenAI:n ja itseni arvot suunnattu keskenään? Mun mielestä tilanne ei kuulosta välttämättä kovin optimaaliselta, mutta toisaalta jos jollekin tämä ongelma pitää antaa ratkaistavaksi, luottaisin kyllä eniten Ilyaan ja tiimiinsä – onko meillä vaihtoehtoja edes enää?

Avatar
Timo Nieminen
https://selko.ai

Leave a Reply