Millega tegelevad tehisintellekti ohutuse uurijad?
Richard Annilo
3. aprill 2019

Tehisintellekti ohud on ühiskonnas üha rohkem kõlapinda saamas. Stephen Hawking, Elon Musk ning Bill Gates on kõik väljendanud sügavat muret kiiresti arenevate autonoomsete agentide pärast. Eriti populaarne on see efektiivse altruismi kogukonnas – efektiivsetele karjääridele suunatud organisatsioon 80,000 Hours nimetab tehisintellekti ohutuse probleemi ja bioriske kõige olulisemaks.

Selleks, et teemasse enda jaoks selgust tuua, käisin ma Londonis efektiivse altruismi ülemaailmsel konverentsil EA Global 2018 ning suhtlesin tehisintellekti ohutuse ekspertidega DeepMindist. Siia artiklisse olen ma kokku võtnud mõned olulisemad mõtted ja mõisted neile, kes soovivad samuti ennast teemaga rohkem kurssi viia.

Kaks tehisintellekti tüüpi

Kõigepealt tuleks eristada kahte tüüpi tehisintellekti – ANI ja AGI. Esiteks räägitakse “nõrgast tehisintellektist”, mida kutsutakse enamasti nimega ANI ehk artificial narrow intelligence. See on definitsiooni järgi tehisintellekti vorm, mis on mõeldud vaid ühe kindla ülesande sooritamiseks ning mis saab hästi hakkama vaid sellega.

Seni on kõik maailmas loodud tehisintellektid just seda tüüpi. Näiteks võib tuua AlphaGo, kes oskab mängida lauamängu “Go” inimestest paremini, kuid kui tal paluda juhtida autot või maksta makse, jääks ta hätta. Kuna tema intelligentsus avaldub vaid ühes kitsas valdkonnas, kutsume teda ANI-ks.

Ohud, mida selline tehisintellekt põhjustada võib, on näiteks tööpuudus automatiseerimise tagajärjel, tehnoloogia sõjalistel või poliitilistel eesmärkidel kurjasti ära kasutamine jne. Kuigi need probleemid nõuavad kindlasti samuti suuremat kõlapinda ja tegutsemist ühiskonnas, ei ole need tehisintellekti ohutuse uurijad, kellest mina räägin, nende ohtudega niivõrd hõivatud. (Samas ei pruugi olla ANI ja AGI ohud alati üksteisest eristatavad.)

Põhjus on selles, et esiteks leidub teisi ohte, mille negatiivne mõju võib olla tunduvalt suurem, ning teiseks on inimesed neist ohtudest juba teadlikud ja nendega juba tegeletakse. Seepärast näeb ka näiteks DeepMindi töötajaid pigem tegelemas teist liiki ohtudega, millest nii palju ühiskonnas ei räägita, kuid mis võivad olla tunduvalt hävitavamate tagajärgedega. Need on tugevast tehisintellektist põhjustatud ohud.

Vastupidiselt nõrgale tehisintellektile on artificial general intelligence (ehk AGI või tugev tehisintellekt) osav iga võimaliku ülesande sooritamisel. Selleks võib olla lauamängu mängimine või autojuhtimine, aga ka planeerimine, inimestega suhtlemine ning iseseisvalt õppimine. Selliseid tehisintellekte ei ole veel olemas ja keegi ei tea, millal me mõne sarnase loome.

Ekspertide arvamused aja kohta varieeruvad nii indiviidi kui regiooni tasemel. On teadlasi, kes ootavad üldist tehisintellekti 2029. aastaks, kuid on ka neid, kes ei usu, et see enne järgmist sajandit juhtub. Keskmiselt aga arvatakse, et on 50% tõenäosus AGI tekkeks aastaks 2061 ning on 5% tõenäosus, et see toob kaasa katastroofilised tagajärjed (nagu näiteks inimkonna häving).

Olgugi et ekspertide seas on levinud erinevad ennustused, saab kindlalt öelda üht: ei ole paratamatu, et järgmise saja aasta jooksul luuakse tugev tehisintellekt, kuid see ei ole ka võimatu. Ning kuna sellega kaasnevad ohud võivad olla inimkonna jaoks katastroofilised, siis isegi kui selle toimumise tõenäosus on väike, ei ole mõistlik õnnega mängida, vaid tasub olla valmis. Sellel põhjusel peavadki tehisintellekti ohutuse uurijad oluliseks tegeleda just pigem AGI ohtudega, mitte ANI omadega.

Järgnevalt püüan aru saada, kuidas võib tugev tehisintellekt põhjustada katastroofilisi stsenaariume.

Tehisintellekti ja inimese erinevused

Inimesi ja masinaid eristavad eesmärgid ja motivatsioon. Inimesi motiveerib ohutus, söök, jook, soojus, lähedus, võim ja kuulsus. Tehisintellekte motiveerib see, mis on neile sisse kirjutatud. See võib olla näiteks võimalikult paljude pi-kohtade välja arvutamine või “Tetrise” mängus võimalikult paljude punktide kogumine. On palju raskem koostada programmi, mis oleks motiveeritud millestki abstraktsest, nagu tunnustusest või kuuluvustundest. Seega võib ka arvata, et esimesed AGI süsteemid on motiveeritud millestki inimese jaoks triviaalsest.

Tehisintellekti õpiprotsess näeb (väga-väga lihtsustatult) välja järgmiselt. Arendajad määravad ära, millised tegevused annavad punkte ja võtavad punkte ära. Programm üritab oma tegevusega saada võimalikult palju punkte. Selleks proovib ta erinevaid lähenemisi üsna suvaliselt ning jälgib, mis annab punkte juurde ja mis võtab neid ära, ning muudab oma käitumist tulevikus vastavalt.

See asjaolu on tehisintellekti ohutusprobleemide tuum. Kuna tehisintellekt jälgib vaid talle ette määratud funktsiooni, et eristada head halvast, võib ta seda valesti tõlgendada või käituda funktsiooni järgi sobivalt, kuid täielikus vastuolus arendajate tegelike soovidega. Just see konflikt implitsiitsete ja eksplitsiitsete AGI eesmärkide vahel ongi enamike ohuallikate tuum.

Sõnakuulelikkus võib olla ohtlik

Toome lihtsa mõtteeksperimendi. Kujutame ette firmat, mis toodab kirjaklambreid. Ütleme, et nad on välja arendanud AGI-tüüpi tehisintellekti, mis tähendab, et ta on inimesega vähemalt sama osav igas võimalikus valdkonnas. Kuna firma tahab oma tootlust suurendada, sõnastab ta ülesande AGI jaoks järgmiselt: “Tooda võimalikult palju kirjaklambreid.”

Selles stsenaariumis hoolib programm vaid talle konkreetselt ette antud eesmärgist ning mitte sellest, mida arendajad võisid selle eesmärgi taga mõelda. Seega on mõeldav, et AGI jaoks on kiireim viis eesmärgini jõudmiseks kõigepealt inimeste hävitamine, sest ta saab aru, et inimesed võivad teda kirjaklambrite tootmisel takistada (näiteks tema väljalülitamisega). Järgmiseks muudab ta kõik ressursid nii Maal kui ka teda ümbritsevatel planeetidel kirjaklambriteks. Tulemus on kooskõlas kirja pandud eesmärgiga, täielikus vastuolus inimese implitsiitse sooviga.

AGI ohutuse uurimuste keskmes on järgmine küsimus: kuidas me saame panna tehisintellekti käituma nii, nagu me päriselt soovime, kuigi me ei tea täpselt, mida me päriselt soovime.

Kokkuvõte

Tehisintellekti ekspert professor Stuart Russell on raamatus “Architects of Intelligence” öelnud järgmist: “Kui – või millal – me loome masinad, millel on päris maailmale määrav mõju, siis võib see tuua kaasa meie jaoks väga tõsise probleemi. … Me juba oleme teel loomaks asju, mis on meist tunduvalt võimsamad, kuid kuidagi peame me tegema nii, et nad ei saaks endale mitte mingil juhul võimu.”

Kokku võttes Stephen Hawkingi sõnadega, on tehisintellekt kas parim või halvim asi, mis inimkonnaga eales juhtunud on. Kui me oleme edukad, lahenevad ülejäänud probleemid, nagu vaesus, nälg või globaalne soojenemine tehisintellekti abil justkui iseenesest. Kui see aga ebaõnnestub, siis teist võimalust meil ei ole. Seepärast tuleks tegutseda võimalikult varakult.

Uuri rohkem:

Nõrga tehisintellekti ohud:

Tugeva tehisintellekti ohud:

Kui soovid täpsemalt ja tõsisemalt teemasse süveneda, siis siin on põhjalikud nimekirjad AI ohutuse infoallikatest:

Loe veel