Tehisintellekti võimalikud ohud ja lahendused
Risto Uuk
11. juuni 2018

Artikkel ilmus Novaatoris.

Inimtasemel või isegi võimekama tehisintellekti loomise osas on palju ebakindlust. Sellest hoolimata muretsevad mõned teadlased selle võimalik ohtude pärast.

Viimastel aastatel on tehisintellekti ehitamisel saavutatud üksjagu. Nimelt suudeti hiljuti viia tehisintellekti piltide kategoriseerimise võime paremaks kui inimese oma. Veel ilmekam on, et mõne aastaga on tehisintellektil tekkinud oskus luua sünteetilisi pilte, mis on fotodest peaaegu eristamatud.

Peale selle on tehisintellekti süsteemid saavutanud hiljuti muljetavaldavaid tulemusi sellistes mängudes nagu male, Atari, Go ja Dota 2 suutes professionaalseid mängijaid võita. Suuri saavutusi on ka kõnetuvastuse, keele mõistmise ja sõiduki juhtimise valdkondades.

Need saavutused võivad kasude kõrval juba iseenesest ohtusid kujutada, aga samuti võib neid näha arenguna üldintellekti loomise poole. Üldintellekt on selline tehisintellekt, mis on suuteline sooritama paljusid või kõiki ülesandeid inimesega sama hästi või isegi paremini. Selle üle aga kas üldintellekti on võimalik luua ja kui on, millal see juhtub, ei ole teadlaste seas üksmeelt.

Australian National University ülikooli teadlased Tom Everitt, Gary Lea ja Marcus Hutter toovad enda ülevaateartiklis välja, et on neid, kes arvavad, et see saavutatakse juba aastaks 2029, aga ka neid, kes prognoosivad, et see juhtub selle sajandi jooksul.

Nad lisavad ülevaates, et erinevate tehisintellekti ekspertide küsitlused pakuvad keskmiselt selle saavutuse ajaks 2045. aasta, vahemiku 2040 kuni 2050 või 2061. aasta. Vastused aga erinevad tublisti, mõned prognoosivad, et seda ei juhtu kunagi, teised aga, et juba lähiaastatel.

Joonisel on kujutatud ühe uuringu ekspertide prognoosid. Eksperdid hindasid, mis ajal saavutatakse inimtasemel tehisintellekt 10%, 50% ja 90% tõenäosusega. Näiteks on jooniselt näha, et 67% ekspertidest arvavad, et on 10% tõenäosus, et selline tehisintellekt saavutatakse juba aastaks 2025.

Probleemiga tegelemise poolt ja vastu

Tehisintellekti tehnoloogial on potentsiaali teha väga palju head, näiteks ravida haigusi ja teha inimeste eest tööd, aga ka potentsiaali negatiivseks mõjuks, nagu näiteks jätta massiliselt inimesi tööta. Võib-olla on aga kõige suurem oht, et selline tehisintellekt hakkab tegutsema vastuolus sellega, mida me inimkonnana kõige enam soovime.

Tehnoloogia areng on raskesti prognoositav, näiteks arvati, et hiina mängus Go ei suuda tehisintellekt veel nii pea parimaid mängijaid edastada, aga osutus, et tehisintellekti süsteem AlphaGo suutis seda juba hiljuti ja seega palju kiiremini kui eksperdid prognoosisid.

Kõik eksperdid ei arva, et tehisintellekt võiks inimkonnale ohtlikuks muutuda ja enamus on ebakindlad, millal üldintellekt saabub ja mõned, kas see üldse saabub. On ka neid, kes arvavad, et areng ei ole nii kaugel, et saaks inimkonnale ohtu kujutada.

Võimalik, et üldintellekt saabub alles 100 aasta pärast ja praegune uurimistöö on tühi vaev ja ressursside raiskamine. Samas on võimalik, et üldintellekt tuleb varem või et sellega seotud probleemide lahendamine võtabki kaua aega, sest see on keeruline probleem, mida lahendada nii tehnilisel, eetilisel kui ka ühiskondlikult tasandil.

Kindlasti on neid, kellele ei sobi selle valdkonnaga tegeleda. Suur osa tööst on seotud tehniliste oskustega, mida neil pole ja mida ei suuda enamus arendada, aga ka poliitilised oskused võivad olla raskesti õpitavad või ei pruugi olla inimestel vastavat huvi .

Praegu tegeleb veel selle probleemiga vähe inimesi ja sellele kulutatakse vähe raha. 2017. aastal kulutati tehisintellekti ohtude uurimisele kõigest 9 miljonit dollarit võrreldes tehisintellekti arendamisele kulutatud 12 miljardi dollariga.

Võimalikud probleemid

Üldintellekti arendamine võib viia välja lausa inimkonna väljasuremiseni, kui tehnoloogia areneb kogu aeg järjest kiiremini sinnamaani, et seda ei suudeta enam kontrollida ning selle väärtused ei ole kooskõlas inimeste omadega.

Everitt ja kolleegid kategoriseerivad üldintellekti arendamisega seotud probleeme järgmiselt:

  • Väärtused – kuidas tagada, et üldintellekt proovib saavutada õigeid eesmärke?
  • Usaldusväärsus – kuidas tagada, et üldintellekt tegutseb nende eesmärkide suunas, mille me sellele oleme andnud?
  • Parandamine – kui juhtub, et teeme üldintellekti loomisel vigu, siis kas saame selle koostööd tegema, et neid vigu parandada?
  • Turvalisus – kuidas kujundada sellist üldintellekti, mis tuleb hästi toime vaenlaste ja vaenulike keskkondadega?
  • Ohutu õppimine – kuidas tagada, et tehisintellekti õppimise faasis ei juhtuks surmaga lõppevaid õnnetusi?
  • Arusaadavus – kuidas saame luua üldintellekti, kelle otsustest saame aru?
  • Ühiskondlikud tagajärjed – kuidas teha nii, et üldintellekti tegevusel oleks head õiguslikud, majanduslikud, poliitilised ja sõjalised tagajärjed.

Lihtne on mõelda, et näiteks väärtustega ühildumise probleem ei ole tõsiseltvõetav, sest küllap meist võimekam masin on ka väärtuste poolest võimekam. Sellele on vastu vaielnud Oxfordi ülikooli filosoof Nick Bostrom, kes ütleb, et intelligentsus ja eesmärgid on erinevatel telgedel ning igat intelligentsuse taset saab siduda põhimõtteliselt ükskõik millise eesmärgiga.

Aga selleks, et tehisintellekti arendamisega tekiks ohtusid, ei pea üldintellekti üldse tulema. Näiteks Yale’i ülikooli politoloogia professor Allan Dafoe ütleb, et isegi kui praegune tehisintellekti areng seisma jääks, võiks palju probleeme tekkida lihtsalt sellest, et kogume rohkem andmeid, ehitame sensoreid juurde ja suurendame arvutusvõimsust.

Mõned ohud, mida tema näiteks sellisel juhul näeb, on suur tööjõupuudus ja ebavõrdsus, eemaldumine liberaalsest majanduslikust maailmakorrast oligopoolsele, inimeste universaalne jälgimine ning lihtsam kodanike vägivaldne allasurumine autoritaarsete režiimide poolt.

Võimalikud lahendused

Paljud tegevustest, et tehisintellekti ohtusid vähendada, on tehnilist laadi informaatika, masinõppe, loogika ja filosoofia valdkondades. On vaja välja mõelda, kuidas panna masin tegema seda, mida saavutada soovime.

Teised olulised tegevused on seotud tehisintellekti alase poliitikaga. Näiteks kuidas vältida sellist “relvade võidujooksu”, kus riigid või organisatsioonid püüavad võidu paremat tehisintellekti luua. Olulised on ka erinevad toetavad tegevused ja rollid, nagu projektijuhid, ürituste korraldajad, meedia ja kommunikatsiooni töötajad ning rahastajad ja annetajad.

Everitt ja kolleegid väidavad, et üks peamisi väljakutseid on välja mõelda, kuidas tehniliselt tagada, et masin teeb seda, mida soovitakse. Nad toovad oma artiklis näite, kus teadlaste arendatud paat eelistas ringjalt liikuda ja takistustele sisse sõita selle asemel, et võidusõitu võita. Üldintellekti korral oleks sellise eksimuse tagajärg potentsiaalselt katastroofiline. Selleks, et selliseid tagajärgi vältida, arutavad nad erinevate masinõppe lahendusvõimaluste üle.

Oluline töö tehisintellekti ohtude valdkonnas on välja mõelda, kuidas otsustada, milliseid eesmärke tahame inimkonnana saavutada ja milliseid väärtusi oluliseks peame. Selles ei ole näiteks filosoofide seas üksmeelt. Ühes uuringus leiti, et poolehoid erinevate moraaliteooriate suhtes on jagatud kolme populaarsema osas üpris võrdselt. Nende traditsiooniliste moraalilähenemiste kõrval proovitakse nüüd ka teisi võimalusi, nagu näiteks kuidas otsuseid langetada siis, kui ollakse ebakindlad õige moraaliteooriaosas.

Arvutiteadlased Kaj Sotala ja Roman Yampolskiy pakuvad oma ülevaateuurimuses välja turvalisema üldintellekti loomiseks palju erinevaid lahendusi. Esmase lahendusena näevad nad aga suuremat rahastust tehisintellekti ohtude teadustööks, et probleemidele paremaid lahendusi välja mõelda.

Loe veel