Vai mākslīgais intelekts nākotnē iznīcinās pasauli? 28
Dace Bumbiere, “Planētas Noslēpumi”, AS “Latvijas Mediji”
Labi zināms, ka ideju par iespējamo cilvēces iznīcināšanu mākslīgā intelekta (MI) izpildījumā pētnieki un filozofi apspriež jau vairākas desmitgades, vienlaikus cenšoties saprast: vai vispār būs iespējams kaut kādā mērā vadīt un pārvaldīt augstākā līmeņa datorizētu superintelektu?
Jaunākās atziņas pauž, ka šeit problēmu rada tas, ka nolūkā kontrolēt superintelektu, kas atrodas kaut kur ļoti tālu aiz cilvēka sapratnes spēju robežas, vispirms nepieciešams uzmodelēt šo superintelektu, padarot to tādu, lai varētu to analizēt un arī kontrolēt. Vārdu sakot, te tad arī slēpjas problēma: ja cilvēki nemaz nav spējīgi ar savu prātu to aptvert, tad viņi nemaz nav spējīgi radīt tādu simulāciju.
Atzīts, ka nav iespējams izveidot tādu likumu, kā “nekaitēt cilvēkam”, ja cilvēki paši nemaz neapjēdz, kādus scenārijus vispār tāds MI var piedāvāt. Tiklīdz attiecīgā datorsistēma sāk darboties līmenī, kas pārsniedz programmētāju cilvēku līmeni, vairs nav iespējams nekam noteikt nekādus ierobežojumus.
Superintelekts vispār ir pilnībā cita problēma, ja salīdzina ar tiem intelekta veidiem, kurus parasti pētī “robotizētās ētikas” ietvaros. Tas esot saistīts ar to, ka superintelekts ir daudzšķautņains un līdz ar to potenciāli spējīgs mobilizēt visdažādākos resursus tādu mērķu sasniegšanai, kas potenciāli nav sasniedzami cilvēkam, nerunājot nemaz par to, ka kaut ko tādu varētu arī kontrolēt.
Var arī piebilst, ka daļa šīs pētnieku komandas apsvērumu balstīta jau 1936. gadā Alana Tīringa noformulētajā apstāšanās problēmā. Proti, jautājums ir par to, vai attiecīgā programma jeb algoritms kaut kad apstāsies vai arī ne. Apstāšanās nozīmē to, ka noteiktā momentā pieņems MI un apstāsies vai arī noraidīs to un apstāsies, pēc kā vairs nekad nepāries bezgalīgā ciklā. Būtībā šeit ar apstāšanos jāsaprot darbības apturēšana.
Tīrings savulaik ar virkni sarežģītu matemātisko skaitļojumu palīdzību jau pierādījis, ka to var zināt saistībā ar atsevišķām konkrētām programmām, tomēr loģiski nav iespējams atrast veidu, kad dotu iespēju to zināt katrai potenciālajai programmai, kādu kaut kad kaut kas vispār varētu izveidot. Un tas cilvēkus atgriež atpakaļ pie MI, kas savā superintelekta stāvoklī, iespējams, spēs savā atmiņā uzglabāt vienlaikus visas iespējamās datorprogrammas.
Ikviena programma, kas uzrakstīta, piemēram, nolūkā atturēt MI no kaitējuma nodarīšanas cilvēkiem un pasaules iznīcināšanas, var novest pie konkrēta rezultāta un vai nu apstāties, vai arī neapstāties – matemātiski neesot iespējams būt pilnā pārliecībā nevienā gadījumā, un tas savukārt nozīmē to, ka tā būtībā nevar būt savaldāma un iegrožojama.
Pētnieki pauduši, ka par MI apmācīšanu kaut kādai ētikai un aizliegumam iznīcināt pasauli neviens algoritms nevar būt pilnībā pārliecināts, tāpēc superintelekta iespēju ierobežošana praktiski ir vienīgā šīs apmācības alternatīva. Atzīts, ka šis konkrētais pētījums noraidījis akurāt tieši šo pēdējo ideju, jo pieņemts, ka tas lielā mērā būtiski iegrožos MI izmantošanas sfēru. Proti, arguments ir šāds: ja cilvēks negrasās MI izmantot tādu uzdevumu risināšanai, kas iziet ārpus cilvēka iespēju robežām, tad kāpēc tāds vispār būtu jārada?
Un jāielāgo arī tas – ja cilvēki tomēr vēlēsies attīstīt MI (un viņi to vēlēsies, katrā ziņā!), viņi paši var pat vispār nemaz neuzzināt, vai superintelekts vispār ir uzradies vai nav, jo tas jau pašā pamatā ir cilvēkam tik nesasniedzams un absolūti nepakļaujams jebkādai kontrolei. Un tas patiešām ir būtisks, absolūti fundamentāls aspekts.