Ilustratīvs attēls
Ilustratīvs attēls
Foto: PANTHERMEDIA/ SCANPIX/

Olafs Zvejnieks: Apturiet nākotni! Aicina apturēt mākslīgā intelekta tehnoloģiju attīstību, lai izstrādātu drošības protokolu 44

Olafs Zvejnieks, “Latvijas Avīze”, AS “Latvijas Mediji”

Reklāma
Reklāma
Kokteilis
Šie ēdieni nedrīkst būt uz galda, sagaidot 2025. gadu – Čūskai tie nepatiks! Saraksts ir iespaidīgs 4
“Varēja notikt ļoti liela nelaime…” Mārupes novadā skolēnu autobusa priekšā nogāzies ceļamkrāns 5
Kokteilis
Piecas frāzes, kuras tev nekad nevajadzētu teikt sievietei pāri 50 5
Lasīt citas ziņas

Visai negaidītu vēsti pasaules sabiedrības pagājušajā nedēļā nosūtīja apmēram 1000 dažādu ekspertu un investoru, aicinot vismaz uz pusgadu apturēt mākslīgā intelekta tehnoloģiju attīstību, lai šajā laikā izstrādātu drošības protokolus, mākslīgā intelekta pārvaldības sistēmas un koncentrētos uz pētījumiem, lai māk­slīgā intelekta sistēmas būtu precīzākas, drošākas, “uzticamākas un lojālākas”.

Starp vēstules parakstītājiem ir tādi vārdi kā “Tesla” dibinātājs un “Twitter” īpašnieks Īlons Masks, “Apple” līdzdibinātājs Stīvs Voz­ņaks, “Skype” līdzdibinātājs Jāns Tallins, pazīstami mākslīgā intelekta pētnieki un uzņēmumu vadītāji kā Stjuarts Rasels, Jošua Bengio, Garijs Markus un Emads Mostiks, kā arī pazīstamais vēstures grāmatu autors Juvāls Noass Harari un citi.

CITI ŠOBRĪD LASA

“Mākslīgā intelekta sistēmas ar cilvēkam līdzīgu intelektu var radīt lielus riskus sabiedrībai un cilvēcei,” lasāms vēstulē “Apturēt milzīgos mākslīgā intelekta eksperimentus”. “Spēcīgas mākslīgā intelekta sistēmas vajadzētu attīstīt tikai tad, kad būsim pārliecināti, ka to ietekme būs pozitīva un to riski būs pārvaldāmi,” rakstīts vēstulē.

Šķiet, ka pašreizējās vēstules iemesls ir apjausma par iespējām, ko paver mākslīgā intelekta (MI) tehnoloģijas, piemēram, plašu popularitāti strauji iemantojušais “ChatGPT” un ziņojumi, ka šobrīd tiek attīstītas vēl jaudīgākas MI sistēmas, kas drīzumā būs pieejamas lietošanai. Taču jau pašreizējais “ChatGPT”, saskaņā ar ASV investīciju bankas “Goldman Sachs” ziņojumu, varētu apdraudēt ap 300 miljoniem pilnas slodzes darbavietu pasaulē.

“Goldman Sachs” ekonomisti aplēsuši, ka 18% pasaules darba varētu veikt ar mākslīgā intelekta palīdzību, bet automatizācija vairāk ietekmētu attīstītos tirgus, nevis attīstības tirgus. ASV tehnoloģija varētu aizstāt 7% darbavietu. Tiesa gan – analītiķi uzsver, ka lielākajā daļā darbavietu un sektoru mākslīgais intelekts papildinās cilvēka darbu, nevis to pilnībā aizstās, turklāt mākslīgā intelekta ieguldījuma rezultātā pasaules iekšzemes kopprodukts varētu pieaugt par 7% gadā.

Tāpat bankas analītiķi atgādina, ka vēsturiski jaunu tehnoloģiju attīstība ir novedusi pie jaunu profesiju un darbavietu rašanās, darbaspēku izmaksu ietaupījuma, jaunu darbavietu radīšanas un iespējama ražīguma uzplaukuma, kas būtiski var palielināt ekonomikas izaugsmi.

Bažas par riskiem, ko cilvēcei potenciāli spēj radīt mākslīgā intelekta (MI) attīstība, paustas ne reizi vien.

Piemēram, ļoti līdzīgu vēstuli 2015. gadā rakstīja britu fiziķis Stīvens Houkings, jau minētais Īlons Masks, “Google” pētījumu direktors Pīters Norvigs un virkne mākslīgā intelekta ekspertu, aicinot izvērtēt mākslīgā intelekta iespējamās sociālās sekas.

Vēstule atzina lielos potenciālos ieguvumus no mākslīgā intelekta izmantošanas tādus kā iespējamo nabadzības un daudzu slimību iznīdēšanu, taču brīdināja arī par riskiem, ko rada nedrošs un nekontrolējams mākslīgais intelekts – tādiem, kā katastrofas izraisīšana, no kuras cilvēce vairs nespēs atgūties un iznīks. Vēstules parakstītāji akcentēja, ka mākslīgā intelekta attīstība rada gan īstermiņa riskus – tādu kā MI vadītu dronu vai satiksmes līdzekļu pārvietošanās pa ceļiem, gan arī ilgtermiņa riskus – jau minēto kontroles zaudēšanu pār šo tehnoloģiju.

Eksistenciālais risks cilvēcei, kas saistīts ar kontroles zaudēšanu, tiek pamatots apmēram šādi – cilvēku suga šobrīd dominē pār citām sugām tādēļ, ka cilvēku smadzenēm piemīt īpašības, kuras dzīvnieku smadzenēm trūkst.

Ja mākslīgais intelekts aizsteigsies priekšā cilvēcei vispārējā intelekta līmeņa ziņā un kļūs “superintelektuāls”, tad cilvēcei būs grūti to kontrolēt. Rezultātā var izveidoties situācija, kas līdzīga dažu sugu situācijai jau šobrīd – piemēram, kalnu gorillu eksistence ir pilnībā atkarīga no cilvēces labās gribas un vēlmes nodrošināt tiem piemērotus dzīves ap­stākļus (neskartu dabu), līdzīga situācija var izveidoties arī cilvēcei.

Reklāma
Reklāma

Tomēr jāsaka, šis ir gadījums, uz kuru pilnībā attiecināms teiciens “izlietu ūdeni nesasmelsi”. Grūti iedomāties kaut vienu gadījumu, kad cilvēce būtu atteikusies no tādu tehnoloģiju, kas varētu sniegt militāras vai ekonomiskas priekšrocības, izmantošanas tikai uz aizdomu pamata vien.

Piemērus var minēt, sākot ar pāvesta Urbāna II mēģinājumu aizliegt arbaletu izmantošanu karos pret citiem kristiešiem 1096. gadā, ko vēlāk mēģināja atkārtot arī pāvests Inokents II 1139. gadā – abi draudēja ar izslēgšanu no baznīcas un dvēseles mūžīgām mokām elle.

Un beidzot ar atombumbu – nekādi zinātnieku brīdinājumi neatturēja atombumbas radītājus no šā darba pabeigšanas, bet politiķus un militāristus no bumbas izmēģināšanas karā.

Šķiet, ka cilvēce ar riskiem, kurus rada tā vai cita tehnoloģija, tiek galā vienā no trijiem veidiem. Vai nu praksē pierādās, ka bailēm lielas acis, kā tas notika ar arbaletu – izrādījās, ka teorētiskā iespēja dažās stundās apgūt šaušanu ar arbaletu līdz līmenim, kas ļauj zemniekam nogalināt augstdzimušu bruņinieku, sociālo kārtību neapdraud tik ļoti, kā sākumā likās.

Otrs variants – no noteiktām tehnoloģijām atsakās tad, kad pētījumi pierāda to bīstamību un pastāv alternatīvas – tā notika ar azbestu, freoniem un tagad notiek ar tehnoloģijām, kas izmanto ogļūdeņražus. Visbeidzot, trešā iespēja – rodas liela krīze, līdzīga 1962. gada Kubas raķešu krīzei, kas liek visiem saprast, ka stāvam bezdibeņa malā – tad tiek pārskatīti drošības pasākumi un sperti soļi to uzlabošanai.

SAISTĪTIE RAKSTI
LA.LV aicina portāla lietotājus, rakstot komentārus, ievērot pieklājību, nekurināt naidu un iztikt bez rupjībām.