MI MI  

Vatikānā norisinās seminārs par mākslīgā intelekta pārvaldību

Svētais Krēsls, kuram nav ne militāru, ne komerciālu mērķu, varētu spēlēt galveno lomu globālas mākslīgā intelekta pārvaldības veicināšanā. Šis ir viens no priekšlikumiem, kas tika apspriests Vatikāna Ekonomikas sekretariāta un Svētā Krēsla Nodarbinātības biroja (ULSA) organizētā seminārā par mākslīgā intelekta potenciālu un ar to saistītiem izaicinājumiem.

Silvija Krivteža - Vatikāns

Seminārā piedalās Kultūras un izglītības dikastērija sekretārs arhibīskaps Pols Taigs. Katoļu Baznīcai ir "morāla autoritāte" un spēja pulcēt kompetentus sarunu biedrus, kļūstot par svarīgu partneri MI attīstības vadīšanā, - atzīmēja Īrijas arhibīskaps. Viņš norādīja uz nepieciešamību veicināt sadarbību jauno tehnoloģiju pārvaldībā, stiprinot dialogu un veidojot katoļu universitāšu tīklu. Rezumējot 2022. gadā palaistā ChatGPT sekas – viens no populārākajiem tērzēšanas robotiem, ko izstrādājusi amerikāņu kompānija OpenAI, arhibīskaps Taigs izmantoja akronīmu VUCA: Volatility (svārstīgums), Uncertainty (nenoteiktība), Complexity (sarežgītums) un Ambiguity (neviennozīmība).

Nepakļaujoties apokaliptiskajai retorikai, draudi ir reāli: "bioloģiskie ieroči, propaganda, dezinformācija, sistēmas ārpus cilvēka kontroles," viņš norādīja. Pārredzamība un saprotamība ir atslēgvārdi, lai cīnītos pret tehnokrātisko paradigmu. Tāpēc mākslīgā intelekta attīstība nenotiek neitrālā telpā, uzsvēra Īrijas bīskaps. Starptautisku regulējumu trūkuma dēļ "lielvalstis tiecas pēc tehnoloģiskā pārākuma, īpaši militārajā jomā", savukārt "apziņa par iespējamu finanšu burbuli mudina uzņemties risku uz drošības rēķina".

Šajā kontekstā arhibīskaps Taigs minēja nesenos notikumus un Anthropic – amerikāņu uzņēmuma, kas dibināts, lai izstrādātu ētiskāku mākslīgo intelektu – gadījumu, kas, kā ziņots, saskārās ar spiedienu atvieglot savas ētiskās saistības militārajās un novērošanas lietojumprogrammās.

Mākslīgā intelekta modeļi ir izstrādāti tā, lai pielāgotos lietotājam – bieži vien to dara tie paši uzņēmumi, kas kontrolē sociālos medijus – līdz brīdim, kad tie "glaimo" lietotājam un rada tā sauktās "halucinācijas", kas nozīmē sniegt "gaidītas, bet ne obligāti precīzas atbildes".

Viņš arī uzsvēra risku, ka mākslīgajam intelektam var tikt uzticēti cilvēkam raksturīgi kognitīvi uzdevumi, it īpaši no to puses, kas nespēj kritiski izvērtēt rezultātus un uzdot pareizos jautājumus. Šīs sekas neaprobežojas tikai ar darba vai akadēmisko sfēru, bet ietekmē arī personīgo dzīvi, attiecības un garīgumu.

Saskaroties ar šīm sarežģītībām, arhibīskaps atsaucās uz dokumentu Antiqua et Nova, norādot uz "sirds gudrību, kas spēj integrēt veselumu un daļas", kā to, kas cilvēcei mūsdienās visvairāk nepieciešams: intelektu, kas, ņemot vērā pieejamo rīku spēku, jautā par to kalpošanu, mērķiem un sekām.

Priesteris Paolo Benanti, Pontifikālās Gregora universitātes vieslektors, norādīja uz spēku līdzsvaru mākslīgā intelekta izmantošanā. Tas atspoguļojas, piemēram, informācijas pasaulē: raksta redzamība vairs nav obligāti atkarīga no tā kvalitātes, bet gan arvien vairāk no pozīcijas, ko tam piešķir algoritms tīmekļa vietnēs. Kā uzsvēra lektors, tas ir "varas starpniecības" veids.

Mākslīgā intelekta izmantošanas priekšrocība, atzīmēja priesteris Benanti, ir "berzes" novēršana. Šī ir metafora ar daudziem praktiskiem pielietojumiem. Piemēram, iepazīšanās lietotne novērš "berzi" – pūles, kas saistītas ar savas dzīves mīlestības atrašanu. "Taču, tā rīkojoties, cilvēks atsakās no daļas savas varas," un sniegtā informācija kļūst par "kontroles instrumentu".

Sanāksmes noslēgumā Komunikācijas dikastērija Programmu direktora vietnieks Alesandro Džisoti atsaucās uz pāvesta Leona XIV vēstījumu 60. Pasaules komunikācijas dienai un nepieciešamību attīstīt "mediju, informācijas un mākslīgā intelekta izglītību". Viņš arī uzsvēra, ka mākslīgais intelekts vienmēr jāuzskata par cilvēka darbības "atbalstu", un tā rezultāti ir pastāvīgi kritiski jāpārskata.

Seminārs par mākslīgā intelekta pārvaldību
Seminārs par mākslīgā intelekta pārvaldību
03 marts 2026, 11:05