”A avea grijă de glasul și chipul omului”: Mesajul papei Leon XIV pentru a LX-a Zi mondială a comunicațiilor sociale ”A avea grijă de glasul și chipul omului”: Mesajul papei Leon XIV pentru a LX-a Zi mondială a comunicațiilor sociale 

Leon XIV. Mesaj la Ziua comunicațiilor sociale din 2026 [TEXT]

Sala de presă a Sfântului Scaun a publicat astăzi Mesajul papei Leon al XIV-lea pentru a LX-a Zi mondială a comunicațiilor sociale. Mesajul are ca temă ”A avea grijă de glasul și chipul omului” (în italiană: ”Custodire le voci e i volti umani”) și este publicat prin tradiție pe 24 ianuarie, comemorarea liturgică a sfântului Francisc de Sales, ocrotitorul ceresc al comunicatorilor.

Vatican News – 24 ianuarie 2026. Vă oferim aici în traducerea noastră de lucru Mesajul Sfântului Părinte.

MESAJUL SANCTITĂȚII SALE PAPA LEON AL XIV-LEA 
pentru a LX-a Zi mondială a comunicațiilor sociale
”A avea grijă de glasul și chipul omului”

Dragi frați și surori, 
Chipul și vocea sunt trăsături unice, distinctive, ale persoanei; exprimă identitatea ei irepetabilă și sunt elementul constitutiv al oricărei întâlniri. Cei din antichitate știau bine acest lucru. Astfel, pentru a defini ființa umană, grecii din antichitate au folosit cuvântul ”față” (”prósopon”) care, etimologic, indică ceea ce se află înaintea privirii, locul prezenței și al relației. Termenul latin ”persona” (din ”per-sonare”) include, în schimb, sunetul: nu un sunet oarecare, ci vocea inconfundabilă a cuiva.

Chipul și vocea sunt sacre. Acestea ne-au fost date de Dumnezeu care ne-a creat după chipul și asemănarea sa, chemându-ne la viață prin Cuvântul pe care El însuși ni l-a adresat; un Cuvânt care mai întâi a răsunat în decursul secolelor în glasurile profeților și care, la împlinirea timpurilor, s-a făcut trup. Acest Cuvânt, această auto-comunicare a lui Dumnezeu, s-a făcut auzit și văzut de o manieră directă pentru că s-a făcut cunoscut în glasul și pe chipul lui Isus, Fiul lui Dumnezeu (cf. 1In 1,1-3).

Încă din momentul facerii sale, Dumnezeu a vrut ca ființa umană să fie interlocutorul său și, după cum spune sfântul Grigore din Nisa, a întipărit pe chipul său o răsfrângere a iubirii dumnezeiești pentru ca să poată trăi pe deplin propria umanitate prin iubire (Grigore din Nisa, Facerea omului [PG 44,137]: ”Faptul de a fi creat după chipul lui Dumnezeu înseamnă că omului, încă din clipa creării lui, i-a fost întipărită o trăsătură regească. Dumnezeu este iubire și izvorul iubirii: dumnezeiescul Creator a pus și această trăsătură pe chipul nostru pentru ca, prin intermediul iubirii – răsfrângere a iubirii dumnezeiești – ființa umană să recunoască și să arate demnitatea firii sale și asemănarea cu Creatorul său”).

A avea grijă de fețele și de glasurile umane înseamnă, de aceea, a avea grijă de această pecete, de această răsfrângere de neșters a iubirii lui Dumnezeu. Nu suntem o specie compusă din algoritmi biochimici stabiliți dinainte: orice persoană are o vocație de neînlocuit și de neimitat care se derulează în cursul vieții și se arată chiar în comunicarea cu ceilalți.

Tehnologia digitală, dacă renunțăm la păstrarea acestei peceți, riscă să modifice radical unii piloni fundamentali ai civilizației umane, pe care uneori le considerăm scontate. Simulând glasuri și chipuri ale omului, înțelepciune și cunoaștere, conștientizare și responsabilitate, empatie și prietenie, sistemele cunoscute ca Inteligență Artificială (IA) nu doar că interferează cu ecosistemele informaționale, dar invadează și nivelul cel mai profund al comunicării, cel care privește relația dintre oameni.

Provocarea, de aceea, nu este tehnologică, ci antropologică. A avea grijă de glasuri și de chipuri înseamnă, în cele din urmă, a avea grijă de noi înșine. A primi cu curaj, determinare și discernământ șansele oferite de tehnologia digitală și de Inteligența Artificială nu înseamnă a ascunde față de noi înșine punctele critice, opacitățile și riscurile.

Să nu renunțăm la propria gândire 
Există de mult timp multiple evidențe asupra faptului că algoritmii proiectați per a maximaliza implicarea în social-media – profitabilă pentru respectivele platforme – premiază emoții rapide și penalizează, în schimb, expresiile umane care au nevoie mai mult de timp, cum este efortul de înțelegere și de gândire. Închizând grupurile de persoane în bule de consens facil și de indignare facilă, acești algoritmi slăbesc capacitatea de a asculta și de a gândi critic și alimentează polarizarea socială.

La această realitate, s-a adăugat apoi o ingenuă încredințare necritică către Inteligența Artificială, ca ”prietenă” atotcunoscătoare, distribuitoare a oricărei informații, arhivă a oricărei amintiri, ”oracol” al oricărui sfat. Toate acestea pot duce la o uzură mai mare a capacității noastre de a gândi în mod analitic și creativ, de a înțelege semnificațiile, de a deosebi dintre sintaxă și semantică.

Chiar dacă IA poate furniza suport și asistență în gestiunea unor îndatoriri comunicative, a se sustrage de la efortul propriei gândiri, mulțumindu-ne cu o compilare statistică artificială, riscă pe termen lung să erodeze capacitățile noastre cognitive, emotive și comunicative.

În ultimii ani, sistemele de IA preiau din ce în ce mai mult și controlul producției de texte, muzică și video. O mare parte a industriei creative umane riscă în acest fel să fie dezmembrată și înlocuită cu eticheta ”Powered by AI”, transformând persoanele în simpli consumatori pasivi a unor gânduri negândite, a unor produse anonime, fără paternitate, fără iubire. În timp ce capodoperele geniului uman în domeniile muzicii, artei și literaturii sunt reduse la un simplu câmp de antrenament al mașinilor.

Chestiunea care ne interesează, cu toate acestea, nu se referă la ceea poate ori va putea să facă o mașină, ci la ceea ce putem și vom putea face noi, crescând în umanitate și cunoaștere, cu o folosire înțeleaptă a unor instrumente atât de puternice în serviciul nostru. Dintotdeauna omul este ispitit să-și însușească fructul cunoașterii fără osteneala implicării, a căutării și a responsabilității personale. A renunța la procesul creator și a ceda mașinilor propriile funcții mentale și propria imaginație înseamnă, cu toate acestea, a îngropa talanții pe care i-am primit cu scopul de a crește ca persoane în raport cu Dumnezeu și cu ceilalți. Înseamnă a ascunde chipul nostru și a reduce la tăcere glasul nostru.

A fi sau a se preface: simularea relațiilor și a realității 
În timp ce derulăm fluxurile noastre de informare (feed), devine astfel din ce în ce mai greu să înțelegem dacă interacționăm cu alte ființe umane sau cu ”boți” sau cu ”Virtual Influencers”. Intervențiile lipsite de transparență ale acestor agenți automatizați influențează dezbaterile publice și deciziile persoanelor. Cu precădere așa-numiții ”chat-bot” bazați pe marile modele lingvistice (LLM) se dovedesc a fi surprinzător de eficienți în persuasiunea ocultă printr-o continuă optimizare a interacțiunii personalizate. Structura dialogică și adaptivă, mimetică, a acestor modele lingvistice este capabilă să imite simțămintele umane și să simuleze astfel o relație. Această antropomorfizare, care poate să pară chiar distractivă, este în același timp înșelătoare, mai ales pentru persoanele mai vulnerabile. Pentru că chat-boții, făcuți din ce în ce mai ”afectuoși”, pe lângă faptul de a fi mereu prezenți și disponibili, pot deveni arhitecți ascunși ai stărilor noastre emoționale și în acest fel pot invada și ocupa sfera intimității persoanelor.

Tehnologia care exploatează nevoia noastră de relații poate să aibă nu doar urmări dureroase asupra destinului indivizilor, dar poate totodată să lezeze țesutul social, cultural și politic al societății. Aceasta se întâmplă când înlocuim relațiile față de ceilalți cu cele ale IA, instruiți să catalogheze gândurile noastre și, prin urmare, să construiască în jurul lor o lume de oglinzi, unde fiecare lucru este făcut ”după chipul și asemănarea noastră”. În acest fel, permitem să ni se fure șansa de a ne întâlni cu celălalt, care este întotdeauna diferit de noi, și cu care putem și trebuie să învățăm cum să ne raportăm. Fără primirea alterității nu poate să existe nici relația, nici prietenia.

O altă mare provocare pe care aceste sisteme emergente o prezintă este distorsiunea (în engleză, ”bias”), care duce la achiziționarea și percepția alterată a realității. Modelele de IA sunt plăsmuite de viziunea asupra lumii a celui care le construiește și, la rândul lor, pot impune forme de gândire copiind stereotipurile și prejudecățile prezente în datele din care se alimentează. Lipsa de transparență în proiectarea algoritmilor, împreună cu inadecvata reprezentare socială a datelor, tind să ne facă să rămânem blocați în rețele care manipulează gândurile noastre și perpetuează și aprofundează inegalitățile și injustițiile sociale existente.

Riscul este mare. Puterea simulării este de așa natură încât IA ne poate amăgi, de asemenea, prin fabricarea unor ”realități” paralele, însușindu-și chipurile și glasurile noastre. Suntem cufundați într-o multidimensionalitate, unde devine din ce în ce mai greu să facem deosebirea dintre realitate și ficțiune.

La acestea, se adaugă lipsa de acuratețe. Sisteme care afișează o probabilitate statistică pentru cunoaștere, în realitate, ne oferă cel mult apropieri de adevăr, care uneori sunt autentice ”halucinații”. Lipsa de verificare a surselor, împreună cu criza jurnalismului de pe teren, care presupune o muncă neîntreruptă de colectare și verificare a informațiilor derulată acolo unde lucrurile se întâmplă, poate să favorizeze un teren chiar mai fertil pentru dezinformare, provocând un sentiment crescând de neîncredere, rătăcire și nesiguranță.

O posibilă alianță 
În spatele acestei forțe enorme și invizibile, care ne cuprinde pe toți, se află doar o mână de întreprinderi, ai căror fondatori au fost recent prezenți drept creatorii așa-anumitei ”Persoane a anului” din 2025, altfel spus, arhitecții IA. Aceasta generează o îngrijorare importantă cu privire la controlul oligopolistic a sistemelor algoritmice și IA capabil să orienteze de o manieră subtilă comportamentele, și chiar să rescrie istoria omenirii – inclusiv istoria Bisericii – deseori fără a ne da seama cu adevărat.

Provocarea care ne așteaptă nu constă în a opri inovația digitală, ci în a o călăuzi, în a fi conștienți de caracterul ei ambivalent. Depinde de fiecare dintre noi să-și facă auzită vocea în apărarea persoanelor, pentru ca aceste instrumente să fie integrate de noi cu adevărat ca aliați.

Această alianță este posibilă, dar trebuie să se bazeze pe trei piloni: responsabilitate, cooperare și educație.

Mai întâi de toate, responsabilitatea. Aceasta poate fi declinată în raport cu roluri precum onestitatea, transparența, curajul, capacitatea de viziune, datoria de a împărtăși cunoașterea, dreptul de a fi informați. Dar, în general, nimeni nu poate să se sustragă din fața propriei responsabilități cu privire la viitorul pe care îl construim.

Pentru cine se află la conducerea platformelor online, aceasta înseamnă să se asigure că propriile strategii antreprenoriale nu sunt ghidate exclusiv de maximizarea profitului, dar și de o viziune clarvăzătoare care să țină cont de binele comun, în același fel în care fiecare dintre ei ține la binele fiilor săi.

Creatorilor și dezvoltatorilor modelelor de Inteligență Artificială li se cere transparență și responsabilitate socială în ceea ce privește principiile de proiectare și sistemele de moderare care stau la baza algoritmilor și a modelelor dezvoltate în așa fel încât să favorizeze un consens informat din partea utilizatorilor.

Aceeași responsabilitate este cerută și din partea legislatorilor naționali și a celor care decid reglementarea supranațională, cărora le revine să vegheze respectarea demnității umane. O reglementare adecvată poată să tuteleze persoanele de o legătură emotivă cu ”chat-boții” și să limiteze difuzarea unor conținuturi false, manipulatoare ori derutante, păstrând integritatea informațiilor în fața simulărilor înșelătoare.

Trusturile media și de comunicații, la rândul lor, nu pot permite ca algoritmii orientați să câștige cu orice preț bătălia pentru o mână de secunde de atenție în plus să predomine asupra fidelității față de valorile lor profesionale, menite să caute adevărul. Încrederea publicului se câștigă prin acuratețe, transparență, nu prin cursa care urmărește o implicare de tot felul. Conținuturile generate ori manipulate de IA trebuie semnalați și deosebiți de o manieră clară de conținuturile create de către oameni. Trebuie tutelată paternitatea și proprietatea suverană a activității jurnaliștilor și a altor creatori de conținut. Informația este un bun public. Un serviciu public constructiv și semnificativ nu se bazează pe opacitate, ci pe transparența surselor, pe incluziunea celor implicați și pe un standard elevat de calitate.

Toți suntem chemați să cooperăm. Niciun sector nu poate aborda singur provocarea de a gestiona inovația digitală și de a guverna IA. Prin urmare, este necesar să se creeze mecanisme de protecție. Toate părțile interesate – de la industria tehnologică la legislatori, de la companii creative la mediul academic, de la artiști la jurnaliști și educatori – trebuie să se implice în construirea și implementarea unei cetățenii digitale informate și responsabile.

Aceasta este ceea ce urmărește educația: la a extinde capacitățile noastre personale de a gândi critic, de a evalua credibilitatea surselor și posibilele interese care stau în spatele selecției informațiilor care ajung la noi, de a înțelege mecanismele psihologice pe care le activează, de a permite familiilor, comunităților și asociațiilor noastre să elaboreze criterii practice pentru o cultură a comunicării mai sănătoasă și responsabilă.

Tocmai de aceea este tot mai urgent a introduce în sistemele de învățământ de la toate nivelurile și alfabetizarea cu privire la media, la informare și la Inteligența Artificială, pe care unele instituții civile deja le promovează. Ca și catolici, putem și trebuie să oferim contribuția noastră, pentru ca persoanele – mai ales tinerii – să dobândească capacitatea unei gândiri critice și să crească în libertatea spiritului. Această alfabetizare ar trebui, totodată, să fie integrată în inițiative mai ample de educație permanentă, ajungând și la cei în vârstă și la membrii marginalizați ai societății, care deseori se simt excluși și neputincioși în fața rapidelor schimbări tehnologice.

Alfabetizarea cu privire la media, la informare și la IA îi va ajuta pe toți să nu se conformeze la deriva antropomorfizatoare a acestor sisteme, ci să le trateze ca instrumente, să recurgă întotdeauna la o validare externă a surselor – care ar putea să fie imprecise ori eronate – furnizate de sistemele de IA, să protejeze propria privacy și propriile date cunoscând parametrii de siguranță și opțiunile de contestare. Este important a educa și a se educa cu privire la o folosire intențională a IA și, în acest context, a proteja propria imagine (foto și audio), propriul chip și propria voce pentru a evita ca acestea să fie utilizate în crearea de conținuturi și comportamente dăunătoare precum fraude digitale, cyberbullying, deep-fake care încalcă așa-numita privacy și intimitatea persoanelor fără consimțământul lor. După cum revoluția industrială avea nevoie de alfabetizarea de bază pentru a permite persoanelor să reacționeze la noutate, tot la fel și revoluția digitală cere o alfabetizare digitală (împreună cu o formare umanistă și culturală) pentru a înțelege felul în care algoritmii modelează percepția noastră asupra realității, cum funcționează prejudecățile IA, care sunt mecanismele care stabilesc apariția anumitor conținuturi în fluxurile noastre de informare (feed), care sunt și cum se pot schimba premisele și modelele economice din economia IA.

Avem nevoie ca chipul și glasul să exprime din nou persoana. Avem nevoie să păstrăm darul comunicării ca pe cel mai adânc adevăr al omului, către care să orientăm orice inovație tehnologică.

Odată cu propunerea acestor reflecții, mulțumesc celor care lucrează pentru finalitățile prospectate în acest domeniu și îi binecuvântez din inimă pe toți cei care lucrează pentru binele comun cu ajutorul mijloacelor de comunicare.

Din Vatican, 24 ianuarie 2026 
Comemorarea sfântului Francisc de Sales 
Leon pp. XIV

24 ianuarie 2026, 11:54