Intelligenza artificiale ed etica della rigenerazione: Un breve dialogo con Antiqua et Nova


Nel gennaio 2025, il Vaticano ha pubblicato una nota dottrinale tanto audace quanto meditata, *Antiqua et Nova*, con l’intento di orientare la coscienza cattolica nell’epoca dell’intelligenza artificiale. Concepite come un ponte tra l’umanesimo classico e la cultura algoritmica, queste pagine offrono riflessioni sottili sulla dignità, la responsabilità morale e le implicazioni antropologiche della delega decisionale alle macchine. In modo analogo, Papa Leone XIV ha fatto dell’intelligenza artificiale una tematica fondativa del suo giovane pontificato, descrivendola come la “questione sociale” del nostro tempo, in continuità con la questione operaia affrontata da Leone XIII nella *Rerum Novarum*.

Eppure, nonostante l’alto valore di questi contributi, qualcosa di essenziale sembra mancare. Né il documento né le parole del Pontefice affrontano con chiarezza l’urgenza di una formazione virtuosa che sia al contempo personale, socializzata e incarnata in quanto fondamento imprescindibile di ogni discernimento etico, tanto nella tradizione classica quanto in quella cristiana. Si evocano rischi, si enunciano principi generali, si riafferma la centralità della responsabilità umana, ma tutto resta su un piano astratto, come se la coscienza morale si attivasse automaticamente leggendo una nota dottrinale.

La vera domanda non è se l’intelligenza artificiale possa essere usata per il bene, bensì chi la utilizza, e quale formazione interiore lo renda capace di orientarla al bene.

L’errore filosofico più diffuso nel discorso tecnologico, tanto secolare quanto ecclesiale, è quello di attribuire alla macchina una latente intenzionalità morale. *Antiqua et Nova* evita le versioni più ingenue di questo errore, affermando con nettezza che l’IA non possiede agenzia morale, che la responsabilità rimane umana, e che nessun sistema autonomo potrà mai sostituire la coscienza personale. Un chiarimento di primaria importanza.

Manca però un’elaborazione profonda su come si formi questa coscienza: quali virtù risultano oggi necessarie per agire eticamente in un mondo saturo di algoritmi? Quali abitudini, quali discipline interiori e quali legami comunitari sono in grado di fortificare l’animo umano contro le seduzioni della manipolazione, della sorveglianza e della delega intellettuale? Non viene fornita una risposta precisa. Il documento menziona il “bene comune” e lo “sviluppo umano integrale”, ma senza declinarli entro un’antropologia etica strutturata.

La questione etica più stringente oggi non riguarda la presunta “coscienza” della macchina, bensì i pregiudizi e le intenzionalità insite in coloro che la progettano e la utilizzano. Gli algoritmi non sorgono nel vuoto: sono frutto di visioni del mondo, paure, desideri e ideologie. Parimenti, l’uso degli strumenti tecnologici non è mai neutro: è sempre orientato da fini di efficienza, di affermazione di sé, di controllo, oppure di relazione, di conoscenza e di verità.

Limitarsi a invocare trasparenza, inclusività o responsabilità istituzionale è insufficiente. Il vero campo di battaglia è la volontà morale dell’agente umano: userà questo strumento per generare comunione o frammentazione, per promuovere crescita o per alimentare passività?

In questa prospettiva, le categorie tradizionali dell’etica devono essere arricchite. Invece di classificare gli usi dell’IA come leciti o illeciti, si potrebbe proporre una distinzione più profonda: tra usi degenerativi (che corrodono), generativi (che producono) e rigenerativi (che fanno crescere).

Un uso degenerativo erode la dignità umana, appiattisce la complessità, accelera il consumo e sfrutta la vulnerabilità: si pensi, ad esempio, alla pubblicità personalizzata che colpisce le insicurezze adolescenziali: un uso intrinsecamente vizioso. Un uso generativo produce contenuti, interazioni, informazioni, ma non necessariamente in modo eticamente orientato. Un uso rigenerativo, infine, promuove la crescita altrui: condivide intuizioni, suscita collaborazione, e plasma idee capaci di tradursi in fioritura esistenziale e sociale. Il suo orientamento non è l’autopromozione, ma la fecondità condivisa.

Tale rigenerazione, tuttavia, non proviene dallo strumento, bensì dalla virtù di chi lo maneggia. Come un albero che produce frutti anno dopo anno, la rigenerazione richiede un’ecologia morale fatta di radici profonde, suolo fertile e clima propizio. In termini umani: coscienza, tradizione, legami.

In questo, la filosofia confuciana può offrirci un aiuto insospettato. Per essa, l’educazione (*xue*, 學) non mira alla mera trasmissione di nozioni, bensì alla coltivazione della virtù attraverso il rito, la riflessione e le relazioni familiari. Il giusto (*junzi*, 君子) non è colui che inventa la verità, ma colui che la incarna e la trasmette con misura. La tecnologia, in questa visione, è sempre subordinata al *li* (禮), la proprietà rituale, e deve armonizzarsi all’ordine morale dell’universo.

Similmente, l’etica cristiana, soprattutto in chiave tomista, definisce la virtù come *habitus*: disposizione stabile e ordinata al bene. Essa non consiste in regole esteriori, bensì in uno stile di vita da interiorizzare, da esercitare, e da orientare mediante la grazia. Nessun sistema di IA può essere moralmente fecondo se chi lo utilizza non è già formato nella giustizia, nella prudenza e nella carità.

Papa Leone XIV e il documento *Antiqua et Nova* hanno aperto una strada preziosa nella riflessione teologica sull’intelligenza artificiale. Ma è ora necessaria un’integrazione pastorale e pedagogica: un’educazione alla virtù che renda l’uomo capace di rispondere moralmente alle sfide della tecnica.

Non basta dire “siate responsabili”: occorre domandarsi quali forme di vita generino uomini e donne capaci di vera responsabilità.

Solo quando l’etica dell’IA sarà radicata nella formazione morale, nella pratica comunitaria e nella trasmissione rigenerativa della sapienza, la voce della Chiesa potrà risuonare nell’epoca algoritmica come annuncio autentico, non un codice di norme, ma la coltivazione di un’umanità nuova.

Questo lavoro non inizia dalla macchina, ma dall’anima.


Addendum: Elementi apprezzati in *Antiqua et Nova* e nel discorso papale

1. Chiara affermazione che l’IA non è moralmente autonoma, ma strumento subordinato all’intenzionalità dell’uomo.

2. Riconoscimento esplicito del pregiudizio del programmatore come causa morale primaria.

3. Insistenza sul fatto che la responsabilità rimane umana e personale.

4. Richiamo a principi come trasparenza, bene comune e sviluppo integrale.

5. Raffronto efficace con la *Rerum Novarum* di Leone XIII, in chiave attualizzata.

6. Introduzione del concetto di ‘intelligenza relazionale’, radicata nel corpo e nella coscienza.

7. Attenzione ai pericoli legati a sorveglianza, deepfake e disinformazione.

8. Forte preoccupazione per l’effetto dell’IA sui giovani, l’educazione e la libertà interiore.

Riferimenti

• *Antiqua et Nova* (Nota dottrinale sull’IA): https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html

• Discorso di Papa Leone XIV sull’IA (10 maggio 2025): https://www.americamagazine.org/faith/2025/05/15/pope-leo-rerum-novarum-artificial-intelligence-250689



Categories: Attualità cattolica, Magistero, Simon de Cyrène

Tags: , , , , , , , , , , , , , ,

Scopri di più da Croce-Via

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere

Click to listen highlighted text!