La scelta di papa Francesco di dedicare la Giornata mondiale della Pace, il primo gennaio scorso, al rapporto fra intelligenza artificiale e pace è particolarmente importante almeno per tre ragioni.
Primo. Francesco sceglie di affrontare una problema di bruciante attualità e dimostra ancora una volta di voler intervenire sulle questioni più urgenti che l’umanità deve affrontare, convinto che nulla di ciò che è genuinamente umano è estraneo alla sollecitudine della Chiesa. In questo caso, però, la decisione del Papa si inserisce in una linea da tempo ben tracciata nel suo pontificato: l’ambivalenza degli effetti delle tecnologie.
Il tema affiora già nella Laudato si’ (2015), dove egli sostiene che le tecnologie “permettono di migliorare la qualità della vita dell’essere umano”, ma contemporaneamente “danno a coloro che detengono la conoscenza e soprattutto il potere economico per sfruttarla un dominio impressionante sull’insieme del genere umano e del mondo intero”.
La pervasività della tecnologia è dunque per Francesco il tratto più evidente del nostro tempo ed è tanto più preoccupante perché permette una concentrazione del potere senza precedenti: “Mai l’umanità ha avuto tanto potere su sé stessa e niente garantisce che lo utilizzerà bene, soprattutto se si considera il modo in cui se ne sta servendo”.
Secondo. In questo quadro la scelta del tema della Giornata della Pace – “Intelligenza artificiale e pace” – dimostra la volontà di inserirsi “al centro” del dibattito pubblico, nelle questioni che sono più urgenti. I cristiani, per papa Francesco, devono impegnarsi a comprendere i grandi cambiamenti e a offrire criteri si carattere etico e politico per orientare la convivenza alla realizzazione del bene comune: “Non è sufficiente presumere, da parte di chi progetta algoritmi e tecnologie digitali, un impegno ad agire in modo etico e responsabile. Occorre rafforzare o, se necessario, istituire organismi incaricati di esaminare le questioni etiche emergenti e di tutelare i diritti di quanti utilizzano forme di intelligenza artificiale o ne sono influenzati”. A questo livello la strada appare appena agli inizi, se teniamo conto del fatto che allo stato attuale solo l’Europa si è dotata lo scorso anno di un provvedimento legislativo, l’AI Act, che regolamenterà la produzione e l’uso delle diverse forme di intelligenza artificiale. Le preoccupazioni del Papa, a questo livello, sono le stesse dei 106 professori universitari che nella primavera scorsa hanno scritto agli europarlamentari per esortarli “ad adottare e rafforzare la disposizione contenuta nella versione del Parlamento europeo della legge sull’intelligenza artificiale in merito a una valutazione obbligatoria dell’impatto sui diritti fondamentali (FRIA, Fundamental rights impact assessment) per le istituzioni pubbliche e private che utilizzano tecnologie di IA”.
La terza ragione dell’importanza del messaggio è la denuncia dei rischi connessi all’applicazione dell’intelligenza artificiale agli armamenti. “La ricerca sulle tecnologie emergenti nel settore dei cosiddetti ‘sistemi d’arma autonomi letali’, incluso l’utilizzo bellico dell’intelligenza artificiale, è un grave motivo di preoccupazione etica. I sistemi d’arma autonomi non potranno mai essere soggetti moralmente responsabili: l’esclusiva capacità umana di giudizio morale e di decisione etica è più di un complesso insieme di algoritmi, e tale capacità non può essere ridotta alla programmazione di una macchina che, per quanto ‘intelligente’, rimane pur sempre una macchina. Per questo motivo, è imperativo garantire una supervisione umana adeguata, significativa e coerente dei sistemi d’arma”. Il tema è serissimo, poiché modifica radicalmente la struttura delle responsabilità relative ai crimini di guerra stabilite con il diritto internazionale umanitario. La domanda è: andiamo verso forme di guerra in cui si muore di più grazie a nuove tecnologie di cui nessuno è responsabile? Da questa domanda occorre partire per comprendere la posta in gioco, che è la natura della convivenza umana.
Lascia una recensione